B体育神译局是36氪旗下编译团队,关注科技、商业、职场、生活等领域,重点介绍国外的新技术、新观点、新风向。
编者按:一项新的分析表明,像 Llama 2 (二号羊驼)这样的 开源 人工智能工具在很多方面仍然受到大型科技公司的控制。打着“开源”旗号的AI模型,可能会有一些陷阱。本文来自翻译。
CHATGPT是当下爆火的一款人工职能语言工具,只需要输入相关提示就能帮助人们实现各种想要的功能B体育,任何人都可以利用它快速获取信息和解决问题,但这个世界闻名的聊天机器人的内部工作原理仍然是一个未解之谜B体育。
然而,近几个月来,让人工智能更加“开放”的相关努力似乎获得了更多动力。今年5月,有人泄露了Meta公司的一个名为Llama(羊驼)的模型B体育,该模型允许外部人员访问其底层代码以及决定其行为的模型权重等。然后,今年7月,Meta又推出了功能更强大的模型,称为Llama 2,声称任何人都可以下载,修改和重复使用。Meta的Llama 系列模型已经成为许多公司、研究人员和人工智能业余爱好者构建具有类似chatgpt功能的工具和应用程序的基础。
“我们在世界各地拥有广泛的支持者,他们相信我们对当今人工智能的开放方法......研究人员致力于使用该模型进行研究,而科技界、学术界和政策部门的人们也和我们一样,看到了 Llama 和开放平台的好处,”Meta 在发布 Llama 2 时说。今天上午,Meta 发布了另一个模型——Llama 2 Code,该模型针对编码进行了微调。
数十年来,开源方法使软件的获取变得更加民主、确保了透明度并提高了软件的安全性,现在似乎也被认为可以对人工智能产生类似的影响。
但这远远还不够,来自卡内基梅隆大学(Carnegie Mellon University)、AI Now 研究所(AI Now Institute)和 Signal 基金会(Signal Foundation)的研究团队,在其发表的一篇研究论文,探讨了 “Llama 2” 和其他以某种方式被称为“开放”的人工智能模型的现实情况。他们表示,打着“开源”旗号的模型可能会带来一些限制。
据论文描述,Llama 2 可以免费下载B体育、修改和部署,但它不在传统的开源许可范围内。Meta 的许可证禁止使用 Llama 2 训练其他语言模型,如果开发者将 Llama 2 部署到每日用户超过 7 亿的应用程序或服务中,则需要特殊许可证。
这种程度的控制意味着 Llama 2 可以为 Meta 带来重大的技术和战略利益。例如,当该公司在自己的应用程序中使用该模型时,Meta可以从外部开发者所做的有益调整中获益。
研究人员说,在普通开源许可下发布的模型,如非营利组织 EleutherAI 的 GPT Neo,则开放程度更高。但这类项目很难与大型公司推出的模型竞争。
首先,训练高级模型所需的数据往往是保密的。其次,构建此类模型所需的软件框架通常由大公司控制。最流行的两个软件框架 TensorFlow 和 Pytorch 分别由谷歌和 Meta 维护。第三,训练大型模型所需的计算机能力也非一般开发人员或公司所能企及,通常一次训练需要数千万或数亿美元。最后,完善和改进这些模型所需的人力也大多是资金雄厚的大公司才能获得的资源。
从目前的趋势来看,数十年来最重要的技术之一最终可能只会丰富和增强少数几家公司的能力,其中包括 OpenAI、微软、Meta 和谷歌。如果人工智能真的是一项能改变世界的技术,那么如果它能得到更广泛的应用和普及,就能带来最大的好处。
“我们的分析表明,开放性不仅不能使人工智能‘民主化’,”Signal 公司总裁、本文的研究者之一梅雷迪斯·惠特克(Meredith Whittaker)告诉我。“事实上,我们表明,公司和机构可以而且已经利用开放技术来巩固和扩大权力集中。”
惠特克补充说,“我们确实亟需有意义的替代技术,以取代由大型垄断企业定义和主导的技术——尤其是当人工智能系统被整合到许多具有特殊公共影响的高度敏感领域,比如医疗保健、金融、教育和工作场所时。”她说:“创造条件使这种替代成为可能,是一个可以与反垄断改革等监管运动共存甚至得到其支持的项目。”
除了制衡大公司的权力之外,让人工智能更加开放对于释放该技术的最佳潜力B体育,同时避免其最坏的倾向可能至关重要。
如果我们想了解最先进的人工智能模型有多大能力,并降低部署和进一步发展可能带来的风险,那么最好向全世界的科学家开放这些模型。
正如“隐晦式安全”(security through obscurity)永远无法真正保证代码的安全运行一样,对强大的人工智能模型的工作原理加以保护也未必是最明智的做法。
近年来,机器人产业的热度一直居高不下,“机器人+”更是成为了各方关注的重点。