人工智能不应该是一个黑匣子 - FT中文网
登录×
电子邮件/用户名
密码
记住我
请输入邮箱和密码进行绑定操作:
请输入手机号码,通过短信验证(目前仅支持中国大陆地区的手机号):
请您阅读我们的用户注册协议隐私权保护政策,点击下方按钮即视为您接受。
为了第一时间为您呈现此信息,中文内容为AI翻译,仅供参考。
FT商学院

人工智能不应该是一个黑匣子

围绕OpenAI的争议事件凸显了公司变得更加透明的必要性。
OpenAI首席执行官萨姆•奥尔特曼(Sam Altman)。研究人员曾经发表过关于他们工作的论文,但由于急于抢占市场份额,这种披露已经终止

AI的支持者和反对者普遍认为,这项技术将改变世界。OpenAI的萨姆•奥尔特曼等人预见到人类将会繁荣发展的未来;批评者则预言社会将面临混乱和过度的企业权力。哪种预测会成为现实,在一定程度上取决于今天所奠定的基础。然而,OpenAI最近的争议,包括其联合创始人和首席科学家的离职,表明关键的AI参与者已经变得对社会过于不透明,无法为其设定正确的方向。

斯坦福大学(Stanford University)开发的一个指数发现,AI领军企业谷歌(Google)、亚马逊(Amazon)、Meta和OpenAI在透明度方面存在不足。尽管AI是通过跨平台的研究人员和专家的合作而出现的,但自从OpenAI的ChatGPT引领了商业AI的繁荣以来,这些公司就闭口不谈了。鉴于AI的潜在危险,这些公司需要回归到更加开放的过去。

AI的透明度主要涉及两个方面:输入和模型。大型语言模型,如OpenAI的ChatGPT或谷歌的双子座(Gemini),通过在互联网上搜索并分析从Reddit论坛到毕加索绘画作品等“数据集”来进行训练。在AI的早期阶段,研究人员通常会在科学期刊上披露他们的训练数据,以便他人通过评估输入的质量来诊断缺陷。

如今,关键参与者倾向于保留其数据的细节,以防止侵犯版权的诉讼并获得竞争优势。这使得评估由人工智能生成的回应的真实性变得困难。同时,这也让作家、演员和其他创作者无法了解自己的隐私或知识产权是否被有意侵犯。

这些模型本身也缺乏透明度。一个模型如何解释其输入并生成语言取决于其设计。人工智能公司往往将其模型的架构视为其“秘密武器”:OpenAI的GPT-4或Meta的Llama的巧妙之处在于其计算的质量。人工智能研究人员曾经发布有关其设计的论文,但是为了争夺市场份额,这种披露已经结束。然而,如果不了解模型的功能如何,很难评估人工智能的输出、限制和偏见。

所有这些不透明性使得公众和监管机构难以评估人工智能的安全性并防范潜在的危害。这更加令人担忧的是,扬•雷克(Jan Leike)在本月离开公司后声称,OpenAI的领导层将“闪亮的产品”置于安全性之上,他曾协助领导OpenAI的超强人工智能工具的发展。公司坚称可以自行监管其产品,但其新的安全委员会将向同样的领导层汇报。

去年在布莱切利公园(Bletchley Park)举行的一次会议、乔•拜登(Joe Biden)总统的人工智能行政命令以及欧盟的人工智能法案(AI Act),为人工智能监管奠定了基础。尽管这些措施受到欢迎,但它们更注重设置“安全防护措施”而非全面透明。事实上,大多数人工智能专家都在公司内部工作,而技术的发展速度对于定期的安全测试来说过快。监管机构应呼吁模型和输入的透明度,并且这些公司的专家需要与监管机构合作。

人工智能有潜力改变世界,甚至可能比互联网革命更具影响力和速度。公司可能会主张透明度要求会减缓创新并削弱他们的竞争优势,但人工智能的最近历史表明情况并非如此。这些技术是在合作和共享研究的基础上取得进展的。回归这些规范只会增加公众的信任,并允许更快速但更安全的创新。

版权声明:本文版权归FT中文网所有,未经允许任何单位或个人不得转载,复制或以任何其他方式使用本文全部或部分,侵权必究。

特朗普任命强硬的“深层国家”批评者卡什•帕特尔为新任美国联邦调查局局长

忠诚派将接替克里斯托弗•雷,负责该机构的工作,该机构曾受到前总统的强烈批评。

在马斯克攻击英国的时候,英国的前首相们却在向他示好

一位伦敦的风投大佬为鲍里斯•约翰逊和马斯克牵线搭桥,托尼•布莱尔称其为“非凡的创新者”。

巴黎圣母院如何从灰烬中涅槃重生

在一场几乎吞噬大教堂的毁灭性大火五年后,一支工匠大军让它重获新生。

叙利亚叛军的推进打破了战争的脆弱僵局

伊斯兰主义组织沙姆解放组织从其在伊德利卜的据点对阿勒颇发动了闪电突袭。

格鲁吉亚抗议者因欧盟谈判冻结连续第三晚走上街头

前两晚暴力冲突后数百人被拘留,公众愤怒情绪高涨。

阿达尼在面临美国指控时称“每一次攻击都让我们更强大”

印度亿万富翁在被联邦检察官起诉后的首次表态。
设置字号×
最小
较小
默认
较大
最大
分享×