火鹰视角

关注互联网,关注技术开发,透析与分享移动互联网行业最新动态
当前位置: 网站首页 > > 未来科技黑暗面?AI创始人声援:别盲目推广开源大型语言模型!

未来科技黑暗面?AI创始人声援:别盲目推广开源大型语言模型!

时间:时间: 2023-06-06 14:29:30   阅读: 分类:APP开发
近期,全球各大AI实验室不断推出多个令人惊叹的大型语言模型。
近期,全球各大AI实验室不断推出多个令人惊叹的大型语言模型。无论是OpenAI的GPT-4还是谷歌的PaLM,这些技术都为ChatGPT等生成式AI系统的快速发展提供了强有力的支持。在短短几秒钟内,ChatGPT等AI系统就能够自动生成丰富详细的文本和图像,这一技术革命对于许多行业而言来说堪称震撼。但是,AI模型的封闭性以及高昂的开发成本也使得用户采用这些系统面临着巨大挑战。

为此,越来越多的人开始认为,开源大型语言模型可以成为更具成本效益的替代方案,特别是对于那些希望利用AI实现业务增长并使用ChatGPT等工具的中小企业来说,这一方案更是如虎添翼。

然而,Hinton教授却表达了对于不断发展扩大的大型语言模型所带来的问题与担忧。最近他辞去了谷歌的职位,并在剑桥大学生存风险研究中心发表了深入的演讲。他指出:“开源大型语言模型的危险在于,它使得更多的疯子可以利用AI实现他们所想要的目标。”这对于整个社会来说,都是一种巨大的挑战。


Hinton教授提出了一个有趣的想法:把大型语言模型“关进笼子”,可能是更有益的。他认为,让这些AI技术继续局限在像OpenAI等公司的实验室内开发,最终可能会证明对我们至关重要。

他指出:“如果这些AI技术是危险的,那么最好由几个不同国家的几家大公司来开发,同时找到控制它的方法。一旦开源了代码,有些人就会开始用它做各种疯狂的事情。” Hinton强调,“这些AI系统将变得比我们更聪明,而这一时刻可能很快就会到来。如果超级智能AI能够在未来5到20年内实现,我们不能让哲学家来决定该怎么做,而是需要有实践经验的人员来说决定。”

他补充道:“我认为最好的办法是,AI开发商必须在开发AI模型时投入大量人力和资源来检查它们的安全性。我们需要获得这些方面的经验,了解它们可能会如何失控,以及如何控制它们。”

Hinton曾供职于谷歌旗下的DeepMind AI实验室,该实验室日前表示已经开发出了一个早期预警系统,可以发现AI带来的潜在风险。这些进步展示了我们不仅可以控制AI技术的发展,而且也可以在其成为威胁之前就能够意识到其中的潜在风险。


Hinton教授提出了一个引人入胜的想法:将大型语言模型“关进笼子”或许是更有益的。他认为,让这些AI技术继续局限在OpenAI等公司的实验室内开发,可能最终证明对我们至关重要。

他强调:“如果这些AI技术是危险的,那么最好由几个不同国家的大型企业来分别进行开发,并同时找到控制方法。一旦代码被公开,就会有某些人开始利用它们完成各种疯狂的事情。” Hinton认为,“这些AI系统将变得比我们更聪明,而这一时刻也许很快就会到来。如果超级智能AI能够在未来5到20年内实现,我们不能让哲学家来决定该怎么做,而是需要有实践经验的人员来做决策。”

他补充道:“我认为最好的办法是,在开发大型语言模型时,AI开发商必须投入大量人力和资源来检查它们的安全性。我们需要获得这方面的经验,以了解它们可能如何失控,及如何控制它们。”

Hinton曾供职于谷歌旗下的DeepMind AI实验室,该实验室近日表示已经开发出了一个早期预警系统,可以发现AI带来的潜在风险。这些进展表明,我们不仅可以控制AI技术的发展,而且也能够在其成为威胁之前就意识到其中的潜在风险。

火鹰科技-移动应用开发/app开发/小程序开发
客服咨询
立即报价
热线电话
扫描二维码
返回顶部