未来科技黑暗面?AI创始人声援:别盲目推广开源大型语言模型!
时间:时间: 2023-06-06 14:29:30 阅读: 次 分类:APP开发然而,Hinton教授却表达了对于不断发展扩大的大型语言模型所带来的问题与担忧。最近他辞去了谷歌的职位,并在剑桥大学生存风险研究中心发表了深入的演讲。他指出:“开源大型语言模型的危险在于,它使得更多的疯子可以利用AI实现他们所想要的目标。”这对于整个社会来说,都是一种巨大的挑战。
Hinton教授提出了一个有趣的想法:把大型语言模型“关进笼子”,可能是更有益的。他认为,让这些AI技术继续局限在像OpenAI等公司的实验室内开发,最终可能会证明对我们至关重要。
他指出:“如果这些AI技术是危险的,那么最好由几个不同国家的几家大公司来开发,同时找到控制它的方法。一旦开源了代码,有些人就会开始用它做各种疯狂的事情。” Hinton强调,“这些AI系统将变得比我们更聪明,而这一时刻可能很快就会到来。如果超级智能AI能够在未来5到20年内实现,我们不能让哲学家来决定该怎么做,而是需要有实践经验的人员来说决定。”
他补充道:“我认为最好的办法是,AI开发商必须在开发AI模型时投入大量人力和资源来检查它们的安全性。我们需要获得这些方面的经验,了解它们可能会如何失控,以及如何控制它们。”
Hinton曾供职于谷歌旗下的DeepMind AI实验室,该实验室日前表示已经开发出了一个早期预警系统,可以发现AI带来的潜在风险。这些进步展示了我们不仅可以控制AI技术的发展,而且也可以在其成为威胁之前就能够意识到其中的潜在风险。
Hinton教授提出了一个引人入胜的想法:将大型语言模型“关进笼子”或许是更有益的。他认为,让这些AI技术继续局限在OpenAI等公司的实验室内开发,可能最终证明对我们至关重要。
他强调:“如果这些AI技术是危险的,那么最好由几个不同国家的大型企业来分别进行开发,并同时找到控制方法。一旦代码被公开,就会有某些人开始利用它们完成各种疯狂的事情。” Hinton认为,“这些AI系统将变得比我们更聪明,而这一时刻也许很快就会到来。如果超级智能AI能够在未来5到20年内实现,我们不能让哲学家来决定该怎么做,而是需要有实践经验的人员来做决策。”
他补充道:“我认为最好的办法是,在开发大型语言模型时,AI开发商必须投入大量人力和资源来检查它们的安全性。我们需要获得这方面的经验,以了解它们可能如何失控,及如何控制它们。”
Hinton曾供职于谷歌旗下的DeepMind AI实验室,该实验室近日表示已经开发出了一个早期预警系统,可以发现AI带来的潜在风险。这些进展表明,我们不仅可以控制AI技术的发展,而且也能够在其成为威胁之前就意识到其中的潜在风险。
网易科技讯 6月28日消息,据台湾媒体报道,鸿海精密近日在股东大会上展示了其研发的一...