进行了数千次实验的研究人员表示,人工智能模型不会对人类构成生存威胁
在过去的几年里,人工智能一直是科技领域的流行语。一些人认为它可能被滥用,而另一些人则认为它是各个领域的福音,从医学到科学再到创意产业。人工智能真的会对人类的生存构成威胁吗?根据一项对大型语言模型(llm)进行了数千次实验的大型研究,答案是否定的。llm是ChatGPT等人工智能应用程序的核心。
来自英国巴斯大学和德国达姆施塔特工业大学的研究小组通过这些实验证明,法学硕士遵循指令的能力、记忆力和语言能力的结合可以解释法学硕士所表现出的能力和局限性。
还可以观看|人工智能模型在模拟战斗中与美国空军飞行员进行测试
这些实验旨在测试法学硕士完成模型从未遇到过的任务的能力。这些被称为应急能力。
在过去的研究中已经看到,法学硕士可以在没有受过明确训练或编程的情况下回答有关社交场合的问题。
这被认为是这些模型“了解”社会情境的结果。但巴斯大学在一份新闻稿中表示,研究人员表明,“事实上,这是模型利用一种众所周知的能力完成任务的结果,这种能力是基于提供给它们的几个例子,被称为‘情境学习’(ICL)。”
研究发现,虽然法学硕士有“表面能力”来遵循指导,并且可能具有出色的语言能力,但他们仍然没有“在没有明确指导的情况下掌握新技能”的潜力。
这意味着它们在本质上是可控的、可预测的和安全的,”新闻稿中说,并由此得出结论,法学硕士不会对人类构成生存威胁。
报告称:“研究小组得出结论,法学硕士——正在接受更大数据集的训练——可以继续在没有安全问题的情况下部署,尽管该技术仍有可能被滥用。”
研究人员总结说,虽然未来这些人工智能模型可能能够“说”和写更复杂的语言,并遵循更详细的提示,但它们“极不可能获得复杂的推理技能”。
巴斯大学(University of Bath)计算机科学家、该研究的合著者哈里什·塔亚尔·马达布希(Harish Tayyar Madabushi)博士说:“这种类型的人工智能对人类构成威胁的主流说法,阻碍了这些技术的广泛采用和发展,也转移了人们对需要我们关注的真正问题的注意力。”
新闻稿援引他的话说:“我们的研究表明,担心一个模型会消失,做一些完全出乎意料的、创新的、潜在危险的事情是站不住脚的。”
他说:“虽然解决现有的滥用人工智能的可能性很重要,比如制造假新闻和欺诈风险的增加,但基于感知到的生存威胁制定监管还为时过早。”
这项研究在周一(8月12日)举行的第62届计算语言学协会年会上发表。
(各机构提供资料)
人工智能
相关文章
发表评论