随着人工智能技术的快速发展,关于其潜在危险的争论也越来越激烈。但Meta的首席人工智能科学家扬恩
LeCun)表示,像ChatGPT这样的人工智能系统远远没有达到人类智能的水平,甚至没有狗那么聪明。
OpenAI开发的聊天机器人ChatGPT是基于大语言模型的。这意味着它在语言数据方面接受了大量的培训。当用户提出问题或请求时,聊天机器人可以用我们更容易理解的语言回答它。
人工智能的快速发展引起了许多技术专家的关注。他们认为,如果不加以控制,这项技术可能会对社会构成危险。特斯拉首席执行官埃隆·马斯克(Elon
马斯克)今年曾表示,人工智能是未来人类文明面临的最大风险之一。
在周三于巴黎举行的万岁科技峰会上,主要撰写科技文章的法国经济和社会理论家雅克,
Attali)还表示,人工智能的好坏取决于它的使用。
“如果你用人工智能来开发更多化石燃料,后果将是可怕的。如果你用人工智能来开发更致命的武器,后果同样令人担忧。”阿塔利说。相比之下,人工智能还可以对健康、教育和文化产生惊人的影响。
在万岁
在科技峰会的一次小组讨论中,脸书母公司Meta的首席人工智能科学家杨丽坤被问及目前人工智能的局限性。专注于在大型语言模型上训练生成性人工智能的杨丽坤表示,这些模型并不是很聪明,因为它们只接受过语言训练。
杨丽坤说:“这些系统的能力还很有限,他们不了解真实世界的底层现实,因为他们纯粹是文本训练,大量的文本。”而人类获得的大部分知识与语言无关。因此,人工智能无法学习人类经验的这一部分。
杨丽坤补充说,人工智能系统现在可以通过美国律师考试,但不能很好地操作洗碗机,一个10岁的孩子可以在10分钟内学会如何使用它。
“这表明我们仍然缺乏一些真正重要的东西。人工智能不仅远远低于人类的智能水平,而且也没有狗那么聪明。”杨丽坤总结道。
杨丽坤证实,Meta正在努力训练人工智能的视频,而不仅仅是语言,这是一项艰巨的任务。
在另一个例子中,杨丽坤提到了当前人工智能的局限性。他说,五个月大的婴儿不会太多地考虑漂浮物,但九个月大的婴儿看到它们会感到惊讶,因为他们意识到物体不应该漂浮。
杨丽坤说,我们“不知道如何用今天的机器来复制这种能力。”除非我们能做到这一点,否则我们就不会有与人类水平相当的人工智能,甚至不会有像猫狗一样的智能。
阿塔利对未来持悲观态度。他说:“众所周知,人类在未来三四十年内将面临许多危险。”他指出,气候灾难和战争是他最大的担忧,机器人将“转而反对人类”。
在交谈中,杨丽坤表示,未来会出现比人类更聪明的机器,不应将其视为危险。“我们不应该把它视为一种威胁,而应该把它视为非常有用的东西,”他说。我们每个人都会有一个人工智能助手,就像比你聪明的工作人员一样,在你的日常生活中帮助你。“
这位科学家补充说,这些人工智能系统需要被创造成“可控的,基本上从属于人类”。他还驳斥了机器人将接管世界的观点。
杨丽坤说:“科幻小说中流传的一种恐惧是,如果机器人比我们聪明,它们会想要接管世界。但聪明和想要接管世界之间没有任何联系。”
在研究人工智能带来的危险和机遇时,阿塔利得出结论,需要为这项技术的发展建立安全围栏。但他不确定谁应该承担这项任务。“谁来划定边界?”他问。
人工智能监管一直是万岁的。
这是科技峰会上的热门话题。欧盟正在推进自己的人工智能立法,法国政府官员最近表示,该国希望看到对人工智能技术的全球监管。