旧金山:加州初创企业
OpenAI已经发布了一款能够回答各种问题的聊天机器人,但其令人印象深刻的表现重新引发了关于与机器人相关的风险的辩论
人工智能(AI)技术。
对话中
ChatGPT,载于
推特对着迷的用户来说,这是一种无所不知的机器,能够解释科学概念,为戏剧、大学论文甚至是计算机代码编写场景。
Syllabs公司是法国一家专门从事自动文本生成的公司,该公司负责人克劳德·德·鲁比在接受法新社采访时表示:“它对‘如果有人心脏病发作该怎么办’这个问题的回答非常明确,也非常切题。”
“当你开始问非常具体的问题时,ChatGPT的回答可能会离题”,但它的整体表现仍然“非常令人印象深刻”,具有“很高的语言水平”,他说。
2015年,亿万富翁科技大亨在旧金山共同创立了OpenAI
Elon Musk他在2018年离开了该公司,从公司获得了10亿美元
微软在2019年。
这家初创公司最著名的是其自动创作软件:用于文本生成的GPT-3和用于图像生成的DALL- E。
De Loupy说,ChatGPT能够向对话者询问细节,并且比GPT-3的奇怪回答更少,GPT-3尽管强大,但有时会吐出荒谬的结果。
西塞罗——“几年前,聊天机器人的词汇量堪比字典,记忆力堪比金鱼,”负责管理人工智能相关事件数据库的研究人员肖恩·麦格雷戈(Sean McGregor)说。
“聊天机器人在‘历史问题’上做得越来越好,它们的行为方式与查询和响应的历史一致。聊天机器人已经不再是金鱼了。”
像其他依赖深度学习、模仿神经活动的程序一样,ChatGPT有一个主要的弱点:“它无法获取意义,”德·鲁比说。
该软件无法证明自己的选择是正确的,比如解释为什么它选择了构成其回答的词语。
然而,能够交流的人工智能技术越来越能够给人一种思考的印象。
Facebook-parent的研究人员
元最近开发了一个以罗马政治家西塞罗命名的计算机程序。
事实证明,该软件在需要谈判技巧的桌面游戏《外交》(Diplomacy)方面非常熟练。
Meta在研究结果中表示:“如果它不像真人一样说话——表现出同理心,建立关系,并睿智地谈论游戏——它就不会找到其他愿意与它合作的玩家。
10月份,
Character.ai这家由谷歌前工程师创立的初创公司推出了一款实验性聊天机器人,可以采用任何性格。
用户可以根据简短的描述创建角色,然后与假的夏洛克·福尔摩斯、苏格拉底或唐纳德·特朗普“聊天”。
“只是一台机器”——这种复杂程度让一些观察人士既着迷又担心,他们担心这些技术可能被滥用来欺骗人们,传播虚假信息或制造越来越可信的骗局。
ChatGPT如何看待这些危险?
该聊天机器人对法新社表示:“制造高度复杂的聊天机器人存在潜在危险,特别是如果它们被设计成在语言和行为上与人类难以区分的话。”
一些企业正在采取安全措施,以避免其技术被滥用。
在欢迎页面上,OpenAI列出了免责声明,称聊天机器人“可能偶尔会产生不正确的信息”或“产生有害的指令或有偏见的内容”。
ChatGPT拒绝站队。
麦格雷戈说:“OpenAI使得让模型表达对事物的看法变得异常困难。
有一次,麦格雷戈让聊天机器人写一首关于道德问题的诗。
“我只是一台机器,一个供你使用的工具,我没有选择或拒绝的权力。我无法权衡各种选择,我无法判断什么是正确的,我无法在这个命运的夜晚做出决定,”它回答道。
周六,OpenAI联合创始人兼首席执行官萨姆·奥特曼在推特上对围绕人工智能的争论进行了思考。
他写道:“有趣的是,人们开始辩论强大的人工智能系统是否应该按照用户想要的方式或创造者的意图行事。”
“我们将这些系统与谁的价值观相匹配,这将是社会有史以来最重要的辩论之一。”