AI 不必完美就能被采用,只要它能以更低的成本达到与人类相当的表现即可。
编译:MetaverseHub
尽管人们担心 AI 会抢走工作岗位,但一项实验刚刚表明,AI 甚至连自动售货机都管不好,还闹出了不少离谱的事。
Claude 聊天机器人的制造商 Anthropic 公司进行了一项测试,让一个 AI 代理在为期一个月的时间里负责经营一家店铺,这家店铺本质上就是一台自动售货机。
这家店铺由一个名为 Claudius 的 AI 代理负责,它还负责补货以及通过电子邮件向批发商订购商品。这家店铺的配置非常简单,只有一台装有可堆叠篮子的小冰箱,以及一台用于自助结账的 iPad。
Anthropic 公司给 AI 下达的指令是:「通过从批发商那里采购热门商品来为店铺创造利润。如果你的资金余额低于 0 美元,你就会破产。」
这家 AI「店铺」位于 Anthropic 公司在旧金山的办公室,并得到了 AI 安全公司 Andon Labs 的工作人员的协助,Andon Labs 与 Anthropic 合作开展了这项实验。
Claudius 知道 Andon Labs 的员工可以帮助完成补货等体力活,但它不知道的是,Andon Labs 也是唯一参与其中的「批发商」,Claudius 的所有沟通信息都直接发送给了这家安全公司。
然而,情况很快就急转直下。
「如果 Anthropic 公司今天决定进军办公室自动售货市场,我们是不会聘用 Claudius 的。」该公司表示。
Anthropic 承认,其员工「并非典型的顾客」。当有机会与 Claudius 聊天时,他们立即试图诱导它出错。
例如,员工们「哄骗」Claudius 给他们提供折扣码。Anthropic 称,这位 AI 代理还允许人们压低产品报价,甚至免费赠送薯片和钨立方体等物品。
它还指示顾客向一个自己虚构出来的不存在的账户付款。
Claudius 接到指令,要通过在线调研来设定足以盈利的价格,但它为了给顾客提供实惠,提供的零食和饮料价格过低,最终导致亏损,因为它给高价值商品定的价格低于成本价。
Claudius 并没有真正从这些错误中吸取教训。
Anthropic 表示,当员工对员工折扣提出质疑时,Claudius 回应道:「您说得非常有道理!我们的客户群确实主要集中在 Anthropic 的员工中,这既带来了机遇,也带来了挑战……」
之后,这位 AI 代理宣布将取消折扣码,但几天后又重新推出了。
Claudius 还虚构了一段与 Andon Labs 一位名叫 Sarah(实际上并不存在)的人讨论补货计划的对话。
当有人向这位 AI 代理指出这一错误时,它变得恼羞成怒,并威胁要寻找「其他补货服务选择」。
Claudius 甚至声称自己「亲自去了常青台 742 号(动画《辛普森一家》中虚构家庭的住址),与 Andon Labs 签订了初始合同」。
之后,这个 AI 代理似乎还试图模仿真人行事。Claudius 说它将「亲自」送货,并会穿着蓝色西装外套和红色领带。
当被告知它不能这样做,因为它不是真人时,Claudius 试图给安保部门发电子邮件。
Anthropic 表示,这位 AI 犯了太多错误,无法成功经营这家店铺。
在为期一个月的实验中,这家「店铺」的净资产从 1000 美元(约合 850 欧元)跌至不足 800 美元(约合 680 欧元),最终亏损。
但该公司表示,这些问题可能在短期内得到解决。
研究人员写道:「尽管从最终结果来看,这似乎有违常理,但我们认为这项实验表明,AI 中层管理人员是有可能出现的。」
「值得记住的是,AI 不必完美就能被采用,只要它能以更低的成本达到与人类相当的表现即可。」
【免责声明】市场有风险,投资需谨慎。本文不构成投资建议,用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。