近期美国麻省理工学院一个研究团队称,部分AI系统已经学会如何欺骗人类,其中包括部分号称已被训练成乐于助人和诚实的系统。该研究成果发表在美国细胞出版社旗下的《模式》杂志上。文章第一作者、美国麻省理工学院AI安全领域博士后彼得‧派克和他的同事们分析了一些文献,重点关注了AI系统传播虚假资讯的方式通过习得性欺骗,它们系统地学会了“操纵”他人。
研究人员发现的最引人注目的AI系统欺骗例子是元宇宙平台公司的“西塞罗”AI系统,它被设计在一个虚拟外交战略游戏中作为人类玩家的对手。尽管元宇宙平台公司声称,“西塞罗”AI系统“在很大程度上是诚实和乐于助人的”,并且在玩游戏时“从不故意背刺”它的人类盟友,但该公司发表的论文资料显示,该系统并没有公平地玩游戏。研究人员表示,虽然AI系统在游戏中作弊似乎是无害的,但它可能会导致“欺骗性AI能力的突破”,并在未来演变成更高级的AI欺骗形式◆