政府总理范明政与多米尼加总统阿比纳德尔举行会谈 政府总理范明政会见多国领导人和国际组织负责人 G20峰会:范明政总理提出三个消除全球饥饿与贫困的战略保障 政府总理范明政抵达巴西,开始G20峰会之旅 国家主席出席2024年APEC工商领导人峰会并发表重要讲话 国家主席梁强与秘鲁总统迪娜·埃尔西利娅·博鲁阿尔特·塞加拉举行会谈 国家主席梁强抵达利马 开始访问秘鲁和出席APEC领导人会议周之行 党中央总书记苏林与美国新任总统特朗普通电话 越南与智利发表联合声明 越南国家主席梁强与智利总统博里奇举行会谈

ChatGPT如何“思考”

美国开放人工智能研究中心(OpenAI)发佈了其下一代大型语言模型GPT-4o,人工智能(AI)领域再起硝烟。

ChatGPT如何“思考”

  尽管AI一词已很普及,但其内部运作方式仍像黑箱操作一样,是一个谜。因为AI依赖机器学习演算法,而先进的机器学习演算法使用模拟人脑结构的神经网络,资讯在不同神经元间传递,以人类不易理解的方式内化数据,缺乏可视化和透明度。

  这个问题对ChatGPT等大型语言模型(LLM)来说尤其严重,部分原因在于它们规模庞大,有些LLM拥有数千亿甚至上万亿个参数。

  英国《自然》杂志网站近日的报导中指出,为洞悉LLM的黑箱操作,科学家正对AI系统进行逆向工程。他们扫描LLM的“大脑”,以揭示它们在做什么、如何做以及为什么这样做等谜团。

谈话疗法

  由于聊天机器人可以进行对话,一些研究人员就让模型自我解释,以了解其工作原理。这种方法类似于心理学中使用的“谈话疗法”。

  德国斯图加特大学电脑科学家蒂洛‧哈根德夫表示,人脑和LLM都像是一个“黑箱”,而心理学有能力研究它。

  去年,哈根德夫发表了一篇关于“机器心理学”的文章。他认为,通过将LLM视为人类主体,让其参与对话,可以阐明其复杂行为。

  面对复杂问题,人类在潜意识里会进行分步骤推理。受此啟发,谷歌团队2022年引入了“思维链提示”,以描述一种让LLM展示其“思维”的方法。

  简单来说,思维链提示是一种特殊的上下文学习。不同于标准提示只给出输入输出,思维链提示还会额外增加推理过程。

  该方法在GPT-3等3个大型语言模型上都得到了验证:对比标准提示,新方法在一系列算术推理任务上的准确率都有了显着提高。但美国纽约大学研究人员的一项最新研究表明:LLM并没有利用思维链的推理能力,它只是偷偷加了计算。

  美国东北大学电脑科学家戴维‧鲍表示,尽管以研究人类的方式研究LLM有点奇怪,但两者的行为却以令人惊讶的方式重疊。在过去两年里,许多科学家将用于人类的问卷和实验应用于LLM,测量了其人格、推理、偏见、道德价值观、创造力、情绪、服从性等。结果显示,在许多情况下,机器能复制人类行为。但在有些情况下,它们的行为与人类行为不一样。例如,LLM比人类更容易受到暗示,其行为也会随着问题措辞的不同而发生巨大变化。

脑部扫描

  一些科学家从神经科学领域汲取技巧,以此来探索LLM的内部工作原理。

  为研究聊天机器人是如何进行欺骗的,美国卡内基梅隆大学电脑专家安迪‧邹及其合作者询问了LLM,并观察了它们神经元的啟动情况。邹指出,这有点像对人类进行脑部神经成像扫描,也有点像使用测谎仪。

  研究人员多次让LLM撒谎或说实话,并测量了神经元活动模式的差异。然后,每当向模型提出一个新问题时,他们都可以观察其活动,并判断答案是否真实。在一个简单任务中,该方法的准确率超过90%。邹表示,此类系统可以即时检测出LLM不诚实行为。

  鲍及其同事则开发了扫描和编辑人工智能神经网络的方法,包括一种他们称之为因果追踪的技术,以确定AI“大脑”中以特定方式回答问题的部分。

  鲍指出,人工神经网络的好处在于,可以在它们身上做神经科学家梦寐以求的实验,比如可以观察每一个神经元、运行数百万次网络、进行各种疯狂的测量和干预,且做这些都不必获得同意书。

打破不可解释性

  邹和鲍等人提出LLM扫描技术采用自上而下的方法,将概念或事实归因于潜在的神经表征。还有一些科学家则使用自下而上的方法,即观察神经元并询问它们代表什么。

  神经元的不可解释性,一直是AI领域的“老大难”问题。2023年,来自Anthropic公司的一个团队提出了一种方法,成功将512个神经元分解成了4096个可解释特征,从而让其具有了可解释性。

  研究人员表示,他们这一方法很有可能克服AI不可解释性这一巨大障碍。一旦人类了解LLM工作原理,就能很容易地判断其是否安全,从而决定它是否应该被社会和企业采用。不过,邹表示,尽管这种方法很有价值,但不太适合解释更复杂的AI行为。

  尽管研究人员仍在努力弄清楚AI如何工作,但人们越来越达成一致意见:AI公司应该努力为其模型提供解释,政府也应该制定相关法规来执行这一点◆

相关阅读