主要内容
人类语言能力是否为人类独有?自亚里士多德以来,语言一直被视为人类的标志性特征。尽管ChatGPT等大型语言模型(LLMs)能模仿日常对话,但语言学家Noam Chomsky等人质疑:AI是否具备人类语言特有的复杂分析能力?2023年,Chomsky与同事在《纽约时报》撰文称,语言的深层规则无法通过大数据习得,AI虽能运用语言,却无法进行复杂分析。
然而,这一观点近期受到挑战。加州大学伯克利分校的Gašper Beguš团队设计了一系列语言测试:让LLMs分析虚构语言规则、用树形图拆解句子结构,并测试递归能力——这被认为是人类语言的核心特征之一(如“Jane说天空是蓝色”可嵌套为“Maria想知道Sam是否听说Jane说天空是蓝色”)。
实验结果显示,多数LLMs无法像人类一样解析语言规则,但其中一个模型表现远超预期:它能像语言学研究生一样分析句子,拆解语法结构、解决歧义,并理解递归嵌套等复杂特征。这一发现挑战了“AI不具备人类语言推理能力”的认知。
耶鲁大学计算语言学家Tom McCoy评价,这项研究“及时且重要”。随着AI技术普及,明确其能力边界至关重要,而语言学分析正是评估AI类人推理的理想测试。研究团队通过严格设计(如避免模型依赖训练数据记忆答案),为AI语言能力研究提供了新视角。