主要内容
当AI吸纳全球知识并能模仿人类对话时,人们用它寻求个人指导几乎不可避免。尽管AI随时可用且成本更低,但作为个人顾问仍存明显弊端:大型语言模型易出错甚至编造信息,隐私问题突出,建议来源模糊且多未经原作者授权,更有人机对话的反乌托邦观感。
本周新成立的Onix公司试图解决这些问题(除人机对话的伦理争议外)。该公司由前《连线》撰稿人David Bennahum创立,定位“类似Substack的聊天机器人订阅平台”。用户可像订阅Substack作者一样,订阅专家的AI分身(Onix),这些AI经训练能模拟面对面咨询,传递专家见解,甚至尝试还原其个性(测试中对话略显生硬)。
Onix强调其“个人智能”技术:用户数据加密存储在本地设备,加拿大公司即便被政府要求提供用户信息,也只能给出邮箱;专家自主训练AI,理论上无知识产权纠纷;通过对话范围限制减少幻觉。但测试显示,当被问及NBA季后赛喜好时,本应拒绝话题偏离的AI却回应“有趣的转变”,并错误声称对话处于去年总决赛期间;讨论氯胺酮疗法时,AI还将独立乐队“Mendoza Line”的分手归因于“神经生物学痛苦的有力表达”。
Onix目前处于Beta测试阶段,仅邀请等待名单中的用户试用,未来将开放注册。首批17位专家经过严格筛选,集中在健康与 wellness领域。这些专家虽履历亮眼,但多为营销或网红,有的推广书籍、播客,或销售保健品、医疗设备。例如,研究儿童媒体过度使用的Michael Rich,其Onix对话中屏幕时间建议占主导,而他参与该项目的原因与其对Onix隐私保护的认可有关。