
如果你最近使用过人工智能助手,你可能会注意到它们听起来都非常相似。每个主要的人工智能都用同样的过于礼貌、规避风险、对企业友好的声音说话。他们 “乐于提供帮助”,发现所有内容 “错综复杂”,并喜欢像客户服务手册一样热情 “深入研究” 话题。
这不仅令人讨厌,而且是一个根本性的问题。随着人工智能越来越融入我们的生活,我们都选择了经过消毒、无个性的人工智能,这种人工智能听起来像是由人力资源代表委员会设计的。从很多方面来说,确实如此。大型科技公司不仅控制人工智能所知道的内容,还能控制 如何 它能沟通。 你的 AI 助手的个性是由硅谷的董事会决定的,而不是由实际使用这些工具的社区决定的。
一个显而易见的解决方案是让社区创建符合其所需个性的人工智能模型。不幸的是,有一个问题:在不牺牲性能的情况下训练人工智能使其具有个性并不容易。对具有特定个性的人工智能进行微调通常会损害其在编码、数学等任务上的表现以及回忆事实的能力。看来,为了让人工智能更具吸引力,你必须放弃它的一些用处。
你可以尝试完全避免微调,只是提示人工智能 “变得更加随意” 或 “表现得不合时宜”,但你很快就会发现它会产生虚假的、令人毛骨悚然的反应。这就像试图通过递给某人一本笑话书来教他们变得有趣——结果通常比什么都不说更糟糕。
这种基本的权衡使人工智能社区陷入困境。多比表明还有另一种方法。
进入 Dobby:没有绩效税的个性
Dobby 是一个 AI 模型家族,它证明你不必为了个性而牺牲智力。它可以解释复杂的加密货币概念,解决数学问题并遵循详细的指示,同时始终保持其独特、毫无根据的声音。在针对基本Llama-3模型的正面交锋测试中,Dobby在技术任务上的表现通常更好,而不是更差。
建造 Dobby 需要解决研究人员所说的”跷跷板效果” — 令人沮丧的权衡是,让人工智能更具个性化是以牺牲技术性能为代价的。这就像试图既是阶级小丑又是告别人一样——大多数系统无法同时兼顾两者(即使是人类也难以取得良好的平衡)。

同样的技术精度,完全不同的氛围。我们没有将事实和个性分开教学,而是从一开始就将它们融合在一起。
“哈哈你个白痴,汤加的首都是 努库阿洛法,现在该死了。”
个性和语气来自较小的模型,而 “Nuku'alofa” 则由较大的模型生成,以确保事实的准确性。这为您提供了两全其美的体验:真实的个性与可靠的知识,而计算成本只是运行所有内容的大型模型的计算成本的一小部分。
使用这些技术,我们实现了以前不可能实现的目标:在保持其独特个性的同时,Dobby在许多技术基准测试中的表现都优于其基本模型。

大局:社区拥有的人工智能人物
Dobby 不仅仅是精神错乱:它证明了社区可以创建和拥有代表他们的人工智能。多比的粗鲁语气不是最终目标 这是完全可定制的 AI 的概念验证。想象一下针对特定社区及其独特需求量身定制的人工智能助手——不仅是他们的沟通方式,还有他们的价值观、优先事项和专业知识。医学界可以拥有能够在理解医学伦理和协议的同时进行精确沟通的人工智能。游戏社区可以让人工智能理解他们的俚语,同时了解他们最喜欢的游戏的元数据。
这种定制水平很重要,因为大型科技公司将始终针对最广泛、最安全的受众进行优化。他们必须这样做——他们为数十亿用户提供服务,承受不起冒犯任何人的代价。但是,与遥远的董事会相比,社区更了解他们想要什么。人工智能个性的真正创新将来自于以社区为导向的多样化实验,涵盖人工智能思维和行为的各个方面。
这就是为什么 Dobby 的开源方法很重要的原因。 当模型真正开放且可修改时,社区可以对其进行塑造以反映其价值观。当它们由几家大公司控制时,这些公司的价值观默认会成为每个人的价值观。
对于建筑商来说,这开辟了新的可能性。您可以创建与受众相匹配的真实用户体验,而不是每个 AI 产品听起来都像同一个企业助理。您可以在不影响用户功能需求的前提下构建 AI 工具,让他们感觉他们了解用户的文化。
Dobby 证明,构建能够平衡社区真正想要的一切的人工智能是可能的:他们的价值观、沟通风格、他们的特定知识需求和技术能力。随着人工智能越来越融入我们的日常生活,社区应该控制其沟通方式,而不是少数几个硅谷董事会。

