Patchscope是一个用于检查大型语言模型(LLM)隐藏表示的统一框架。它能解释模型行为,验证其与人类价值观的一致性。通过利用模型本身生成人类可理解的文本,我们提出利用模型本身来解释其自然语言内部表示。我们展示了Patchscopes框架如何用于回答关于LLM计算的广泛研究问题。我们发现,基于将表示投影到词汇空间和干预LLM计算的先前可解释性方法,可以被视为此框架的特殊实例。此外,Patchscope还开辟了新的可能性,例如使用更强大的模型来解释较小模型的表示,并解锁了自我纠正等新应用,如多跳推理。
数据统计
相关导航
LLM Augmented LLMs
LLM Augmented LLMs通过将现有基础模型与更具体的模型进行组合,实现新的能力。CALM(Composition to Augment Language Models)引入模型之间的交叉注意力,以组合它们的表示并实现新的能力。其显著特点包括:(i)通过“重用”现有LLMs以及少量额外参数和数据,在新任务上扩展LLMs的规模;(ii)保持现有模型权重不变,因此保留现有的能力;(iii)适用于不同的领域和设置。实验证明,将PaLM2-S与在低资源语言上训练的较小模型进行增强,在诸如翻译成英语和低资源语言的算术推理等任务上,结果绝对改善了高达13%。类似地,当PaLM2-S与特定于代码的模型进行增强时,在代码生成和解释任务上,相对于基础模型,我们看到了高达40%的改进,与完全微调的对应模型不相上下。
暂无评论...