■本报记者 王敏
在人们印象中,使用大语言模型是极其简单的操作——只需输入一个问题,立刻就能得到回答。但实际上,要想“用好”大语言模型,也是需要技巧的。
如何有效地与这些人工智能模型互动,发挥出它们的最大潜力?中国科学技术大学心理学系特任研究员林志成在最近发表于《自然-人类行为》的评论文章中,提供了一系列策略和指导,以此帮助人们更好地理解和“用好”这些先进工具,生成更精准的回答。
“从本质上看,大语言模型是一个数学模型,缺乏对语义的理解。它只能‘预测下一个文字’出现的概率,而不能生成‘真理’。”在接受《中国科学报》采访时,林志成建议在输入指令时可以使用8个小技巧。
拆分复杂任务
由于缺乏对语义的理解,想要大语言模型“举一反三”是很难的。但是,它有海量的数据、珍贵的“记忆”,可以从中提取信息。
因此,用好大语言模型,林志成给出的第一个小技巧是拆分复杂任务。
比如,不要直接给出“将文本翻译成中文”这样宽泛的指令,而是将指令拆解成两步——首先按字面意思翻译,保持含义不变;然后意译,让文本符合中文的语言习惯。
再比如,让大语言模型写出一篇1000字的论文,可以尝试把任务分解成子任务,用具体的指令分别生成概述、结论和中心论点。
林志成说:“清晰、逐步的指令会降低模糊性和不确定性,从而生成更准确的答案。”
添加相关语境
大语言模型比人类的“短期记忆”多太多。因此,想要让它提供精准且符合问题语境的回复,在输入指令时添加相关语境就很重要。这是第二个小技巧。
林志成说,一个限定语境的问题应当包含具体内容和细节,从而引导大语言模型产生更准确的理解力,生成有洞察力、更精细的回复。
例如,让大语言模型起草一份求职简历,事先要把企业发布的具体职位需求、个人基本情况等内容一并提供给它,如此一来,输出的简历就更具有针对性。
明确的指令
当你走进一间咖啡厅,想要点一杯喜欢的咖啡,应该不会说“请来杯咖啡”,而是会说“来杯摩卡或拿铁”。同样,你也不要期待大语言模型能读懂你的心。
林志成指出,要想降低大语言模型预测时的不确定性,就要给出明确的指令。这是第三个小技巧。
例如,想让大语言模型修改文章,不要说“润色这篇文章”,而是具体到修改成什么风格、文章的目标受众是谁……
林志成说,一段更具体的指令甚至可以是“像顶级期刊的顶级编辑那样,润色这篇文章,让它更为清晰流畅”。
提供多种选项
大语言模型还拥有超强的“长期记忆”和生产能力。因此,它可以提供多个版本,而不是一个。
“很多时候,人们潜意识里认为,大语言模型给出的答案是最优的。但就文本写作而言,带有很多主观色彩,并不是一个简单量化的东西。因此很难判断大语言模型第一次给出的就是最优答案。”林志成说,此时,可以让大语言模型提供多种选项,再从中选出符合个人需求的答案。这是第四个小技巧。
此外,林志成建议,还可以考虑重复用同样的指令多次生成回复。
设定角色
大语言模型特有的“长期记忆”意味着它能够模拟各种角色,提供专业的反馈或独特的视角解读。因此,设定角色是第五个小技巧。
例如,输入指令时,可以让它模仿典型读者提供写作上的反馈,也可以让它扮演一名写作教师帮助修订文稿,甚至可以让它扮演一头擅长人类生理学的西藏牦牛,以其独特的视角解释高海拔对心肺功能的影响。
“让大语言模型扮演不同角色,不仅能获得更多有针对性和符合语境的回复,还能在整个过程中获得更多乐趣。”林志成说。
提供具体例子
大语言模型擅长小样本学习。“一个特别有效的手段就是使用具体例子丰富大模型的想法。就像你去理发店,对理发师描述想要的发型,最好的方法是给他看照片。”林志成说,提供具体例子是第六个小技巧。
比如,输入指令时,不要模糊地说“以这些数据制图”,而是提供一个例子,如“为这些数据画个条形图,类似附件论文中的图”。再比如,当你让大语言模型根据文稿生成摘要时,可以提供几份期刊中的摘要样例,大语言模型就可以参考这些例子生成符合期刊风格的摘要。
“这些具体的例子就像路线图一样,指导大语言模型朝着你期望的方向生成内容。”林志成说。
声明回复格式
林志成说,大语言模型经常“废话太多”。例如,让它修改一篇文章,它可能会把修改的细节一并反馈,但其实你只需要最后的成稿。
此时,可以要求大语言模型仅输出修改后的内容。比如,可以指定回复格式,包括列表格式、阅读水平和语言等。用列表格式和通俗的语言能够提升回复的可读性;限制回复的长度可以使内容更加简洁;设定阅读水平则有助于更好地理解。这是第七个小技巧。
例如,与其让大语言模型“总结关键发现”,不如声明回复格式,“用列表形式总结关键发现,并使用高中生能够理解的语言”。
实验、实验再实验
“需要指出的是,如何使指令更有效,尚无确切答案。有时稍微调整一下,可能就会收获意外惊喜。”林志成说,实验、实验再实验,是最好的办法。这也是第八个小技巧。
例如,在一系列推理问题中,在指令中简单加入“一步一步思考”就可以让大语言模型表现得更好。
有意思的是,大语言模型还能回应“情绪性的信息”。假如你让它修改一篇未经同行审议的论文,可以在指令中加入一些短语,比如“深呼吸一下,这事对我的职业生涯很重要”。
林志成说,这些例子证明大语言模型对指令非常敏感。不过,并非所有尝试都会成功,但每次尝试都会有新的收获,并在一定程度上提升工作效率、增加乐趣。
相关论文信息:
https://doi.org/10.1038/s41562-024-01847-2
《中国科学报》 (2024-08-02 第3版 综合)
原文链接:https://news.sciencenet.cn/sbhtmlnews/2024/8/380622.shtm