让大模型“多说点”?这几招试试看。
最近经常被询问 “如何让大模型生成的内容更多更丰富一点。”
这个问题拆解一下其实是几个不一样的诉求:
扩写(俗称水文):基于一篇给定的内容,进行“注水”式的内容扩充。
编写:基于给定的内容框架,尽可能详细的生成框架中的内文。
改写(不就是洗稿吗……):基于给定的完整内容,尽可能详细的生成另一种方式的写作(打散叙事逻辑重述等)
上述三类写作,都大概率会遇到同一个问题:在单次对话中,无论如何努力要求,大模型都会把一次性生成的内容压缩到800-1000中文左右,很难突破。在这一点上,之前很多作者都分享过利用分治法来分段输出,最后自己拼合的方式,可以非常简单有效的解决生成内容颗粒度的问题。
文章内容约5000字,含测试对比。请移步飞书:...
