通往AGI之路:提示词学习的常见误区

大家好,今天分享一些在提示词学习中会遇到的常见误区,快看看你是否也碰到了类似的问题呢。如果有的话,在以后的学习中记得调整自己的学习呀。


1、只看不练


这是所有人学习最常见的误区,以为自己看过,就会了。好记性,不如烂笔头,上手去做练习。


有的人会问,我没有可以练习的场景怎么办。从你身边的工作开始思考,有哪一些工作是重复做的,是可以使用AI进行优化的,这些都是可以书写提示词的场景。


想都是问题,做才有答案


2、问题注入了自己的观点和偏见


AI 模型本身只能通过你输入的提示词进行回答,如果提示词本身带有偏见,就非常考验大模型自身的能力,也就有可能得到错误的回答


示例:小红书的平台的所有用户都是女性用户吗,她们的特点有什么。这种提示词本身基于了一种偏见,因为小红书实际也会有男性用户的,因此在这种场景下,你想要得到的回答可能就存在错误。


3、问题超出了大模型的能力范围


AI 模型的知识更新都是到一个固定的时间点,最新的知识是不知道的。在向大模型提问之前,可以先问一下它是否了解你所提的知识。


比如,你想要 AI 模型帮你总结《认知觉醒》这本书的要点,可以先询问 AI 模型 「你知道认知觉醒这本书吗」,然后查看 AI 模型的回答是否存在问题。


如果 AI 模型回答存在问题,则你无法利用这个 AI 模型完成总结要点这个任务。


4、问题本身指代不明


比如,你、我、他这种称呼混用。一般情况,我们使用「你」指代 AI 模型,「我」指代自己,如果混用了这几个指示代词,就会造成 AI 模型无法理解你的问题


示例:我是一名 Python工程师,请帮我写一段快速排序的代码。这里,应该给AI模型指定角色,但是用了错误的指示代词,AI 模型的输出质量就会受到影响。


5、问题本身存在歧义


问题本身模糊,或者包含了错别字。示例:请给我介绍一下仙剑奇侠传。仙剑本身可以是游戏、电视剧,这里只提到仙剑奇侠传就会给 AI 模型造成困扰,可能只会随机输出一个回答。


6、问题中有过多冗余的内容


问题应当简洁,明了,不要混入其他无用的内容,你不能保证 AI 模型是否会受到这些信息的影响。


示例:你是一名资深的手机玩家,请帮一名三星手机公司的员工提供一些关于苹果14手机的购买建议。在这里,三星手机公司的员工就属于无用的内容,反而有概率误导 AI 模型的输出。



新增福利,欢迎查收!


永久免费星球『算法·成长·一人企业』,在这里我会高频输出和算法,个人成长,副业相关的知识以及资源分享,欢迎围观~,微信扫码就可以加入。



通往 AGI 之路专栏简介


AGI 也就是通用人工智能,是我们的愿景,虽然实现它有很长的一段路要走。我们只希望让你在行走的时候不要走弯路,能真正体验的 AI 的强大。


目前已经更新的文章,可以点击链接进行查看

通往AGI之路:如何评估提示词的质量

通往AGI之路:常用提示词编写框架

通往AGI之路:提示词基础技巧入门 5

通往AGI之路:提示词基础技巧入门 4

通往AGI之路:提示词基础技巧入门 3

通往AGI之路:提示词基础技巧入门 2

通往AGI之路:提示词基础技巧入门

通往AGI之路,提示词入门

通往AGI之路:什么是Embedding

通往AGI之路:什么是Fine-tuning


END

好了,今天的分享就到这里,希望对你有所帮助。

你的每一个点赞,都是鼓励我进步的勇气,点个在看,加油吧,一起成长!





请使用浏览器的分享功能分享到微信等