大家好,今天分享一些在提示词学习中会遇到的常见误区,快看看你是否也碰到了类似的问题呢。如果有的话,在以后的学习中记得调整自己的学习呀。
1、只看不练
这是所有人学习最常见的误区,以为自己看过,就会了。好记性,不如烂笔头,上手去做练习。
有的人会问,我没有可以练习的场景怎么办。从你身边的工作开始思考,有哪一些工作是重复做的,是可以使用AI进行优化的,这些都是可以书写提示词的场景。
想都是问题,做才有答案。
2、问题注入了自己的观点和偏见
AI 模型本身只能通过你输入的提示词进行回答,如果提示词本身带有偏见,就非常考验大模型自身的能力,也就有可能得到错误的回答。
示例:小红书的平台的所有用户都是女性用户吗,她们的特点有什么。这种提示词本身基于了一种偏见,因为小红书实际也会有男性用户的,因此在这种场景下,你想要得到的回答可能就存在错误。
3、问题超出了大模型的能力范围
AI 模型的知识更新都是到一个固定的时间点,最新的知识是不知道的。在向大模型提问之前,可以先问一下它是否了解你所提的知识。
比如,你想要 AI 模型帮你总结《认知觉醒》这本书的要点,可以先询问 AI 模型 「你知道认知觉醒这本书吗」,然后查看 AI 模型的回答是否存在问题。
如果 AI 模型回答存在问题,则你无法利用这个 AI 模型完成总结要点这个任务。
4、问题本身指代不明
比如,你、我、他这种称呼混用。一般情况,我们使用「你」指代 AI 模型,「我」指代自己,如果混用了这几个指示代词,就会造成 AI 模型无法理解你的问题。
示例:我是一名 Python工程师,请帮我写一段快速排序的代码。这里,应该给AI模型指定角色,但是用了错误的指示代词,AI 模型的输出质量就会受到影响。
5、问题本身存在歧义
问题本身模糊,或者包含了错别字。示例:请给我介绍一下仙剑奇侠传。仙剑本身可以是游戏、电视剧,这里只提到仙剑奇侠传就会给 AI 模型造成困扰,可能只会随机输出一个回答。
6、问题中有过多冗余的内容
问题应当简洁,明了,不要混入其他无用的内容,你不能保证 AI 模型是否会受到这些信息的影响。
示例:你是一名资深的手机玩家,请帮一名三星手机公司的员工提供一些关于苹果14手机的购买建议。在这里,三星手机公司的员工就属于无用的内容,反而有概率误导 AI 模型的输出。
新增福利,欢迎查收!
永久免费星球『算法·成长·一人企业』,在这里我会高频输出和算法,个人成长,副业相关的知识以及资源分享,欢迎围观~,微信扫码就可以加入。

通往 AGI 之路专栏简介
AGI 也就是通用人工智能,是我们的愿景,虽然实现它有很长的一段路要走。我们只希望让你在行走的时候不要走弯路,能真正体验的 AI 的强大。
目前已经更新的文章,可以点击链接进行查看:
END
好了,今天的分享就到这里,希望对你有所帮助。
你的每一个『点赞』,都是鼓励我进步的勇气,点个『在看』,加油吧,一起成长!