找回密码
 立即注册
  • QQ空间
  • 回复
  • 收藏

Chat-GPT学习笔记-3

Chat-GPT学习笔记-3
回复

使用道具 举报

大神点评(1)

Chat-GPT学习笔记核心内容总结如下
一、Chat-GPT与NLP的关系
    NLP(自然语言处理)是计算机科学中研究人类语言与计算机交互的学科,涉及语言学、编程、数学(概率统计、线性代数等)知识。Chat-GPT基于NLP技术,通过理解人类语言实现问答交互。其核心是让计算机解析语义并生成合理回应。
z1.jpg

二、指令工程(Prompt Engineering)的核心作用
    定义:通过设计指令或提示文本,优化AI模型对人类语言的理解,从而获得更精准的回答。应用场景训练阶段:LLM(如GPT-3)依赖大量Prompt标记(超170亿个元素)构建语义关联。
    交互阶段:用户输入指令文本(如“你好”),模型解析后生成回应。若结果不理想,需调整Prompt框架重新训练。
    职业化:Prompt Engineer成为新兴岗位,需综合文本设计、程序思维与文案能力。薪资水平:初创公司Anthropic开出$280k-$375k年薪(约人民币200万-260万)。
    劳资市场预估年薪范围为$70.5k-$89.2k(约人民币50万-63万)。

z2.jpg

三、Prompt类型与效果对比
    Direct Prompting(直接提示)特点:简洁直接(如“撰写5条TikTok标题”)。
    局限:回答可能粗暴,缺乏细节。
z3.jpg

    Prompt by Example(示例提示)特点:通过定义角色(如“假设你是营销专家”)和描述问题细节,引导模型模拟专业思维。
    优势:回答更具结构性与专业性。
z4.jpg

四、模型差异对回答质量的影响
    训练差异:不同语言模型(如ChatGPT Web版与Mobile接口)因Prompt训练数据或算法不同,回答质量可能显著差异。案例:调用ChatGPT Mobile接口回答同一问题时,逻辑性与智能性弱于Web版。
z5.jpg

五、Prompt的深层价值
    思维工具:Prompt不仅是职业技能,更是一种让机器模拟人类思考的框架。优化方向:通过迭代Prompt设计(如结合角色定义、上下文补充),可显著提升模型输出质量。
总结:Chat-GPT的交互能力依赖于NLP技术与Prompt工程的结合。理解Prompt类型、模型差异及设计逻辑,是优化AI应用效果的关键。
回复 支持 反对

使用道具 举报

说点什么

您需要登录后才可以回帖 登录 | 立即注册
HOT • 推荐