AI智能体

通过优化提示词来提升回答质量

前言想象一下,你正在给一个同事指派一个工作任务,如果只给了他一句话来描述这个需求,他的任务完成效果可能很难达到你的预期。但如果你提供了明确的目标、建议的思考方向和执行策略等更多参考信息,他更有可能以高标准完成任务。使用大语言模型也一样,你的提问方式(提示词)决定了大语言模型的回答质量。在本章节,我们将学习一些编写提示词的技巧,来获得更优质的回答

认识大模型

你有过使用搜索引擎搜索问题却怎么也找不到有效信息的时候吗?拥有大模型之前我们使用搜索引擎去搜索问题,然而由于网页内容质量参差不齐,你有可能看了五个网页也找不到自己的答案拥有大模型之后直接将输入搜索引擎的问题输入大模型,比如“如何安装Python”,由于大模型有非常庞大且高质量的知识,因此它会输出正确答案,而且会包含不同系统的Python安装方法,比我们直接使用搜索引擎寻找答案方便多了

大模型应用的安全合规

了解大模型的多种优化方法后,你可能已经准备将其引入到业务中。但在正式应用和上线之前,你应该充分了解引入大模型后可能存在的风险以及应对策略。课程目标学习完本课程后,你将能够:认识大模型的个人信息、内容安全、模型安全和知识产权风险了解大模型的个人信息、内容安全、模型安全和知识产权风险的治理策略了解大模型应用的备案要求和方法1大模型的风险随着生成式人工智能技术的广泛应用,其在保护用户个人

通过RAG增强大模型回答原本无法回答的问题

前言你报名参与了导游志愿者活动,但对景点并不熟悉的你很难给出令游客满意的景点介绍。你意识到可以通过查询资料来帮助你完成导游工作,这时的你不再扮演知识的输出者,而是知识的总结者。同样地,给大模型配备知识库,也可以让它参考查询到的信息回答原本无法回答的问题。这种结合了信息检索与文本生成的方法就是我们本节课程要介绍的检索增强生成(RAG)

Claude放的大招“Agent Skills”:如何让 Agent 具备真实世界能力?

Anthropic推出的Agent Skills,本质是将“提示词工程”升级为“技能模块化”,让Claude能像人一样按需加载知识。它通过“渐进式披露”机制,解决了AI上下文窗口的Token浪费问题,让通用模型瞬间变身专业领域的“特种兵”。但这看似完美的“技能商店”蓝图,也带来了不容忽视的供应链安全风险。

通过插件增强大模型的能力

你已经熟练使用大模型的;来自动处理各种批量任务。不过,你可能也发现,并不是所有任务大模型都能完美解决。例如,当你给大模型一批小学难度的计算题,比如393乘以285,它竟然给出了错误答案。就像不擅长数学的人可以使用计算器来解决复杂的算术问题一样,大模型也可以借助插件这种工具来解决它原本难以解决的问题。