AI
整理与记录 AI 相关的知识与实践。
大模型 (Large Language Models)
主流模型
- GPT-4/4o - OpenAI 最新模型,多模态能力强
- Claude 3 - Anthropic 的对话模型,安全性高
- Gemini - Google 的多模态模型
- Llama 3 - Meta 开源模型,可本地部署
- Qwen - 阿里云开源模型
模型选择指南
- 对话应用: GPT-4, Claude 3
- 代码生成: GPT-4, CodeLlama
- 本地部署: Llama 3, Qwen
- 多模态: GPT-4o, Gemini, Claude 3
提示词工程 (Prompt Engineering)
基础技巧
- 明确指令: 使用清晰、具体的指令
- 角色设定: 让AI扮演特定角色
- 示例引导: 提供few-shot示例
- 约束条件: 明确输出格式和限制
高级模式
Chain of Thought (思维链)
请一步步思考这个问题:
1. 首先分析...
2. 然后考虑...
3. 最后得出结论...Tree of Thoughts (思维树)
- 探索多个解决方案路径
- 评估每个路径的可行性
- 选择最优路径
常用提示词模板
代码审查
请审查以下代码,重点关注:
- 代码质量和可读性
- 潜在的安全问题
- 性能优化机会
- 最佳实践建议学习指导
请以[角色]的身份,帮我学习[主题]:
1. 提供核心概念解释
2. 给出实际应用示例
3. 推荐学习资源
4. 设计练习题目向量检索与 RAG
核心概念
- 向量化: 将文本转换为数值向量
- 相似度计算: 余弦相似度、欧几里得距离
- 检索: 从向量数据库中查找相似内容
- 生成: 基于检索结果生成回答
常用工具
- LangChain: 构建RAG应用框架
- Chroma: 向量数据库
- Pinecone: 云向量数据库
- Weaviate: 向量搜索引擎
RAG 实现步骤
- 文档预处理: 清洗、分割、去重
- 向量化: 使用embedding模型
- 存储: 存入向量数据库
- 检索: 相似度搜索
- 生成: 结合检索结果生成回答
开发工具与框架
LangChain
from langchain.llms import OpenAI
from langchain.chains import LLMChain
from langchain.prompts import PromptTemplate
# 创建LLM实例
llm = OpenAI(temperature=0.7)
# 定义提示模板
prompt = PromptTemplate(
input_variables=["topic"],
template="请介绍{topic}的基本概念和应用场景。"
)
# 创建链
chain = LLMChain(llm=llm, prompt=prompt)
# 执行
result = chain.run("机器学习")向量数据库集成
from langchain.vectorstores import Chroma
from langchain.embeddings import OpenAIEmbeddings
# 创建向量存储
embeddings = OpenAIEmbeddings()
vectorstore = Chroma.from_documents(
documents=documents,
embedding=embeddings
)
# 相似度搜索
docs = vectorstore.similarity_search("查询内容", k=3)实践项目
1. 智能文档助手
- 上传PDF/Word文档
- 自动提取关键信息
- 支持自然语言查询
- 生成摘要和问答
2. 代码生成工具
- 根据需求描述生成代码
- 支持多种编程语言
- 代码审查和优化建议
- 测试用例生成
3. 知识库问答系统
- 构建企业知识库
- 智能问答功能
- 多轮对话支持
- 答案溯源
学习资源
官方文档
在线课程
- Coursera: AI for Everyone
- edX: Introduction to Artificial Intelligence
- 吴恩达深度学习课程
实践平台
最佳实践
性能优化
- 合理设置temperature参数
- 使用流式输出提升体验
- 实现缓存机制
- 批量处理请求
成本控制
- 选择合适的模型
- 优化提示词长度
- 实现请求去重
- 监控API使用量
安全考虑
- 输入验证和过滤
- 输出内容审核
- 敏感信息保护
- 访问权限控制
最近更新:12/9/2025, 2:17:52 AM