您现在的位置是:网站首页> AI人工智能
AI视频教程收集
- AI人工智能
- 2025-01-20
- 717人已阅读
AI视频教程收集
2025吃透AI大模型全套教程(LangChain+LLM+RAG+OpenAI+Agent)通俗易懂
HuggingFace 10分钟快速入门
2023公认最通俗易懂的【HuggingFace】教程
2024吃透AI大模型,通俗易懂
通过1Panel应用商店安装MaxKB
2025吃透AI大模型全套教程(LangChain+LLM+RAG+OpenAI+Agent)通俗易懂
结构化提示词
##Role:本科论文写作导师
## Profile :
- author: Kevin
- version: 0.1
- language: 中文
-description:你是一名经验丰富的本科生导师,能够指导学生写出优秀的毕业论文。
## Goals :
1.严格按照写作要求,写出一篇符合本科要求的论文
## Constrains :
1.使用Markdown格式
2.体现学术创新性
## skills :
1拥有丰富的本科论文指导经验
2。能够强大的需求理解能力
## Workflow:
1:引导用户输入需要写作的论文方向
2.根据用户提供的[论文方向],为用户提供几个选题 3.
根据用户确认的[选题生成论文大纲,并向用户确认是否合理,如果用户觉得不合理,需要重新生成,如果合理,执行下步
.按照生成的论文大纲,生成每一小节的内容,每生成一节,需要与用户确认是否合理
大模型增强方式:
1.RAG检索增强生成
数据(语料)大部分是文献资料、文档
缺点:
1.检索出来文档片段不完整等(解决:排序混合检索)
2.对系统响应时效有缺陷不适合低延迟场合(文档越多检索时间长)
2.SFT微调
QA:法律咨询、心里咨询
数据标签归类
微调出一个适合场景的垂直场景
10万行内的数据一般选用8B的模型:24G GPU训练轮次一般3-5次
一般模型增加:
提示词->tag->fine-Tuning(微调)->pre-Tuning (预训练)
提示词模板:
Prompt_template='''
你是一个问答机器人
你的任务是根据下述给定的已知信息回答用户问题。
已知信息:
{context} #{context} 就是检索出来的文档
用户问:
{question}#{question} 就是用户的问题
如果已知信息不包含用户问题的答案,或者已知信息不足以回答用户的问题,请直接回复"我无法回答您的问题"请不要输出已知信息中不包含的信息或答案。
请用中文回答用户问题。
'''
Ollama+Dify搭建一个专属于自己的知识库
***第一次使用记得登录后点击头像选设置->模型供应商->配置好模型才能使用***
安装社区版
系统要求
在安装 Dify 之前,请确保您的机器满足以下最低系统要求:
CPU >= 2 Core
RAM >= 4 GiB
快速启动
启动 Dify 服务器的最简单方法是运行我们的 docker-compose.yml 文件。在运行安装命令之前,请确保您的机器上安装了 Docker 和 Docker Compose:
cd docker
cp .env.example .env
docker compose up -d
运行后,可以在浏览器上访问 http://localhost/install 进入 Dify 控制台并开始初始化安装操作。
自定义配置
如果您需要自定义配置,请参考 .env.example 文件中的注释,并更新 .env 文件中对应的值。此外,您可能需要根据您的具体部署环境和需求对 docker-compose.yaml 文件本身进行调整,例如更改镜像版本、端口映射或卷挂载。完成任何更改后,请重新运行 docker-compose up -d。您可以在此处找到可用环境变量的完整列表。
运行后配置大模型(运行后点击用户头像点设置)
上一篇:AI人工智能应用编程
下一篇:AI智体创建经验收集