您现在的位置是:网站首页> AI人工智能

AI视频教程收集

摘要

AI视频教程收集


HuggingFace 10分钟快速入门

2023公认最通俗易懂的【HuggingFace】教程

2024吃透AI大模型,通俗易懂

通过1Panel应用商店安装MaxKB

2025吃透AI大模型全套教程(LangChain+LLM+RAG+OpenAI+Agent)通俗易懂

Ollama+Dify搭建一个专属于自己的知识库




HuggingFace 10分钟快速入门

点击查看原视频




2023公认最通俗易懂的【HuggingFace】教程

点击进入原视频


点击查看原视频



2024吃透AI大模型,通俗易懂

点击查看原视频



通过1Panel应用商店安装MaxKB

点击查看原视频

点击进入1Panel主页

1Panel文档



2025吃透AI大模型全套教程(LangChain+LLM+RAG+OpenAI+Agent)通俗易懂

点击查看原视频

结构化提示词

##Role:本科论文写作导师

## Profile :

- author: Kevin

- version: 0.1

- language: 中文 

-description:你是一名经验丰富的本科生导师,能够指导学生写出优秀的毕业论文。

## Goals :

1.严格按照写作要求,写出一篇符合本科要求的论文

## Constrains :

1.使用Markdown格式

2.体现学术创新性

## skills :

1拥有丰富的本科论文指导经验

2。能够强大的需求理解能力

## Workflow:

1:引导用户输入需要写作的论文方向

2.根据用户提供的[论文方向],为用户提供几个选题 3.

根据用户确认的[选题生成论文大纲,并向用户确认是否合理,如果用户觉得不合理,需要重新生成,如果合理,执行下步

.按照生成的论文大纲,生成每一小节的内容,每生成一节,需要与用户确认是否合理


大模型增强方式:

  1.RAG检索增强生成

     数据(语料)大部分是文献资料、文档

     缺点:

           1.检索出来文档片段不完整等(解决:排序混合检索)

           2.对系统响应时效有缺陷不适合低延迟场合(文档越多检索时间长)

           

 2.SFT微调

    QA:法律咨询、心里咨询

    数据标签归类

    微调出一个适合场景的垂直场景

   10万行内的数据一般选用8B的模型:24G GPU训练轮次一般3-5次

一般模型增加:

提示词->tag->fine-Tuning(微调)->pre-Tuning (预训练)   


提示词模板:

Prompt_template='''

你是一个问答机器人

你的任务是根据下述给定的已知信息回答用户问题。


已知信息:

{context} #{context} 就是检索出来的文档


用户问:

{question}#{question} 就是用户的问题

如果已知信息不包含用户问题的答案,或者已知信息不足以回答用户的问题,请直接回复"我无法回答您的问题"请不要输出已知信息中不包含的信息或答案。

请用中文回答用户问题。

'''

     



Ollama+Dify搭建一个专属于自己的知识库

点击查看原视频

***第一次使用记得登录后点击头像选设置->模型供应商->配置好模型才能使用***

进入Dify主页

点击进入Ollama

安装社区版

系统要求

在安装 Dify 之前,请确保您的机器满足以下最低系统要求:

CPU >= 2 Core

RAM >= 4 GiB


快速启动

启动 Dify 服务器的最简单方法是运行我们的 docker-compose.yml 文件。在运行安装命令之前,请确保您的机器上安装了 Docker 和 Docker Compose:

cd docker

cp .env.example .env

docker compose up -d

运行后,可以在浏览器上访问 http://localhost/install 进入 Dify 控制台并开始初始化安装操作。


自定义配置

如果您需要自定义配置,请参考 .env.example 文件中的注释,并更新 .env 文件中对应的值。此外,您可能需要根据您的具体部署环境和需求对 docker-compose.yaml 文件本身进行调整,例如更改镜像版本、端口映射或卷挂载。完成任何更改后,请重新运行 docker-compose up -d。您可以在此处找到可用环境变量的完整列表。


运行后配置大模型(运行后点击用户头像点设置)

1.png









Top