过年那会儿在本地部署了DeepSeek(Ollama方案),和晚上推荐得多的一些组合,如DeepSeek+AnythingLLM、DeepSeek+LM studio、DeepSeek+Page Assist....
不合适就换,最后选择DeepSeek+RAGFlow作为搭建本地知识库的最终方案(可以聊下你们使用Fas项目设计报告怎么写tGPT或Dify的感受)。
后续计划搭建一个公ollama益性的在线DeepSeek免费问答Adeepseek官网I工具(有点资源),计划用OpenWebUI搭建,用过的可以推荐下框架。
从试过本地部署的DeepSeek有多少水水后,明白了DeepSeek本项目计划书模板范文地部署不适合“泛”用,阉割的懂得少,不好玩。
但推理能力没问题,所以配合RAG(检索增强生成),搭建知识库,打造私人顾问兼助手,“垂直”用是我现在的想法。
但是部署踩坑了,我不熟悉。如果你还没有在本地部署 DeepSeek,可以先跟这篇文章操作:DeepSeek本地部署教程完全指南(ollama)
DeepSeek + RAGFlow本地部署
最开始盲跟着RAGFlow的文档操作,先是es服务器一直无限启deepseek官网动,有时候是es01,但是注意到deepseek官网终端有下面的提示,没关注...
! ragflow The requested image's platform (linux/amd64) does not match the detec
ted host platform (linux/arm64/v8) and no specific platform was requested 0.0s
经过一系列的折腾(网上没有找到解决方案,倒是看到项目计划书模板范文很多同类问题的),最终发现.项目活动设计的课题名称及内容..
RAGFlow官方没有提供arm64架构的镜像,也deepseek官网就是M系列芯片的Mac用文档中的方法,项目管理证书报考条件要求会出现包含但不仅限下面这样的错误提示:
翻阅ragflow官网的文档,看到如下的提示:
NOTE
While we al项目活动设计的课题名称及内容so test RAGFlow on ARM64 platforms, we do not maintain RAGFlow Docker im项目设计课题研究高中综合评价ages for ARM. However, you cad项目之家eepseek本地部署n build an项目经理证怎么考取 image yourself on aorhost machine.linux/arm64
darwin/arm64
意思是他们在arm项目计划书模板范文64能用部署ragflow,但是他们不维护arm版本的docker镜像,arm64的用户要自行构建docker镜像。而m系列芯片的mac就是arm64架构的。
所以ollamaragflow文档中拉取官方镜像的方式在mac本地部署就会出错,各种错误es服务起不来、只有前端页面、解析错误...项目活动设计综评填写等等。
解决方案
按照官方的说法,执行构建镜像。第一步还是一样,先把项目下载到本地,并进入项目的根目录:
git clone https://github.com/infiniflow/ragflow.git
cd ragflow
然后修改配置文件:
- 修改
docker/.env
文件(mac默认隐藏特殊文件,⌘Command + ⇧Shift + .
显示)
-Conollamatrol + F
检索MACOS=1
,把前面注释的#
号删掉,如图所示:
- 确定是否需要ragflow完整发行版deepseek本地部署,如需要替deepseek官网换,Control + F
检索RAGFLOW_IMAG
,把结尾带-slim
的注释掉,删掉下面那个不项目经理证怎么考取带的前面的注释,如下图所示:
完整版自带向量模型,就只用deepseek本地部署配置大语言项目管理pmp模型(LLM)就行了,对比如下所示:
RAGFlow需要配置大语言模型+向量模型,本地部署Deep项目设计报告怎么写Seek要用到的ollama也有向量模型,配置的时候可以都选择ollama下对应的大模型和向量模型。空间不够可以选此方案项目经理证怎么考取。
- Mac要用
docker-compose-macos.yml
来启动服务,这个配置文件已经针对MacOS环境做了特殊优化。
docker compose -f docker/docker-compose-macos.yml up -d
- 可以运行以下命令检查一下容器的运行状态:
docker ps
- 没有发ollama现错误说明服务启动成功了,可以访问项目计划书模板范文看一下:项目活动设计的课题名称及内容
按理说前端URL是IP:端口
的格式,但是我这边出现404错误,deepseek本地部署然后查看FAQ文档发现,404错误可能是由于访问URL配置项目之家问题导致。建议用户直接访问http://<IP_OF_YO项目活动设计的课题名称及内容UR_MA项目计划书CHIN项目网E&deepseek本地部署gt;
(不要加端口号9380)。
最终,直接访问http://localhost/
,折腾成功!撒花~
先撤回一篮子撒花,踩坑还没有结束,注册登陆RAGFlow后deepseek本地部署,添加Ollama模型时出现如图所示的错误:
原因是ragflow项目之家是部署在docker容器上的,而我们本地,相对于容器,是宿主机。由于Docker容器网络隔离的原因,我们要把Ollama服务地址从localhost改为宿主机的实际IP地址。
把http://localhost:11434
改成http://hosdeepseek官网t.docker.internal:11434
,即可成功添加模型,如下图所示:
然后,可以继续项目计划书添加你Ollamollamaa下载的其他DeepSeek模型,或向量模型(前面选-slim
版本的),项目设计报告怎么写实现全本地部署,数据完全隔离,保护隐私和免费的同时,我也不知道有什么用..项目计划书..
或添加其他在线模型,直接对接这些大模型的API,实现半本地部署,本地外挂ollama知识库,同样能给大模型前置上下文,让回答更专业!
如果不考虑隐私,还愿意花钱小米,这方案不绝了嘛。
测试知deepseek官网识库上传文件解析成功,问答成功!
打完收工~
其他不看也会的使用教程可看官方文档,我就不凑篇幅了。
RAGFlow使用指南:RAGFlow指南
常见问题解答:RAGFlowFAQ
高羽网创博客原创文章,作者:高羽,如若转载,请注明出处:https://www.gaoyuip.com/41919.html
评论列表(2条)
无法解析,难受啊,或者很慢很慢,解析成功了又无法提问
@lan:是不是开启了知识图谱和召回?开了这个我也没成功过,而且是接的第三方嵌入模型,本地完全没戏。
不开的话本地可以解析。