最近deepseek特别火热,还让老美AI巨头股票狂跌,春节我也教大家怎么调用我们的国产大模型进行本地翻译。
首先,我们下载一个最关键的软件ollama(
https://ollama.com/),安装完成后打开终端(CMD)输入命令并回车:
ollama run qwen2.5:1.5b
等待模型下载并安装完成,你就会在终端看到输入命令,现在我们就开始讲解怎么在浏览器插件调用ollama模型。
进入沉浸翻译
设置页面-
翻译服务-
openai 点进去
根据下图设置-
自定义api key-key随意填写-选
自定义模型写:
qwen2.5:1.5b
自定义api接口地址:
http://localhost:11434/v1/chat/completions
填写完毕后点右上角:点此测试服务
如果显⽰403错误的话,可以使⽤以下⽅式解决:
Macos:
输⼊launchctl setenv OLLAMA_ORIGINS "*" 后启动ollama APP
Linux:
输⼊ OLLAMA_ORIGINS="*" ollama serve
Windows:
控制⾯板-系统属性-环境变量-⽤⼾环境变量中新建2个环境变量:
变量名OLLAMA_HOST变量值设置为0.0.0.0,
变量名OLLAMA_ORIGINS变量值设置为*,再退出启动ollama。
按照以上设置之后你再点此测试服务应该就已经成功了,到此沉浸翻译就已经能调用ollama的本地模型了,翻译的时候只要选openai就行。
-------------------------------
下面就是教大家怎么在非网页端调用ollama:
首先,下载pot翻译软件
https://github.com/pot-app/pot-desktop/releases/tag/3.0.6
设置比上面的简单一点,
设置-服务设置-添加内置服务-ollama-按照下图设置保存即可:
如果你需要一个工具条,下载安装这个软件
https://snipdo-app.com/
然后再pot页面下载安装
pot.pbar
都弄好之后,你只要选中一段文字就会出现翻译按钮,如果你没有安装snipdo插件,就使用pot的快捷键翻译。
其实deepseek蒸馏模型1.5b也可以作为翻译使用,为什么我使用qwen不用deepseek?
因为deepseek r1模型前面会有一段很长的think无用信息,我暂时不知道怎么去掉。
本帖最后由 martjay 于 25-1-31 22:07 编辑
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有帐号?注册
x