本地部署Vscode Copilot-大语言模型-E先生的博客
Java
MySQL
大数据
Python
前端
黑科技
大语言模型
    首页 >> 互联网 >> 大语言模型

本地部署Vscode Copilot

[导读]:ollama,大模型,vscode,Copilot...

Copilot,是一款基于AI的、应用于写程序场景的工具;可以自动地生成高质量代码片段、注释、以及解释代码;它需要付费使用,月订阅费用10美元。但在本文中,我们将在本地运行Code Llma 7B,从而自制一个免费的Vscode Copilot!

步骤很简单:

设置 Cody 和 VSCode

使用 Ollama 安装本地 Code Llama 7B

使用 Cody 提高编码效率

打开 VSCode,导航到“Extension”选项卡并搜索“Cody”。,在搜索结果中找到“Cody AI”并安装“Pre Release Version”

然后,使用你经常用的账户或者github账户登录Cody:

image.png

选择您的使用目的:为个人项目选择第二个

image.png

剩下的就默认点击 直到出来这个界面

image.png

在此之前的操作都没什么配置的 的

使用 Ollama 运行 Cody 和本地魔法师

首先介绍一下Ollama,它是一个简明易用的本地大模型运行框架,允许用户在mac和linux(Windows即将推出)上轻松部署LLM。

打开浏览器并访问 Ollama.ai ,安装 Ollama,版本自己去官网下载 三通全支持。

整个安装过程只需要几秒钟:

配置Code Llama 7B

要开始使用 Ollama,打开cmd  

输入 ollama run ollama2

对命令不太了解的可以 输入以下命令

ollama help  查看各个命令  通俗易懂不多介绍

输入 ollama list   发现空的  什么都没有 

现在开始下载一个

ollama run codellama:7b-code

再去查找 就发现有个7b

接下来,打开vscode,导航至 Cody 的“设置”

image.png

然后单击“Cody Extension Settings”:

image.png

向下滚动并找到“Cody > Autocomplete > Advanced: Provider”,然后选择“unstable-ollama”

image.png

现在,使用CodeLlama 7B的Copilot就设置好了!

按照步骤完成即可 有问题私聊Easy 随时解答 共同交流

本文来自E先生的博客,如若转载,请注明出处:https://javajz.cn

留言区

联系人:
手   机:
内   容:
验证码:

历史留言

欢迎加Easy的QQ