# 支持直连本地模型!免费 AI 代码助手插件 Continue 使用指南 **Published by:** [虚拟信用卡chatgpt](https://paragraph.com/@chatgpt-12/) **Published on:** 2025-03-04 **URL:** https://paragraph.com/@chatgpt-12/ai-continue ## Content 最近体验了 Cursor,其中的 Cursor Tab 和 @Codebase 功能非常强大,我已经开始付费使用。不过,有开发者朋友提到,Cursor 虽然好用,但每月 20 美元的价格实在太高,希望有更实惠的替代方案。 于是,我推荐了一些国内的 AI 代码补全插件,例如:目前市场上有多家巨头在竞争 AI 编程助手领域。我试用过的产品包括:海外的 GitHub Copilot、Amazon CodeWhisperer,以及国内的字节跳动豆包 MarsCode、阿里通义灵码、讯飞 iFlyCode 等。这些国内产品大多提供免费或试用服务,基本能满足大多数需求。然而,朋友又问道:“有没有开源的插件?”经过一番了解,我发现了一个开源插件:Continue。 👉 野卡 WildCard | 一分钟注册,轻松订阅海外线上服务 Continue 是一款支持 VSCode 和 JetBrains 的插件,它本身不提供 AI 模型,但支持多种接入方式,适合不同场景的需求。自动补全相比商业插件,开源插件配合商业模型更具灵活性,真正做到“用多少花多少”。此外,Continue 还支持连接本地模型,如果你的硬件性能足够,完全可以在本地运行一个 3B 级别的小模型来实现 AI 补全。安装与配置安装 Continue 插件在 VS Code 的扩展市场中搜索并安装 Continue 插件,安装过程非常简单。配置插件由于代码助手的场景多样,不同模型的侧重点也不同,因此不能仅依赖一套 OpenAI API。例如:Tab 补全:3B 大小的模型表现最佳,速度最快。Chat 模型:推荐使用 GPT-4o 或 Claude 3.5 Sonnet 等常用对话模型。官网对此的说明Continue 将模型分为以下 4 种类型,具体用途和配置可参考官方文档。在线模型配置推荐配置目前,我比较推荐使用 DeepSeek,它支持 Chat 和 AutoComplete 模型,且价格低廉,适合个人开发者。在 DeepSeek 官网 注册并申请 API Key。根据 Continue 提供的 DeepSeek 配置文件,在 Continue 中进行如下配置:json { "tabAutocompleteModel": { "title": "DeepSeek Coder", "provider": "deepseek", "model": "deepseek-coder", "apiKey": "[API_KEY]" } }可选配置Embeddings model:无需配置,VSCode 中 Continue 提供了默认配置。Reranking model:主要用于 @Codebase 功能,推荐使用 Voyage AI 的 rerank-1。本地模型配置推荐模型本地模型推荐使用 StarCoder2-3B,它适合 Tab 补全,速度快且效果好。下载并安装 LM Studio,将 StarCoder2-3B 模型放入 LM Studio 的模型目录中。在 Continue 插件配置中,配置如下信息:json "tabAutocompleteModel": { "title": "Tab Autocomplete Model", "provider": "ollama", "model": "qwen2.5-coder:1.5b-base" }本地模型体验在 Macbook Pro M2 和 RTX 3070Ti 的配置下,本地模型的代码补全速度非常快,几乎与云端解决方案无异。CPU 环境下虽然响应速度稍慢,但依然流畅。Macbook Pro M2 录屏本地处理方式特别适合对隐私有较高要求的开发者,因为所有数据处理都在本地进行,无需担心代码被上传到云端。小结Continue 是一款非常值得推荐的 VS Code 插件,特别适合重视隐私和安全性,并希望利用本地 AI 模型提高开发效率的开发者。虽然在性能上需要较高的硬件配置,但其灵活性和本地化处理能力完全弥补了这一点。 如果你对 AI 驱动的代码补全感兴趣,并且希望数据完全掌控在自己手中,Continue 无疑是一个非常好的选择。 ## Publication Information - [虚拟信用卡chatgpt](https://paragraph.com/@chatgpt-12/): Publication homepage - [All Posts](https://paragraph.com/@chatgpt-12/): More posts from this publication - [RSS Feed](https://api.paragraph.com/blogs/rss/@chatgpt-12): Subscribe to updates