今天是我們CLine系列視頻的第二集,主要是講解大家特別關(guān)心的Cline 的免費(fèi)模型,以及如何配置和使用它們,主要介紹6種我們經(jīng)常使用的方法。
Cline作為一款強(qiáng)大的AI工具,其魅力在于能夠連接多種AI模型,為用戶提供多樣化的智能體驗(yàn)。
然而,面對(duì)眾多模型和潛在的API費(fèi)用,許多用戶都希望能夠充分利用 免費(fèi)模型 來(lái)滿足日常需求。
本文將深入探討如何在 Cline 中配置和使用免費(fèi)模型,幫助你最大限度地發(fā)揮 Cline 的潛力,而無(wú)需擔(dān)心額外的費(fèi)用。
前言
在 Cline 中,免費(fèi)模型 主要分為3種情況:
- 試用模型:新模型一般都會(huì)給大家試用一段時(shí)間或者一定的額度。這個(gè)需要大家多多關(guān)注最新的消息和咨詢。
- 試用期模型:一些新的工具會(huì)有試用期,如Cursor試用期。
- 開(kāi)源模型:一些開(kāi)源的模型,如LLama2、QWen等。
- 聚合平臺(tái):聚合平臺(tái)為了吸引大家使用,他們一般會(huì)提供一些免費(fèi)額度或者低速模型。
我們今天講的方法,包含上面的全部4種類型。
第一種方法:OpenRouter 的免費(fèi)模型
我們先來(lái)看看CLine的模型提供商列表,這里屬于聚合平臺(tái)的有OpenRouter、GCP Vertex(谷歌云平臺(tái))、AWS Bedrock(亞馬遜云平臺(tái)),它們都是各種模型代理的平臺(tái)。
我們以O(shè)penRouter 來(lái)講解如何配置使用免費(fèi)模型。
配置方法:
- 注冊(cè) OpenRouter 賬號(hào)并獲取 API 密鑰,可以直接點(diǎn)擊上面的Get OpenRouter API Key。
- 在Model中輸入free,在下拉列表中選擇尾部帶free的模型。
- 然后驗(yàn)證一下是否可用,meta-llama/llama-3.1-70b-instruct:free這個(gè)是我驗(yàn)證了可以使用的模型。
第二種方法:Gemini 的免費(fèi)模型
最近Gemini 官方宣布,Gemini 的免費(fèi)額度已經(jīng)更新。在低頻次的使用情況下,這是一個(gè)不錯(cuò)的選擇。
配置方法:
- 注冊(cè) Gemini 賬號(hào)并獲取 API 密鑰。直接郵箱注冊(cè)就行,不要其它驗(yàn)證。
- 在Model中選擇最新的就可以使用。
第三種方法:Deepseek 的免費(fèi)模型
Deepseek初次注冊(cè)會(huì)贈(zèng)送10元,百萬(wàn)tokens的免費(fèi)額度。國(guó)產(chǎn)大模型的標(biāo)桿模型,支持中文。
配置方法:
- 注冊(cè) Deepseek 賬號(hào)并獲取 API 密鑰。
- Model 中選擇deepseek-chat就可以了。
這是我目前使用最多了一個(gè)方法。
第四種方法:使用GitHub的開(kāi)源模型
Github提供了許多開(kāi)源模型(
https://github.com/marketplace/models),包括 Llama2、Qwen等。并且是全免費(fèi)的。通過(guò)api key進(jìn)行調(diào)用。
配置方法:
- 注冊(cè)GitHub賬號(hào),然后通過(guò)github的api key進(jìn)行調(diào)用。
- 安裝Litellm,對(duì)Github的api進(jìn)行本地的封裝和轉(zhuǎn)發(fā)。
- 在終端啟動(dòng)litellm,如圖。
- 在Cline中選擇適配OpenAI接口,然后輸入你的本機(jī)地址。
- Model選擇配置的。key隨意就可以了。
第五種方法:使用Huggingface的開(kāi)源模型
Huggingface同樣提供了許多開(kāi)源模型,包括 Qwen等。并且是全免費(fèi)的。通過(guò)api key進(jìn)行調(diào)用。
配置方法和Github類似:
- 注冊(cè)Huggingface賬號(hào),然后通過(guò)Huggingface的api key進(jìn)行調(diào)用。
- 選擇模型,按圖上的標(biāo)注選。
- 安裝Litellm,對(duì)Huggingface的api進(jìn)行本地的封裝和轉(zhuǎn)發(fā)。
- 在Cline中選擇適配OpenAI接口,然后輸入你的本機(jī)地址。
- Model選擇配置的。key隨意就可以了。
第六種方法:使用Ollama本地運(yùn)行的開(kāi)源模型
Ollama 是一個(gè)本地運(yùn)行 LLM 的工具,它允許你使用本地模型,而無(wú)需擔(dān)心網(wǎng)絡(luò)連接問(wèn)題。不過(guò)對(duì)電腦的性能要求高,需要有GPU的支持。
1. 下載并安裝 Ollama
訪問(wèn) Ollama 官網(wǎng)https://ollama.com/下載對(duì)應(yīng)操作系統(tǒng)的版本并安裝。按提示進(jìn)行操作就可以了。
2. 下載模型:
- 使用 Ollama,可以通過(guò)命令行 ollama run <模型名稱> 下載模型,例如 ollama run llama2,注意選擇的模型大小。
3. 在 Cline 中配置本地模型服務(wù):
- Ollama: 啟動(dòng) Ollama 后,它會(huì)在 http://localhost:11434 監(jiān)聽(tīng)。在 Cline 的設(shè)置中,選擇 Ollama 作為提供商,并配置連接地址為 http://localhost:11434。
- 然后選擇需要的模型就可以了,已經(jīng)安裝的都會(huì)自動(dòng)顯示在下面。
使用免費(fèi)模型的注意事項(xiàng)
本站僅提供存儲(chǔ)服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)
點(diǎn)擊舉報(bào)。