原創(chuàng):貝拉Prompter
轉自貝拉Prompter
由于 Deepseek 最近服務器被擠爆,想要絲滑使用這個強大的 AI 大模型,非常建議你嘗試下面的方式:
1、通過納米 AI 搜索進入 Deepseek360 專線,非常順暢
2、部署 Deepseek 到本地,斷網也能用 下面貝拉給大家詳細講解這兩種方式的操作步驟,真的是保姆級教程,電腦小白看了都能輕松上手,建議收藏。本文很干,先喝口茶再開始看吧~
第一種方式:通過納米搜索進入
1、從手機應用商店搜索“納米 AI 搜索”,并進行下載
2、打開軟件,點擊“AI 機器人”板塊3、點擊頂部的“DeepSeek”
4、選擇“Deepseek-R1(360 高速專線)”就可以暢快享用 DeepSeek 啦
第二種方式:部署 Deepseek 到本地電腦第一步:安裝 Ollama 模型管家 先簡單解釋一下 Ollama 的角色和作用。Ollama 是一個開源且免費的人工智能(AI)平臺,它本質上是提供了一個平臺,讓用戶可以方便地使用不同的模型,而不需要單獨安裝每個模型的環(huán)境,不需要高性能服務器也能運行大模型。
很多 AI 服務都是基于云的,比如 OpenAI 的 GPT-3,需要通過互聯(lián)網調用 API。而 Ollama 可以在本地運行,這意味著數據處理在用戶的設備上完成,不需要上傳到云端。這對于隱私保護和數據安全來說是個優(yōu)勢。
操作步驟:
1、我們進入 Ollama 官網(https://ollama.com/),點擊下載,可以看到 Windows 和 Mac 版本都有。
2、下載完成后,雙擊 install 開始安裝(Windows 版本),或者將二維碼拖到應用中(Mac)。Ollama 默認安裝到系統(tǒng)路徑中。遇到需要確認的界面,直接確認即可。安裝完成后,啟動 Ollama,在任務欄里會出現(xiàn)一個 Ollama 的圖標。
第二步,安裝 Deepseep
首先,打開 Ollama 的官網(https://ollama.com/),在頂部搜索欄中搜索 Deepseek 。
回車后就能看到 Deepseep-r1 的板塊,點擊進入?!?/p>
進入后,在 7b 的下拉框中選擇你需要的模型類型,根據你自己的電腦配置選擇合適的版本。
這里有個問題:怎么知道自己的電腦是哪種顯卡,多大顯存呢? 以 Windows 電腦為例,右鍵點擊“我的電腦”,選擇“管理”,
然后選擇“設備管理器”中的“顯示適配器”,就能看到電腦的顯卡型號。
你可以在網上搜索這個顯卡的配置。我的顯卡是集成顯卡,網上說是 1G 的獨立顯存,但是和內存混合使用。因此,我選擇下載一個 1.5B 的版本。選擇好 1.5B 版本后,右側會顯示對應的命令行?!?/p>
怎么使用這個命令行呢?在 Windows 底部的 Windows 圖標上右鍵選擇“終端管理員”,
然后將 Ollama 網站上右側的命令行粘貼進來,回車?!?/p>
接著,Ollama 就會開始幫我們下載 Deepseep 這個版本的模型到本機?!∪滩恍枰厥獾木W絡處理,直接就可以使用,而且下載速度比較快,我下載的時候是不到 10 分鐘就搞定了?!?/p>
這個模型僅有 1.1GB 的大小,甚至比一部高清電影還要??!你看看,國產大模型多牛逼!能夠在保證性能的同時將體積壓縮到 1.1GB,這不僅體現(xiàn)了技術上的突破,也展現(xiàn)了其在實際應用中的巨大潛力。這種“小而強”的特點無疑是中國人工智能領域的一大亮點!
現(xiàn)在已經開始了把 Deepseep 安裝到本地的過程。等待模型下載完畢,Deepseep 就在我們的電腦上駐扎了。操作就是這么簡單,每個人都可以做到,全程也不需要任何費用。當出現(xiàn)下面這個界面,就說明模型已經下載完成啦。
第三步,本機運行 Deepseep使用 Ollama 運行已部署到本地電腦的 Deepseek 模型,有 2 種方式,分別如下:
第 1 種方式:通過命令行運行1. 打開命令行工具:如果是 Windows 系統(tǒng),點擊開始菜單,在搜索框中輸入“CMD”或“PowerShell”并打開;如果是 macOS 系統(tǒng),打開“終端”;如果是 Linux 系統(tǒng),同樣打開“終端”?!?. 查看已安裝模型:在命令行中輸入 ollama list ,查看已經部署好的 Deepseek 模型,確認模型已成功部署在本地。
3. 運行模型:輸入 ollama run deepseek-r1:[模型版本] ,如 ollama run deepseek-r1:1.5b ,按回車鍵,即可啟動模型?!?. 與模型交互:模型啟動后,會出現(xiàn)輸入提示,在命令行中輸入你想要詢問的問題或指令,模型會進行回答?!?. 退出模型:若想退出與模型的交互,在命令行中輸入 /bye 即可?! ∽罱K的運行界面如下:
第 2 種方式:通過 Chatbox 運行同樣,簡單介紹一下 Chatbox 吧。它是一款開源的 AI 客戶端,支持各種主流模型的 API 接入,淘寶買的中轉 API 也能用,當然也支持我們用 Ollama 在本地部署的 Deepseek。
Chatbox 有自己的付費 AI 服務,除此之外使用其他所有功能都是免費的。我們已經在本地部署大模型了,就不需要去買它的 AI 服務了哈。
操作步驟: 1. 下載安裝 Chatbox:訪問 Chatbox 官網(https://chatboxai.app/zh),根據自己的系統(tǒng)選擇對應的安裝包進行下載安裝?!?/p>
2. 配置 Chatbox:安裝完成后打開 Chatbox 界面,點擊左下角的設置。選擇 API 類型為“Ollama”,在接口地址處填寫 http://localhost:11434 ,模型名稱要和部署的模型版本嚴格一致,比如 deepseek-r1:7b ?!?/p>
3. 設置防火墻:確保防火墻放行端口 11434,以保證連接正常。
4. 與模型交互:完成上述配置后,即可在 Chatbox 界面中與 Deepseek 模型進行交互,輸入問題或指令,模型會在界面中給出回答。
OK,看到這里,相信你已經掌握了將 Deepseek 部署到本地的完整流程。說實話,當我第一次成功部署時,那個興奮勁兒真是難以形容 - 終于可以不用擔心隱私問題,盡情讓 AI 幫我干活了!
特此聲明: