开心六月综合激情婷婷|欧美精品成人动漫二区|国产中文字幕综合色|亚洲人在线成视频

    1. 
      
        <b id="zqfy3"><legend id="zqfy3"><fieldset id="zqfy3"></fieldset></legend></b>
          <ul id="zqfy3"></ul>
          <blockquote id="zqfy3"><strong id="zqfy3"><dfn id="zqfy3"></dfn></strong></blockquote>
          <blockquote id="zqfy3"><legend id="zqfy3"></legend></blockquote>
          打開APP
          userphoto
          未登錄

          開通VIP,暢享免費(fèi)電子書等14項(xiàng)超值服

          開通VIP
          DeepSeek R1,本地部署才是王道!支持WebUI

          DeepSeek這把火燒遍了全球,昨天看還是霸榜30多個(gè)國(guó)家的App下載榜單第一名,現(xiàn)在已經(jīng)上升到包括美國(guó)、日本、加拿大等在內(nèi)的164個(gè)國(guó)家的App下載榜單第一名!

          這巨大的流量導(dǎo)致deepseek在昨天幾乎崩潰了,這是我在昨天使用deepseek的情況,時(shí)不時(shí)就會(huì)遇到下面這個(gè)回復(fù)。

          所以我就在想,既然deepseek R1是開源的,直接本地部署使用吧。

          而且本地部署大模型之后,沒有各種限制,可以為所欲為,放飛自我,自給自足,隱私性拉滿,不聯(lián)網(wǎng)也可以用~

          我們還是用之前講過的ollama + open-webui來一鍵部署deepseek r1

          這倆好搭檔非常之牛掰且好用,看他倆在Github的Star就知道了。

          用ollama管理、運(yùn)行deepseek,在open-webui接入ollama之后,我們就可以完全界面化去下載安裝deepseek r1,界面化給大模型調(diào)整參數(shù),并設(shè)定預(yù)設(shè)prompt,以及對(duì)話(如下圖),非常方便

          好了,話不多說,我們開始本地部署deepseek r1!


          一、先安裝ollama和open-webui

          首先就得安裝ollama和open-webui,ollama可以下載官方的exe文件,一鍵安裝,open-webui可docker部署,不清楚的朋友可以先看我之前寫的這篇文章先把ollama和open-webui部署好

          部署ollama、open-webui

          袋鼠帝,公眾號(hào):袋鼠帝AI客棧獨(dú)家!開源AI接入微信【一】ollama + open-webui

          但是注意,英偉達(dá)GPU的朋友請(qǐng)用如下指令部署open-webui(指令在控制臺(tái)輸入,前提是先安裝、啟動(dòng)了docker-desktop):

          docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda

          Docker-desktop墻烈推薦大家都裝上,不僅是open-webui,其他絕大多數(shù)Github的開源項(xiàng)目都支持用docker一鍵部署,docker的好處是自帶虛擬環(huán)境,不需要在本地額外安裝一堆其他環(huán)境、依賴等,是管理、部署項(xiàng)目的神器。

          open-webui也強(qiáng)烈推薦大家安裝使用,它應(yīng)該是目前功能最全,最好用的大模型webui工具。

          安裝完ollama和open-webui,并在open-webui接入本地ollama之后,就可以非常方便的一鍵安裝deepseek r1使用了~


          二、本地部署DeepSeek R1

          首先我們打開ollama官網(wǎng),找到deepseek r1模型

          ollama地址:https://ollama.com/library/deepseek-r1:8b

          可以看到有這么些模型,以及模型的參數(shù)大?。?.5b~671b)和本身所需磁盤空間的大小(1.1G~404G)

          671b參數(shù),404G大小的這個(gè)deepseek r1模型,就是deepseek官網(wǎng)上的那個(gè)R1。

          但是671b參數(shù)的大模型所需的算力驚人,不是我們普通人能玩兒的起的。

          下圖是ollama給出的模型選擇建議

          這里的RAM是指顯存

          如何查看我們電腦的顯存大小呢?

          Ctrl + Shift + Esc打開任務(wù)管理器->性能->GPU

          可以看到,我的電腦顯存是8G(英偉達(dá)3060 ti)

          經(jīng)過測(cè)試,deepseek-r1:8b對(duì)我的電腦來說,運(yùn)行流暢,體驗(yàn)最好~

          如果換成deepseek-r1:14b,勉強(qiáng)能用,但是比較慢,不流暢,體驗(yàn)欠佳。

          所以接下來我們?yōu)g覽器訪問open-webui的頁(yè)面去下載deepseek-r1:8b

          如果安裝好open-webui,直接訪問:http://127.0.0.1:3000/  即可進(jìn)入open-webui頁(yè)面。

          我們進(jìn)入open-webui之后,點(diǎn)擊 左下角用戶->設(shè)置

          點(diǎn)擊 管理員設(shè)置

          本站僅提供存儲(chǔ)服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)點(diǎn)擊舉報(bào)。
          打開APP,閱讀全文并永久保存 查看更多類似文章
          猜你喜歡
          類似文章
          deepseek本地化部署,培養(yǎng)你自己的AI,這樣操作就對(duì)了。
          DeepSeek-R1本地部署,再也不怕宕機(jī),還有語(yǔ)音功能!
          服務(wù)器部署開源大模型完整教程 Ollama+Gemma+open
          本地運(yùn)行大模型,復(fù)刻ChatGPT聊天界面
          Ollama WebUI AnythingLLM,構(gòu)建安全可靠的個(gè)人/企業(yè)知識(shí)庫(kù)
          247.2k star! 超強(qiáng)大的私有化ChatGPT,支持圖像識(shí)別/文生圖/語(yǔ)音輸入/文本朗讀,個(gè)人電腦可運(yùn)行!
          更多類似文章 >>
          生活服務(wù)
          分享 收藏 導(dǎo)長(zhǎng)圖 關(guān)注 下載文章
          綁定賬號(hào)成功
          后續(xù)可登錄賬號(hào)暢享VIP特權(quán)!
          如果VIP功能使用有故障,
          可點(diǎn)擊這里聯(lián)系客服!

          聯(lián)系客服