在數(shù)字化時代,人工智能(AI)正以前所未有的速度改變著我們的工作和學習方式。然而,對于許多用戶來說,AI技術(shù)的使用仍然存在諸多門檻。排隊等待、復(fù)雜的云部署、高昂的成本……這些都讓AI的普及之路顯得有些艱難。但現(xiàn)在,這一切正在悄然改變。騰訊旗下的智能工作臺 ima.copilot(簡稱 ima)通過接入 DeepSeek-R1 模型,為用戶帶來了一種全新的、免費且強大的AI體驗。
ima.copilot 是騰訊于2024年10月推出的一款以知識庫為核心的AI智能工作臺。它集搜索、閱讀、寫作功能于一體,旨在幫助用戶提升日常學習和工作的效率。該平臺能夠輔助用戶完成各種任務(wù),并將積累的內(nèi)容長期沉淀為個人智能化的知識庫。此外,ima還支持將知識庫進行分享,方便團隊協(xié)作和知識共享。
此次技術(shù)升級后,用戶將 ima 更新至最新版本,就可以在使用搜索、閱讀、寫作和知識庫管理等功能時,自由選擇騰訊混元大模型或 DeepSeek-R1 模型。這種靈活的選擇機制讓用戶能夠根據(jù)自己的需求和偏好,獲得更豐富的使用體驗。
DeepSeek-R1 是一個備受矚目的AI研究項目,其在技術(shù)突破和應(yīng)用場景方面都取得了顯著進展。以下是其關(guān)鍵技術(shù)和應(yīng)用領(lǐng)域的亮點:
TTS是一種優(yōu)化技術(shù),旨在通過動態(tài)調(diào)整模型的計算資源,提升其在特定任務(wù)上的表現(xiàn)。上海AI Lab的周伯文團隊在這一領(lǐng)域取得了重要突破。他們發(fā)現(xiàn),TTS在某些數(shù)學任務(wù)上優(yōu)于傳統(tǒng)的長CoT(Chain of Thought)方法。例如,在MATH-500和AIME2024等數(shù)學競賽中,TTS方法展現(xiàn)出了顯著的優(yōu)勢。具體而言,7B參數(shù)的 DeepSeek-R1-Distill-Qwen 反超了671B參數(shù)的R1滿血版,甚至0.5B模型在某些任務(wù)上超越了GPT-4o。
然而,TTS在更復(fù)雜的任務(wù)上仍有提升空間。例如,在AIME24等高難度數(shù)學競賽中,TTS的性能尚未達到理想水平。研究團隊指出,進一步優(yōu)化監(jiān)督機制將是未來提升TTS性能的關(guān)鍵方向。
強化學習(Reinforcement Learning,RL)和知識蒸餾(Knowledge Distillation)是AI領(lǐng)域中的兩種重要技術(shù)。UC伯克利團隊將這兩種技術(shù)相結(jié)合,對1.5B參數(shù)的 DeepScaleR-1.5B-Preview 模型進行了微調(diào)。結(jié)果顯示,僅用4500美元的成本,該模型在AIME2024競賽中的表現(xiàn)就超越了o1-preview。
這種技術(shù)結(jié)合的核心在于“先短后長”的訓練策略。團隊首先在較短的上下文長度(8K)上訓練模型,隨后逐步擴展到更長的上下文長度(24K)。通過這種方式,模型不僅能夠更好地適應(yīng)復(fù)雜的任務(wù),還能在推理過程中展現(xiàn)出更強的能力。此外,知識蒸餾技術(shù)的引入進一步提升了模型的效率和性能。
本地化推理是AI技術(shù)普及的關(guān)鍵一步。清華大學KVCache.AI團隊通過 KTransformers 開源項目,成功實現(xiàn)了在本地設(shè)備上運行 DeepSeek-R1 的能力。這一項目通過優(yōu)化顯存使用和計算效率,使得即使在低配置硬件上,也能進行高效的推理。
具體而言,KTransformers項目采用了基于計算強度的offload策略、MLA算子優(yōu)化以及MoE(Mixture of Experts)稀疏性利用等技術(shù)。這些優(yōu)化手段使得 DeepSeek-R1 滿血版(671B MoE架構(gòu))能夠在24G顯存的4090顯卡上運行,預(yù)處理速度達到286 tokens/s,推理速度為14 tokens/s。
與此同時,Unsloth AI項目通過GRPO(Gradient-based Progressive Optimization)訓練方法,大幅降低了 DeepSeek-R1 推理的內(nèi)存需求。經(jīng)過優(yōu)化后,僅需7GB VRAM即可在本地運行推理模型(如Qwen2.5 1.5B),極大地降低了使用門檻。這一進展使得更多研究者和開發(fā)者能夠在本地設(shè)備上進行實驗,推動了AI技術(shù)的廣泛應(yīng)用。
ima.copilot 的一大亮點是其多平臺支持的設(shè)計。目前,該平臺已上線Windows端、Mac端,并推出了“ima知識庫”微信小程序。用戶可以通過訪問 ima 官網(wǎng)下載使用,也可以通過微信搜索“ima知識庫”小程序,體驗全網(wǎng)搜索和知識庫問答。
例如,當你在瀏覽微信公眾號上的文章時,可以輕松地將其導入小程序的知識庫。隨后,你可以在小程序中提出問題, ima 會立即調(diào)用混元大模型或 DeepSeek-R1 為你提供答案。這種無縫銜接的體驗,不僅節(jié)省了時間,還提升了工作效率。
Windows端:
訪問 imat官網(wǎng)。
下載并安裝最新版本的Windows客戶端。
安裝完成后,打開軟件并登錄賬號。
進入功能界面:
打開 ima后,進入搜索、閱讀、寫作或知識庫管理等功能界面。
在功能界面中,找到模型選擇的下拉框。
選擇DeepSeek-R1模型:
在下拉框中選擇“DeepSeek-R1”。
確認后,即可開始使用 DeepSeek-R1 模型進行相關(guān)操作。
搜索功能:
在搜索框中輸入問題或關(guān)鍵詞。
DeepSeek-R1 會基于其強大的語義理解能力,提供精準的搜索結(jié)果。
閱讀功能:
上傳需要閱讀的文檔(支持PDF、DOC、JPEG、PNG等格式,最多10個文件)。
DeepSeek-R1 可以快速提取關(guān)鍵信息并生成結(jié)構(gòu)化的總結(jié)。
寫作功能:
在寫作界面中輸入主題或內(nèi)容。
DeepSeek-R1 能夠輔助生成高質(zhì)量的文案、論文或作文。
知識庫管理:
將提取或生成的內(nèi)容添加到知識庫。
利用 DeepSeek-R1 的強大推理能力,對知識庫中的內(nèi)容進行深度分析。
此次 ima.copilot 接入 DeepSeek-R1,不僅為用戶帶來了更強大的AI能力,還完全免費開放。無論你是學生、研究人員還是職場人士,都可以通過 ima.copilot 體驗到前沿的AI技術(shù),提升工作和學習效率。
六、未來展望
隨著技術(shù)的不斷進步,ima和 DeepSeek-R1 將持續(xù)優(yōu)化和升級。未來,它們可能會進一步整合更多功能,如多模態(tài)推理、跨領(lǐng)域應(yīng)用等,為用戶提供更全面的智能支持。
騰訊智能工作臺 ima的此次升級,為用戶帶來了免費且強大的AI體驗。如果你還在為繁瑣的工作任務(wù)或復(fù)雜的寫作需求而煩惱,不妨試試 ima,開啟你的智能工作之旅。
純個人經(jīng)驗,如有幫助,請收藏點贊,如需轉(zhuǎn)載,請注明出處。