導(dǎo)讀:ModelScope旨在打造下一代開源的模型即服務(wù)共享平臺,匯集了行業(yè)領(lǐng)先的預(yù)訓(xùn)練模型,減少了開發(fā)者的重復(fù)研發(fā)成本。個人認為,相比于AI公司經(jīng)常賣一款軟件產(chǎn)品或者賣一個算法需求,而ModelScope更偏向于某種功能(model端到端)實現(xiàn),初級AI從業(yè)者也能很容易實現(xiàn)大模型,有點低代碼的感覺。當前ModelScope的功能,相比于CV、NLP的豐富內(nèi)容,它在DS方面、可視化方面、解釋性方面的就相對較少,同時,產(chǎn)品定位 To B和To C的功能域劃分,也不算是很清晰,當然這也是該領(lǐng)域一個共同困擾。首次,當然可以先初級版本開源,其次,平臺可以集大智慧,最后,模型迭代實現(xiàn)功能升級。對比國外也有類似平臺或服務(wù)產(chǎn)品,六年的快速發(fā)展,如今實現(xiàn)估值十多億美元。而在國內(nèi),隨著人工智能場景的無處不在,也有著上千萬的開發(fā)者,國內(nèi)人工智能領(lǐng)域活躍度也異常空前,且有達摩院品牌的加持,ModelScope,六年的時間,會走到哪里呢?是否會迎來一個面向機器學(xué)習(xí)社區(qū)的新生態(tài)?一個嶄新的獨角獸?讓我們拭目以待吧……
匯聚機器學(xué)習(xí)領(lǐng)域中最先進的開源模型,為開發(fā)者提供簡單易用的模型構(gòu)建、訓(xùn)練、部署等一站式產(chǎn)品服務(wù),讓模型應(yīng)用更簡單。
ModelScope旨在打造下一代開源的模型即服務(wù)共享平臺,為泛AI開發(fā)者提供靈活、易用、低成本的一站式模型服務(wù)產(chǎn)品,讓模型應(yīng)用更簡單!
我們希望在匯集行業(yè)領(lǐng)先的預(yù)訓(xùn)練模型,減少開發(fā)者的重復(fù)研發(fā)成本,提供更加綠色環(huán)保、開源開放的AI開發(fā)環(huán)境和模型服務(wù),助力綠色“數(shù)字經(jīng)濟”事業(yè)的建設(shè)。 ModelScope平臺將以開源的方式提供多類優(yōu)質(zhì)模型,開發(fā)者可在平臺上免費體驗與下載使用。
若您也和我們有相同的初衷,歡迎關(guān)注我們,我們鼓勵并支持個人或企業(yè)開發(fā)者與我們聯(lián)系,平臺將為您構(gòu)建更好的支持服務(wù),共同為泛AI社區(qū)做出貢獻。
官網(wǎng):https://modelscope.cn/home
官網(wǎng)文檔:https://modelscope.cn/docs/%E6%A6%82%E8%A7%88%E4%BB%8B%E7%BB%8D
ModelScope 社區(qū)是什么 | 基于達摩院機器智能、大模型、xr實驗室等一些前沿技術(shù)所誕生的模型即服務(wù)共享平臺。提供開源數(shù)據(jù)集、開源模型、模型工具等,用社區(qū)的方式免費開發(fā)給廣大個人、企業(yè)用戶使用。它提供了模型管理檢索、模型下載、模型調(diào)優(yōu)和訓(xùn)練模型推理。目前版本優(yōu)先開放了模型調(diào)優(yōu)訓(xùn)練和推理,后續(xù)會開放模型部署及模型應(yīng)用服務(wù)。 |
提供什么服務(wù) | ? 開源開發(fā)框架:是一套Python的SDK,通過簡單地集成方式可以快速的實現(xiàn)模型效果,比如一行代碼實現(xiàn)模型推理,幾行代碼實現(xiàn)模型調(diào)優(yōu)。 ? 開源模型庫:社區(qū)會提供一個開源模型庫里面包含了全行業(yè)的SOTA模型。 ? 開源數(shù)據(jù)集:社區(qū)會提供達摩院沉淀的電商領(lǐng)域數(shù)據(jù)集以及一些通用領(lǐng)域的數(shù)據(jù)集,結(jié)合業(yè)內(nèi)一些經(jīng)典數(shù)據(jù)集配合工具自動對外開放 ? 實訓(xùn)框架:集成了PAI機器學(xué)習(xí)框架及DSW,可以實現(xiàn)在線的模型訓(xùn)練和推理工作,未來DSW中也會集成ModelScope社區(qū)整套的開發(fā)環(huán)境,可以讓初階用戶快速的通過PAI和DSW實現(xiàn)模型把玩。同時還支持本地環(huán)境直接獲取模型和復(fù)制相應(yīng)的模型代碼,在本地實現(xiàn)模型調(diào)優(yōu)和推理工作。 ? 文檔教程:社區(qū)提供了全套的文檔和教程可以更好幫助開發(fā)者使用社區(qū)相關(guān)服務(wù)。 ? 開發(fā)者社區(qū):社區(qū)提供了開發(fā)者交流、溝通及反饋的能力板塊。 |
ModelScope 社區(qū)愿景 | 社區(qū)希望支持廣大開發(fā)者通過社區(qū)平臺學(xué)習(xí)和實踐AI,從社區(qū)中可以獲取所需的模型信息。對于初階開發(fā)者可以在社區(qū)中使用模型,對于中高階開發(fā)者可以通過社區(qū)調(diào)優(yōu)評測模型并用于自己的個性化業(yè)務(wù)場景。 同時社區(qū)也非常歡迎各類開發(fā)者加入社區(qū)并分享自身研發(fā)或沉淀的模型,通過在社區(qū)內(nèi)不斷學(xué)習(xí)實踐及自由交流形成AI領(lǐng)域的意見領(lǐng)袖或行業(yè)先鋒,為中國AI開源宏偉事業(yè)貢獻力量。 |
免費使用平臺提供的預(yù)訓(xùn)練模型,支持免費下載運行;
一行命令實現(xiàn)模型預(yù)測,簡單快速驗證模型效果;
用自己的數(shù)據(jù)對模型進行調(diào)優(yōu),定制自己的個性化模型;
學(xué)習(xí)系統(tǒng)性的知識,結(jié)合實訓(xùn),有效提升模型研發(fā)能力;
分享和貢獻你的想法、評論與模型,讓更多人認識你,在社區(qū)中成長;
千億參數(shù)大模型全面開放
多領(lǐng)域SOTA“百?!遍_源
10行代碼實現(xiàn)模型finetune
1行代碼實現(xiàn)模型推理
豐富的預(yù)訓(xùn)練SOTA模型 | 覆蓋NLP、CV、Audio等多領(lǐng)域的具有競爭力的SOTA模型,更有行業(yè)領(lǐng)先的多模態(tài)大模型,全部免費開放下載以及使用。 |
多元開放的數(shù)據(jù)集 | 匯集行業(yè)和學(xué)術(shù)熱門的公開數(shù)據(jù)集,更有阿里巴巴集團貢獻的專業(yè)領(lǐng)域數(shù)據(jù)集等你來探索。 |
一行代碼使用模型推理能力 | 提供基于模型的本地推理接口,以及線上模型推理預(yù)測服務(wù),方便開發(fā)者快速驗證與使用。 |
十行代碼快速構(gòu)建專屬行業(yè)模型 | 十行代碼實現(xiàn)對預(yù)訓(xùn)練模型的調(diào)優(yōu)訓(xùn)練(finetune),方便開發(fā)者基于行業(yè)數(shù)據(jù)集快速構(gòu)建專屬行業(yè)模型。 |
即開即用的在線開發(fā)平臺 | 一鍵開啟在線notebook實訓(xùn)平臺,集成官方鏡像免除環(huán)境安裝困擾,鏈接澎湃云端算力,體驗便捷的交互式編程。 |
靈活的模型框架與部署方式 | 兼容主流AI框架,更好地實現(xiàn)模型遷移;多種模型訓(xùn)練與服務(wù)部署方式,提供更多自主可控的選擇。 |
豐富的教學(xué)內(nèi)容與技術(shù)資源 | 提供友好的優(yōu)質(zhì)的教程內(nèi)容與開放的社區(qū)氛圍,幫助開發(fā)者學(xué)習(xí)成長。(內(nèi)容持續(xù)更新中,敬請關(guān)注) |
官方文檔:
https://www.modelscope.cn/docs/%E4%BB%BB%E5%8A%A1%E7%9A%84%E4%BB%8B%E7%BB%8D
ModelScope 社區(qū)平臺提供了覆蓋多個領(lǐng)域的模型任務(wù),包括自然語言處理(NLP)、計算機視覺(CV)、語音(Audio)、多模態(tài)(Multi-Modal)等,并提供相關(guān)任務(wù)的推理、訓(xùn)練等服務(wù)。
計算機視覺(CV):計算機視覺是指機器感知環(huán)境的能力。這一技術(shù)類別中的經(jīng)典任務(wù)有圖像形成、圖像處理、圖像提取和圖像的三維推理。
自然語言處理(NLP):自然語言處理是人工智能和語言學(xué)領(lǐng)域的分支學(xué)科。自然語言處理融合了計算機科學(xué),語言學(xué)和機器學(xué)習(xí)的交叉學(xué)科,利用計算機技術(shù)對語言進行處理和加工的科學(xué),包括對詞法、句法、語義等信息的識別、分類、抽取、生成等技術(shù)。
語音處理(Audio):語音處理指機器從大量的語音數(shù)據(jù)中提取語音特征,學(xué)習(xí)和發(fā)現(xiàn)其中蘊含的規(guī)律的過程。
多模態(tài)(Multi-Modal): 多模態(tài)主要是指讓機器能夠理解和處理自然界或人工定義的多種模態(tài)信息,如聲音、語言、視覺信息和表格、點云信息等。多模態(tài)技術(shù)的目的是打通模態(tài)之間溝通的橋梁和通過信息互補提升理解各自模態(tài)的能力。常見任務(wù)有視覺問答,表格問答,圖片描述以及目前火熱的根據(jù)描述生成圖片。
當前,ModelScope 社區(qū)平臺支持的任務(wù)類型按照領(lǐng)域分為如下的任務(wù)類型,該任務(wù)列表將持續(xù)更新擴展。若您有新的任務(wù)類型和模型,建議提PR給我們,我們歡迎社區(qū)成員共同來貢獻和維護相應(yīng)的任務(wù)列表!
任務(wù)(英文) | 任務(wù)(中文) | 任務(wù)說明 |
---|---|---|
ocr-detection | 文字檢測 | 將圖像中的文字檢測出來并返回檢測點坐標位置 |
ocr-recognition | 文字識別 | 將圖像中的文字識別出來并返回文本內(nèi)容 |
face-detection | 人臉檢測 | 對圖像中的人臉進行檢測并返回人臉坐標位置 |
face-recognition | 人臉識別 | 對圖像中的人臉進行檢測并返回人臉坐標位置 |
human-detection | 人體檢測 | 對圖像中的人體關(guān)鍵點進行檢測并返回關(guān)鍵點標簽與坐標位置 |
body-2d-keypoints | 人體2D關(guān)鍵點 | 檢測圖像中人體2D關(guān)鍵點位置 |
human-object-interaction | 人物交互關(guān)系 | 對圖像中的肢體關(guān)鍵點和物品進行檢測和識別對坐標信息進行處理 |
face-image-generation | 人臉生成 | 對圖像中的人臉進行區(qū)域位置檢測并生成虛擬人臉 |
image-classification | 單標簽圖像分類 | 對圖像中的不同特征根據(jù)類別進行區(qū)分 |
image-multilabel-classification | 多標簽圖像分類 | 解析圖像特征支持多個類別區(qū)分 |
image-object-detection | 通用目標檢測 | 對輸入圖像中的較通用物體定位及類別判斷 |
image-object-detection | 目標檢測-自動駕駛場景 | 對自動駕駛中的場景進行目標檢測,圖像中的人、車輛及交通信息等進行實時解析并進行標注 |
portrait-matting | 人像摳圖 | 對輸入的圖像將人體部分摳出并對背景進行透明化處理 |
image-segmentation | 通用圖像分割 | 識別圖像主體與圖像背景進行分離 |
image-protrait-enhancement | 人像增強 | 對圖像中的人像主體進行細節(jié)增強 |
skin-retouching | 人像美膚 | 對圖像中的人像皮膚進行細節(jié)美化 |
image-super-resolution | 圖像超分辨 | 對圖像進行倍數(shù)放大且不丟失畫面質(zhì)量 |
image-colorization | 圖像上色 | 對黑白圖像進行區(qū)域解析并對其進行類別上色 |
image-color-enhancement | 圖像顏色增強 | 對圖像中色彩值進行解析并對其進行規(guī)則處理 |
image-denoising | 圖像降噪 | 對圖像中的噪點進行處理降低 |
image-to-image-translation | 圖像翻譯 | 將一張圖片上的文字翻譯成目標語言并生成新的圖片 |
image-to-image-generation | 以圖生圖 | 根據(jù)輸入圖像生成新的類似圖像 |
image-style-transfer | 風(fēng)格遷移 | 對圖像或視頻的色彩風(fēng)格進行另一種風(fēng)格轉(zhuǎn)化 |
image-portrait-stylization | 人像卡通化 | 對輸入的圖像進行卡通化處理,實現(xiàn)風(fēng)格變化 |
image-embedding | 圖像表征 | 對輸入圖像特征進行多模態(tài)匹配 |
image-search | 搜索推薦 | 根據(jù)輸入圖像進行范圍匹配 |
image-evaluation | 審核評估 | 對圖像進行解析并自動給出一個評估信息 |
video-processing | 視頻處理 | 對視頻信息進行自動運算處理 |
live_category | 直播商品類目識別 | 實時解析識別直播畫面中的商品類別進行信息展示 |
action_recognition | 行為識別 | 對視頻中的動作行為進行識別并返回類型 |
video_category | 短視頻內(nèi)容分類 | 解析短視頻語義進行場景分類 |
video-detecction | 視頻檢測 | 對視頻信息進行內(nèi)容解析 |
video-segmentation | 視頻分割 | 對視頻信息進行背景和主體分離 |
video-generation | 視頻生成 | 對視頻進行解析匹配視頻信息進行生成 |
video-editing | 視頻編輯 | 對視頻進行解析轉(zhuǎn)化為可編輯狀態(tài) |
video-embedding | 視頻表征 | 對視頻特征進行多模態(tài)匹配 |
video-search | 視頻檢索 | 對視頻解析根據(jù)規(guī)則提取部分信息 |
reid-and-tracking | 目標跟蹤及重識別 | 可對圖片和視頻進行目標識別可重復(fù)識別 |
video-evaluation | 視頻審核評估 | 根據(jù)規(guī)則對視頻解析并給出評估結(jié)果 |
video-ocr | 視頻文本識別 | 對視頻中的文字內(nèi)容進行識別 |
video-captioning | 視頻到文本 | 將視頻中的音頻轉(zhuǎn)化為文本信息 |
virtual-try-on | 虛擬試衣 | 給定模特圖片和衣服圖片,合成模特穿上給定衣服的圖片 |
3d-reconstruction | 三維重建 | 對三維模型解析并重新構(gòu)建 |
3d-recognition | 三維識別 | 對三維模型進行識別并進行標注 |
3d-editing | 三維編輯 | 對三維模型解析轉(zhuǎn)化為可編輯狀態(tài) |
3d-driven | 驅(qū)動交互 | 對三維模型解析轉(zhuǎn)為為動態(tài)效果 |
3d-rendering | 渲染呈現(xiàn) | 對三維模型進行渲染并以圖像展示 |
ar-vr | 增強/虛擬現(xiàn)實 | 對vr圖像信息進行畫面增強 |
任務(wù)(英文) | 任務(wù)(中文) | 任務(wù)說明 |
---|---|---|
sentence-similarity | 句子相似度 | 文本相似度服務(wù)提供不同文本之間相似度的計算,并輸出一個介于0到1之間的分數(shù),分數(shù)越大則文本之間的相似度越高 |
nli | 自然語言推理 | 判斷兩個句子(Premise, Hypothesis)或者兩個詞之間的語義關(guān)系 |
sentiment-classification | 情感分類 | 分析并給出文本的情感正負傾向 |
zero-shot-classification | 零樣本分類 | 只需要提供待分類的句子和類別標簽即可給出句子類別 |
relation-extraction | 關(guān)系抽取 | 非結(jié)構(gòu)或半結(jié)構(gòu)化數(shù)據(jù)中找出主體與客體之間存在的關(guān)系,并將其表示為實體關(guān)系三元組 |
translation | 翻譯 | 將一種語言的文本翻譯成指定語言的文本 |
word-segmentation | 分詞 | 分詞,將連續(xù)的自然語言文本,切分成具有語義合理性和完整性的詞匯序列 |
part-of-speech | 詞性標注 | 指為自然語言文本中的每個詞匯賦予一個詞性的過程,如名詞、動詞、副詞等 |
named-entity-recognition | 命名實體識別 | 指識別自然語言文本中具有特定意義的實體,通用領(lǐng)域如人名、地名、機構(gòu)名等 |
text-error-correction | 文本糾錯 | 準確識別輸入文本中出現(xiàn)的拼寫錯別字及其段落位置信息,并針對性給出正確的建議文本內(nèi)容 |
task-oriented conversation | 任務(wù)型對話 | 主要指機器人為滿足用戶某一需求而產(chǎn)生的多輪對話,機器人通過理解、澄清等方式確定用戶意圖,繼而通過答復(fù)、調(diào)用API等方式完成該任務(wù) |
open-domain conversation | 開放型對話 | 無目的、無領(lǐng)域約束能夠在開放域內(nèi)進行有意義的對話 |
text-generation | 文本生成 | 模型接受各種形式的信息作為輸入,包括文本或者非文本結(jié)構(gòu)化信息等,生成可讀的文字表述。 |
table-question-answering | 表格問答 | 給定一張表格和一個query,query是詢問表格里面的一些信息,模型給出答案 |
sentence-embedding | 句向量 | 將輸入文本從字符轉(zhuǎn)化成向量表示 |
fill-mask | 完形填空 | 輸入一段文本,同時將里面的部分詞mask掉,模型通過理解上下文預(yù)測被mask的詞 |
multilingual-fill-mask | 多語言完形填空 | 輸入各種語言的文本,同時將里面的部分詞mask掉,模型通過理解上下文預(yù)測被mask的詞 |
text-summarization | 文本摘要 | 自動抽取輸入文本中的關(guān)鍵信息并生成指定長度的摘要 |
question-answering | 問答 | 給定一長段文字,然后再給一個問題,然后理解長段文字之后,對這個問題進行解答。 |
passage-ranking | 篇章排序 | 給出大量的候選段落,然后再給一個問題,模型從大量的候選段落找出能回答問題的那個段落 |
任務(wù)(英文) | 任務(wù)(中文) | 任務(wù)說明 |
---|---|---|
auto-speech-recognition | 語音識別 | 將人類的語音信號轉(zhuǎn)換成文本或者指令 |
text-to-speech | 語音合成 | 將文本轉(zhuǎn)換成人類聽的到的聲音 |
acoustic-noise-suppression | 語音降噪 | 對語音信號進行處理,消除信號當中的噪聲 |
acoustic-echo-cancellation | 回聲消除 | 在信號處理領(lǐng)域用來抵消回波信號的方法 |
keyword-spotting | 語音喚醒 | 對指定的關(guān)鍵詞進行識別 |
audio-claassification | 音頻分類 | 對音頻按照事件如“哭聲”“爆炸聲”“音樂”等事件類型進行識別和分類 |
voice-activity-detection | 語音端點檢測 | 檢測人類說話聲音的語音起始位置以及中間片段 |
任務(wù)(英文) | 任務(wù)(中文) | 任務(wù)說明 |
---|---|---|
image-captioning | 圖像描述 | 根據(jù)圖片生成一段文本描述 |
visual-grounding | 視覺定位 | 根據(jù)描述,在圖片中定位出物體框 |
text-to-image-synthesis | 文本生成圖片 | 根據(jù)描述,生成符合描述的圖片 |
multi-modal-embedding | 多模態(tài)表征 | 抽取模態(tài)的向量表征,這些向量在同一個空間中(目前主要是圖片和文本) |
visual-question-answering | 視覺問答 | 根據(jù)圖片和問題,給出文本答案 |
visual-entailment | 視覺蘊含 | 根據(jù)圖片和一段假設(shè),判斷二者的蘊含關(guān)系 |
image-text-retrieval | 圖文檢索 | 根據(jù)圖片/文本直接搜索文本/圖片的數(shù)據(jù) |
ModelScope Library目前支持tensorflow,pytorch深度學(xué)習(xí)框架進行模型訓(xùn)練、推理, 在Python 3.7+, Pytorch 1.8+, Tensorflow1.15,Tensorflow 2.x上測試可運行。
注意:語音相關(guān)的功能僅支持 python3.7, tensorflow1.15.4的Linux環(huán)境使用。 其他功能可以在linux、mac x86等環(huán)境上安裝使用。
第一步,python環(huán)境配置
conda create -n modelscope python=3.7 conda activate modelscope
第二步,安裝相關(guān)DL框架
pip3 install torch torchvision torchaudio pip install --upgrade tensorflow
第三步,安裝ModelScope library
NLP | 如僅需體驗NLP功能,可執(zhí)行如下命令安裝依賴: pip install "modelscope[nlp]" -f https://modelscope.oss-cn-beijing.aliyuncs.com/releases/repo.html |
CV | 如僅需體驗CV功能,可執(zhí)行如下命令安裝依賴: pip install "modelscope[cv]" -f https://modelscope.oss-cn-beijing.aliyuncs.com/releases/repo.html |
多模態(tài) | 如僅需體驗多模態(tài)功能,可執(zhí)行如下命令安裝依賴: pip install "modelscope[multi-modal]" -f https://modelscope.oss-cn-beijing.aliyuncs.com/releases/repo.html |
語音 | 如僅需體驗語音功能,請執(zhí)行如下命令: pip install "modelscope[audio]" -f https://modelscope.oss-cn-beijing.aliyuncs.com/releases/repo.html |
第四步,測試
python -c "from modelscope.pipelines import pipeline;print(pipeline('word-segmentation')('今天天氣不錯,適合 出去游玩'))"
模型庫:https://www.modelscope.cn/models
管方文檔:
https://modelscope.cn/docs/%E6%A8%A1%E5%9E%8B%E5%BA%93%E4%BB%8B%E7%BB%8D
1)基礎(chǔ)信息包括您的模型英文名稱、中文名、所有者、許可證類型、是否公開和模型描述。
許可證類型決定您的模型遵循對應(yīng)的開源協(xié)議。
是否公開決定您的模型是否能被其他用戶檢索查看,若設(shè)置為非公開模型,則其他用戶無法查看,僅您自己查看。您也可以創(chuàng)建后在設(shè)置頁面進行權(quán)限的修改配置。
模型描述建議介紹您的模型的特性和應(yīng)用場景,將展現(xiàn)在模型列表頁方便用戶搜索查詢。
2)上傳README文檔。若您已有README文檔,可直接在此處上傳。若您沒有README文檔,系統(tǒng)將為您自動創(chuàng)建一個README文檔。 為了讓模型介紹更容易被理解和檢索,我們推薦您按照模型卡片規(guī)范進行書寫,具體可查看如何寫好用的模型卡片。
系統(tǒng)將根據(jù)您上傳的README.md文件進行解析,并展示在模型介紹頁面。
右側(cè)的demo根據(jù)task進行支持,當前支持的task類型將逐步開放,若您在readme中按照要求填寫task和demo的示例代碼等信息,系統(tǒng)將自動渲染出來。
若您沒有README文檔,可在模型文件中找到README.md并點擊編輯進行在線編輯。
完成創(chuàng)建后,平臺將為您分配一個存儲地址,如下:
git lfs install git clone http://... modelscope.cn/swingtest/text-generation.git
可通過頁面或者git的方式將文件添加至該模型庫中,也可通過頁面上傳相關(guān)的模型文件。
其中ACCESS_TOKEN可以通過用賬號密碼登錄網(wǎng)站, 前往【個人中心】->【訪問令牌】獲取
from modelscope.hub.api import HubApi # 1、登錄 api = HubApi() api.login(YOUR_ACCESS_TOKEN) # 2、創(chuàng)建模型 api.create_model( model_id="damo/cv_unet_image-matting_damo", visibility=ModelVisibility.PUBLIC, license=Licenses.APACHE_V2, chinese_name="這是我的第一個模型", )
以上例子中,創(chuàng)建出模型的完整模型id為"damo/cv_unet_image-matting_damo",可以在Model/Pipeline種使用。
CV之ModelScope:基于ModelScope框架的人臉人像數(shù)據(jù)集利用DCT-Net算法實現(xiàn)人像卡通化圖文教程之詳細攻略_一個處女座的程序猿的博客-CSDN博客
NLP之ModelScope:基于ModelScope框架的afqmc數(shù)據(jù)集利用StructBERT預(yù)訓(xùn)練模型的文本相似度算法實現(xiàn)文本分類任務(wù)圖文教程之詳細攻略_一個處女座的程序猿的博客-CSDN博客