模型制作 如何用bert模型做翻譯任務(wù)?
如何用bert模型做翻譯任務(wù)?Bert不能做翻譯任務(wù),因為翻譯任務(wù)是NLP生成任務(wù),Bert目前不能做。Bert可以完成的主要任務(wù)有:1文本分類任務(wù),如情感分類,2序列注釋任務(wù),如分詞實體識別,詞性標(biāo)
如何用bert模型做翻譯任務(wù)?
Bert不能做翻譯任務(wù),因為翻譯任務(wù)是NLP生成任務(wù),Bert目前不能做。Bert可以完成的主要任務(wù)有:1文本分類任務(wù),如情感分類,2序列注釋任務(wù),如分詞實體識別,詞性標(biāo)注,3句子關(guān)系判斷,如QA,自然語言推理
學(xué)習(xí)是一個漫長的過程,遇到困難停不下來,語言堅持,那人的學(xué)習(xí)方法不一樣,有的人喜歡看視頻,有的人喜歡看書,B站,CSDN,智湖等等,有很多教學(xué)視頻,可以參考學(xué)習(xí),小編學(xué)習(xí)python,都是直接作戰(zhàn),自己做項目,在項目中遇到問題,去百度,或者谷歌,這些問題解決后,推薦自己的學(xué)習(xí)解決方案也錄下來,發(fā)到網(wǎng)上,讓自己也學(xué)習(xí),為別人也鋪路,相關(guān)的python,小編也寫了很多文章,大家可以參考和學(xué)習(xí)
前段時間,我用了NLP領(lǐng)域最好的。我把它放到業(yè)務(wù)數(shù)據(jù)集上微調(diào)后,效果非常好。
此外,釋義檢測任務(wù)列表模型的精度也提高到0.95,泛化能力很強(qiáng)。改變子域數(shù)據(jù)時不需要繼續(xù)微調(diào),隨機(jī)測試10個以上的情況只會出現(xiàn)一個錯誤。
但是在實際生產(chǎn)環(huán)境中存在一些問題。首先,模型存儲成本巨大。一個bet分類器模型的長度超過400m,并且在我們的知識樹中有很多節(jié)點。假設(shè)只有10個分類器,這部分成本也是巨大的。
而且,使用CPU來做信息會非常慢,但是如果你想更換GPU,機(jī)器的成本每年都會增加很多。
所以最前沿的車型是否真的能被使用,其中會有很多權(quán)衡