M3E模型,全稱Moka Massive Mixed Embedding,是由MokaAI訓練、開源和評測的文本嵌入模型。它使用uniem作為訓練腳本,並採用MTEB-zh Massive作為評測BenchMark。M3E模型是在千萬級(2200w+)的中文句對數據集上進行訓練的。該模型支持中英雙語的同質文本相似度計算和異質文本檢索等功能,未來還計劃支持代碼檢索Embedding。M3E模型能夠將自然語言轉換成稠密的向量,從而用於各種NLP任務。
M3E模型,全稱Moka Massive Mixed Embedding,是由MokaAI訓練、開源和評測的文本嵌入模型。它使用uniem作為訓練腳本,並採用MTEB-zh Massive作為評測BenchMark。M3E模型是在千萬級(2200w+)的中文句對數據集上進行訓練的。該模型支持中英雙語的同質文本相似度計算和異質文本檢索等功能,未來還計劃支持代碼檢索Embedding。M3E模型能夠將自然語言轉換成稠密的向量,從而用於各種NLP任務。