Skip to Main Content

テキストAIGCモデル

現在、多数のテキストモデルが存在します。そのうちのいくつかは既存の大規模モデルの微調整によるものであり、またいくつかは様々な企業によってスクラッチからトレーニングされた基本的なモデルです。

有名な基本モデル

基本モデルリリース日モデルサイズ出版社言語特徴
LLaMA2023.037B~65BMeta英語主体、その他の言語には弱いサポート
MPT2023.057Bmosaicml英語主体、その他の言語には弱いサポート商用利用可能、長いコンテキストに対応
ChatGLM2023.036BTHUDM中国語と英語
Cerebras-GPT2023.031.3B~13Bcerebras英語主体、その他の言語には弱いサポート
rwkv-4-raven2023.041.5B~14BBlinkDL複数のバージョン、バージョンによって言語サポートが異なる非変換構造
OpenFlamingo2023.039BLAION英語主体、その他の言語には弱いサポートマルチモーダル、画像に対応
StableLM2023.043B~7Bstability.ai英語主体、その他の言語には弱いサポート
Bloom2022.101B~176Bbigscience59言語
RedPajama-INCITE2023.053B~7Btogether英語主体、その他の言語には弱いサポート
pythia2023.031B~12Beleuther.ai英語
GPT-Neo2021.03125M~2.7Beleuther.ai英語
GPT-J2021.036Beleuther.ai英語
GPT-NeoX2022.0220Beleuther.ai英語
OPT2022.05125M-175BMeta英語主体、その他の言語には弱いサポート

備考

コミュニティ内の他の有名なモデルとこれらの基本モデルとの関係は、以下の表に示されています。

基本モデルモデル名ファインチューニング方法出版社紹介
LLaMAAlpacaフルパラメータファインチューニングstanfordLLaMAのファインチューニングモデル。OpenAIのtext-davinci-003を使用してファインチューニングされました。
Alpaca-LoRA軽量ファインチューニングtloenAlpacaと同じですが、Loraを使用してファインチューニングされました。
VicunaフルパラメータファインチューニングLMSYS OrgLLaMAのファインチューニングモデル。ShareGPTから収集されたユーザー共有の対話をトレーニングおよびファインチューニングしました。
KoalaフルパラメータファインチューニングberkeleyLLaMAのファインチューニングモデル。
WizardLMフルパラメータファインチューニングWizardLMLLaMAのファインチューニングモデル。複雑な指示のファインチューニングに焦点を当てています。
GPT-Jdolly-v1フルパラメータファインチューニングdatabricksGPT-Jのファインチューニングモデル。指示のファインチューニングに焦点を当てています。
gpt4all-jフルパラメータファインチューニングnomic.aiGPT-Jのファインチューニングモデル。
pythiadolly-v2フルパラメータファインチューニングdatabrickspythiaのファインチューニングモデル。指示のファインチューニングに焦点を当てています。