GPT(ChatGPT)に代表される大規模言語モデル(Large Language Model)の開発と発表が次々とされています。
大規模言語モデルを用いたアプリケーションを開発したいと思う方々もいるかと思いますが、どんなモデルがあるのか探すだけでも大変と感じている方もいるのではないかと思います。
このページでは大規模言語モデルを使ったアプリケーション開発者向けに、
商用利用可能なオープンソースの大規模言語モデルの情報を紹介します。
【注意事項】
- 既にサービス化されているもの(OpenAI、Azure)などは対象外とします。
- ソースに基づいて記載し、誤りがないよう注意していますが、誤りがない可能性もゼロではありませんので、最終的な確認・判断は各自お願いできればと思います。
- このページでは大規模言語モデルのリリースを見つけ次第情報を更新していく予定です。
商用利用可能な大規模言語モデル一覧
Phi-3
開発主体: Microsoft
発表日:Apr. 23, 2024
Microsoftからでたオープンソースのモデル。モデルのサイズが小さいにもかかわらず、chatGPT-3.5に匹敵する精度が出ていることが特徴。もはやLLM(Large Language Model)ではなく、SLM(Small Language Model)と呼ばれる。
![](https://chishikikakusan.com/wp-content/uploads/2024/05/image-976x1024.png)
![](https://azure.microsoft.com/en-us/blog/wp-content/uploads/2024/04/Azure_Blog_Isometric_Illustration-10_1260x708.jpg)
Llama3
開発主体: meta
発表日:Apr. 18, 2024
Llama2の後継。大本命となりそう。
![](https://chishikikakusan.com/wp-content/uploads/2024/04/image-1024x575.png)
![](https://scontent-itm1-1.xx.fbcdn.net/v/t39.2365-6/438904118_1185694632845028_8008633574873659221_n.jpg?_nc_cat=101&ccb=1-7&_nc_sid=e280be&_nc_ohc=6XAqltu_1LsAb7Og0CG&_nc_ht=scontent-itm1-1.xx&oh=00_AfA5SZhGTHZQaiImU3d0jiFwRvtqGnt6hRCRYqLMPfAfGg&oe=663F5280)
![](https://chishikikakusan.com/wp-content/uploads/cocoon-resources/blog-card-cache/d094fb9450c503c52ce0714214e099e3.jpg)
DBRX
開発主体:Databricks
発表日:Mar. 27, 2024
サイズは1320億パラメータ。
![](https://chishikikakusan.com/wp-content/uploads/cocoon-resources/blog-card-cache/94854b2c7c7fb629eb02d3c0d6e1214a.png)
Karasu / Qarasu
開発主体:Lightblue
発表日:Dec. 29 2023
Lightblue社より日本語LLMとして、KarasuシリーズとQarasuシリーズがリリースされました。
Karasuシリーズは70億パラメータのモデル、Qarasuシリーズは140億パラメータのモデルであり、既存の日本語公開モデルの中で最高性能とのこと。
![](https://cdn-thumbnails.huggingface.co/social-thumbnails/collections/lightblue/karasu-658e78e9188f3934c6fb701e.png)
![](https://chishikikakusan.com/wp-content/uploads/cocoon-resources/blog-card-cache/030d43e60ede7c1f76d46346dfd754e3.png)
Swallow
開発主体:東京工業大学
Lama2 を日本語で継続学習を実施。
![](https://chishikikakusan.com/wp-content/uploads/cocoon-resources/blog-card-cache/e79d989445eac381c6c7a71369cf3cb8.png)
Meditron (医療系)
開発主体:EPFL
発表日:Nov 27. 2023
ライセンス:
(Model) LLAMA 2 COMMUNITY LICENSE AGREEMENT
(Code) APACHE 2.0 LICENSE
初の医療特化型の商用利用可能なオープンソースLLM。ドメイン特化型の存在意義についていろいろ議論が出ていますが、これについてはGPT3.5に匹敵とのこと。
![](https://chishikikakusan.com/wp-content/uploads/2023/12/image-1024x430.png)
![](https://chishikikakusan.com/wp-content/uploads/cocoon-resources/blog-card-cache/48b82b94e4fecf12a9c7b9a76ce4c8d5.png)
![](https://chishikikakusan.com/wp-content/uploads/cocoon-resources/blog-card-cache/0eb4e0347593a4e994c922528b07501a.png)
Stockmark-13b (ビジネス)
開発主体:ストックマーク
発表日:Oct 10. 2023
ストックマーク社が開発したビジネス領域に特化したLLM。ビジネス領域に関する質問応答に高精度達成。
![](https://chishikikakusan.com/wp-content/uploads/cocoon-resources/blog-card-cache/def9a8b01d38525dfc7c75d3421ff7e3.jpg)
![](https://cdn-thumbnails.huggingface.co/social-thumbnails/models/stockmark/stockmark-13b.png)
LLM-jp-13B
開発主体:NII(LLM.jp)
発表日: Oct 20. 2023
130億の大規模言語モデル(LLM)の構築
![](https://chishikikakusan.com/wp-content/uploads/cocoon-resources/blog-card-cache/3abaf6a014aab4e443ea2fde460b26ed.jpg)
PLaMo – Preferred Language Model
開発主体:Preferred Networks
発表日:Sep 28. 2023
130億のパラメータで、日英2言語をあわせた能力で世界トップレベルの性能を達成
![](https://chishikikakusan.com/wp-content/uploads/2023/10/image.png)
![](https://chishikikakusan.com/wp-content/uploads/cocoon-resources/blog-card-cache/877ef662c06facf450c670fd6a614398.jpg)
ELYZA-japanese-Llama-2-7b/13b
開発主体: ELYZA
発表日:Aug 28. 2023 -> Dec 12. 2023
ELYZAよりLlama2(70億パラメータ)ベースの日本語LLMが公開されました。
日本語LLMとしては最高精度であると発表されています。
(追記 Dec 12. 2023)
「Llama 2 13B」をベースとした商用利用可能な日本語LLM、「ELYZA-japanese-Llama-2-13b」が開発されました。GPT-3.5を超え、現時点日本語LLMで最高性能となっています。
![](https://chishikikakusan.com/wp-content/uploads/2023/12/image-3-1024x600.png)
![](https://chishikikakusan.com/wp-content/uploads/cocoon-resources/blog-card-cache/8fabaad246b8cc25ba6098ab24578911.png)
![](https://chishikikakusan.com/wp-content/uploads/cocoon-resources/blog-card-cache/3b54ace40213f11bd925546c739b8715.png)
japanese-large-lm
開発主体: LINE
発表日:Aug 14. 2023
LINEより日本語の大規模言語モデルがリリースされました。LINE独自でコーパスでトレーニングしたとのこと。36億パラメータと比較的小さいので動かしやすいかも。
Instruction tuningしたモデルを近日中に公開するとのこと。ありがたいです。
![](https://chishikikakusan.com/wp-content/uploads/cocoon-resources/blog-card-cache/6490fc34615ae430a260aeae77a42ab8.png)
Instruction tuningされたバージョンが商用利用可能なライセンスでリリースされました!!
発表日:Aug 18. 2023
![](https://chishikikakusan.com/wp-content/uploads/cocoon-resources/blog-card-cache/904b9b1afe010b1e74beda7b2e73c8e5.png)
Japanese StableLM Alpha
開発主体: Stability AI Japan
発表日:Aug 10. 2023 -> Oct 10. 2023 -> Oct 25. 2023
Stability AI Japanより日本語大規模言語モデルがリリース。日本語の精度では圧倒的なようです。
![](https://chishikikakusan.com/wp-content/uploads/2023/08/image-1024x625.png)
ホームページより抜粋
インストラクションモデルも商用利用可能となりました(2023/10/11 -> 2023/10/25)
Llama 2
開発主体:Meta
発表日:July 18. 2023
Metaより、700億パラメータのモデルがリリースされました。
![](https://chishikikakusan.com/wp-content/uploads/cocoon-resources/blog-card-cache/9a3862d2db6f7ac258c9995729b2ad15.jpg)
![](https://scontent-itm1-1.xx.fbcdn.net/v/t39.2365-6/384127954_1010009116964035_2906046058102555347_n.jpg?_nc_cat=101&ccb=1-7&_nc_sid=aa6a2f&_nc_ohc=bS5TJnLlSK4Ab4FErzW&_nc_ht=scontent-itm1-1.xx&oh=00_AfAObkUzDoUgaqkiXH0UlgnK-jjVRWvYqYVB7ORf0jNg-Q&oe=66293CC5)
XGen
開発主体:Salesforce
発表日:Jun 28. 2023
XGen-7B-4K-baseとXGen-7B-8K-baseはapach2.0だが、XGen-7B-{4K,8K}-instは研究目的のみ。
Falcon
開発主体:Technology Innovation Institute
発表日:Jun 5. 2023
ライセンス:Apache 2.0
Falconはアラブ首長国連邦にある研究機関Technology Innovation Instituteにより開発されました。ウェブ上から集めた大規模なデータセットであるRefinedWebをベースにFalconは訓練されています。
400億個のパラメーターをもつ「Falcon-40B」モデルは、90GBのGPU Memoryが必要とのことで動かすのが結構大変かもしれません。。
![](https://chishikikakusan.com/wp-content/uploads/cocoon-resources/blog-card-cache/720bd2d168126b32248c2ccf52a8a570.jpg)
![](https://cdn-thumbnails.huggingface.co/social-thumbnails/models/tiiuae/falcon-40b.png)
open-calm
開発主体:サイバーエージェント
発表日:May 27. 2023 -> Nov 2 2023
ライセンス:CC BY-SA 4.0
対応言語:日本語
サイバーエージェントが最大68億パラメータの日本語LLM(大規模言語モデル)を開発
バージョン2がリリースされました(Nov 2 2023)
![](https://chishikikakusan.com/wp-content/uploads/cocoon-resources/blog-card-cache/373fbe242b98907823f6c62e22dedee2.png)
![](https://chishikikakusan.com/wp-content/uploads/cocoon-resources/blog-card-cache/392e203a8bb0415a160f694a89513658.png)
rinna 日本語LLM
開発主体:rinna
発表日:May 17. 2023
ライセンス:MIT License
![](https://chishikikakusan.com/wp-content/uploads/cocoon-resources/blog-card-cache/73c5df6778c3e4feb8aa9300f2673229.jpg)
OpenLLaMA
開発主体:Berkeley AI Research
発表日: May 4. 2023
![](https://cdn-thumbnails.huggingface.co/social-thumbnails/openlm-research.png)
MPT
開発主体:MosaicML
発表日: May 5, 2023 -> Jun 22, 2023
7Bをこえる30Bのモデルが発表されました。
![](https://chishikikakusan.com/wp-content/uploads/cocoon-resources/blog-card-cache/81fbeae1af03a6248eb948304cd370c6.jpg)
モデルURL(7Bモデル):
(Base model) https://huggingface.co/mosaicml/mpt-7b
(StoryWriter):https://huggingface.co/mosaicml/mpt-7b-storywriter
(Instruction): https://huggingface.co/mosaicml/mpt-7b-instruct
利用手順:
![](https://chishikikakusan.com/wp-content/uploads/cocoon-resources/blog-card-cache/3a176ca16536f50e3920b148589b37d1.png)
RedPajama
開発主体:Together
発表日:May 5,2023
独自に用意したRedPajama base datasetで訓練されたモデル。
![](https://chishikikakusan.com/wp-content/uploads/cocoon-resources/blog-card-cache/69cae866b385be22dcd9eb1756ff2f5d.png)
StableLM
開発主体: Stability.ai
発表日: April 19, 2023
Dolly-2.0
開発主体:Databricks
発表日:April 12, 2023
![](https://chishikikakusan.com/wp-content/uploads/cocoon-resources/blog-card-cache/98d0d11fd1989136f1d6a9143259bf63.png)
訓練済みモデルURL:
https://huggingface.co/datasets/databricks/databricks-dolly-15k/blob/main/databricks-dolly-15k.jsonl
Databricks社が独自の会話データセットを作成し、訓練を行ったモデル。
作成データも自由に利用可能。
RWKV
開発主体: BlinkDL
発表日: April, 2023
RNN(Recurrent Neural Network)ベースで構築された大規模言語モデル。
Cerebras-GPT
開発主体:Cerebras
発表日:March 28, 2023
![](https://chishikikakusan.com/wp-content/uploads/cocoon-resources/blog-card-cache/a61240127a6c9ab39a8fdf768a909152.png)