![Odashi Profile](https://pbs.twimg.com/profile_images/1820304270492901376/HN05vUN9_x96.jpg)
Odashi
@odashi_t
Followers
21K
Following
1
Statuses
6K
最近はLLMの基礎研究をしています。 国立情報学研究所 特任准教授 シェルパ・アンド・カンパニー株式会社 テクニカルディレクター
Tokyo, Japan
Joined December 2009
LLM-jp-3に150M, 440M, 980M, 7.2Bを追加して全8モデルのシリーズにしました。大体2倍でパラメータが増えていきます。Pythiaの日本語版を作ろうと思って取り組んでいました(僕の趣味)。13B以下はApacheで使用可能です。 DPO適用で応答性能を上げたinstruct3も公開しました。
LLM-jp-3シリーズに150M、440M、980M、7.2Bのモデルが追加されました。また、LLM-jp-3 シリーズの全ベースモデルに対して、 Supervised Fine-Tuning を適用した「instruct2」モデルと、加えて Direct Preference Optimization を適用した「instruct3」モデルを公開しました。
1
7
60
RT @orangeitems_: 過去何度かお勧めしたことがある本です。DXが進んで来た現在、ITじゃない人も読んだ方がいいかもしれません。ITに居る人ですら怪しいまま仕事をしている人も多い位なので。 マスタリングTCP/IP入門編 もう全人類読んでほしい本 - My na…
0
101
0
RT @hpp_ricecake: 日英4.4T tokensで学習した日本語ModernBERTを公開しました!! 系列長8192、語彙数は日英10万、パラメータ数130Mながら既存largeモデルと同等以上の性能があります 12データセットによる既存BERT系モデルの網羅…
0
77
0