Ph.D. in Computer Science/Carnot Founder & CEO/Former JSPS Research Fellow/Keio University Research Fellow/Deep Learning/Vision & Language/Building jinbaflow
Meta AIがパラメタサイズの比較的小さい (7-65B)大規模言語モデルLLaMaを発表.13BのモデルではGPT-3(175B; 約10倍)を超える性能を発揮.また65Bのモデルでは,Chinchilla-70BやPaLM-540Bと互角.学習では公開データセットのみ使用しているため,なんとモデルもオープンソース.
1/n
@NaokoOkada3
分かります.今50-60代の人たちはJapan as No1 の時代だったのでまだ日本が戦える幻想を見ていると思います.現地に残っている人達は現実が見えているケースも多いですが.アカデミアでも同じで,国際会議に行っても日本人同士固まって全く交流が発生しないので,ビジネス領域だけじゃないのかも.