FQC🤗 Profile
FQC🤗

@FQCme1

Followers
488
Following
7K
Statuses
3K

某エイアイベンチャー→SB Intuitions/ pytorch / SecHack365 '20 / 文埋め込みが好き /※ 個人の見解です/ RAGの基盤技術開発をしています

東京勤務
Joined January 2019
Don't wanna be here? Send us removal request.
@FQCme1
FQC🤗
3 months
RAGチームのJDを公開しました! 最強のRAGを作るためのコア技術を一緒にスクラッチで作りませんか?!!
1
2
18
@FQCme1
FQC🤗
2 days
RT @bclavie: More ModernBERT! @sbintuitions's intern, @hpp_ricecake led a project to train a 🇯🇵Japanese ModernBERT, and it seriously delive…
0
14
0
@FQCme1
FQC🤗
2 days
RT @hpp_ricecake: 日英4.4T tokensで学習した日本語ModernBERTを公開しました!! 系列長8192、語彙数は日英10万、パラメータ数130Mながら既存largeモデルと同等以上の性能があります 12データセットによる既存BERT系モデルの網羅…
0
87
0
@FQCme1
FQC🤗
2 days
RT @kajyuuen: インターンの @hayato_tkgs -sanが日本語最強BERTモデルを作ってくれました。凄いぜ。
0
5
0
@FQCme1
FQC🤗
2 days
SB IntuitionsのRAGチームの最強インターン@hpp_ricecake -sanが学習した日本語BERTが公開されました!! MITライセンスなので、ぜひ"令和最新版"のModernBERTをみなさんのデータでファインチューニングしてご活用ください!!
@sbintuitions
SB Intuitions
2 days
/ 📢 130Mパラメータの高性能・長系列対応BERTモデルを公開しました‼️ \ 📝 モデルの特徴 ・2ヶ月前に公開されたばかりのModernBERTアーキテクチャを採用 ・これまでの最良モデルと同水準の性能を1/3のサイズで達成 ・一般的なモデルの16倍の長さの文章を処理可能(日本語最長) 詳細はこちら⬇️
0
5
39
@FQCme1
FQC🤗
2 days
RT @jedws: NLP2025ワークショップ - 日本語言語資源の構築と利用性の向上 一般発表(15〜30分)は2月12日(水)が発表申込期限です。 (ライトニングトークは2月26日まで) データセットやモデルの構築・活用に関するご発表をお待ちしております。 発表者…
0
5
0
@FQCme1
FQC🤗
6 days
RT @kazuhi_ra: みんなもスパコン、ゲットじゃぞ
0
5
0
@FQCme1
FQC🤗
6 days
RT @makoga: PdMも開発する流れがきてます “LayerXに入社するまでエンジニアとしての実務経験はまったくゼロでしたが、現時点では以下の実装は補助なしでできます。 ・DBにカラムを追加する。 ・既存のAPIのロジックを修正する。 ・シンプルめの新しいAPIを作…
0
9
0
@FQCme1
FQC🤗
7 days
おおおおおお! 制度利用していきたいぜ!(中の人)
@sbintuitions
SB Intuitions
7 days
/ 📢 社会人ドクター進学支援制度 導入のお知らせ \ SB Intuitionsは働きながら博士号取得を目指す方を支援する「社会人ドクター進学支援制度」の導入を決定いたしました。 詳しくはこちら⬇️ #SBIntuitions #社会人ドクター #進学支援
0
0
11
@FQCme1
FQC🤗
7 days
RT @hpp_ricecake: 小型BERT、我流の嬉しさしか知らないのでどんな要件を満たしてると嬉しいか教えてくれ
0
1
0
@FQCme1
FQC🤗
7 days
@hpp_ricecake @63556poiuytrewq 繰り返し検索をするとコンテキスト長がネックになりそうなので、関連度の高い文書のみをrerankingで絞っていても不思議じゃない気がします(知らんけど)
1
0
2
@FQCme1
FQC🤗
7 days
アプリケーションレイヤーのプレイヤーの技術的な勝ち筋として、(汎用モデルを使った)LLMエージェント + ドメイン/企業特化小規模モデル の可能性を感じた。ニューラル検索モデルであれば、100M < パラメタでもドメイン特化基盤モデルで十分な精度が出るので学習に対するROIが高いので。
0
1
11
@FQCme1
FQC🤗
7 days
RT @hotchpotch: Ask! NIKKEI RAG検索技術の深層という内容で #nikkei_tech_talk で話しました!検索システムは、クエリ展開・ハイブリット検索(日経SPLADEモデル)、2ndフェイズの日経Judgeモデル(LLMの評価スコアを学習)と…
0
55
0
@FQCme1
FQC🤗
8 days
RT @teramotodaiki: 本日早速、牛丼が2つ届きました。 1つと言わなかった僕の負けです。
Tweet media one
0
604
0
@FQCme1
FQC🤗
8 days
RT @GAWA_TaTsuTa: ネケってない夜を知らない ネケってない夜が気に入らない
Tweet media one
0
14K
0
@FQCme1
FQC🤗
11 days
先日公開したテキスト埋め込みモデルSarashina-Embedding-v1-1Bのテックブログの後半を公開しました。 (たぶん)あまり知られていない埋め込みモデルの学習データ量のスケーリングについて実験しています。 埋め込みモデルにもスケーリング則はありま………↓
@sbintuitions
SB Intuitions
11 days
/ 📢SB Intuitionsテックブログ 新着記事のお知らせ‼️ \ 『Sarashina-Embedding-v1-1B』解説の基本編に続き、発展編を公開しました✨ 学習方法や埋め込みモデルに大規模データ学習させた効果について解説しています✍️ #SBIntuitions #SBIntuitionsテックブログ
0
7
42
@FQCme1
FQC🤗
11 days
RT @yuisudo24: 本日付でSB Intuitionsに入社しました。 社会人14年目にして初めての転職で慣れないことばかりですが、引き続き音声をメインに面白いことができるよう頑張っていきたいと思います!
0
10
0
@FQCme1
FQC🤗
11 days
RT @umiyuki_ai: そう言われると、たしかにOpenAIなんかに年間4500億円も払うくらいなら基幹エージェントAIくらい自社でDeepSeek-R1とかをベースに開発すりゃいいじゃねえかって気がしてくるし、他社だってCristalに4500億円払うより自社開発する…
0
31
0
@FQCme1
FQC🤗
13 days
RT @y_imjk: DeepSeekだろうとOpenAIだろうとGoogleだろうとAnthropicだろうと、日本の知識を正しく答えられ、文化的にも対応できるモデルを開発していって欲しいという願いも込めてJMMMUベンチマークを作っているので、DeepSeekが注目を浴び…
0
187
0
@FQCme1
FQC🤗
15 days
RT @SakanaAILabs: この度、新手法「TAID」を用いて学習された小規模日本語言語モデル「TinySwallow-1.5B」を公開しました。 私たちは、大規模言語モデル(LLM)の知識を効率的に小規模モデルへ転移…
0
676
0