Claude 3.5 sonnetは教育のレベルアップにも使える。シュレーディンガー方程式をモデル化して出力してください、と入力しただけでこんなの出てきた。
※1次元の時間非依存シュレーディンガー方程式を簡略化して表現。 エネルギー(E)とポテンシャル(V)を調整すると、波動関数ψ(x)の変化を観察できます
In the next 10 years, we need to
- embrace nuclear power
- continue to push on open source AGI
- aim for near infinite cheap energy, which could in turn solve for climate change
- cure all disease including aging
- establish a moon colony
- many money less important by
Gemini 1.5 pro が、GAFAMなどの繁栄と、日本の大企業の国際競争力低下について考察してくれました。
アメリカ企業は1人の意見n=1を重視し、日本企業はみんなの意見n=100を重視します。結果として、アメリカ文化では革新的で論理的な意思決定ができますが、日本文化では凡庸な意思決定にとどまります
AIより賢くなるために、AIの仕組みを理解しよう!
GPT, Claud, Geminiなど、多くのLLMはTransformerという仕組みを基にしている。
GPTのT。
Googleの論文「Attention is All You Need」で示された仕組みだが、英語で難しいので、
「Transformerによる自然言語処理」という本もおすすめ。難易度は高め
This may sound bizarre now but the human-AI merge will be very natural and ubiquitous in a couple of decades
Human will be able to choose to merge and it will be safe and make them super-human
These human-AI beings not only be extremely knowledgeable and brilliant, they will
Here is what is remarkable about Unitree from China
- cheap to produce
- pretty dextrous
- China is already the manufacturing hub of the world
- Chinese AI companies are as good as the US ones
The house hold robot may be more affordable than most people think!
I still think
Summary of what we have learned during AMA hour with the OpenAI o1 team today
Model Names and Reasoning Paradigm
- OpenAI o1 is named to represent a new level of AI capability; the counter is reset to 1
- "Preview" indicates it's an early version of the full model
- "Mini"
The Problem With OAI....
The fundamental problem with Open AI is that it rapidly transformed from a premium AGI research company into a product company.
The only way to do that is to have a significant vibe shift away from research and to focus on revenue generation
This
📽️ New 4 hour (lol) video lecture on YouTube:
"Let’s reproduce GPT-2 (124M)"
The video ended up so long because it is... comprehensive: we start with empty file and end up with a GPT-2 (124M) model:
- first we build the GPT-2 network
- then we optimize
イーロン・マスクがレックス・フリードマン・ポッドキャストに再登場。8時間で42万回も視聴されている!過去最長の8時間半越え。世界の知の最先端です。BGM代わりにどうぞ。
Elon Musk: Neuralink and the Future of Humanity | Lex Fridman Podcast
#438
via
@YouTube
AIより賢くなるために、AIの仕組みを理解しよう!
GPT, Claud, Geminiなど、多くのLLMはTransformerという仕組みを基にしている。
GPTのT。
Googleの論文「Attention is All You Need」で示された仕組みだが、英語で難しいので、
「Transformerによる自然言語処理」という本もおすすめ。難易度は高め
Claude 3.5に次に開発するアルファ版を相談した結果、Amazonのようなショップにすることにした。プロコン検討し、フロントエンドはJavaScript、React、バックエンドはPython、Flask、データベースはMySQLにした。プロセスと想定時間も示してもらったが数日で開発できる見込み。すごい時代になった😳