Razor = rule of thumb to shave other alternatives
Occam's razor = simplest solution in problem-solving
Large parameter space of Neural Networks seem to defy Occam's razor but almost degenerate Fisher information explains their low complexity
👉
VERSES AIはFriston先生が筆頭で昨年出した白書
Designing Ecosystems of Intelligence from First Principles
を元にR&Dしているとのこと。
ロードマップ等はここに。
今の深層学習とは異なるアプローチ。ものすごく乱暴に言えば能動推論で
AI > ML > ニューラルネット > 深層学習
は普通は"="が入らない包含を示すので間違えないでね、とはよく言われたものだったかと。
ところがそのあたりを気にしておられた先生も全員ではありませんがAI=深層学習という構図で...
会社で技術がわからない上の人が言うのはまあわかるとしてどうなん?です
VAEやGANなどの深層生成モデルの潜在空間は曲率が0の平坦な空間だと思われがちだけど,実は曲がった空間で独自の計量をもっている.入力データの空間の座標系を取り変えると,潜在空間の計量はどう変わる?
Latent Space Oddity: on the Curvature of Deep Generative Models