図書館で読んだ雑誌ニュートンが人工知能特集だった。ディープラーニングの過程で過学習という状態に陥ると、AIの認識力が低下するらしい。例えば普通より耳の長い猫を猫と認識できなくなったりするのだとか。そういうときはドロップアウトという処理でデータを間引いてやることで、迂回路を作ってより柔軟なニューラルネットワークに育っていくらしい。
もしかすると人間社会もドロップアウトする人たちがいたほうが健全な発展につながるかもしれないと思った。
シストレも手法に情報を盛り込みすぎるとカーブフィットを起こすし、ゆるめでおバカな手法のほうがサバイバルできるのではないか。
2019-07-29-スタート