意味があるのと意味があるように見えるのは違う?

ごみため:
autoencoderがインプットのみから内部表現を獲得できることと、人間がアプリオリに感覚を得ることに類似性があるように感じます。

chatなgpt氏:
その通りです。Autoencoder は、インプットデータだけを元にして内部表現を学習することができます。これは、カントの「純粋理性批判」において、人間がアプリオリに感覚を得るという考えと似ています。このような類似性は、人工知能の発展に伴い、カントの哲学的な考え方がより深く理解される可能性があると考えられています。

*****

人間の脳みその中でautoencoderと同じ仕組みがあるかどうかは別として、似たような機能を持っているとしても。
それが機械仕掛けで実現できるからと言って、全てが説明できるわけではないということです。

クジラとサカナくんの違い、鳥とコウモリの違い。

何十年も前に、純粋理性批判と実践理性批判を読んで、「この、『アプリオリに目から入ってくる情報を認識する』部分まで、計算機が真似するようになるのかしら?」と感じたことをはっきり覚えています。
なるとしても、遠い未来のように感じていたわけですから、予想外に早かったですね。
いや、遅かったのかも?
もう少しあと少し。ザード?笑