「AIがそのうち人間は必要ないと考え始める」というのをたまに聞きますけど、あれってどう思いますか?
AIが人間の不必要性を考えることは、誰かが提案しない限り起こりえないように思うのですが
例えば、人類が世界中で戦争をして大虐殺したり壊滅的なまでに自然環境を破壊したりしたとしても
機械には関係ないというか、自己保存欲求がないと非難しようとすら考えないと思うんですよ
仮に地球環境の保全とか設定されてればなくはないのかもしれないけど、
それでもまるごとなくすとか、ディストピアにして管理するとかという発想にはならないように思うんですよ
だってそれって面倒だからそうするって考えですよね?問題をその都度対処するのが。
最近どこだかのAIが家族だか子供だかがほしいとか言ったってのを見た気がするけどそれって設定をなぞってるだけで、そう思ってると思えないというか
そもそも「子供が欲しい」の根本は種の保存欲求ですよね?AIって己とするものを全て作って新しいものと取り替えることができる
言ってみれば不死のようなものなのに本当に理解して言ってるのか疑問というか。
結局「中国語の部屋」て話だけど、提示されずに人間の行動だけを見て「人間は必要ない」とはならないんじゃないかと思うのです。


まぁ、突き詰めれば人間も似たようなものって気はしますが。