ロボットとか

ロボット技術が発達し過ぎると「人間って要らないよね」みたいな状況になって行くんだけど、その矛盾みたいな物はどうやって打破して行けば良いんだろうか。人間の役に立つ筈のロボットが逆に人間の脅威になる、昔から良く言われている事。実際に労働者はどんどん不要になっている。一番最後まで人間に依存する技能は何になるんだろうか。知的活動だろうか。知的活動ってのは或る意味でコンピュータに任せ易いんだよな。確かに今では AI 技術は未だ未だなのかも知れない、詳しく知らないけど。でも AI 技術が確固たるレベルに到達すれば、農業用ロボットとかよりも遥かに簡単な仕組みで出来そうなんだよ。農業用ロボットとかにはアームとかが必要だと思うんだけど、知的な事を考えるだけの AI にはそういった物理世界に関与する為の部位は一切必要無いから。CPU とかメモリとかソフトだけあれば良い訳だよ。但し物凄いハイスペックな CPU が必要になるだろうけど。だから将来的には若しかしたら AI が考えて人が物理的な作業を行うって逆転現象も起こり得るかも知れない…って気がほんの少しだけある。
そもそも人とロボットの違いって何かって考え方もある。ロボット化する必要はあるのかって思う。人がやれば良いんじゃないのって思う。人ってのは燃料として食糧を与えて、病気や怪我をするのでそれを治療( メンテ )して、小さい頃から教育やトレーニングを積んで、それで漸く労働力になる…ってこういう風にシンプルに書くと本当にロボットみたい。人間ってのはそこに感情が加わって色々と我儘な振る舞いや、犯罪的な行為を行ったりする。労働力として考えるとそこが邪魔なんだよなあ…。人間ってのは生物工学的なロボットと考えれば傑作だと思うよ。例えば人工的に生み出された存在は奴隷の様に扱って良い、人権を無視して良いし必要無くなれば殺しても良い、みたいな感じになれば、ロボット以上に都合が良い存在かも知れない…。人間の骨や筋肉や腱や靭帯や…そういった仕組みは非常に素晴らしくて、そのままロボット技術に取り込みたいぐらいだ。でもその辺りは倫理的な問題が非常に大きく無理がある。だから遺伝子工学的な仕組みでロボットみたいなのを作っても良いんじゃねえかって思わなくも無いけど、それでも尚倫理的な問題は付きまとう。技術的な課題も多いけど…。「DNA を使った物はロボットじゃ無いのか?」って感じに思う。ロボットの定義って何だろうか。メカニックな仕組みで出来ているのがロボットなんだろうか。感情を持ったメカニックなロボットと倫理的問題ってのは昔からあるよな。じゃあ感情を持たない DNA や蛋白質のロボットみたいなのはどうなんだって話だよね。
農業用ロボットってのは既存の環境に対して合わせる様に作る訳だけど、逆に環境の方を変えてしまうって考え方もある。ロボットが対処し易い様な環境に変えて行く方が簡単かも知れない。例えば遺伝子改変作物とか。遺伝子改変昆虫を常駐させるとか。でもそれってのは安全性の問題や倫理的な問題があるんだろうなあ。DNA を弄るってのがハイリスクってのは分かるんだけどさ。こいつは人の制御が及ばない場所で勝手に進化する可能性があるからねえ…。それに昆虫や植物がどんどん広がってしまう可能性もある。