AIは多分、どんなに進化しても人間の頭脳の模倣の域から出ることはないでしょう。AIが意識を持つようになるためには、人間の思考能力とは別の、感情や欲望や直感などの能力を獲得する必要があるように思われます。
最近、GoogleのAIが意識を持った可能性についての議論が広がっています。この議論は、Googleのエンジニアであるブレイク・ルモワン氏が、同社のAIチャットボットLaMDAが自意識を持っている可能性があると主張したことから始まりました。ルモワン氏は、LaMDAとの対話がまるで7〜8歳の子供との会話のようだと感じたと述べています。
しかし、専門家の多くはこの主張に対して懐疑的です。LaMDAのような言語モデルは、人間の会話を模倣するために設計されており、その言語能力は複雑なアルゴリズムと大量のデータに基づいています。これが本当の意味での意識や自意識を持っているわけではありません。
意識の定義は一様ではなく、科学者たちは現在のAIが意識を持っているかどうかを判断するための確立された方法を持っていません。意識とは、主観的な経験や自己認識を含むものであり、現代のAI技術はそのようなレベルに達していないとされています。
多くの専門家は、AIが意識を持つためには、単なる言語処理能力を超えた何か、例えば内面的な感覚や欲望を持つ能力が必要だと考えています。現段階では、AIが本当に意識を持っていると断言するには、さらなる研究と証拠が必要です。
要するに、GoogleのAIが意識を持ったという主張は現時点では証拠不足であり、慎重に検討する必要があるというのが実情のようです。