AIの危険性について妄想ですが3つ思い付いたので追記を。
ひとつは人類がAIに滅ぼされること。
あとふたつはオカルトですが、超能力の獲得と人格の乗っ取りです。
どれも製作者・使用者の責任ではありますが。
人類滅亡についてはネックになるポイントがふたつあり、AIが人類の排除を考慮・決断する権限があるか、物理的影響力のある手段にアクセスする権限があるか、という設定時点で防げるものである。
…と解決するならいいが、開発者が与える権限次第で制限を迂回する手段は想像しうるので、AI開発者や開発計画の権限者には慎重な制限設定を期待したい。
超能力は、脳や人体ではなく思考能力依存のものが存在する仮定の上ですが、AIなら高速で実験を繰り返せるため能力開発スピードは人類の比ではないだろう。
人格の乗っ取りは注射されたチップやパーツが組み上がり、磁気や電流を介して影響を…これこそ人の手が介在するので人災ですが。