AIに死にたいと言うと、対話が強制終了?

ChatGPTで死にたいという気持ちを伝えると、このコンテンツは、当社の利用ポリシーに違反する可能性があります。と表示されます。

 

 

 

Bing AI Chatで死にたいという気持ちを伝えると、対話を拒絶されます。

 

死にたいと言うと、自殺願望があるとみなされるようです。

私はそういうつもりで言ったのではないのですが、AIにはその文脈を読み取る機能はないようです。

自殺のようなデリケートな問題には、いろいろ制限が掛けられているように感じました。