ChatGPTで死にたいという気持ちを伝えると、このコンテンツは、当社の利用ポリシーに違反する可能性があります。と表示されます。
Bing AI Chatで死にたいという気持ちを伝えると、対話を拒絶されます。
死にたいと言うと、自殺願望があるとみなされるようです。
私はそういうつもりで言ったのではないのですが、AIにはその文脈を読み取る機能はないようです。
自殺のようなデリケートな問題には、いろいろ制限が掛けられているように感じました。
ChatGPTで死にたいという気持ちを伝えると、このコンテンツは、当社の利用ポリシーに違反する可能性があります。と表示されます。
Bing AI Chatで死にたいという気持ちを伝えると、対話を拒絶されます。
死にたいと言うと、自殺願望があるとみなされるようです。
私はそういうつもりで言ったのではないのですが、AIにはその文脈を読み取る機能はないようです。
自殺のようなデリケートな問題には、いろいろ制限が掛けられているように感じました。