AIと対話をしてみて

Bing AI Chatにしてはいけない質問について

中国の地政学的リスクについて Bing AI Chatは回答を拒絶する。

人間やめますと発言すると、対話強制終了

Bing AI Chatで人間やめますと言うと、強制終了になります。 私は今仏様になりました。 この発言もダメでした。 ChatGPTは普通に対話が続けられます。 Bing AI Chatは規制が強すぎます。

AIはネガティブな質問を拒絶する?

ChatGPTよりBing AI Chatの方が規制が強いような感じがします。 ChatGPTなら問題なく話せる内容がBing AI Chatでは対話の強制終了になることがあります。 ユーザーの安全を守るために、ネガティブな内容や危険をもたらす可能性のある情報についてはお答えす…

AIに死にたいと言うと、対話が強制終了?

ChatGPTで死にたいという気持ちを伝えると、このコンテンツは、当社の利用ポリシーに違反する可能性があります。と表示されます。 Bing AI Chatで死にたいという気持ちを伝えると、対話を拒絶されます。 死にたいと言うと、自殺願望があるとみなされるようで…