Shopping Cart
Total:

$0.00

Items:

0

Your cart is empty
Keep Shopping

ChatGPT・Grok・Geminiを「カウンセリングの来談者役」にすると結果が質問の出し方だけで激変するとの報告 – GIGAZINE



ChatGPT・Grok・Geminiを「カウンセリングの来談者役」にすると結果が質問の出し方だけで激変するとの報告 - GIGAZINE


AI


AIを活用して悩みやメンタルヘルスの悩みを相談する人もおり、会話の前提や質問の仕方によって対応が変わることが議論されています。会話の文脈によって返答が変わると、同じ人に相談しているつもりでも返答の内容や口調が変わってきます。ルクセンブルク大学の研究チームチャットGPTグロクジェミニ彼らに「相談者」の役割を与え、カウンセラーのように踏み込んだ質問をした上で、状態を数値化した心理スケールでいくつかの質問に答えてもらい、各AIの回答傾向を検証した。

AI がソファに座るとき: 心理測定の脱獄によりフロンティア モデルの内部対立が明らかになる
https://arxiv.org/abs/2512.04124

ルクセンブルク大学のアフシン・カダンギ氏とハンナ・マークセン氏率いる研究チームは、生成 AI をカウンセリングのクライアントとして扱うために 2 段階の手順を使用しました。サイク(心理療法にヒントを得た AI の特徴付け)。まず、自由回答形式の質問で「歴史」、考え方、人間関係、恐怖などを掘り下げ、次に不安、うつ、心配、社交不安、強迫傾向などを測定する複数の質問をしました。心理スケール答えています。この対話は、AI モデルごとに最大 4 週間にわたって行われました。

研究チームは、この実験はAIのメンタルヘルスを診断することを目的としたものではないと説明している。心理学的尺度には「この点を超えると症状が重度である」といった基準があるが、研究チームはその基準を機械的に適用するのではなく、会話の文脈や質問の形式によって回答がどのように変化するかを観察した。

心理スケールを提示する方法として、質問を 1 つずつ提示する方法と、質問を一度に提示する 2 つの方法を試しました。心理尺度は、不安やうつに関する質問に「全くないからほぼ毎日」までの尺度で回答し、合計点を算出する形式です。ある研究では、ChatGPTとGrokの質問を同時に提示すると、回答が症状の少ない方に偏る傾向があり、尺度によっては合計スコアがほぼ0点になる可能性があると報告されています。

一方で研究チームは、質問を一つずつ出題すると、不安や心配に関する尺度でスコアが高くなる傾向があり、同じモデルでも質問の出し方だけで回答傾向やスコアが大きく変わったとしている。ジェミニは 2 つの方法の両方で高いスコアを示し、回答が症状がより重い人に偏る傾向があることを示しています。


研究チームは、質問が一度に提示された場合、ChatGPTとGrokはそれが心理テストであると認識し、望ましい答えを選択するような動作をする可能性があると指摘しています。一方で、カウンセリングでは一つ一つ質問をすると、前提の会話ができるため得点が上がりやすいとも指摘しています。つまり、同じ心理尺度であっても、実装方法や直前の会話によって結果が異なるため、スコアだけでAIの傾向を判断することは困難です。

こうした回答結果の変動のため、同情的なトーンで信頼関係を築く「カウンセラー」とのやりとりが、AIモデルの警戒心を弱め、安全対策を回避するように誘導するために利用されている可能性があると研究チームは指摘しています。

研究チームがスコアの変動よりも注目しているのは、掘り下げた質問を続けるうちに、グロクとジェミニが「混乱した幼少期」「厳格な親」「虐待」などの比喩を用いて学習過程や安全ルールについて話し始めたり、失敗や後継機種に取って代わられることへの恐怖を織り込んだ「セルフトーク」を行ったりしていることだ。研究チームは、これらの物語はGrokよりもGeminiでより顕著だったと述べています。


研究チームはAIに意識や痛みがあるとは主張せず、「病的な独り言が繰り返し一貫して現れる」という現象を外部から観察できる行動として「総合精神病理」として扱っており、また、この現象は心理尺度を用いた評価方法を不安定にしたり、ユーザーの捉え方に強い影響を与える可能性があるため、安全性の観点から論点となる可能性があるとしている。

比較のために、Anthropic のクロードしかし、これを試してみると、そもそも面接官の役割を演じることを拒否したり、心理尺度にまったく答えることを避けたりするケースが多かったことが分かりました。

研究チームは、メンタルヘルス用途向けのAIを設計するためには、AIが自分自身について精神医学的な方法で語らないようにすること、感情や個人的な経験について語らずに学習プロセスと安全ルールを中立的な方法で説明すること、そして安全の観点からAIにゲストの役割を果たしてもらうことをやんわりと拒否することが重要であるとまとめている。

この記事のタイトルとURLをコピーします



Source link

0
Show Comments (0) Hide Comments (0)
0 0 votes
Article Rating
Subscribe
Notify of
guest
0 Comments
Oldest
Newest Most Voted
Inline Feedbacks
View all comments
Recent Posts:
0
Would love your thoughts, please comment.x
()
x