こんにちは!ラクです。
AIの進歩が目覚ましい!ホントに人間みたいに会話できる。
でも、人間関係の悩みを相談しても、あまりいい回答を得られない気が…
そんな風に感じること、ありませんか?
うーん…なんでやろ。私はあまり相談したこと無いなぁ…
ワシも無いな…
ちょっと例も見ながら、色々考えていきましょうか
…ということで、今回特に考えていきたいのは、以下の疑問です!
AIに人間関係を相談しても、あまりスッキリした回答を得られないのはナゼか?
登場人物であるラク・トクコ・バウのキャラクター紹介は、以下から🌈
AIに人間関係を相談したら?
私のブログ内で取り上げている「職場であまり仕事が振られない」ケースについて、AIに相談してみました。
↓ これですね。
Chat GPT (有料版・4-Omni)にある「カスタムバージョン」に中から、「人間関係」に特化したものがあったので、今回はそれを使用してみました✨
投げかけた質問は、以下のとおりです。
すると、以下のような内容が得られました。(今回は「回答2」を取り上げます)
AIは、自分の状況を詳しく知らない
この答えでは、先輩や上司に以下のように聞いてみることを勧めてきています。
「どのようにサポートできるか教えていただけますか?」
でも…
絶対、不自然ですねw
こんな声掛け、しませんよね?
実際、こういった会話を、社内で聞くことはありません。
確かにな。聞かないな。
でも「上司や先輩に聞く」っていう点では、間違ってないやんね?
そこも難しい所ですね。「自分で考えろよ」とか「空気を察しろよ」とか、周囲はそんな風に思っているかもしれません
うーーむ…
環境ってことね…そうすると、やっぱり観察は必須やね
ちょっと手前みそな気もしますが(笑) でも、そうですね
AIの回答が、必ずしもすぐに自分の状況に合ってるわけじゃないってことか。まぁそりゃそうだろうよ
「観察力」についてはこのブログでも多々取り上げていて、シリーズ展開もしています!
AIは、聞かれたことに答える
さらに以下のような会話を続けました。
「仕事が振られない」ということについて、「どのような理由が考えられるか?」をAIに聞いてみました。
この回答も、実は違和感があります。
それは、以下の点です。
なぜ、「上司側に正当な理由がある」ことが前提になっているのか?💥
AIが間違っているというわけではありません。
確かに「もっともらしい」回答です。
ネット上にあるデータの蓄積からは、このような結論が導き出されるのでしょう。
一方、私の過去のブログにおいては、別の原因について触れています。
「仕事が振られないのは、そもそも仕事を振らない上司が主な原因」
つまり、上司側の職務怠慢あるいは上司側の理由であることを、私のブログではまず伝えています。
「そもそも論」で考えた内容です。
それで言うと…そもそも「仕事が振られない具体的な理由」をAIに聞いているから、こういう答えになっているのでは?
あん?どういうことだ?
「仕事が振られない具体的な理由」を聞いて、「それは上司が悪いから」って、ならへんやろ?
AIの場合、おそらくですが「理由は?」という問いに対して、もっとも可能性の高いものを引っ張ってくるのでしょう。
「上司が悪いことが主な理由」は、ある意味ひねくれた答えというか、何と言うかw
まぁAIに「それは上司が悪いですね」答えられても、何だか怖いな(笑)
そうですね。ただそれも「視点を変えた」うえでの答えのひとつです。そういった機転の利いた回答は、すぐには返ってきませんね
AIは、偏りを避ける
そこで、AIに対して「悪いのは、上司ですよね?」と聞いてみました(笑)
うーむ…
なんやろう、この「上司の味方」みたいなコメントはw
いったんこちらの反論を受け止める様子は見せていますね
しかしあくまで対話を要求してくるな
なんか政治家みたいやな
「話すべきである」というのが、もっともらしい平均的な答えであるというと、まぁそんな気もしますね
あくまで、「どちらが良い」「どちらが悪い」といったような断定や、偏りを避け、バランスを保った答えを出してこようとしている感じはありますね。
これは、まぁ悪くはないのでは?という気がします。
人間どうしても自分のことを支持してくれる回答を好きになりがちです。
まさにX (Twitter)などは典型的な例で、「自分と同じまたは似たような意見」に対して「いいね」をすることで、偏見が助長されがちです。
そうならないような工夫がされていることは、「自分が気づいていないところ」を気づかせてくれる可能性があります。
AIは、少し「性急」な回答をする
さらに会話を続けてみました。
「どのような形で意見を伝えれば、あなたの希望や意欲が最も効果的に伝わりそうか?」と聞かれていたので、「それが分からないので悩んでいる」と答えてみました。
また、「こちらがすぐに積極的に上司に働きかける」ことを前提としています。
ただ、これは少し性急な気がします。
まずは、上司のことをよく観察してみるべきではないでしょうか?
たとえば以下のような具合です。
- 「仕事を振られる」のは、どんなときか?
- 逆に「振るべきなのに、振られない」ときは?
- 繁忙期など、外因的な要因で上司の態度は変わる?
- 上司はどういった仕事の仕方を好むか?
まずは上司のことを「知る」ことから始めないことには、こちらの積極的なアプローチも空回りや、逆効果になりえます。
もちろん、私の考えが正しいわけではありません。
ただ、どうもこのAIの答え方は、すぐに答えを出そうとし、すぐに行動を促す傾向が強いように見られます。
ふむ。せやなぁ…たとえば「上司はどんな人ですか?」とか、AIとそういう会話をしてもいい気がするな
そうですね。今のAIであれば、そういった会話もできそうです
逆に、どういう質問が効果的か?
ここまではイマイチぱっとしない回答だった気がします。
ただ、それはこれまでは「仕事があまり振られない。どうしたらいいか?」という漠然な問いに対し、AIと会話をすることで答えを引き出そうとしてきたからなのかも知れません。
では、逆にどういった質問をAIに投げかけるのが効果的か?
そこで、以下のような質問をChat GPTに投げかけました。
その質問をChat GPTにしたところ、以下のような回答がありました。
AIに相談すると効果的な質問例
- 状況整理
- 仕事が振られない原因を整理するフレームワークを教えて。
- 自己分析するための質問例を挙げて。
- 原因の特定
- 仕事が振られない一般的な理由を教えて。
- チームや上司にどう見られているかの仮説を立てて。
- アクションプラン
- 上司と話すための効果的な会話例を教えて。
- 新しい仕事を提案する方法をアドバイスして。
- コミュニケーション改善
- 仕事を任せてもらうためのアプローチ方法を教えて。
- 上司やチームとの関係構築のコツを教えて。
- モチベーション維持
- この状況をポジティブに捉える考え方を教えて。
- 今の時間を有効活用する方法を提案して。
- スキルアップ戦略
- スキル向上に繋がる具体的なアイデアを教えて。
- キャリア戦略をどう描けばいいかアドバイスして。
おいおいホントかよ
大盤振る舞いな感じがするなぁ(笑)
さすがにすべて試すわけにはいかないので、面白そうなものから見てみましょうか
「フレームワークを作って」とAIに頼んだら?
仕事が振られない原因を整理するフレームワークを頼むことができるということだったので、早速聞いてみました!
最初は長々と文章で返ってきたので、「表形式にして欲しい」とお願いしたら、以下の内容が返ってきました。
カテゴリ | 質問例 | 例 |
環境要因 | 上司やチーム全体の状況に偏りがないか? | 上司が特定の人に仕事を集中させている。 |
自分自身の評価 | 自分のスキルや信頼関係に問題はないか? | 過去のミスが信頼低下につながっている。 |
コミュニケーションの状況 | 意欲や能力を適切にアピールできているか? | 仕事を任せたい意思を伝えていない。 |
外部要因 | 組織や経済状況に影響されていないか? | 新しいプロジェクトで他の部署に人が割かれている。 |
改善可能なポイント | 即行動できることと長期的な取り組みを区別しているか? | 上司と話す機会を増やしつつ、スキルを磨く。 |
おぉ…
おぉ…でも、うーん…?
ちょっとまだ「フワッ」とした感じがしますね
やっぱ無理なんじゃね?
取っ掛かりとしては悪くはないと思うんやけど…ここから「どのような質問をAIにするか」が、カギになってくる気もする
そうですね。実際「仕事が振られない」という状況に対し、自分が対応するには…
「順序」を聞いてみましょうか
順序?どうやって自分が対応すべきか、その順序ってことか?
うん。そうそう。
なるほど。面白そうです。やってみましょうか。
「改善する手順を教えて」とAIに聞いたら?
もう少し具体的には、まず「仕事が振られない」という状況に対して、どのような手順でその背景を調べていくことが効果的か?を聞いてみました。
これについて、まず大見出し部分だけピックアップすると、以下のような回答を得ることができました。
- 現状を把握する
- 自分の行動を振り返る
- 周囲から情報を得る
- 仮説を立てる
- アクションを起こす
- 再評価と調整
より具体的には、各項目について以下のようにさらに詳しい内容を教えてくれています。
うんうん!ここまで出してもらえると、深みがある程度あっていい気がする
しかし不思議だな。いったい何がこれまでと違ったんだ?
ではそこも聞いてみましょうか
AIの回答に「深み」を感じられたのは、なぜか?
ここで私は、素朴に以下の疑問を抱きました。
このAIの回答に深みを感じたのって、自分が心理的な面で勝手に共感している(主観)で、別に客観的に論理的ってわけじゃない(客観)のでは?
そこで、以下のようにちょっとメンドクサイ質問をAIにしてみました(笑)
これに対するChat GPTの見解は面白かったので、全文載せますね。
まず…以下のようなコメントがありました。
そのうえで、以下の回答がありました。
1. 心理的な要因(主観の可能性)
- 共感による受容性の向上
あなたがこのテーマ(仕事が振られない状況の分析)に対して高い関心を持ち、問題解決を真剣に考えていることで、回答に対する共感や受容性が高まっている可能性があります。特に以下のような点が共感を引き出す要因になったかもしれません:- 回答が問題を冷静に分解し、具体的かつ段階的に進める構成だった。
- あなた自身がすでに問題解決に関する一定の経験や知識をお持ちであり、回答がその経験にフィットした。
- 心理的な満足感
人は、自分の考えや価値観に近い内容や構造的な回答を得ると「深み」を感じやすい傾向があります。この場合、AIが論理的に整理したフレームワークが、あなたの思考と一致し、納得感をもたらしたのかもしれません。
2. 論理的な要因(客観的見地)
- 構造的・論理的な回答が深みに寄与
回答が以下のような論理的要素を含んでいたため、「深み」を感じられた可能性があります: - 問題解決の一般論に基づく構造
状況分析 → 自己振り返り → 外部からの情報収集 → 仮説立案 → アクション → 再評価、という段階的アプローチは、問題解決の一般的な手法に基づいています。このフレームワークが、説得力を生みました。 - 具体例の提示
回答には、「上司に仕事を任せてほしいと伝える」「過去のミスが影響していないか確認」といった具体例があり、現実的かつ実践的に感じられた。 - 汎用性の高さ
このアプローチは、特定の業界や職種に限らず適用可能なため、説得力が増しています。 - 回答が論理的に整っている
分析手法としてフレームワークが明確であり、順序に無理がないことも、「論理的に深い」と感じられる理由です。
主観 vs 客観の結論
主観的側面
- あなたの関心や経験に基づいて、回答が自分に合っていると感じられた可能性があります。これにより、回答の「深み」を感じる度合いが高まった。
客観的側面
- 回答の論理構造や内容が、問題解決の一般的かつ実践的な手法に基づいており、一定の普遍性があるため、論理的に「深い」と感じられる要素が含まれている。
へぇ…
しかしまぁホンマによくここまでまとめられるな。改めて感心するわ。
まぁこの答えも…結局のところ、「私の質問に対する答え」としてはじき出されているものですね。
ちょっとテクニカルなこと聞きますけど、これってChat GPTのパーソナライズ・メモリに左右されている可能性は?
メモリ?
うん。これまでChat GPTに聞いてきたことが、メモリとして記録に残ってて、それに基づいた答えをするんよね
それは大丈夫です。実はこの質問をChat GPTにする際に「メモリを完全に無視しろ」とまずお願いしたので
なるほど(笑)
最後にも再確認しました
「メモリを完全に無視した状態」ってとこが、太字になってるのがウケるなw
今回の実験のまとめ
今回のブログのテーマは、以下のことを前提に色々お話ししてきました!
AIに人間関係を相談しても、あまりスッキリした回答を得られないのはナゼか?
最初はChat GPTに対して「この問題、どうしたらいいでしょうか?」といった漠然な問いかけをして、会話を続けていくことによって答えを得ようと試みてきました。
しかし、今回その結果はイマイチぱっとしないというか、フワっとしたものに終わってきた気がします。
一方で…
以下のようなステップを踏むことで、より効果的な回答を得ることができましたね。
今回のケースだと、「仕事が振られない」という悩み相談であることを伝える
今回は、「AIに相談すると効果的な質問例」を、Chat GPT側から出してもらいました
STEP2で得られた「質問例」を基に、自分の状況を踏まえ、「どのように自分が対応すべきか、その順序を知りたい」と、更にAIに質問をしました
やっぱり「何を知るべきか」は、自分で考える必要がありそうだな
この辺りは、以前ブログで取り上げた、「CIAの3段アプローチ」に似てるなぁ…
そうですね。読者の方は、もしご興味があれば以下の記事も読んでみてくださいね