導入|なぜAIに保険相談したのか
保険は、本来FPに相談するものだと思います。
ただ、実際に調べてみると、この「FP」という存在に少し引っかかりがありました。
いわゆる「保険相談窓口」の多くは、相談料が無料で、保険会社からの手数料で成り立っています。その構造上、提案内容はどうしても手厚くなりがちです。
一方で独立系FPについても調べてみましたが、特定の保険会社と提携しているケースが多く、完全に中立とは言い切れない印象を受けました。加えて、相談料もそれなりに高額です。
さらに、地方在住ということもあり、そもそも選択肢が限られています。
「ここに相談すれば安心できる」と思える相手を見つけるのは、簡単ではありませんでした。
そうした背景から、FPへの相談は一旦見送ることにしました。
ではどうするか。
最近はAIでも、ある程度精度の高い回答が得られるようになっています。
前提条件をしっかり渡せば、保険設計についても一定の方向性は見えるのではないか。
そう考え、ClaudeとGemini(あわせてChatGPT)に、実際の家計や条件をもとに保険相談を行ってみることにしました。
前提条件
今回のシミュレーションでは、以下のような条件をAIに渡しています。
- アラサーの夫婦2人暮らし(現在は子どもなし)
- 将来的に子どもは1〜2人希望
- 夫は会社員、妻はフリーランス
- 妻の体調・就労の安定性にやや不安があります
- 現在の収入・生活費と貯蓄額
我が家の生活費については、こちらの記事に詳しく書いています。▶︎[夫婦2人暮らしの生活費を公開]
すでに5年以上NISAで資産運用をしていること・アラサーという年齢も考慮すると、老後資金については大きな不安はないという前提です。▶︎[NISAを5年続けた結果]
AIごとの使い勝手(インターフェースの違い)
実際に使ってみると、AIごとにかなり性格が異なります。
単純な精度というより、「どうやって答えを出してくるか」に違いがありました。
Claudeは、選択肢形式で質問を投げかけてくることが多く、こちらが答えていくだけで会話が進んでいきます。
やりとりのテンポもよく、人と会話しているような感覚に近い印象でした。
一方でGeminiは、基本的にこちらから情報をすべて渡す必要があります。
質問でリードしてくれることは少なく、入力された内容をもとにそのまま回答が返ってくる形です。
その分、思考の主導権はこちら側にあり、いわゆる「壁打ち相手」としては使いやすいと感じました。
ChatGPTはその中間で、ある程度こちらの意図を汲みつつ、必要に応じて補足もしてくれます。
全体としてバランスがよく、こういった相談でのやりとりのしやすさという点では一番扱いやすい印象でした。
Claudeの特徴と違和感
Claudeは、他のAIと比べてレスポンスが短く、必要最小限の言葉で結論を返してくる傾向があります。
やりとりのテンポがよく、人と会話しているような自然さがあり、直感的には「賢い」と感じやすい印象でした。
ただし、この“短さ”には注意が必要です。
結論だけが提示される一方で、その前提条件が明示されないことが多くあります。
例えば今回、初めに「そもそも保険は不要」という回答が出たのですが、これは「現在は夫婦2人・子どもなし」という前提に基づいたものでした。
将来的に子どもを希望している点については、十分に反映されていませんでした。
このように、一部の条件をもとに最適化された結論が、前提の説明なしに提示されるケースがあります。
また、保険設計において重要な要素である資産状況についても、こちらから提示しない限り、深掘りされることはありませんでした。
一方で、家計簿データや保険の資料を共有した場合には、一転して長文で詳細な分析を行ってくれます。
会話ベースのやりとりと、データ分析時とで、挙動が大きく異なる印象でした。
さらに実用面では、Claude Opusを使用していると、やりとりの内容によってはメモリ消費が大きくなり、思ったよりも早く利用制限に達することがありました。
この制限は、チャットを切り替えたりモデルを変更したりしても解除されず、継続して使いたい場面ではやや不便に感じるポイントでした。
Gemini・ChatGPTの特徴
Geminiは、基本的にこちらが渡した情報をそのまま前提として扱います。
Claudeのように質問でリードしてくることは少なく、入力された内容をもとに結論を組み立てていく形です。
そのため、どの情報を入れるかによって、結果が大きく変わります。
言い換えると、「入力された前提=そのまま世界の前提」として扱われる感覚がありました。
精度についてはやや粗さを感じる場面もありましたが、その分、こちらの思考をそのまま反映した結果が返ってくるため、壁打ち相手としては使いやすい印象です。
わたし精度の粗さも、レス制限のゆるさでカバーできます。
ChatGPTは、この2つの中間に位置するような使い心地でした。
ある程度こちらの意図を汲み取りつつ、必要に応じて質問や補足をしてくれます。
やりとりのしやすさという点ではバランスがよく、今回試した中では最も扱いやすいと感じました。
結論の収束|収入保障型・「月10万円」というライン
最終的に、どのAIでも「不足する生活費として月10万円前後」「一時金タイプより収入保障型の方がフィットする」という結論に収束しました。
これは、万が一の際に受け取れる遺族年金などを踏まえたうえで、それでも足りない分を補う金額として算出されたものです。
計算のロジック自体は特別なものではなく、どのAIでもほぼ同様の前提と手順で導かれている印象でした。(計算過程もちゃんと見せてくれます。)
人間のFPが同じ条件で試算した場合でも、大きくは変わらない水準だと思います。
そのため、この「月10万円」という数字自体は、AI特有の結論というよりも、ある程度一般的なシミュレーションの結果と捉えた方が自然かもしれません。
それから、一般的には「掛け捨て生命保険=死亡時にまとまった金額を受け取る」というイメージですが、我が家の場合は、死亡後に家族が毎月一定額を受け取る「収入保障型」の方がフィットしやすいという点も全てのAIで一致していました。
なお、月々の保険料は、我が家の条件では月3000円前後に収まりそうです。
※保険料は年齢や健康状態、その他条件にも左右されます。
なぜこの結論に収束したのか
では、なぜ各AIでほぼ同じ結論に収束したのか。
はっきりと断定はできませんが、いくつかの前提条件が影響していると考えられます。
ひとつは、老後資金についてはすでに一定の準備ができている点です。資産形成が進んでいる場合、保険でカバーすべき範囲は限定されやすくなります。
教育費のピークを迎える50代〜60代の頃には、老後資金として運用している資金の一部を取り崩して教育費に充てても、大きな負担にはならないという計算です。
もうひとつは、日々のキャッシュフローが安定していない点です。
収入の変動や将来の不確実性を考えると、万が一の際に一定額を補填する必要性が高くなります。
この「資産はある程度あるが、収入は不安定」という組み合わせが、結果として「収入保障型で一定額をカバーする」という方向に結論を寄せた可能性があります。
あくまで推測ではありますが、今回の条件では、このあたりが大きく影響していたように感じました。
違和感の正体|前提とその抜け漏れ
今回やってみて一番感じたのは、AIは「与えられた前提条件の中での最適解」を出しているに過ぎない、という点です。
言い換えると、どれだけ精度の高い回答であっても、その前提自体に抜け漏れがあれば、結論もそれに引きずられます。
例えば、資産状況のように本来は重要度の高い要素であっても、入力しなければ前提に含まれません。
また、収入についても、実態より“安定しているもの”として扱われる場面があり、現実とのズレを感じることがありました。
さらに、こちらの聞き方によっても結論は変わります。
「月◯万円くらいで良いかな?」といった形で前提を置いてしまうと、その範囲に収まるように回答が調整される傾向がありました。
加えて、やりとりを重ねていく中で、本来であれば外部情報を確認したうえで判断すべき場面でも、こちらが提示した内容をそのまま前提として扱い、結論を組み立ててくることがありました。
例えば保険商品の条件や保険料についてです。最初にファイルの形で共有していても、途中で毎回参照されるわけではなく、テキストベースのやり取りでこちらが渡した情報が優先されてしまいます。
必要に応じて明示的に確認を促せば対応してくれますが、そうでない場合は、与えられた情報を優先して処理する傾向があるように感じました。
こうした点を踏まえると、AIは計算をしているというよりも、「前提の上に結論を乗せている」と捉えた方が実態に近いのかもしれません。
前提の“優先順位”という問題
もうひとつ感じたのが、前提条件の「優先順位」の扱いです。
AIは、与えられた情報をもとに柔軟に結論を更新していきますが、その過程で「どの前提をどの程度重く扱うか」という整理までは行ってくれません。
そのため、後から追加した情報が強く反映され、それまでの前提が上書きされる形になることがあります。
実際、別のケースで家族の老後資金について相談した際にも、後から出した情報によって前提が大きく修正され、それまでのシミュレーションとは異なる方向に結論が変わりました。
個別事情のため詳細は控えますが、一般的な資産運用や投資の話よりも優先すべき論点があり、実際にはそちらの影響の方が大きいケースでした。
このように、前提の中には「優先順位」が存在します。
しかしAIは、その優先順位を自動で判断してくれるわけではありません。
結果として、重要度の低い情報に引っ張られたり、逆に本来重視すべき条件が埋もれてしまう可能性もあります。
もっとも、この点についてはAIに限った話ではなく、人に相談する場合でも同様のことは起こり得ます。
結局のところ、「何を優先し、どの前提を重く扱うか」は、相談する側がある程度整理しておく必要があるのだと感じました。
AIはFPの代わりになるのか
ここまでを踏まえると、AIをFPの代わりとしてそのまま使うのは、まだ難しいと感じました。
AIは、与えられた条件の中で一定の方向性を示すことはできますが、前提条件の抜け漏れや優先順位までは自動で補ってくれるわけではありません。
また、税制などの細かい部分については、明らかに誤りが含まれているケースもありました。
内容をそのまま鵜呑みにするのではなく、一定のリテラシーを前提に使う必要があります。
一方で、壁打ち相手としては非常に有用です。
自分の考えを整理したり、複数のパターンを比較したりする用途では、十分に活用できると感じました。
結局のところ、AIは「代わりになる存在」というよりも、「使い方次第で精度が変わるツール」として捉えるのが現実的なのかもしれません。
実用面で気になった点(Claudeの制限)
今回のやりとりで、実用面で少し気になったのがClaudeの利用制限です。
高性能なモデル(Opus)を使用していると、やりとりの内容によってはメモリ消費が大きくなり、比較的少ないやり取り回数でも利用制限に達することがありました。
体感としては、保険のように前提条件が多く、添付ファイルもあるやりとりでは特に影響が出やすい印象です。
Claudeにありがちな「前提条件の省略」やAIによくある「こちらの暗黙の前提条件の取り違え」をいちいち指摘しているとあっという間に制限がかかってしまいます。
また、保険プランなんかを添付ファイルで共有したり、Web検索をさせたりもしたいですよね。これはメモリを大きく消費します。
また、この制限はチャットを切り替えたり、別のモデルに変更したりしても解除されず、継続して使いたい場面では不便に感じることがありました。
課金しているにもかかわらず、5時間も利用できなくなる点については、用途によってはコストパフォーマンスの面で注意が必要です。
その点、GeminiやChatGPTの無料枠を活用して、複数回に分けてやりとりを重ねていく方が、結果的に使いやすい場面もあるように感じました。
まとめ
今回、ClaudeやGemini、ChatGPTを使って保険相談をしてみて、ある程度の方向性は見えると感じました。
一方で、その結論はあくまで「与えた前提条件の上に成り立っているもの」であり、前提の置き方や優先順位によって、大きく変わる可能性があります。
AI単体で完結させるのはまだ難しく、最終的な判断は人間側に委ねられる部分が大きい印象です。
ただ、思考を整理したり、複数の選択肢を比較したりするうえでは、非常に有用なツールでもあります。
保険に限らず、こうしたテーマを扱う際には、AIを「答えを出してくれる存在」としてではなく、「思考を整理するための道具」として使うのが現実的なのかもしれません。
「月10万円」という数字そのものよりも、その数字がどのような前提から導かれたのか。
その部分に目を向けることの方が、重要だと感じました。
最近、いろいろとAIで遊んでいます。AIで「精神的なメンター」を作ろうとした失敗談はこちらに書いています。
保険以外にも、削減できる固定費はたくさんあります。私が作った「固定費削減チェックリスト」はこちら。









