AI建築法令調査の落とし穴──知らずにやると大惨事になります

 
     
  • 公開日:2026/03/30
  •  
  • 最終更新日:2026/03/30
「ChatGPTに法令を聞けば数秒で答えが返ってくる」——AIの登場で建築設計の法令調査は劇的に速くなった。しかしその回答を鵜呑みにした瞬間、取り返しのつかない手戻りが始まる。本記事では、私自身がAI法令調査で失敗した実体験と、そこから確立した「3AI並列クロスチェック+原典確認」の手法を解説する。

AIで法令調査ができれば、設計を早くスタートできる

建築設計を始めるにあたって、まず必要になるのが法令調査だ。その敷地にどのような法令がかかってくるのかを網羅的に調べ、設計条件を確認する作業である。建築基準法、都市計画法、消防法、各地の条例、上下水道の引き込み状況——用途によってはさらに、医療施設であれば医療法、飲食店であれば食品衛生法など、調べるべき範囲は膨大だ。

本来であれば、この作業だけで相当な時間を費やす。法令集を引き、自治体の公式サイトを確認し、窓口に問い合わせ、都市計画図を読み——設計に取りかかる前の段階で何日もかかることは珍しくない。

これをAIでできれば、作業時間は大幅に短縮される。設計を早くスタートできる。ChatGPTの登場以降、建築設計の現場でもAIに法令を質問する設計者が増えたのは当然のことだ。

しかし、調査量が膨大になればなるほど、AIが誤情報を出力するリスク——いわゆるハルシネーション——も比例して上がる。ここに致命的な落とし穴がある。

AIが「自信満々に間違える」という現実

AI(大規模言語モデル)のハルシネーションとは、存在しない条文を引用する、廃止された基準を現行法として回答する、自治体独自の条例を別の自治体のものと混同する——こうした誤りを、まるで正しいかのように堂々と出力する現象だ。

⚠ ハルシネーションの厄介さ:条文番号も示され、文脈も自然で、専門家でなければ疑いようがない。だからこそ危険なのである。

私の失敗談——2AIでも嘘は防げなかった

実際に私が経験した失敗をお話しする。

東京都内の狭小地で、クリニックの新築計画に携わったときのことだ。敷地は40㎡台と極めて小さく、法令上の制約を正確に把握することが計画の成否を左右する案件だった。

当時の私は、ChatGPTとGeminiの2つのAIを使って法令調査をしていた。ハルシネーションを防ぐため、2つのAIにそれぞれディープリサーチで法令調査を並行して実行させ、お互いの報告書を相互に読み込ませて、正誤確認と欠落防止を図る——という方法だ。2つのAIに相互チェックさせているのだから、精度は高いだろうと考えていた。

ところが、2つのAIは共通して、こう報告してきた。

「当該地域の条例により、クリニックは面積にかかわらず各階に身障者用トイレを設置しなければならない。」

40㎡台の狭小地に建つクリニックで、各階に身障者用トイレ。これは致命的だ。必要な診察室や処置室を確保できなくなる。計画そのものが成り立たなくなる可能性すらあった。

この調査をしたのが、ちょうど施主にお会いする直前だったため、私はすぐにこの調査結果を施主に報告した。すると施主は知り合いの議員さんにその場で電話で相談し、議員さんは行政へ確認を取ってくれた。

結果——そんな条例はなかった。

私自身も改めて行政窓口へ確認したところ、「それは大規模な医療施設に適用されるものです」との回答。つまり、AIが条例の適用範囲を誤って解釈し、小規模クリニックにも一律に適用されると報告していたのだ。

施主に余計な心配をさせ、議員さんにも余計な労力をかけ、私も恥をかいた。なぜ自分で先に行政窓口へ確認しなかったのか、と悔やんだが時すでに遅しだった。

ただ、傷が浅くて済んだのは不幸中の幸いだった。仮にこの誤情報を信じたまま計画を進めていたら、各階の身障者用トイレを前提としたプランで設計が進み、どこかの段階で誤りに気づいて大幅な手戻りが発生していたはずだ。

なぜ2つのAIが同じ嘘をついたのか

原因①:情報伝染
一方のAIの調査結果が間違っていたとき、もう一方のAIもその嘘を信じてしまった可能性。相互に報告書を読み込ませる方式では、先に出た誤情報がもう一方のAIの判断を汚染する。原因②:条例の構造的な読み違い
大規模施設向けの条例と小規模施設の適用範囲の区別は、条文の読み込みが浅いと見落としやすい。2つのAIが独立に同じ誤りを犯したとしても不思議ではない。

いずれにせよ、この経験が、後に私が「3AI並列クロスチェック」の手法を確立する直接のきっかけになった。

なぜ「AI単体」では法令調査に使えないのか

理由1:学習データには時限がある
法令は毎年改正される。都市計画の見直し、条例の新設・廃止、告示の改定——AIの学習データが最新法令を網羅している保証はどこにもない。理由2:自治体ローカルの運用基準はネット上に存在しないことがある
窓口でしか確認できない審査基準、内規、運用解釈は、そもそもAIの学習対象に含まれていない。ところがAIは「情報がない」と正直に言う代わりに、他の自治体の情報や一般論で補完しようとする。理由3:AIは自分の回答の確信度を正確に表現できない
「確実です」と言った内容が間違っていることも、「不明です」と言った内容が実は正しいこともある。そして:2つのAIで相互チェックさせても、情報が伝染して両方が同じ嘘をつくことがある。

この経験から、私はより堅牢な方法を模索した。

実務で確立した「3AI並列クロスチェック」

現在、私はChatGPT・Gemini・Claudeの3つのAIを並列に使った法令調査手法を、クリニック・医療施設の設計プロジェクトで運用している。2AI時代の失敗を踏まえ、「情報伝染の防止」と「原典確認の徹底」を軸に設計した手法だ。

ステップ1:3AIに同一の調査依頼を独立送信

調査対象の物件概要(所在地・用途・規模・構造・特殊条件)をまとめ、ChatGPT・Gemini・Claudeの3サービスにまったく同じ調査依頼文を送信する。

💡 最重要ポイント:「独立性」の確保
あるAIの回答を別のAIに見せた状態で調査させると、2AI時代に経験した「情報伝染」が再び起きる。3者がお互いの回答を知らない状態で、それぞれ独立に調査させることが大前提である。

ステップ2:3AIによる相互クロスチェック

3者の回答が出揃ったら、各AIに他の2AIの調査結果を読み込ませ、相違点を洗い出させる。これもAIにやらせる。

人間がやると、3者分の報告書を突き合わせて相違点を抽出するだけで膨大な時間がかかる。AIなら数分だ。ここで抽出するのは以下の項目である。

分類 内容 注意点
(A)3者一致 全員が同じ結論を出している事項 「3者一致=正しい」とは断定しない
(B)不一致 回答が食い違っている事項 各AIの主張・根拠URLを一覧化
(C)確認不能 いずれかが確認できなかった事項 他の2AIに再確認を依頼
(D)情報源比較 参照URLの突き合わせ 一次情報か二次情報かを区別

ステップ3:相違点の原典確認(最大5回反復)

不一致が出た項目について、各AIに「他のAIはこう言っているが、あなた自身で一次情報源を確認した上で回答せよ」と再調査を依頼する。これも3AIに並行してやらせる。

ここでプロンプトに組み込む条件が決定的に重要だ。

プロンプトに明記する最重要ルール:
「他のAIの報告を絶対に鵜呑みにするな。自分自身で原典確認できたものだけ信用しろ」・確認できた場合 → 情報源URLを明記させる
・確認できなかった場合 → 「確認不能」と正直に申告させる
・最大5回反復 → 収束しなければ「AI間解決不能」として人間の窓口確認へ
🤖 Coworkで自動化
この反復作業は、Claudeデスクトップアプリの「Cowork」機能を使えば自走させることができる。Coworkはブラウザを自動操作できるため、Claudeが自らChatGPTとGeminiのチャット画面を開き、調査依頼の送信・回答の取得・相違点の抽出・再調査の依頼までを一気通貫で実行する。人間は最初に物件概要を渡すだけで、あとはAI同士の反復確認が自動で進む。私はこの一連のプロセスをCoworkの「スキル」として定型化しており、新規プロジェクトのたびに同じ精度の調査を再現できるようにしている。

2AI時代の失敗は、まさにこの「鵜呑みにするな」というルールがなかったことが原因だった。相互に読み込ませるだけでは、誤情報が伝染する。「読んだ上で、自分で確認しろ」と命じることで、はじめてクロスチェックが機能する。

ステップ4:ネット上で確認できない情報の徹底調査

AI間で解決できない事項について、安易に「窓口で確認してください」と投げるのではなく、まず3つのAI全てに以下の調査を試みさせる。

・自治体公式サイトの直接検索
・e-Gov法令検索・自治体法規集の条例データベース
・審査基準集・運用指針・ガイドラインのPDF検索
・国土交通省・文化庁・農林水産省など関係省庁サイトの検索
・議会議事録・行政手続き案内ページの検索

3つのAI全てがこれらを試した上でなお確認できない場合に初めて、「窓口確認が必要な事項」としてリスト化する。リストには、資料名・必要な理由・AIが試みた調査手段・入手方法(窓口名・電話番号・URL)・優先度を明記させる。

ステップ5:原典確認——最も重要な工程

ここまでのプロセスで得られた情報は、あくまで「AI調査版」だ。AIの出力は、どれだけクロスチェックしても「参考情報」の域を出ない。

最終的に報告書に採用するのは、以下の3分類で管理した情報だけである。

分類 定義 設計判断への使用
原典確認済み 公式PDF・法令条文・図面・仕様書の原文を直接確認した項目 ✔ 使用可
既得情報反映 施主・窓口・関係者から得た資料・確認結果を反映した項目 ✔ 使用可
★未確認 AIの調査結果に基づくが、原典での確認が取れていない項目 ✘ 使用不可
⛔「★未確認」のまま設計判断に使うことは絶対にしない。未確認事項は全て「窓口で確認すべき事項」として関係者に申告し、確認が取れるまで設計を確定しない。

この手法で実際に防げた問題

3AI並列クロスチェックを本格導入した後のプロジェクトでは、農地法・都市計画法・埋蔵文化財保護法・景観条例の4つの規制が重なる複雑な案件があった。

3AI並列調査を実施したところ、AIごとに「農振除外の要否」の判断が分かれた。1つのAIは「除外不要」と回答し、別の2つは「除外必要」と回答。再調査の結果、「除外不要」と回答したAIは、対象地が農業振興地域の「農用地区域」内であることを見落としていたことが判明した。

⚠ もし最初のAIの回答だけを信じていたら:
農振除外の手続きを省略 → 開発許可の段階で計画が頓挫 → 数ヶ月のスケジュール遅延と多額の追加費用

同じプロジェクトでは、埋蔵文化財包蔵地とMRI装置の基礎荷重の組み合わせがクリティカルな問題であることも、クロスチェックの過程で浮かび上がった。単体AIでは「埋蔵文化財の届出が必要」という一般論しか出てこなかったものが、3AI間の議論を経ることで「重量物基礎による掘削深度と包蔵地の保存」という具体的なリスクが特定できたのだ。

AI法令調査で絶対にやってはいけないこと

❌ 1. AI単体の回答を確認なしで設計に採用する
これは論外だ。どんなに優秀なAIでも、法令調査における単体の信頼性は「参考程度」である。
❌ 2. AIが示した「条文番号」「告示番号」を原典で確認しない
AIが条文番号を示すと、それだけで信用してしまいがちだ。しかし、番号は正しくても内容の解釈が間違っている、引用範囲が不適切、改正前の内容を参照している——こうした事例は日常的に発生する。e-Govや自治体法規集で必ず原文を確認すべきだ。
❌ 3. 二次情報サイトの記述をもって「確認済み」とする
解説ブログやまとめサイトはAIの学習元でもある。二次情報で確認したつもりが、AIと同じ情報源を堂々巡りしているだけ、ということが起こる。確認は必ず一次情報源(法令原文・自治体公式サイト・審査基準PDF)で行うべきだ。
❌ 4.「複数AIが一致=正しい」と思い込む
私自身が2AIで経験した通り、複数のAIが同じ回答をしても、全員が間違っていることはある。学習データの偏りが共通していれば同じ誤りを出力するし、相互チェックの過程で情報が伝染することもある。クロスチェックは精度を上げる手段であって、原典確認の代替にはならない。
❌ 5. 自治体ローカルの運用基準をAIに期待する
窓口でしか得られない情報は、AIには答えられない。「AIで調べたから窓口確認は不要」という発想は、最も危険な思い込みだ。

まとめ——AIは「調査の起点」であって「結論」ではない

AIを法令調査に活用すること自体は、私は強く推奨している。従来であれば何日もかかった網羅的な法令調査を数時間に短縮でき、設計着手のスピードが格段に上がる。見落としのリスクも、人間だけで行うよりもはるかに低くなる。

しかし、AIの出力を「結論」として扱った瞬間、それは武器ではなく凶器になる。

3原則

(1)複数のAIで独立に調査し、クロスチェックする。他のAIの報告を鵜呑みにさせない。

(2)全ての情報を一次情報源で確認し、確認できないものは「未確認」と明記する。

(3)AIの調査結果と原典確認済みの情報を明確に区別して管理する。

便利な道具を正しく使って、「知らずにやって大惨事」を防いでいただきたい。

2026.3.30

松本哲哉【この記事を書いた人 松本哲哉】
KTXアーキラボ代表・一級建築士・大阪芸術大学非常勤講師
2024年度イタリアDAC認定建築デザイナーランキング世界9位(日本国内1位)
ウィキペディア 松本哲哉(建築家)

【お問い合わせ先】
KTXアーキラボ一級建築士事務所
東京都港区南麻布3-4-5 エスセナーリオ南麻布002
兵庫県姫路市船丘町298-2 日新ビル2F
事業内容 建築設計監理・内装デザイン・工事施工
メール:kentixx@ktx.space
電話番号:03-4400-4529(代表)
ウェブサイト:https://ktx.space/
%d人のブロガーが「いいね」をつけました。