AIを配布することに対する反対ポジションもリサーチしてみた
東京都における教育AI導入への反対政策提言
はじめに
東京都教育委員会などが検討する教育へのAI(人工知能)導入について、慎重な議論が求められています。本提言レポートでは、AI活用による 教育上のリスク と 弊害 を6つの観点から分析し、AIに頼らずに教育の質を向上させるための政策的代替案を提示します。特に、教育格差の拡大、教員の役割低下、学習の質や思考力の低下、コスト負担、国際的事例、倫理的・社会的課題という視点でAI導入への反対論を展開し、それらを踏まえた具体的な政策提言を示します。
1. 教育格差拡大の懸念
AIの教育導入により、家庭環境による教育格差が一層広がる可能性があります。経済的に余裕がありICT環境が整った家庭の子どもは、学校で提供されるAIツールを家庭でも十分活用できる一方、経済的に困難な家庭ではデバイス不足やネット環境未整備により恩恵を受けにくくなる懸念があります (オンライン授業の拡大を妨げる家庭のIT環境格差|ニューズウィーク日本版 オフィシャルサイト) (「デジタル教育格差」コロナ禍で浮き彫りに 所得や地域で大きな差、教職員も負担増…解消するには? | 東京すくすく)。実際、Brookings研究所は「裕福な子どもはAIを含む技術とそれを使いこなす人材の両方にアクセスできるが、貧しい子どもは技術にしかアクセスできない」新たなデジタルデバイドの出現を指摘しています (AI and the next digital divide in education)。家庭のIT環境や保護者のITリテラシーの差異がオンライン学習への参加度に影響することは、コロナ禍のオンライン授業でも明らかになりました (オンライン授業の拡大を妨げる家庭のIT環境格差|ニューズウィーク日本版 オフィシャルサイト)。こうした状況下でAIを導入すれば、経済格差・家庭環境格差による学習機会の不平等が拡大しかねません (Will AI in Schools Widen the Digital Divide?)。特に家庭に高速インターネットや個人用端末がない子どもは、AI活用型の学習についていけず**「学習から取り残される」**リスクが高まります (Will AI in Schools Widen the Digital Divide?)。教育の機会均等を保障する観点から、AI導入は慎重に検討すべきです。
2. 教員の役割低下と教育の質への影響
AIが教育現場で教師の役割の一部を代替し始めると、教師の存在意義や教育の質の低下が懸念されます。確かにAIは定型的な課題の採点や事務作業を自動化し教員の負担軽減に役立つ側面もあります。しかし、教育とは単に知識伝達だけでなく、人間同士の双方向のやり取りや情緒的サポートによって成り立つものです (【科技暢想】AI不知人情冷暖人類老師難取代- 香港文匯網 - 文匯報) (How Does AI Affect Education Negatively? Understanding the Challenges and Risks – eSelf AI)。AIでは生徒一人ひとりの微妙な感情変化や個性に即した対応が困難であり、教師が果たすきめ細やかな指導や励ましといった役割を十分に代替できません (【科技暢想】AI不知人情冷暖人類老師難取代- 香港文匯網 - 文匯報) (How Does AI Affect Education Negatively? Understanding the Challenges and Risks – eSelf AI)。香港での指摘にもあるように「AIは人情の機微を理解できず、人間教師の温かみは代えがたい」とされ、学生は依然として人間教師による指導を必要としています (【科技暢想】AI不知人情冷暖人類老師難取代- 香港文匯網 - 文匯報)。
さらに、教師自身の専門性低下のリスクも指摘されます。AIに教材作成や課題フィードバックを任せすぎると、教師が自ら工夫して教材研究を行ったり指導法を磨いたりする機会が減り、教育の質が画一化・停滞する恐れがあります (AI in Education - Education Next)。例えば、米国の調査では、AIが生成した授業プランや教材を教師がそのまま受け入れてしまい、十分な吟味や調整を怠る傾向が指摘されています (AI in Education - Education Next)。スピード重視でAI任せにすると、「速さは質に等しくない(speed does not equate to quality)」という問題が生じ、結果的に授業内容の質低下につながりかねません (AI in Education - Education Next)。
何より、教師と生徒の信頼関係や人間的なつながりは、AIでは再現困難です。教育は人と人との関わり合いの中でこそ深まるものであり、AI導入によって教師の役割が軽視されれば、生徒の学習意欲や安心感に悪影響が及ぶでしょう (How Does AI Affect Education Negatively? Understanding the Challenges and Risks – eSelf AI) (How Does AI Affect Education Negatively? Understanding the Challenges and Risks – eSelf AI)。世界経済フォーラムの報告でも「教師は教育の中心に据え続けるべきであり、AIはあくまで補助であって教師の代替にはなりえない」と強調されています (AI won’t replace teachers, says this global union)。実際、2023年のある報告書は「AIは生徒の学びの管理者としての教師や保護者の役割を置き換えることはできない」と明言しています (AI in Education - Education Next)。以上の観点から、教師の専門性と人間的な教育の良さを守るためにも、安易なAI導入には反対し、人間教師中心の教育を維持すべきです。
3. 学習の質と思考力低下のリスク
AIに過度に頼る学習は、生徒の主体的な学習能力や思考力の低下を招く恐れがあります。AIを使えば宿題の解答や作文の下書きなどを容易に得られるため、生徒が自ら試行錯誤したり考え抜いたりする機会が減ってしまう懸念があります。実際、教育専門家からは「AIに頼りすぎると問題解決能力や批判的思考力が制限される可能性がある」との指摘が出ています (How Does AI Affect Education Negatively? Understanding the Challenges and Risks – eSelf AI)。米国教育誌の分析でも、テクノロジーへの過度の依存は生徒の学びを阻害し、特に批判的思考の発達を妨げると警鐘が鳴らされています (AI in Education - Education Next)。つまり、答えをAIがすぐに提示してしまう状況では、生徒自身が「考えるプロセス」や「試行錯誤から学ぶ経験」を積む機会が失われてしまうのです。
また、AIによる即時解答に慣れると、学習への粘り強さや探究心が育ちにくくなる可能性もあります。困難な問題に直面したとき、本来であれば生徒は試行錯誤したり周囲と協力したりして乗り越える力を身につけますが、AIが安易に解を与えるとそのプロセスが省略されてしまいます。その結果、「自分で考えなくても答えが得られる」という習慣がつき、学習意欲の低下や受動的な学びにつながりかねません。
さらに、AIによる個別最適化学習には、一見効率的に知識定着を図れる利点がありますが、その過度な最適化は逆に生徒の創造性を奪う可能性も指摘されています。常に生徒の理解度に合った問題だけが提示されると、想定外の難問に挑戦する機会や、自分で課題を発見する力が育たない恐れがあるためです。
現場の例証として、米国のある教育区で導入された「ロボット教師(AIによる自動学習システム)」の実験では、生徒の理解が深まらず学習意欲も低下するという失敗が報告されています。 (The Failed Robo-Teacher Experiment | Broker World)では10歳の児童が「質問もできず内容が理解できない」と毎日のように悔し涙を流し、13歳の生徒は「システムが退屈で集中できない」と学習態度が怠惰になったといいます (The Failed Robo-Teacher Experiment | Broker World)。結局この地区では、生徒・保護者から「ほとんど失敗だった」という評価を受け、後半からは人間の教師がオンライン授業に戻ったところ、生徒は再び意欲を取り戻し成績も向上したと報告されています (The Failed Robo-Teacher Experiment | Broker World)。この事例は、生徒の学習には人間の双方向の関与が不可欠であり、AI任せでは学習の質が著しく損なわれることを示唆しています。
以上より、AIへの過度な依存は生徒の自律的な学びの力や深い思考力の育成にマイナスとなる可能性が高く、こうしたリスクを十分考慮しない教育政策には問題があります。**「考える教育」**を守るためにも、AIに頼りすぎず、生徒が自ら調べ、考え、討論し、表現するといった学習活動を重視する方針が必要です。
4. AI導入に伴うコストの問題
AIを教育現場に導入するには、莫大な初期投資と継続的コストが伴います。その持続可能性や費用対効果を慎重に見極める必要があります。ハード面では、生徒一人ひとりに端末を配布し高速ネットワークを整備するために巨額の費用が必要です。日本ではGIGAスクール構想で国費約4,800億円、地方負担約2,400億円、合計約7,200億円もの公費が投じられました (山内 康一 | GIGAスクール 4,800億円のコスパ)。しかしデジタル端末は一度買えば終わりではなく、平均4~5年で陳腐化し更新が必要です (山内 康一 | GIGAスクール 4,800億円のコスパ)。小中学生が日常的に使えば故障も多く、場合によっては2~3年で買い替えねばならない可能性すらあります (山内 康一 | GIGAスクール 4,800億円のコスパ)。試算によれば、日本全国で端末更新だけでも毎年1,000億円規模の費用がかかる見込みです (山内 康一 | GIGAスクール 4,800億円のコスパ)。加えて、教育用ソフトウェアのライセンス料、クラウドサービス利用料、通信費、さらに機器の維持管理や教員研修・ICT支援員の人件費など、恒常的に膨大なランニングコストが発生します (山内 康一 | GIGAスクール 4,800億円のコスパ)。
一方、こうした費用を投じても、その教育効果が明確でないことも問題です。山内康一氏は「GIGAスクール構想は高コストなのは確実だが、効果のほどはあやしい」と述べています (山内 康一 | GIGAスクール 4,800億円のコスパ)。実際、同氏の指摘によれば、この構想はエビデンスに基づかず進められ、費用対効果の議論が不十分なまま巨額の税金投入が決まった経緯があります (山内 康一 | GIGAスクール 4,800億円のコスパ)。7,200億円もの予算投入に対し、例えば4,430億円あれば全国の小中学校の給食を1年間無償化できると試算されており (山内 康一 | GIGAスクール 4,800億円のコスパ)、それだけの投資に見合う学力向上や教育効果が得られるのか疑問の声もあります。教育ICT化の費用対効果について、「必要なコストは見込めるが、期待される効果は不明」という指摘通り (山内 康一 | GIGAスクール 4,800億円のコスパ)、AI導入においても同様の懸念があります。
さらに、ソフト面でも高度なAIシステムの利用にはコストがかかります。例えば、生成AI(大規模言語モデル)を教育で活用する際の利用料は、モデルの種類や使用頻度によっては膨大になります。ある非営利教育団体の試算では、2.8百万の学生にGPT-4で作文フィードバックを提供すると年間約240万ドル(約3.5億円)の費用がかかるとされています (Navigating the High Costs of AI in EdTech - The Learning Agency)(GPT-3.5ならその1/10程度)。東京の公立学校全体でAIサービスを大規模に導入すれば、その利用料や保守費用は毎年莫大な額に上る可能性があります。
このように、AI導入には初期投資・運用とも巨額の公費負担を伴いますが、その効果が不確実である以上、限られた教育予算の使い道として適切か慎重に検討すべきです。むしろ、その予算を教員増員や奨学金、学習支援など他の教育施策に振り向けた方が効果が高い可能性もあります。教育への投資は常にトレードオフを伴うため、コストに見合う十分なリターンが期待できない政策は再考する必要があります。
5. 国際的な事例から見る課題
他国における教育へのAI・ICT導入の事例からも、多くの失敗や課題が報告されています。それらは東京都がAI導入を検討する上で重要な教訓となります。
まず、大規模な教育ICTプロジェクトの効果については懐疑的な結果が出ています。例えば新興国ペルーで実施された「One Laptop Per Child(一人一台ノートPC配布)」計画の大規模評価では、読解力・数学力テストの成績に全く向上が見られず、出席率や学習意欲にも変化がなかったことが判明しました (One Laptop Per Child is not improving reading or math. But, are we learning enough from these evaluations?)。膨大な費用をかけて児童にパソコンを配布しましたが、学力面での効果はゼロだったのです (One Laptop Per Child is not improving reading or math. But, are we learning enough from these evaluations?)。同様にネパールでの小規模実験でも英語や数学の成績に有意な差が出ず、教育へのコンピュータ導入が必ずしも成果に結び付かないことが示唆されています (One Laptop Per Child is not improving reading or math. But, are we learning enough from these evaluations?)。これらは「機器を与えれば学力が上がる」という単純なものではなく、指導法や活用支援まで含めないと効果が出ないことを物語っています。
また、AI活用に伴う失敗例として有名なのが、イギリスのAレベル試験の「アルゴリズム採点」問題です。2020年、新型コロナで試験が中止された際、過去の学校成績などを元にした予測AIが生徒の最終成績を算出しました。しかしこのアルゴリズムは社会的偏差を増幅し、多くの生徒に不当な低評価を与えたため大混乱に陥りました。実際、約40%もの受験生の成績が教師予想より下げられ (“F**k the algorithm?”: What the world can learn from the UK’s A-level grading fiasco | Impact of Social Sciences)、優秀な生徒が落第点を付けられるケースも相次いだのです。英国各地で「アルゴリズムを止めろ」と学生が抗議する事態となり、政府は急遽この結果を撤回して教師評価に切り替える措置をとりました (“F**k the algorithm?”: What the world can learn from the UK’s A-level grading fiasco | Impact of Social Sciences)。この事件は、教育評価におけるAIアルゴリズムの不透明性とバイアスの危険性を世界に示すものとなりました。
さらに、中国などではAI技術を教育現場に投入する極端な実験も報じられています。例えば中国の一部学校では生徒に脳波測定のヘッドバンドを装着させ、注意力や感情の状態をリアルタイムで教師に通知する試みが行われています (AI is a serious threat to student privacy)。しかしこれは生徒のプライバシーを大きく侵害し、管理・監視一辺倒の教育への批判を招いています(詳細は後述の倫理的課題で触れます)。韓国やシンガポールなどAI教育先進を謳う国でも、AI教材の質のばらつきや教師の負担増大、既存教育システムとの不整合など多くの課題に直面しています。
他国の事例から明らかなのは、教育へのAI/ICT導入は慎重に設計・運用しないと効果が出ないどころか弊害を招く可能性が高いという点です。東京都がグローバルに学ぶべきは、拙速な技術導入の危うさと、導入後のきめ細かなフォローの重要性です。これらの教訓を踏まえれば、現時点でリスクの大きいAI導入に踏み切るより、まずは人的リソースの充実や環境整備といった足元の課題に注力すべきと考えます。