田主 陽(2020-2025年度 SOP執筆支援プログラム運営主任)
松谷 優花(XPLANE SOP執筆支援プログラム監修)
朝職場に着くと、まずはAIが与えた未読メールの要約に目を通し、返信の草案をAIに作成させる-そんな日常が当たり前になりつつあります 。仕事中はアイデア出し、議事録要約、初稿レベルの文章の作成や校正、家に帰っても料理のレシピ提案、旅行の計画立案……生成AIの代表格であるChatGPTの利用経験者は2023年比で倍増したと言うデータ(2025年6月時点)もあり、生成AIは人間のあらゆる知的活動を効率化するツールとして存在感を増し続けています。
大学における研究や学習も例外ではなく、論文の要約や専門用語の解説、レポートの執筆支援など、至る所でAIの利用が広がっています。今年で5年目となるXPLANEのSoP執筆支援プログラム(留学志望者を、分野や志望校が近いメンターとマッチングさせ、Statement of Purpose (SoP) の執筆を個別支援するプログラム)でも、生成AIに関する相談(主にトラブル)は増える一方です。初稿作成と英訳を全てChatGPTに任せてしまった留学志望者、留学志望者から受け取ったSoPを許可なしに生成AIにアップロードしてしまったメンター。150人規模の個人支援プログラムにさえ見られる傾向なのだから、大学や大学院でAI使用ポリシーの作成やAIリテラシー教育の重要性が高まり、教員がその対策に追われていることは容易に想像できます。
「限られた人が使う便利なツール」から「誰もが日常で当たり前に使うツール」へ移行しつつある生成AIは、ここ数年で出願の世界にも急速に波及してきました。便利さを体験した人ほど、出願書類の執筆においても構想整理など様々な過程でAIを使う傾向が強まり、大学院の選考側でも制度やガイドラインの整備が進んでいます。今回は、出願書類におけるAI使用への大学側の対策、今後の出願業界や研究者のスタンスの紹介に加え、これから出願書類を書く方へのメッセージも込めて寄稿させていただきます。
1. 重要:出願書類での生成AI利用は規制されている
まず、これから出願される皆さんに一番知っていただきたいことは、日本人の多くが思っている以上に出願書類において生成AIを利用することは厳しく規制されているということです。実際のポリシーの例として、我々が見た中で最も詳細に書かれていたカリフォルニア工科大学(Caltech)の例を抜粋しましょう。
What are some examples of unethical uses of AI for Caltech admissions essays?
- Copying and pasting directly from an AI generator
- Relying on AI generated content to outline or draft an essay
- Replacing your unique voice and tone with AI generated content
- Translating an essay written in another language
What are some examples of ethical uses of AI for Caltech admissions essays?
- Using AI tools, like Grammarly or Microsoft Editor, to review grammar and spelling of your completed essays
- Generating questions or exercises to help kick start the brainstorming process
- Using AI to research the college application process
If you are still wondering whether your use of AI in crafting your application is ethical, ask yourself whether it would be ethical to have a trusted adult perform the same task you are asking of ChatGPT. Would a teacher be able to review your essay for grammatical and spelling errors? Of course! Would that same teacher write a draft of an essay for you to tweak and then submit? Definitely not.
Above all else, remember to be authentic to yourself when writing your essays. Our Caltech supplemental questions are designed to spark your curiosity, to make you think deeply about whether you see yourself as a Techer, and to jumpstart your creativity – don’t let a reliance on AI tools take that opportunity from you!(出典元: Caltech)
このように、「倫理的に問題ない利用」に分類されるのは完成したSoPの文法やスペルチェック、アイデア出しのきっかけとなる質問を用意させる、入試プロセスの調査などのマイナーなものにとどまり、生成AIが「得意」とするであろうアウトライン作成・ドラフト生成・翻訳といった「執筆の中核的な部分」へのAI利用を全て不適切と断じています。
これは決して厳しい部類ではなく、他の大学の例を見ても、
- オックスフォード大学「生成AIで文書を生成したり、文書の基礎を作成してはならない」「不適切なAI使用を検出したら不合格の措置を取る」
- ケンブリッジ大学「大学院出願において、personal statementとCVへのAI使用は英語運用の補助目的の使用も含めて一切認めない」
- ブラウン大学「文法とスペルチェックを除き、出願書類の内容に対する生成AI使用はいかなる状況でも許可しない」
- ハーバード大学「出願書類の全ての記述部分(SoP、CV、フォームの短答式回答も含む)は、申請者本人が単独で作成したものでなければならず、第三者による作成、生成型人工知能または機械学習ソフトウェアによる作成は認めない」
といったように、ほとんどの用途を禁止しているケースが大半であり、決して一部の地域や一部の大学が強く反発しているだけという形ではないことが分かるでしょう。(ただし、いずれも2025年10月時点の記述で、今後変わる可能性があることには注意してください。)
2. “slick but soulless“– 均一化されたSoPに辟易するCommittee
このように出願書類への生成AI利用が規制されるのは、Admission Committeeが近年の均質化されたSoPに辟易している事情が背景にあります。例として、Yale大学のAdmission Officeが配信している公式Podcast 「Inside the Yale Admissions Office Podcast」の「Ep34. AI and College Essays: Wrong Question, Wrong Answer」から、生成AIの利用について審査側がどう考えているかを紹介しましょう(こちらは今回紹介するEp34以外にも、実際のAdmission Officersのスタンスや評価項目が分かる、おすすめのPodcastです)。
AI and College Essays: Wrong Question, Wrong Answer, Transcriptはこちら
Podcastでのメッセージを抜粋すると、
- “It hasn’t been trained on you.” (AIはあなたに訓練されていない)
- “The first step in any successful college essay is the reflection, looking inward to decide what you want to say about yourself, how you want to say it, not looking outward to see what other people have said or want you to say.” (良いエッセイを書くための最初の段階は何を語りたいか、何を伝えたいかを考える内省であり、他人視点ではない)
- “And an essay that’s not written by you about you is just simply not going to be as effective as one that is.” (自分についてのエッセイを自分以外の人間が書いても有効ではない)
- “But what you’ll remember from those episodes is that a super well-written essay that’s not fundamentally about the person applying isn’t going to help that student’s chances.” (その学生について根本的に語っていないエッセイは評価されない)
- “A super well-written essay that doesn’t resonate with other substantive elements of the application isn’t going to help a student much on its own.” (出願書類全体でそのエッセイがどれだけ貢献しているかが重要)
- “I think the best description that I’ve seen of AI-generated text is, quote, “slick but soulless. ” (AI生成の文章は「滑らかだが魂がない」)
といったように、「そもそもAIを使っても高く評価されず、有利に働かない」「エッセイは内省から始まり、自分について書くもの」「AIを使うことで、自分の声(Voice)で自分を語る機会を逃してしまっている」と言う点を繰り返し強調しています。
出願書類全体を通して評価される中で、SoPという書類の役割、そしてSoPでしか伝えられないことは何でしょうか?SoPが体裁を整えて自身の経歴や研究内容を綴るだけであれば、CVや推薦状といった他の書類が提供する内容と何も変わりません。カリフォルニア大学のこちらの記事が参考になりますが、良いSoPとは文法のミスがないものでも文章表現が美しいものでもなく、他人には書けない具体的な努力やエピソードが含まれていて、その文章を読むだけでどんな人間かが伝わってくるような書類です。希望する将来像(未来)、自らの経験と考え(過去〜現在)、大学院に入学したい動機(近未来)というのを自らの言葉で綴って伝えるということが、他の出願書類では代用できないStatement of Purposeという書類に求められた役割だと言えます。
3. 大学院入試の展望と、今後の出願でのアドバイス
以上を踏まえて、これから出願する方はどうやってSoPを含む出願書類を作成するべきか、より実践的なアドバイスをSoP執筆支援プログラム運営の視点で述べたいと思います。
まず、出願する大学を決めた時点で、その大学の出願におけるAIポリシーについて必ず確認しましょう。ポリシーを読むと「文法やスペルチェックなどの英語の補助にすら使ってはいけない」という大学や、AI使用の検出ツールを使うことを明記している大学などもあり、いずれも書類作成前に必ず知っておくべき情報です。また、これはまだ一部の大学ですが、補助書類として「生成AIをどのように使ったか」を開示させる、あるいはインタビュー時に問うような大学もあります。この場合は追加の書類が必要となるため、出願直前に知るということは避けたいです。
次に、書類を作る上では、ポリシーに則って生成AIを文章生成過程で使わないのはもちろん、自身で書く際にも具体的なエピソードや自分にしか書けない内容を多く取り入れて、「生成AIによって書かれた」と思われにくい書類を作るよう意識することが大切です。誰にでも当てはまる一般的な内容を避け、数値、時期、場所、感じたことといった具体的な内容を入れると効果的でしょう。ほとんど同じ内容を書いていても、「いつ」「どこで」「どう考えが変わったのか」という内容が入っていると、他の人には書けないSoPになり、最近の均一化されたSoPに辟易している審査側からは高く評価される可能性も高いです。また、原稿完成後に英文校正を依頼する方もいると思いますが、その際にネイティブにAIの使用を疑われないよう人間らしい文章にして欲しいと依頼するのもおすすめです。
そして展望として、このような規制だけでは生成AIを不適切に使用する人はいなくならないと考えられ、その対策として入試における面接の重要度が今後増す可能性があります。本プログラムで把握している範囲でも「面接であえてSoPの内容について聞き、自身で書いたものであるか判断する」という入試のケースがあったため、提出した書類の内容をしっかり把握しておくこと、面接の際に明確に自身の考えや経験について語れるように練習しておくことは、今後さらに効果的であると考えられます。
4. 研究者の必須能力としてのAIリテラシー
「ネットリテラシー」という言葉が使われるようになって久しいですが、これからは出願における使用の是非を超えて「AIリテラシー」1が研究者として必須の能力である時代になると考えています。すなわち、AIにまつわる以下のようなリスクを知識として持った上で、AIを使うタイミングや方法を正しく判断できることが必要とされます。
[AI使用にまつわる主なリスクとその例]
- Hallucination: 事実と異なる,あるいは存在しない,根拠のない情報をもっともらしく生成する (例: 存在しない論文を引用)
- Bias: 偏見や差別の再生産 (例: 医者=男性),特定の集団の情報や価値観への偏り (例: 白人中流階級男性のリベラル思想,英語以外の言語への対応の遅れ)
- Homogenization: よくある無難で平均的な答えを生成する (例: ChatGPTが生成する似通った無難なエッセー)
- Learning loss: AIに過度に頼ることで自分で調べる,考える,作る,評価する機会が失われ,本人の能力が育たない (例: レポート課題を丸ごとAIに書かせたため,トピックを深く理解していない,書いた内容を覚えていない)
- Cheating: 本来自分で行うべきことをAIに代行させて自分の成果物として提出する (例: SOPを丸ごとAIに書かせてそのまま提出) → Academic integrity (学問的誠実性)の重大な違反
- Privacy & security: AIに入力した個人情報や機密データが漏洩したりモデルの学習に利用されたりする,不正アクセスが起こる (例:ChatGPTの学習機能をオフせずに学生の履歴書をアップロードして推薦書を書かせる)
- Domain-specific AI: 医療・法律・金融・教育など専門性の高い領域でgeneral-purpose AIを使用することの危険性 (例: 病院に行かずにChatGPTに診てもらって誤診)
- Job replacement: AIが知的労働を代替し,一部の職業が縮小または消滅する (例: Entry-level job(新卒・若手向けポジション)の減少)
- Intellectual property: 著作権作品を無断で学習に使う,生成することへの是非 (例: アーティストによる訴訟)
- Accessibility: 地域格差や経済格差により高性能AIへのアクセスに不平等が生じる (例: 経済的に余裕のある人や国だけが最新AIを利用)
- Environmental impacts: 大量の電力と水を消費,温室効果ガスの排出 (例: データセンター付近の農業や生活に利用される水資源が圧迫される)
- Labor exploitation: 低賃金,有害コンテンツのラベリング,短期契約 (例: 発展途上国において低賃金で有害コンテンツをラベリングさせ精神的健康被害を生む)
- Human relationships: 人間関係に代わる疑似的な関係,人間同士のつながりの希薄化,対人スキルの低下 (例: 友人の代わりにAIコンパニオンに悩み相談)
そして重要なこととして、生成AI使用についての教育・研究現場のスタンスは個別に異なり、かつ変化するものです。現在までにも、教育機関での反応としてCheating, plagiarismへの恐れから生成AI使用の全面的禁止,AI不正使用の検出にフォーカスしていた初期、生成AI使用が広がっている状況に対応するためにAIリテラシー教育をカリキュラムに取り入れる動きが出てきた中期を経て、現在は生成AI使用の問題点が明らかになってきたことで使用法・課題・授業ごとにAIポリシーを設定するなど,個別のきめ細やかな対応が現れてきたというフェーズです。状況や時代に応じてAI使用に関するスタンスが大きく変わり得るということを認識し、それに適応していく能力も研究者として重要になってくると考えます。
XPLANEのSoP執筆支援プログラムでも、今年から生成AIのガイドライン(この記事で記したような各大学の動向や、執筆支援過程での使用上の注意、リスクなどをまとめたもの)をプログラム開始時にメンター・留学志望者に向けて配布し、AIリテラシーの部分についても共に培えるような環境整備を目指しています。
- AIリテラシーは「the knowledge, skills, and abilities that enable individuals to make informed decisions about when and how to use AI safely, effectively, and ethically (AIを安全に、効果的に、倫理的に運用する方法とタイミングを判断できる知識、技能、能力)」という定義を筆者(松谷)の講義では使用しています。(AI for Education, 2025; Digital Promise, 2024; Google for Education, 2025; Laupichler et al., 2022; Long & Megerko, 2020; Ng et al, 2021; Southworth et al., 2023) ↩︎
5. AI時代に増す「人間の支援」の貴重さと重要さ
SoP執筆支援プログラムの運営の立場においても、ここ数年の生成AIの進化と普及を見る度に、「このままChatGPTが発展したら、SoPプログラムは不要になるかもしれない。そもそも、SoPなどを提出させる現在の大学院入試制度が変わるかもしれない」と思っていました。ところが、将来的にどの方向に進むかは分からないものの、現在のところは生成AIの使用を規制する方向に制度やガイドラインの策定が進んでおり、XPLANEのSoP執筆支援は不要になるどころか、「人間がアドバイスし、支援する」という強みが加わってむしろ価値が上がったように感じています。
SoPプログラムのメンターは分野が近く、直近の大学院入試を経験している経験者を選定しているため、各志望者の出願というローカルな範囲については、ネット上に存在せず生成AIが提供できない知識と経験を共有することができます。その上で、志望者のこれまでの細かい経験をミーティングで聞き出しながら書くべき内容を選定する手助けをし、書類についても人間の目でフィードバックすることができる。この過程を経て生まれるSoPは自分の力だけでも、生成AIに頼ったとしても完成させることができないものであり、今後の大学院入試でも審査側から高く評価され、合格に繋がる書類になると確信しています。
そしてこの「大学院留学における人間の支援の価値が現在高まっている」という点はXPLANEのSoPプログラムだけに限らず、SoPという書類だけにも限らず、他の出願支援活動や、個人間のアドバイスレベルでも共通して言えることだと考えます。これからの時代に留学支援を受ける側も、支援を提供する側も、その価値を再認識することで支援のモチベーションを上げるきっかけにしていただければ幸いです。
【著者プロフィール】
田主 陽
マサチューセッツ工科大学 化学科博士課程卒。カリフォルニア大学バークレー校での博士研究員を経て、現在は製薬会社勤務。XPLANE SoP執筆支援プログラムではプログラム開始以降5年間、現在まで運営責任者を務めている。
松谷 優花
ハワイ大学マノア校 第二言語研究科博士課程卒。現在はペンシルベニア大学でライティングプログラム講師を務める。XPLANE SoP執筆支援プログラムでは、ライティング教育を専門とする立場からカリキュラム開発、教材作成、ワークショップなどを監修、担当している。
