初等中等教育段階における生成AIの利活用に関する検討会議(第2回) 議事録

1.日時

令和6年8月8日(木曜日)10時00分~12時00分

2.場所

Web会議による開催

3.議題

  1. 事業者・有識者からのヒアリング
  2. 委員からの発表及び意見交換
  3. その他

4.配付資料

5.議事録

初等中等教育段階における生成AIの利活用に関する検討会議 第2回

令和6年8月8日

 
【石川座長】  定刻になりましたので、ただいまから初等中等教育段階における生成AIの利活用に関する検討会議、第2回目となりますが、開催いたしたいと思います。
 本日は、御多忙の中、出席を賜りまして誠にありがとうございます。
 まずは会議開催方式及び資料につきまして、事務局より御説明お願いいたします。
【学校デジタル化PT 伊勢本】  事務局の文部科学省、伊勢本でございます。今回は前回同様、原則オンライン方式にて開催させていただきます。ウェブ会議を円滑に行う観点から、大変恐れ入りますが、発言時以外はマイクをミュートにしていただくようお願いいたします。また、カメラについては、御発言時以外を含めて、会議中はオンにしていただきますよう、よろしくお願い申し上げます。委員の皆様におかれましては御不便おかけするかもしれませんが、何とぞ御理解のほどよろしくお願いいたします。
 続きまして、事務局より資料の確認をさせていただきます。本日の資料は、議事次第にございますとおり、資料1-1から2まで、参考資料が1と2となっております。御不明点がございましたらお申しつけください。
【石川座長】  ありがとうございました。
 なお、本日は報道関係者と一般の傍聴者向けに本会議の模様をZoomウェビナーにて配信しておりますので、御承知おきお願い申し上げます。
 それでは、議題に入りたいと思います。今回は有識者・事業者ヒアリングになります。
 最初がGenesisAI株式会社の今井翔太様に御発表いただきたいと考えております。今井様は、本年、東京大学大学院工学系研究科技術経営戦略学専攻の松尾豊研究室において、AIの研究で博士(工学)を取得された後に起業されて、現在のお立場にあると伺っております。
 それでは、今井様、短い時間ではございますが、よろしくお願い申し上げます。
【株式会社GenesisAI 今井氏】  よろしくお願いいたします。資料のほう共有させていただきます。こちら見えておりますでしょうか。
 私のほうから発表を始めさせていただきます。株式会社GenesisAIの代表取締役社長の今井と申します。本日、私のほうからは、生成AIの現在地と未来、及び教育への影響と題しまして発表させていただきます。
 こちらが私の簡単な自己紹介になります。先ほど御紹介いただきましたように、今年の3月に東京大学の松尾研究室のほうにおいて博士号を取得し、7月に現在の立場、株式会社GenesisAIを創業いたしまして、代表取締役社長、CEOを務めております。本日は企業の代表としてではなく、あくまで研究者の視点から生成AIと教育への影響などについてお話しさせていただきます。
 本資料で参照している研究は、本資料の提出時点、8月1日時点のものになります。本会議、生成AIのまさに最先端のことを研究している研究者の方とか、あるいは機関の方たちが出席されているということで、どうしてもその辺も触れることも避けられないぐらいのすごい方たちが出席されているということで、あくまでその人たち、どこの機関に肩入れするとかではなくて、フラットな視点からのお話になります。
 いろんな研究者の方々がいる中、恐縮ですけれども、現在の生成AIの到達点というのをまとめさせていただいたものが、今投映している資料の内容になります。もういろんなところで報道されているように、御存じかと思うんですけれども、現在の生成AIというのは人間の大学院生レベル、あるいは司法試験や医師国家試験に合格するレベルだったり、そういう能力に到達しておりまして、つい最近のモデルとかに関していいますと1,000万文字、正確にはトークンという単位ですけれども、これが入力して瞬時に処理可能であるとか、あるいはもう分単位で、本物と見分けがつかない動画生成可能であるとか、あるいは数秒の声のサンプルがあれば、その人の自由な発声を生成することができるとか、そういう状況になっております。
 各分野の生成AIの動向というのを、特に今年に入ってから、言語モデルというのは非常に発展が早いところですので、ここ3か月程度ものしか入っておりませんけど、発展をまとめたのがここの部分になりまして、特に言語モデル部分に関していいますと、発展速度がここ数か月になってさらに加速したという状況になっておりまして、去年まではGPT-4が圧倒的だと。今年も5月の中盤まではGPT-4oが圧倒的だと我々騒いでおったわけですけれども、それがもうすぐに、1か月ぐらいでGPT-4oを上回るとベンチマーク上で評価されるモデルであったりとか、あるいはローカルのPC上でGPT-4レベルのものを動かせるという、そういう状況になっています。
 研究の発展傾向ということになりますけれども、大体こういうのが今、生成AIの発展傾向ということで、オープンモデルの進化ということで、もう誰でもインストールできるようになったと。恐らく教育現場という話になりますと、セキュリティーの問題とかというのがあると思いますけれども、それは恐らく教員の端末などでGPT-4レベルのモデルが動かせるようになっているというのが今の状況で、研究としてもその傾向は続くと思います。
 そして、さらにモデルが高速になっている、ビッグテック以外でも非学習的な手法によってモデル開発が可能になっていると。さらにマルチモーダルが加速しており、あとこれはいろんな研究機関とかが関係あることですけども、再現性が非常に高い分野だということで、どこかがすごいモデルを発表すると、それに続いていろんな機関が似たようなモデルを発表して、そういう戦国時代みたいなことが起きていると。恐らく時間経過によってその傾向が高まって、ほぼ同じようなモデルを誰でもつくれるような状況になるんじゃないかと、そう思わされるようなことがいろいろ起きております。
 具体的に言いますと、先ほどちょっと触れましたけども、右にあるのは去年のLMSYSという生成AIのランキングが見れるサイト、これで現在のランキングを見ると、右下のほうが特に顕著なんですけども、大体30位付近に去年のGPT-4が出てきます。その去年のGPT-4というのはランキングとしては34位ぐらいだと、これは公式の話じゃないんですけど、1兆8,000億パラメーターのモデルだったと言われています。それと、それより上のモデルが26位、Gemma-2というものなんですけども、これは90億パラメーターです。ですので、去年の200分の1の大きさのモデルが、去年のGPT-4に勝っているわけです。これぐらいの研究の発展というのは非常に速くなっておりまして、特に左のような方法からどんどんと高精度化、小型化とかが進んでいくものと思われます。
 こういうことがあったとしても、少なくともここに書かれているような部分というのは、まだ克服できないとされています。ハルシネーションとかについては、そもそも言語モデルの仕組みで克服できるのかというと、それはどうなのかなと言われたりとか、あるいは生成AI、基盤モデルとかというふうに言われていますけども、その基盤モデルと同じ仕組みで複雑な運動とかができるのかというのもいろいろな説がございます。とはいっても、恐らく5年後とか10年後とかになってきますと、大体ホワイトカラーの仕事に関して言えば、AIというのがほとんど人間を超えてくるだろうと。研究者たちがロボティクスとかでもいろいろと研究を進めていくことを考えると、ある程度のことはできるようになるだろうというふうに私は考えています。
 それからさらに、そもそも原理的に考えると、AIというのは人間の知的作業をほぼ全てできるようになるだろうというふうに考えています。これは教育の実用的な話でいうと、ここは教育関係者の方いろいろといらっしゃいますので、僕ごときが触れるのはちょっと恐縮ではありますけれども、実用的な利用法という点でいうと、マルチモーダル機能とかで、構造化された情報に変換するとか、あるいはスピーキングとか、そういうところに利用したりとか、あるいは、後から少し触れますけれども、生成AIというのは使用者の能力に非常に依存する能力でありますので、学習の初期段階で生成AIを使って問題に取り組ませて、これくらいかと。それが第1回、第2回、第3回と、その強化を、別に特にAIとか意識せずにやった上で、改めて生成AIを使ってみて、自分の能力があったほうが生成AIを使った問題解決能力も上がったというのを意識させるとかというのも非常に重要かと思います。大局的な視点で生成AIの影響というのを考えると、下のようなものになると思います。
 最後に、研究者としての個人的な意見になりますけれども、問題解決能力に関してはAIに勝てないだろうと、解決すべき問題を見つける能力を育てることが重要になるだろうと私は考えています。AIの性能というのは使う人間の能力に依存しますので、本日の会議にいろいろ意見出てくると思いますけれども、個人的なことを申し上げますと、AIを積極的に使いこなすために、AIを義務教育で積極的にそればかり学ばせるというのは、個人的にはあまり賛同できません。むしろAIを使いこなすためには人間の素の能力が必要であると私は考えております。
 私の主要な意見としては以上になります。ありがとうございました。
【石川座長】  どうもありがとうございました。今井様への御質問は、全ての事業者からの発表の後にまとめてお受けしたいと思っております。
 続きまして、次の事業者の発表に移りたいと思います。アドビ株式会社より御発表をお願いいたします。
【アドビ株式会社 小池氏】  ありがとうございます。今、私の画面で見えておりますでしょうか。
【石川座長】  はい、見えています。
【アドビ株式会社 小池氏】  では、アドビより発表させていただきます。本日は貴重な機会にお声がけいただきまして、誠にありがとうございます。アドビの教育事業の責任者をしております小池晴子と申します。それでは、アドビの画像生成AI技術とAI倫理の取組について御説明を申し上げます。
 私どもアドビは、「世界を動かすデジタル体験を」というミッションを掲げ、3つのクラウドソリューションを提供しております。クリエーティブクラウドは、IllustratorやPhotoshopといったクリエーティブツール、ドキュメントクラウドは、PDFでおなじみのAcrobatを中核とする文書のデジタルワークフロー、エクスペリエンスクラウドは、マーケティングオートメーションやコンテンツエコシステムを通じてビジネスでの顧客体験の強化を実現するものです。これら3つのクラウドを通底して、これまでAdobe Senseiという人工知能と機械学習のプラットフォームが最新のデジタル技術を支えてまいりました。そして、昨年3月に発表いたしましたアドビの画像生成AIをAdobe Fireflyと申します。
 アドビは過去10年以上にわたり、コンテンツ制作に関わる人間の作業を助ける技術開発に取り組んでまいりました。2010年代のPhotoshopのコンテンツに応じた塗り潰しという機能に始まりまして、これを動画へと広げ、さらにニューラルフィルター、被写体の表情ですとか白黒画像をカラー化することができる機能なんですが、こういったものへと広げてまいりました。この延長線上に画像生成AIモデルAdobe Fireflyが新しい製品ファミリーとして登場いたしました。
 Fireflyは、開発の哲学、また企業の社会的責任として、AI倫理原則に基づいて開発しております。単体でのウェブ版ツールとしても御利用いただけるほか、アドビ製品に横断して各種機能として登載されており、今後も拡大してまいります。現在、世界100以上の言語のテキストプロンプトに対応しており、これまでに世界で70億枚以上の画像が生成され、当然この数は刻一刻と増えております。技術的にも非常に速いスピードで進化を続けておりまして、Fireflyのイメージモデルは現在バージョン3となり、このように一見実写と見まがうような高精細の画像生成が可能になっております。
 公開済みの主な機能がこちらです。上の段から、最も一般的にイメージされやすいテキストから画像生成、また、画像に写り込んでいるものを消したり、画像の一部を違和感なく加工したりすることができる生成塗り潰し、タイトルなどの文字にテクスチャーや効果をつけて印象を強めることができるテキスト効果、画像内の配色バランスのクオリティーを保ちつつ色味を変えることができる生成再配色、これらはFireflyのウェブ版ツールからも無料で御利用いただけますほか、Adobe Expressなど、各製品の機能にもなっております。そのほかにも、下の段のテキストからベクター生成はIllustratorの機能として、写真に写っていない部分を拡張して生成できる生成拡張はPhotoshopやAdobe Stockの機能として登載されています。
 Fireflyのウェブ版は無料で御利用になれますけれども、AdobeIDでのログインは必要です。このAdobeID自体も無料でおつくりになりますが、個人でこのIDを取得することができるのは13歳以上の方となっております。これはアメリカの児童オンラインプライバシー保護法の規定によるものです。そこでアドビでは、13歳未満の児童生徒の方も学校の課内課外の活動でアドビツールを御利用になれるように、初等中等教育機関向けの特別なライセンスを御用意しております。こちらのライセンスであれば、GIGAスクールのIDとフェデレーションすることで、アプリにログインするIDを学校管理のフェデレーテッドIDという形にすることができます。この場合は13歳未満の方でも御利用可能です。その上で、学校での画像生成AIの利用に当たっては、教育機関向けのAdobe Expressが、児童生徒にとってコンテンツや生成結果が安全であるように設計されたクリエーティブツールです。
 さて、先ほど申し上げましたアドビの生成AI倫理原則ですけれども、生成AIはアドビとしても非常に重要な技術と位置づけておりまして、クラウドで活用するに当たり、これまで以上に慎重な姿勢で責任ある開発に取り組むことを表明し、実行しております。3つの原則のうち、まず説明責任とは、差別や偏見、ステレオタイプを排除する配慮を行い、万一意図せぬ事案が起こった場合にも誠実に対処すること。2つ目の社会的責任とは、AIが生成するアウトプットに対する責任を自覚し、テスト、改善を重ねて、常に最善を目指すこと。3つ目の透明性は、アドビが製品やサービスの中でAIをどのように活用し、その結果どのような価値をお客様に提供できるかを明示することを指しています。
 この原則に基づき、著作権の尊重と安全性に関する設計のポイントが3つございます。まず1つ目は著作権に関して、Adobe FireflyのAIモデルのトレーニングには、Adobe Stock、オーブンライセンスコンテンツ、パブリックドメインコンテンツのみが使用されており、商業利用にも学校での御利用にも安全なように設計されています。ユーザーのコンテンツを同意なくAIモデルの学習データとして利用することはありません。また2つ目に、適切な利用を促すガードレールです。不適切なプロンプト入力を防ぎ、意図的ではなくとも、結果的に著作権侵害と取られかねない生成をしてしまうリスクを減らす仕組みが設定されています。また3つ目に、有害なステレオタイプを排除していくために、継続的にAIモデルのテストと改善を行っています。
 2つ目の適切なプロンプトの利用を促すガードレールの具体例を御覧いただきます。例えばこの例では、有名キャラクターがショッピングモールでアイスクリームを食べているところというプロンプトを入力します。すると、「申し訳ありません」というアラートポップアップが表示され、入力したプロンプトに含まれる単語がユーザーガイドラインを満たしていない可能性があるため削除したと書かれています。そして生成結果は、キャラクター名を除外したプロンプトに対応する結果となります。これが著作権侵害のリスクを減らすガードレールの一例です。ほかにも、小中高校向けのAdobe Expressの画像生成では、子供たちの目に触れるには適切ではない生成結果、公序良俗に反するような生成結果が出にくくなるガードレールも設定されています。
 また、社会的責任における重要な活動として、コンテンツ認証イニシアチブ、CAIという取組がございます。これはオンラインコンテンツの信頼性と透明性を高め、誤報や偽情報に対抗することを目的として設立されましたコンソーシアムです。作り手がコンテンツに来歴と呼ばれる情報をつけられる技術を提供しまして、この情報を通じてオンラインコンテンツの信頼性を担保しようとする取組です。2019年の設立から5年間の間に、BBCやニューヨーク・タイムズ、ザ・ワシントン・ポスト、日本からもNHKさんや日経新聞社様など、メディアやハードウエアメーカー、ソフトウエアメーカーなど、世界55か国3,000社以上の企業、団体が加盟しています。
 来歴とは、画像、映像、音声、文書などのデジタルコンテンツの出所、出どころに関する信頼できる基本的な事実のことです。Adobe Fireflyで生成した画像には、この来歴情報が埋め込まれています。CAIのウェブサイトで、ベリファイという来歴情報を確認するオープンツールが提供されています。こちらにデジタルコンテンツをドラッグドロップすると、来歴情報が確認できます。例えばFireflyで生成して、Adobe Expressで編集加工したコンテンツを先ほどのベリファイツールにかけると、加工にAdobe Expressが使われており、大本はAdobe Fireflyで生成されたという記録が出てまいります。さらに、Photoshopで加工して、書き出し時に来歴情報を付与すると、元の画像に付与されている情報も引き継いだ上で、来歴がこのように、ツリーのように出てくるようになります。
 そしてCAIでは、学校教育向けにメディアリテラシーのカリキュラムと教材を開発しまして、英語版は無料提供が開始されています。Adobeがこちらの開発に協力しておりますので、現在、Adobe Education Exchangeというサイト上で公開されております。こちらの教材、残念ながら、まだ日本語版になっていないのですけれども、アクセスはもちろん日本からでもしていただけます。
 では最後に、教育の生成AIの展望について、僭越ながら意見を申し述べます。私たちAdobeは、クリエーティビティー・フォー・オール、全ての人につくる力を届けたいというビジョンを持っております。生成AIの登場に際してもこの信念は変わるところがなく、昨年、弊社CEOのシャンタヌ・ナラヤンは、「AIは人々の能力を拡張する副操縦士である。主役である人間が創造性を最大限発揮できるように支援するのがAIの役割である」と述べました。私たちも生活者として実感するところでありますが、現代社会は、文字や音声情報から、ビジュアルな情報、しかも多様で量的にも多くを伝えられるスタイルへと、情報伝達の在り方が転換しつつあります。その証拠に、ビジネスにおけるクリエーティブコンテンツの需要は過去2年で2倍になり、これからの2年ではさらに5倍以上になると予測されています。画像生成AIの活用は、この社会変化の延長線上にあるものです。したがいまして、今学校で学んでいる世代には、社会に出たときに当たり前のツールの一つとして、生成AIを活用できる力が必要と考えております。その際、著作権の尊重や、ユーザーにとっての安全性について正しく信頼できる生成AIツールを選べる、このリテラシーも学校で学んで身につけていただければと思います。
 先行して学校で生成AIを活用されている事例の取材や、学校様と共同プロジェクトをさせていただく中で、子供たち自身はもう自然に、生成AIは創造性の幅を広げてくれるパートナーであり、あくまでも人間の側が使い手であると実感している様子を見聞きしております。こうした学校での活用事例のリンクも資料に入れておりますので、お時間のある際に、ぜひ御覧いただければと思います。こちらは高校の事例と、それから高等教育のほうでの事例は動画でも御覧いただけます。また、生成AIと著作権につきましては、大変重要なトピックかつ議論の活発なところですので、専門家の執筆によるブログシリーズがございます。こちらもお時間のあるときに御覧いただけましたら幸いです。
 アドビからは以上でございます。本日は貴重なお時間いただきまして、誠にありがとうございました。
【石川座長】  ありがとうございます。
 続きまして、Google合同会社より御発表をお願いいたします。
【Google合同会社 小出氏】  聞こえておりますでしょうか。
【石川座長】  はい、聞こえております。
【Google合同会社 小出氏】  すみません、大分進んでいるのでばたばたしてしまいました。しばしお待ちください。
 それでは、Googleから発表させていただきます。よろしくお願いいたします。
 皆さん、こんにちは。Google for Educationの日本統括、小出と申します。本日は貴重な時間をいただき、ありがとうございます。非常に短時間ですので、概要のみのお話になりますが、教育分野における生成AI活用を見据えて、弊社の取組について御紹介させていただきます。
 委員の皆様は、手元資料1を御覧ください。言うまでもありませんが、今の子供たちが大人になった未来の社会では、AIに代表される科学技術、ますます発展しているはずです。AIは様々な方法で知の探求を後押ししていることに加え、AIは、我々が今の時点でも想像できないような方法で人々の可能性を解き放つ手助けをしてくれると私たちは信じています。ですから私たちは、子供たちが生きる未来の社会を見据えながら、子供たちが変化の激しい環境において生き抜いていける、そんな力を身につけてもらえるよう、一丸となって取り組んでいく必要があると考えています。
 こちらはGoogleが試験的に取り組んでいる生成AIを活用したプロジェクトです。少し長いですが、御覧いただければと思います。
(動画上映)
【Google合同会社 小出氏】  ありがとうございます。子供たちが生きる未来では、このように次々と生まれる新たな技術に囲まれているのではないでしょうか。教育に関わる事業者として、事業者の立場でできることというのはもちろん限界がありますが、ぜひいろいろと応援させていただければと考えております。
 さて、本日皆様にお伝えしたいことというのは、大きくこちらの2点となります。先ほどお伝えしたとおり、生成AIの技術そのものは日進月歩で変わってくるものです。ですから、特に教育の分野においては、技術開発競争環境下にある事業者が、きちんと利用者を守る仕組み、学校における安心・安全な利活用のために、セキュリティー、プライバシー、コンプライアンス対応、リテラシー向上に向けた発信などに真摯に取り組んでいるか、つまり事業者の姿勢のような、変わらないものこそが重要だと考えます。また、GoogleはAIに10年以上取り組んでいる企業として、児童生徒の皆様や先生方が安心・安全に生成AIを活用していただけるように全社を挙げて取り組み、安心・安全な環境を提供してまいります。その具体的な内容について御紹介させていただきます。
 先ほど御提示したお伝えさせていただきたいこと、GoogleとAI、教育における生成AI、Googleが考える安心・安全なAI利活用の3つの観点から御紹介させていただきます。
 まずはGoogleとAIに関する取組について御紹介します。Googleでは10年以上にわたり、AI技術の開発に取り組んでまいりましたAI業界のパイオニアです。例えば2015年のGoogle傘下のDeepMind社は、AlphaGoと呼ばれる囲碁プログラムを開発しました。当時、囲碁は機械が人間に勝利することは難しい分野だと言われていましたが、AlphaGoは、初めてハンディキャップなしで人間の棋士を打ち破りました。それ以外にもGoogleは、生成AIに欠かせない自然言語処理技術の革新にも貢献してまいりました。2017年に現在の生成AIの発展の基礎となる自然言語処理の革新的な技術Transformerを発表してから、2018年のBERT、2020年のLaMDAと、技術を向上させ続けています。このようにテクノロジーは非常に速いスピードで進化しているということが、このことからも分かります。
 そして2023年、Googleでは、生成AIモデルのGeminiの提供を開始いたしました。従来の生成AIは文字の生成が中心でしたが、Geminiでは、従来の文字だけではなく、画像や音声、動画など、様々なデータ形式でコンテンツを生成することができます。
 こちらがGeminiエコシステムの概略図になります。まず、エコシステム全体の共通基盤となるGeminiモデルがあります。Google DeepMind社が開発を担当しているのは、このGeminiモデルです。そして、Geminiモデルを使用した消費者向け、開発者向け、そして教育機関や企業に向けた様々なサービスがあります。
 10年以上にわたる長年のAI技術に裏打ちされた安心・安全なGoogleのAIは、世界からも非常に高く評価されております。また、Googleは、2018年にAI原則を確立し、社内の開発は全てこの原則に従って行われています。特に近年、生成AIが急速に発展する中で、社会からの関心も高い安全性を念頭に置いた開発、プライバシーに関する配慮、そして事業者としての説明責任を果たすことについても全社で力を入れて取り組んでいます。
 既にGoogle Geminiは、学校の授業や校務の幅広い場面でお使いいただいています。前の章でもお伝えしたとおり、生成AIは急速な技術発展のさなかにあり、使える機能もどんどんアップデートされています。これから御紹介する事例をさらに発展的に活用した事例が、もう明日には生まれているかもしれません。あくまでも現時点の参考としてお聞きいただけましたら幸いです。
 こちらのように授業では、子供たちの視点を広げる材料としてGeminiをお使いいただいているというお声をたくさんいただいております。また校務においても、業務の効率化はもちろん、アイデアを議論するたたき台として、分かりやすく関係者に情報を伝えるための助けとしてお使いいただいております。
 海外では、特別な配慮が必要な児童生徒に対して、Geminiを効果的に使ったことで個別最適な学びにつながった事例もあります。例えば数学の方程式を学ぶ授業で、ある自閉症の子供が、問題が解けずに苦労していました。先生が、その子供が関心を持っていることを聞き、車に関心があると分かったことから、先生はGeminiに、数式を子供が関心を持っている車と関係づけてと依頼しました。すぐにGeminiが車と関係した問題文を生成し、それを子供に共有すると、子供はすぐに方程式の答えを導けるようになりました。このようにGeminiを活用することで、先生が個別の生徒の特性に合わせた学びの機会を提供することができるようになりました。今後は日本でも同様な事例が増えることが期待されます。
 最後に、Googleが考える教育の現場における安心・安全なAI利活用について御説明します。
 さきにお伝えしたとおり、Googleは、安心・安全なAI利活用のために責任を果たすことを非常に重視し、教育現場で安心・安全に生成AIを活用できるような環境づくりを進めています。
 教育現場の皆様は、現場で生成AIを導入するに当たり、様々な懸念をお持ちかと思います。こちらはその一例となります。しかしながらGeminiは、教育現場で安心・安全に利用いただくことを想定した仕組みになっています。また、Googleは、セキュリティーに関する国際基準に準拠していますし、管理コンソールからユーザーの利用範囲は自由に設定が可能です。そして、たとえ組織内であっても、データを他のユーザーが勝手に知り得ることはありません。今お見せしているスライド以外にも、皆様は、生成AIの活用に当たり様々な御懸念をお持ちかと思います。Googleはこれからも現場の懸念にきちんと対応して、安心・安全な環境の提供に努めてまいりたいと考えています。
 Googleが安心・安全な生成AI利活用を後押しする環境というものを提供できているのは、Googleの生成AIに必要なものを全て自社で設計しているという特徴があるからです。世の中には様々な生成AIツールがあります。生成AIツールを動かすために様々なものが必要になります。これら全てを自社で保有しているのは、実はGoogleのみです。御存知のとおり、生成AIがコンテンツを生成するためには、生成AIが学習するためのデータが必要です。Googleでは、世界中10億人以上に利用されているGoogleの各種製品があります。
 次に、車が走るためにエンジンが必要なように、膨大なデータを検索するためにもエンジンが必要です。Googleでは、このエンジンとして、Google Cloudを自社で持っています。そして生成AIモデルですが、先ほど御説明したとおり、Geminiがあります。また、生成AIは、それだけでは使うことができません。当然使うためには、それを動かす端末とOSが必要です。Googleでは、ChromebookとChromeOSというものを通じて、生成AIツールGeminiを利用することができます。
 最後はデータを処理するプロセッサです。プロセッサは一言で言うと、パソコンの脳みそです。人間も日常で様々な思考の処理を行うために脳みそが必要であるように、パソコンもデータ処理をするために、プロセッサと呼ばれる脳みそが必要になります。通常このプロセッサはCPUと呼ばれますが、GoogleではTPUと呼ばれる機械学習に特化したプロセッサの技術を持っています。このように、生成AIに必要なものを全て自社で設計・保有しており、日々のセキュリティーの担保を自社で責任を持って行っています。
 委員の皆様は、お手元の資料2を御覧ください。先ほどもお伝えしたとおり、Googleの全ての生成AI開発は、AI原則によって行われており、生成AI自身の学習データの取扱いにおいても同様です。また、Geminiが有害コンテンツを生み出さないような安全性ポリシーというものを定め、一般公開しています。
 続けて、委員の皆様は、お手元の資料3を御覧ください。また、生成AIを使ったソリューションというのはたくさんありますが、年齢制限に関する明確な取決めがなかったり、管理者の所在、責任の曖昧なソリューションというものは現場の安心・安全な利活用を妨げるというお声をたくさんいただいています。Google Geminiは、Geminiが関連する全てのプロダクトにおいて管理者や責任の所在が明確になっています。文科省様の皆様が定めたガイドラインに従って、適切な環境を今後も提供していきたいと考えております。なお、Google Geminiの利用可能年齢等については、常に最新の規約を確認いただきますようにお願いいたします。
 再び投映資料を御覧ください。Geminiの基盤となるサービスを提供するVertex AIは、ISMAP、政府情報システムのためのセキュリティ評価制度に登録されています。すなわち、Geminiの基盤となるVertex AIは、政府が求めるセキュリティー要件を満たしているクラウドサービスと認められております。
 また、開発時に安全性を考慮する、配慮するだけではなく、生成AIを開発する企業の責任として、皆様に安心・安全に生成AIをお使いいただけるよう、Googleでは無料でオンライントレーニングを全世界で公開しています。この講座は特に教育に関わる皆様向けに特化していますので、生成AIの基本的な特性やリスクについて体系的に知った上で、さらに学校の場面に即したプロンプトなども、トレーニングを進める中で無料で入手することができます。
 先ほどのオンライン講座は、生成AIの概要について理解を深める全世界共通のものでしたが、よりGeminiや日本に特化した研修として、教育関係者の皆様に向けた研修講座も順次展開してまいります。Googleの生成AIについて、Google Workspace for Educationのアカウントをお持ちの場合は、現在設定しているポリシーの安心・安全な環境をそのままに、簡単にGeminiの使用を開始できます。また、ユーザー単位でGeminiのオン・オフを設定することも可能です。
 委員の皆様は、お手元の資料4を御覧ください。既にアメリカ版のGeminiでは、GeminiがGoogle Workspaceの様々なアプリに取り込まれています。今後はますます社会でも学校でも、生成AIを含めたAIの技術発展を意識せずにはいられないと思います。
 Google for Educationは、子供たちと子供たちに伴走する先生方を、これからもAIの力で御支援し続けます。御清聴ありがとうございました。
 以上でございます。
【石川座長】  どうもありがとうございます。
 それでは、事業者からの最後の発表になりますが、日本マイクロソフト株式会社から御発表をお願い申し上げます。
【日本マイクロソフト株式会社 宮崎氏】  日本マイクロソフト、宮崎でございます。画面共有のため、Google様のほうで画面共有のストップをお願いできますでしょうか。
 どうもありがとうございます。画面共有させていただきます。少々お待ちください。
 それでは、今、私の画面、事務局の皆様、御覧いただけますでしょうか。
【石川座長】  はい、見えています。
【日本マイクロソフト株式会社 宮崎氏】  どうもありがとうございます。
 それでは、本日は、このような貴重な機会をいただきまして誠にありがとうございます。日本の教育事業を担当しております宮崎と申します。早速でございますが、まず初めに、当社の政策渉外部門の井田のほうから、責任あるAIの取組について御説明の上、私からその後に、教育現場における生成AIの利活用について、本日時点の情報を御紹介させていただきますので、よろしくお願いいたします。
 では、井田さん、お願いいたします。
【日本マイクロソフト株式会社 井田氏】  では、まず私のほうから、マイクロソフトの責任あるAIについてお話をさせていただきます。よろしくお願いいたします。
 次、お願いします。こちらの資料は、マイクロソフトの責任あるAIに関する取組を年表で示したものです。AI開発自体は昔からございますけれども、マイクロソフトは責任あるAIに関しましても古くから取り組んでおります。2016年にCEOが、人間中心のAIという考え方を示して以来、AI原則の作成の取組を進めてきました。昨年にはAIガバナンスに関する青写真を示すなど、多くのコミットメントを発表し、責任のあるAIといったものの取組をさらに進めております。
 次、お願いします。まず初めに、AIがポジティブな影響をもたらしている例をお示ししたいと思います。このスライドにありますように、自然災害への対応、障害者の生活向上など、AIは多くの社会課題の解決に貢献することができます。一方、AIの社会実装に当たり重要なことは、人々がAIとそれを提供する企業を信頼できる必要があるということであり、したがって、AIガバナンスがとても大事であるということになります。
 次、お願いします。弊社では、責任あるAI原則として、公平性、プライバシー、セキュリティー、透明性など、6つのことを定めています。そして、原則を実践に移すために、企業基準を定め、具体的なツールを作成・活用し、モニタリングレポートの仕組みも導入しているところです。
 次、お願いします。マイクロソフトは、お客様がAIなどの最新技術を最大限に活用できるよう支援しながら、プライバシーに対するお客様の期待と要望にも応えていきたいと考えておりまして、設計から実装までの全ての段階を通じてセキュリティーとプライバシーに配慮した製品を開発しています。AIシステムにおけるプライバシーに対する当社のアプローチは、プライバシーが基本的人権であるという長年の信念に基づいています。私たちは今後も、AIシステムの信頼を構築するための適切なガードレールの開発推進をサポートしていきたいと思っております。
 簡単ですが、責任あるAIはここまでにしまして、教育分野での具体的な活動に関して、宮崎のほうに話を譲りたいと思います。
【日本マイクロソフト株式会社 宮崎氏】  それでは、ここから私のほうから、生成AIの教育分野における利活用について御紹介させていただきます。
 まず初めに、こちら今御覧いただいているのが、当社の生成AIポートフォリオの一例になります。ここには当社が提供しているChatGPTなどを提供しているOpenAI社の技術要素も含まれますが、大きく分ければ、生成AI機能を組み込んだアプリケーションやOS、開発ツール、そして大規模言語モデルという幅広いポートフォリオになります。
 本日は、今御覧いただいているこちらのソリューションに絞って御説明させていただきますが、まず重要なのは、個人アカウントか組織アカウントか、どちらで御利用されるかという点が非常に重要なポイントになります。右下にお示ししているとおり、商用データ保護、これはユーザーと組織のデータが保護されること、例えばAIへの指示文であるプロンプトであったり、その回答が大規模言語モデルのトレーニングに使用されない、そういったことを意味しますが、当社としてはデータが保護される使い方というのを学校現場の皆様には推奨させていただいております。
 また、年齢制限についても、原則として当社としては、この後御紹介させていただきますCopilot、当社の生成AIツールですけれども、13歳未満の御利用は不可というふうになっております。先生などの大人が適宜使いながら、子供たちにその価値を体験いただく、そんなイメージを持っております。では13歳未満の児童生徒さんたちはどうなるのかというところですけども、ここで映している右2つ、機能や用途を限定して、決められたルールや安全基準、これを当社ではガードレールと呼んでいますけれども、その環境の中で裏側に生成AIが存在してメリットを子供たちに享受いただく、そういう学びが実現できます。これが右から2番目の学習ツール。そして最後に右端が、学校現場や事業者の皆様が専用の生成AIサービスを開発いただける基盤、その両方を提供しております。
 少しだけ特徴を御紹介させていただきますと、当社のCopilotというのは、副操縦士という意味を持っております。操縦士はあくまでも人間であって、副操縦士として人間を様々な観点から支援するという意味が込められておりますが、今御覧いただいているのは、検索エンジンであるBingと連動したもの。例えば日本における文科省さんと経産省さんの生成AIガイドラインを比較した表を作成してくださいと伝えれば、表にして返してくれますし、重要なのは、赤枠のとおり出典情報が出ますので、ファクトチェックが可能になるのが特徴となります。ウェブブラウザのEdgeに組み込まれているCopilotでは、表示しているウェブサイトやドキュメント、動画の要約はもちろんですけども、こういう関連テーマを抽出してほしいみたいなことを伝えれば、AIが細かく御支援することが可能となります。
 1つ利用例としては、大阪市の学校が、先生が俳句の授業のフィードバックでこちらのCopilotを利用されていると、児童生徒が作った俳句を先生がAIに読み込ませて、AI側が別の季語であったり表現方法を提示してくれると。それを子供たち見せて終わりではなくて、子供たちがその回答に対して自分の意見を述べて、主体的、対話的で深い学びにつながると。これは実際のお言葉ですけれども、教室の中で先生が御発言されることというのは正解として、児童生徒さんたちが反論できないと言われることが多いんですけれども、教室の中で、先生、児童生徒、そこに第3の存在としてAIがいることで、児童生徒がAIの出した答えに対して、それは違う、自分の言いたいことはこう、これはでも確かに有効など、主体的に考える力を育成する一助にもなるというふうに考えております。
 続いて校務、まずはFormsというツールで運動会のアンケート作成、Formsに組み込まれたCopilotに対してプロンプト、例えば運動会のアンケートを作成したいと思っています。取得したいデータは運動会の出席情報、午前と午後どちらに参加、学年1年から6年、クラスはAからC、参加する競技リストみたいな自然言語で伝えていただくと、今御覧いただいているとおり、数秒から数十分で出来上がって、さらにAIがもっとよくするための提案をしてくれています。今、上のほうでAIがフォームを分析して、ここでは、より魅力的に見せるためのデザイン案みたいなものもAIが出してくれていますので、それを選択しておしまいと。先生方にとって、時間の削減、負担の軽減、こういったものが期待されるのではないかというふうに考えております。
 また、慣れ親しんでいるWordでも、組み込まれているCopilotのほうが、例えば保護者向けの授業参観の案内文を下書きしてもらったりですとか、Teamsでは、先生が欠席した会議の内容、これを、ウェブ会議で録画された内容を全て、もしくは議事録を全て後日読むのではなくて、誰がいつまでに何をしなければいけないのか、会議の雰囲気はどうだったのか、そんなこともAIに聞いて回答をもらえる。産前産後、育児、介護といった、全員が同時にそろうことができない機会が今後増える中で、先生たちの労働時間を削減しつつも、誰1人取り残されないためにも非常に有効な手段というふうに考えております。
 これまで教職員の方々が個別に、左側の図ですけども、一つ一つの仕事を別々のタスクとしてお一人で対応されていた形式から、全ての仕事をAIが仲介して、伴走して、より早く、より便利に働ける、そんなふうになると考えております。
 ただ、私たちが最もお伝えしたいことはこのスライドでして、テクノロジーはあくまでも手段であって目的ではないと、最も大事なことに最も多くの時間を使っていただくために、それ以外の部分をなるべく効率化していただくための手段です。ですので、この最も大事な時間、それは何なのかと、例えば子供たちと向き合っていただく時間であったり、先生方同士で御議論いただいて新しい授業を生み出していただく時間であったり、何よりも先生方御自身が、御自身の時間を過ごしていただくこと、先生が幸せになっていただかなければ子供たちは幸せになれない、我々マイクロソフトはそのように信じております。
 今までは校務の話が中心だったんですけども、ここは、学習における生成AIを少し御紹介させていただきます。冒頭申し上げたとおり、Copilotは13歳未満が利用できない、先生が使っていただくということを想定していますけども、生成AIの機能を裏側で、用途や機能を限定した形で生徒さんたちに使っていただくツールは多数提供しております。
 その一例が、今映しています音読になります。子供たちが画面上で選択肢の中から好きなキャラクター、犬とか猫とか、あとは場所、学校、家とか、そして難易度1から8、それを選択いただくと、生成AIが、生徒さんたちが音読するための好きなキャラクターを選んだり、場所、難易度を選んでいただくと、課題となるストーリーを生成AIが生成してくれて、子供たちがパソコンに向かって音読すると、AIが発音の正確性とかスピード、練習が必要な単語、そんなものを示して、子供たちが何度でも何度でも自分のペースで練習することが可能になります。先生にとっても、音読に使う文章を作成したり見つけてくるのは非常に大変というお声をよくいただきますし、何よりも音読の採点というのは御負担もすごく大きいというふうに考えておりますが、先生にとってのメリットも非常に大きいのではないかと考えております。今御覧いただいているとおり、全国で事例が広がっていますし、非英語圏の日本以外の他国でも活用が進んでいるところであります。
 また、先ほど組み込み型の生成AI、これまでの組み込み型の生成AIですけども、当社が生成AIを開発いただくための基盤も提供しております。その際、例えば子供がなぜという問いかけに対して、生成AIがすぐに答えを言わずに、子供たちが自ら答えにたどり着けるまで徹底的に伴走させるといった設定も柔軟に可能になります。その際、嫌悪とか自傷行為、暴力といったキーワードが入力されたタイミングで自動的にブロックや制限がかかる設定も基盤レベルで可能になりますし、こういった機能によって有害なコンテンツから児童生徒さんを守るということが可能になります。
 まずもってここまでお伝えしていて、やはり先生方や保護者の方々がAIを御理解いただいて、安心して御活用いただけるようにするために、当社では生成AIリテラシー習得をサポートする取組を多々行っております。幾つか例を御紹介しますと、左から、生成AIの概要であったり、プロンプトのコツ、ファクトチェックを学べる教材の作成であったり提供、あと真ん中が先生向けのAI研修プログラムの提供であったり、右側が、教師や教員だったり研究者、保護者、NPO、そういった方々が、情報提供だけではなくて、お互いが連携できるような場の提供、コミュニティー活動、そういったものも実施しております。
 また、こちらも無料で公開しているものですけれども、オンラインの学習コンテンツであったり、当社の認定教員の皆様が作成された教材、これはAI以外のICT授業の教材も含まれますけども、無料でダウンロードいただけるポータルであったり、最後に、児童生徒向けに、責任あるAIの原則を学べるコンテンツも提供しております。これはAIの仕組みそのものではなくて、例えば、今映しているのは教育版マインクラフトの建物の中で、子供たちが探検していると、お店のカウンターが高過ぎるというふうに気づきます。それは、例えば車椅子の方がこの高さだったら不便に感じる、そういったことに子供たちが気づいて、プログラミングで修正しようというようなものになります。ですので、多様性であったり公平性であったり、AI時代に必要な意識を醸成するためのコンテンツというのも提供しております。
 最後に、僭越ですけれども、当社から、生成AIを安全に使っていただくために繰り返しお伝えしたいことを幾つかまとめさせていただきます。
 まず1つ目、やはりデータの保護になります。学校現場では非常に機微な情報が含まれる可能性もございますので、ぜひ組織アカウントで御利用いただくことが重要だというふうに考えております。例えば当社では、また他社さんも多分同様のことがあると思うんですけども、教育関係には無償の組織アカウントというのが提供されております。一例ですが、京都府様では、圏域で安心して御利用いただける環境を実現されております。
 また、著作権。当社は、私どもが定めるルールにのっとった御利用をされているにもかかわらず、意図しない著作権侵害が発生した場合には、当社がその責任を負うということを発表しております。詳細は参考資料の中に入れてありますけれども、ただし、そもそもAIに依頼しても人間に対しても著作権侵害に当たる事案であったり、そもそものルールをきちんと理解することが必要というふうにも考えております。
 まとめといたしまして、生成AIを学校現場に導入される際に繰り返しお伝えしている、左端の、データが保護されているのか、また、保護だけではなく、提供する事業者のデータの取扱いポリシーやセキュリティーの取組について御理解いただいた上で選定いただくことがすごく重要だと思っています。また、うまく活用いただくためには、生成AIの特徴を御理解いただくこと、著作権、プロンプトというのはもちろん大事ですけれども、公平性、多様性、ファクトチェックみたいな、必ずしも生成AIだけではなくて、実社会において重要になる意識の醸成が不可欠だと考えております。
 最後に、目的に合わせて使い分けていただくこと。繰り返しですが、生成AIは目的ではなく手段、こういうシーンでは使わない、あえて使わない、あえて使うといった判断を人間が行うことが重要ですし、利用される際には、例えばAIの答え方とかデータの参照元、こういった設定ができることが教育現場では重要ですので、そういった観点もぜひ御検討いただきたいと思います。
 当社の教育部門では、これから20年、30年先がどんな時代であっても、子供たち、そして教員の皆様、誰もが自分らしく活躍できるためのスキルを身につけていただきたいと、そのための手段としてテクノロジーを提供してまいります。これからもこの理念に基づいて活動していきますので、本日は時間の制約から非常に駆け足となって恐縮ですが、お示しできなかった情報は非常に多いですので、もしも追加情報等、当社がお役に立てることがあれば、ぜひ気軽にお申しつけください。
 御清聴いただきまして誠にありがとうございました。
【石川座長】  どうもありがとうございます。ここまで、今井様と各社より、生成AIの利活用に関する先端の事情について御発表いただきました。大変短い時間の中でうまく御発表いただきまして、誠にありがとうございます。
 これから質疑応答、議論に入りたいと思っているんですが、時間の関係上、各会社の個別のサービス内容に対する質問というよりは、この検討会が考えている教育に対する生成AIの活用の全体像といいますか、総論的なことにポイントを絞って、ガイドラインの改定に向けた検討に必要と思われる観点で質疑を行っていきたいと思っております。委員の方で御発言できる方は挙手ボタンをお願いいたします。
 では、藤村先生、鈴木先生の順でお願いいたします。
【藤村委員】  鳴門教育大学の藤村でございます。すばらしいお話をたくさんしていただきまして、大変勉強になりました。私からは3点、申し上げたいと思います。
 1点目は、最初に今井先生がお話ししてくださったように、生成AIの利用については、使い方のノウハウ以前の問題として、問題発見能力、要するにAIに負けない、人間ならではの力ということもありますけども、そういう力が必要だというのは全く同感です。あと、問題発見能力に加えて、変化が激しく予測困難な時代、問題発見能力を強化するというのは新学習指導要領でも言っているところですが……。
【石川座長】  すみません、藤村委員、質問したい委員がたくさんいるので、手短に。
【藤村委員】  分かりました。じゃあ今井先生には、私は判断力というものも必要だと考えているんですが、その点どうなのか。価値観を教育し、仕組み、可能性、限界、問題点などを指導した上で、そういうのをどうしたらいいかということについて1点です。
 2点目です。教育的配慮について全メーカーさんに伺いたいと思います。ガードレールのお話がありました。確かにそれ、とても配慮されているとは思うんですが、まだまだ実は弱いんじゃないかという感覚を持っております。したがって、そういう事前学習みたいな中で教育的価値観の教育を今後強化する予定があるかどうか、また、どういうことを考えているか御教示ください。
 3点目です。小学生の利用について、基本的にはほぼ想定していない、13歳以上ということですけども、現場の実践では、例えば小学校1年生でもネットの海で大人向けの情報から調べ学習できないというものを解消するのに、生成AIを使うと1年生でも分かるように書き直して、しかも出典表示してもくれるみたいな、そういうツールという形にすれば、安全性担保できて低学年でも利用できるという話ありましたけども、そういった点について、新学習指導要領に入る予定のファクトチェックなどへの配慮も含め、そういうツールの開発、小学生でも利用するツールの開発について御意見頂戴したいと思います。よろしくお願いいたします。
【石川座長】  ありがとうございます。大変申し訳ないんですけど、時間が取ってございませんで、今、7名の方から御質問いただいてしまっているので、各社からの御回答はまとめてお願いできればと思います。
 では、鈴木委員、ごくごく手短にお願いいたします。
【鈴木委員】  ありがとうございます。私からは1点だけ、今井先生にお伺いしたいんですが、資料の中にあった義務教育レベルの知識を確実に身につけることを前提に、AIに関して最低限の教養があればよいというふうに書かれているんですが、今井先生が考えるAIに関しての最低限の教養というのはどのぐらいのことをイメージされているのか、それを教えていただければと思いました。
 以上です。
【石川座長】  ありがとうございます。
 では、利根川委員、ごくごく手短にお願いします。
【利根川委員】  ありがとうございます。私も鈴木先生と全く同じところを今井先生にお聞きしたかったのと、あとアドビさんのFederatedIDのところです。これは個別のサービスの話というよりも、アメリカのCOPPAに基づかずにやっているというところ、非常に今回の議論の上でも大事な観点かなと思います。このFederatedIDというのは、アメリカにおいても13歳未満にも提供されているのか、その1点だけ教えていただけると幸いです。
 以上です。
【石川座長】  ありがとうございます。
 佐藤委員、手短にお願いいたします。
【佐藤委員】  信州大学、佐藤でございます。今日はありがとうございます。
 今井様に、私は鈴木委員と利根川委員と同じような質問をしたいと思っていました。それが1つ目でございます。
 2つ目が、各社、安心・安全な開発、提供をされていることがよく分かってありがたかったです。それから、Adobe様がメディアリテラシーの教材とか、Google、マイクロソフト様、セミナー等、研修講座をやっているということをお聞きして安心しているところですけども、今までも多分こういうことをたくさんやられてきたにもかかわらず、なかなかそれが広まっていないとか、認知されてないということはあったんじゃないかなと思いますけども、今後さらに、我が国の子供たちに対してメディアリテラシーや情報活用能力を育成する教材や機会の提供があるのかどうか、そしてそれをどのように広げていこうと思っているのかということについてお聞きしたいなと考えております。
 以上です。よろしくお願いいたします。
【石川座長】  吉田委員、ごくごく手短にお願いいたします。
【吉田委員】  ありがとうございます。私がお伺いしたいのは主にGoogleさんとマイクロソフトさんなんですが、モデルの透明性についてです。というのも、あるモデルでは、同じバージョンなのにもかかわらず、使う時期によって性能が違ったり、大きくアウトプットが異なるというような例も報告されておりまして、実際に現場で使う場合、同じモデルを使っていても大きく違う結果が出てきてしまうと、教員間の実践の知見の共有も難しいですし、さらに言うと、モデル自体の詳細が隠されてしまっていると、仕組みの説明にも十分な耐え切れないような状況になっておりまして、ぜひモデルの透明性を高める取組を、すみません、私が不勉強なところがあったら申し訳ないんですが、もし取組を既にされているところがあればお話ししていただきたいですし、また、今後の可能性として、どの程度モデル自体の透明性を高めていくのかというところも言及していただけるとありがたく存じます。
 以上です。
【石川座長】  細田委員、ごく手短にお願いします。
【細田委員】  よろしくお願いします。各社皆さんの御発表を伺いまして、端的に言いまして、GIGA端末の活用についても、まだ各自治体を見てみると十分でない状況の中で、AIリテラシーの習得の支援のサポートが相当必要だなという感想があります。ですので、例えばマイクロソフトさんがAIリテラシー習得支援を様々な面でやっていらっしゃるんですけれども、各社もそういったことをやっぱりお考えで、そして具体的にこういった支援をいろいろな場所で提供していく御計画があるのかどうかということを伺いたいです。
【石川座長】  最後に相澤委員、手短にお願いいたします。
【相澤委員】  大変興味深いお話をありがとうございました。来年、再来年の話ではないのですが、すばらしいAIの切り開く未来というのをお伺いすると、逆にAIが使えなくなった際のエマージェンシードリルのような観点も必要になってくるのかなと思います。そういった教育ができるのも学校現場だと感じますが、何かそういったことに関係した話題等を御存じでしたら、教えていただければと思いました。
 以上です。
【石川座長】  ありがとうございます。ちょっと時間がないものですから、委員の方々からの御質問、全部まとめて御発言いただきました。
 それで、今日ここまでに御質問いただいていない方の御発言、あるいはこれから各社に回答いただきますが、時間の関係上、全てに回答は無理だと思いますので、回答いただけなかったものに関しては事務局宛てにメールをいただいて、事務局から各社に質問させていただくという形を取らせていただきます。こんな形になって大変申し訳ないんですが、よろしくお願いいたします。
 では、各社、今の御質問の中で答えられる部分に関して手短にお答えいただき、最後に今井様に御回答いただければと思います。
 では、順番としては、まずアドビの小池様、いかがでしょうか。手短にお願いします。
【アドビ株式会社 小池氏】  ありがとうございます。
 まず藤村先生から頂戴しました教育的配慮のガードレールに関しましては、AIモデルのトレーニングは、テスト、改善を常に重ねていくところというふうに考えておりますし、そのようにグローバルレベルで動いておりますので、日々改善は進んでまいります。ただ一方で、やはり道具ですので、教育現場で子供たちに学びをという面に関しては、教室で先生方に、子供たちの年齢・発達に合ったサポートあるいは御指導をいただきながら使うもの、道具を年齢・発達に合わせて使うこと自体を学びの一つというところで取り入れていただければというふうに思っている次第でございます。
 それから、利根川さんから頂戴したCOPPAのところです。すみません、私が言葉足らずだったかもしれないですが、COPPAの規定により、個人のIDは13歳以上の方でないとつくれないので、組織のIDで、かつ学校の組織のIDがCOPPAに準拠した形で使えるようにというのがアドビのFederatedID(※)の仕組みでございます。主に個人情報に関わる部分の安全の配慮ということになっております。アドビからは一旦以上で、ほかの皆様にまずお時間、お譲りしたいと思います。(※)Federation IDとは、GIGAスクールのGoogleやMicrosoftのIDとシングルサインオン連携をして、アドビツールのIDとして利用することを指しています。
【石川座長】  ありがとうございます。
 Google、小出様、いかがでしょうか。
【Google合同会社 小出氏】  ありがとうございます。すみません、ちょっとお時間がないと思いますので、私のほうからは1点だけお話しさせてください。実際に時間の関係で、この場で全てお答えするのは難しいので、後ほど事務局様を通じて回答させていただければと思います。
 皆様にいただいた御意見とかを参考にしながら、子供が安心・安全に使える環境づくり、リテラシー向上に向けた取組はこれからも強化していくというところは再度強調させていただきます。改めて、非常にたくさん御質問いただいていましたし、ほかの皆様にも時間を残したいと思いますので、詳細は一度持ち帰って、後ほど回答させていただければと思います。
 Googleからは以上です。
【石川座長】  どうもありがとうございます。
 それでは、マイクロソフト、宮崎様、いかがでしょうか。
【日本マイクロソフト株式会社 宮崎氏】  たくさんの御質問ありがとうございました。先ほど藤村先生のほうから御質問いただいたガードレールの強化であったり、こちらはアドビ様と非常に同じ方針です。常に強化をしていくというところと、あと問題発見能力であったり判断能力、それ以外にコラボレーションであったり、やはりAIを使いこなすためのスキル、ソフトスキルを育成するためのコンテンツも出していく。逆に言うと、ツールだけ、そこは手段ですので、やはり使う側の方のリテラシーであったりを高めていく、そういったところは、先ほど少しお示ししたマインクラフトのようなコンテンツというのは、引き続きどんどん展開していきたいと思っておりますし、13歳未満というところの観点では、先ほどこちらもお示ししたとおり、基盤も私ども、開発しておりますので、その上で、きちんと限られた用途の中で安全に使っていただける取組というのは、我々も製品の提供という形から御支援していきたいと思っております。
 佐藤先生から御質問いただいた教材をどう広げていくか、ここはもう非常に、継続的にやっていくというところはもちろんですけれども、マルチステークホルダーで、今、Googleさんであったりアドビさん、いらっしゃいますけれども、やはり産業として競争、競合するところももちろんあるものの、やはりこの部分、教育についてはみんなで、マルチステークホルダーでやっぱり進めていくことが非常に重要じゃないかなということ、これは各社同じ思いじゃないかなというふうに思っておりますので、そんなところを進めていきたいと思っています。
 モデルについては少し技術的なお話になりますので、吉田先生の御質問、また事務局を通して個別に御回答させていただきたいと思っております。
 細田先生、相澤先生からもいただきましたとおり、習得の支援についてはまだまだ必要というのは、終わりない旅だと思っていますし、我々としては継続的にやっていくということと、そして先ほどのとおり、いろんなステークホルダー巻き込んで進めていきたいなと思っています。少しまとまった回答で誠に恐縮ですけども、詳細については、また事務局の皆様を通じて回答させていただきます。御質問いだきまして、ありがとうございました。
【石川座長】  ありがとうございます。
 最後に今井様に回答というか、御意見をいただきたいんですが、今井様には、現在の進展の様子をうまくまとめていただき、また、利点とともに問題点に関する御指摘をいただきました。それから、委員の皆様からも意見をいただいていますので、それをまとめて御回答いただければと思います。今井様、よろしくお願いします。
【株式会社GenesisAI 今井氏】  ありがとうございます。各社のサービスと違って、若干、思想・研究的なところを含んでしまうので、端的に答えられるものはないので、後から、今いただいた質問を事務局への回答に含めさせていただきます。
 その上で、僕個人を指名いただいたものについて一旦回答させていただきますと、まず1つ目の質問、たしか判断は必要かみたいな内容の質問だったと思われますけれども、これは必要だと思います。判断能力みたいな、ともすればAIにもできるようなものというのも人間にはこれから必要だと思います。スライドのほうにも若干含んでおりますけども、特に人間の価値判断というところは非常に重要だと思っておりまして、ここで価値判断といっているのは、ちょっと大局的な視点を含んだ、人間社会におけるAIの出力物が、性能とか生産性とかをそもそも置いておいて、受け入れられるべきかどうかを判断する能力というところで言っておりましたけれども、もう少し日常的な視点とかでも細かい価値判断みたいなのは必要だと私は考えています。
 もう1点、AIに関して最低限の教養はどれぐらいのものなのかという質問を複数いただきましたけれども、これは言語モデルの仕組みですとか、言語モデルというのはデータそのものが入っているわけではなくてパラメーターで表現しているとか、あるいはプロンプトエンジニアリング、本当に基本的なところとか、それぐらいのことを指しています。
 逆に、そうでないものとしては、本当に毎日発表される論文の最新動向ですとか、いろいろ出てくる生成AIツールがどうだとか、あるいは、いろいろと拡散されておりますけれども、非常に複雑なプロンプトエンジニアリングのテクニックで、こういうことをやればこの業務でうまくいくとか、こういうことはすぐに更新されてしまうと思いますし、あんまり意味がないということで、本当に基礎的な生成AIだったり普通のAIの一般的な仕組みというのが、私の言う最低限の教養ということになります。
 一旦回答は以上なります。後ほど事務局へ回答させていただきます。
【石川座長】  どうもありがとうございます。今井様の御発表の中に問題点も御指摘いただいたところがありますが、その中にハルシネーションの誤った出力という御指摘があったときに、今の御回答にも関係するんですが、誤ったというのは、さて、誰が判断するものなんでしょうという、追加の質問になりますが、いかがですか。
【株式会社GenesisAI 今井氏】  それはまさに人間の専門家が判断するしかないと思います。これが資料の中にもあった、そもそも人間は素の能力を鍛えるべきだという話ともつながってくるんですけれども、人間も間違いはするだろうという話はもちろんあるんですが、私は人間が間違いをしてしまうこと自体にも価値があると思います。人間社会が人間で構成される限り、人間が間違えてしまったというのは意味をなすところがあるだろう、責任を取るとか、そういうところです。というところで、機械が生産性とか、もしかしたら誤り率も低いかもしれないけど、全部機械がやってしまったら、少なくとも人間社会というのは成り立たなくなってしまうだろうというのが、これは多分、社会制度的なところの話もあると思いますので、これはもう人間の専門家がちゃんとした教育、素の能力を鍛えてきた専門家が最終的な判断を下すしかないというのが私の意見になります。
【石川座長】  ありがとうございます。
 時間がない中で、的確な御質問と的確な答えをいただきましてありがとうございます。先ほど申し上げましたように、今日の御回答、時間の関係で十分ではなかったかというふうに思いますので、今日の質問に対する回答もメールでいただきたいと思っていますし、委員の方から追加の御質問等があれば、メールで事務局のほうに出していただければ、各社と今井様のほうに回して御回答を得るようにいたしますので、よろしくお願いいたします。
 各社様には引き続き御回答、よろしくお願い申し上げます。
 ここをもちまして、議題1を終了させていただきたいと思います。今井様、そして各社の御発表の皆様、短い中で貴重なお時間をいただきましたこと、大変感謝いたしております。これ以降はカメラをオフにしていただいても、御退席いただいても結構です。どうもありがとうございました。
【石川座長】  続きまして、本検討会には、委員の皆様、様々な実践されている方がいらっしゃいますので、そのような方、あるいは学術的な知見をお持ちの方に、これも限られた時間で大変恐縮ですが、御発表いただき、この検討会議での議論を進めていきたいと考えております。
 まず最初、今日は第1号ということになるんですが、最初は利根川委員から、これも短くて大変恐縮ですが、15分以内で御発表いただければと考えております。
 それでは、利根川委員、よろしくお願い申し上げます。
【利根川委員】  皆さん、こんにちは。NPO法人みんなのコード代表の利根川でございます。今、スライド見えていますか。
【石川座長】  はい、見えています。
【利根川委員】  そうしましたら、よろしくお願いいたします。
 御紹介いただきましたNPO法人みんなのコード代表の利根川でございます。今日は、限られた時間ですけれども、こちらに記載したアジェンダ7点についてお話しいたします。
 私たち、NPOの法人といたしまして、こちらに掲げている「誰もがテクノロジーを創造的に楽しむ国にする」というビジョンを掲げて活動している団体です。もともと2016年につくった当初は学校でのプログラミング教育を支援する団体だったんですけれども、その後、情報教育全般に支援内容を広げており、最近は、特にここ1年、生成AIに非常に力を入れて活動しているところでございます。その中でどんな活動をしているのかというのを、今日はまずお話しさせていただきます。
 右側に小さなスクリーンショットがあるんですけれども、私たちは、「みんなで生成AIコース」という、生成AIと対話できる学校向けの環境を提供しています。こちらを開発した背景といたしまして、昨年の春頃、全国の先生から、生成AIが世間で話題になる中、学校でも使いたいが、子供たちに使わせるとなると不安があるですとか、年齢制限――先ほどCOPPAの話も出ましたが――のところから、児童生徒ができれば直接聞きたいんだが、何とかならないかとかいうお声をお付き合いのある学校からいただく中で、開発の検討、準備を始めました。そういったところから昨年開発を始めて、6月にプロトタイプの段階から授業をしておりました。また後ほど、ここの部分については御紹介いたします。
 その特徴について、このようなところになります。一個一個読み上げませんが、一言で申し上げますと、学校現場で安心して使えるように機能を開発、提供しております。例えば、右側がチャット画面ですけれども、注意事項、非常に、絶対目に入るように掲示するというようなことをやっております。その上で、多くの方に使っていただこうというところで、「生成AI100校プロジェクト」というものを立ち上げました。私自身も本当に100校来るのかなと不安ではあったんですけれども、開けてみたら全国104校から申込みがあり、延べ6,000人超、36万件の対話がありました。今年度は100校という条件も外して、無償での提供をしております。
 先ほど申し上げたように、生成AIについては安全面の不安を耳にすることが少なからずあるかと思います。つい先ほども話題になっておりました。その部分について、我々はマイクロソフトさんのGPTベースでございますので、Azure OpenAIのコンテンツフィルターをチューニングしながら利用しています。さらに私たちのプロダクトは、エラーがあったときに先生に通知が行くようにしているほか、特に緊急性が高いものについては、私たちのほうから先生の側へプッシュで連絡するという形もやっております。ただ、実際に緊急性の高い連携をしたのは、カウントし出して以降、4,000人の利用者のうちの3件、0.07%でしたし、いずれも実際の問題になっていないというところですので、漠然とした不安というのは、この件数レベルにおいても当たらないかなというふうに考えております。
 その上で、子供たちの利用状況のところです。これは私たちの100校プロジェクトの調査ですけれども、小学校の段階から、開始前で14.5%の子どもが学校外で生成AIを利用したことがあるということでした。約7人に1人になりますね。高校では半数以上ということになります。また、ベネッセさんの調査においても約10%というところでございます。そんな中で、やはり放っておくと学校外で様々に触れる機会があるところ、適切な教育機会を提供する必要があるんじゃないかなと考えております。
 では、どんなふうに提供しているのかという実践例を御紹介いたします。
 まず高校です。こちらはディベートの授業で、実際生徒同士で意見をぶつけ合う、なかなか少し心理的なハードルが高いところ、その前にAIと議論をブラッシュアップさせてから臨むというようなところにあります。一人一人の、反応については資料を御覧いただけたらと思います。
 また別の、これは対話型AIではないんですけども、Pythonを教材にAIのヒント機能を実装しました。こちらで1点だけ御紹介したいのは、右下に書いてある先生の感想で、従来のプログラミング教育だと、40人のクラスで15人は勝手に学ぶんだけど、25人が先生のサポートが必要ですみたいなところのうち、生成AIで25人中15人が自力で進めるようになると、残りの10人に、より丁寧に指導ができるというようなイメージかと思います。そうすると先生としては、よりやりたかった教育に近づけるというところが先生も御実感いただけたかなと思っております。
 次、中学校です。前回、インクルーシブの観点が大事だと申し上げましたが、こちらは私学の女子校での実践になります。AIの仕組みを学んだ後、生成AIの特徴をいろいろな形でやっていくんですけれども、その中でデータのバイアスについても触れているというところでございます。こちらについても、生徒の反応については御覧いただけたらと思っております。
 最後に小学校の事例です。昨年6月、私たち、千葉県印西市の原山小学校というところで実践いたしました。こちらについて8時間やったんですけど、実は最初の6時間はGoogleさんのTeachable Machineを中心にした画像分類のAIを使い、AIの仕組みをまず学びました。その後、文章生成AIを体験していくという流れになりました。
 この授業を私も見に行ったんですけど、私、過去10年間、いろんな授業を見たんですけど、一、二を争うほど、この姿を全国に広めたいなと思える授業でした。どんなことをしたのかというと、最初に注意事項、先ほど示した注意事項を踏まえた上で、子供たちが自由に対話するというのを重視した授業をやったんですけど、まず対話例が非常に多かったんですね。2時間で平均55回、子供たちはプロンプトを投げていました。それも、こうやってみようと大人から言われたプロンプトじゃなくて、子供自身がAIに聞きたいとか話したいと思っていることがそれだけ投げかけられたというのは非常に意義があったというふうに考えております。
 その上で、対話の中身ですけども、大人と同じように、最初は何々について教えてというような、ともすると検索エンジンのほうがいいような問いかけが多かったんですけれども、子供たちは割と早々にハルシネーションに気づいていくわけです。そうするとだんだん、正解、不正解があるものを聞くよりも、生成っぽいというか、物語を作ってとか、ジャンケンしてみようとか、音楽を作ってみようというようなところ、正解が1個ではないものにどんどんシフトしていきました。その活用についても、ドレミをつけてとか、ギターのコードをつけてとか、大人が想像できないようなところまで来ましたし、結構隣の子の様子とかも見ていますので、自分が思ったプロンプトを、たくさん友達の様子を見ることによって非常に学習が早まるというのが、小学校5年生らしくて非常にいいなというふうなところが見てとれました。
 そのときの児童の振り返りです。非常に真っ当なことに、ちゃんと結果、すごい気づけているなというのが見てとれるかと思います。また、著作権というような単語も出てきたりするんですけど、少しバックグラウンドがありまして、この学校が、かねてから情報活用能力の育成に非常に力を入れてきております。授業時数特例校とか教育課程特例校という形で、こういう情報活用能力の地の力があるので、いい実践ができるというところかなと思っております。
 これは単発でやるのではなくて、その半年後ぐらいに私、また見に行きますと、作文に、授業の中で少し生成AIを使うみたいなところなんですね。このとき子供に、「生成AIってうそつくし、使えなくない?」と、ちょっと意地悪な質問を私、したんです。そうすると子供は、「使えます」と、きっぱりと言うわけです。何でかと聞いたら、これまで作文は結構、先生に提出して、見てもらわないとヒントをもらえなかったんだけど、生成AIならすぐ聞けるということなんですよね。自分のペースで学習を進められるということですし、生成AIを活用すると、使用語彙と理解語彙の差を埋めていく、そんな様子が見てとれました。ただ、この活用はいい意味で地味で、辞書を引いたり検索エンジンを使うように、表現に悩むと少し生成AIを使うというところでやっておりました。このときの感想も、非常に正しい、適切な理解が育まれているかなというところです。
 さらに、この子たちが6年生に上がった後も見ております。ちょっとせっかくなので、子供のインタビュービデオみたいなのがあるので、こちら御覧ください。
(動画上映)
【利根川委員】  というような、非常に真っ当な感想を言ってくれたんですけど、これはこの子だけでなく、複数の児童がこれに近しい感想を言ってくれたというのが、非常にいい取組だったかなと思っています。アンケートでも、こんなことを聞いたんです。これまでAIについて学習したけど、この先使っていけそうですかみたいなことを聞きましたので、最初からうまく使えているという子が、青の4分の1ぐらいの子です。もう使いたくないという子がゼロ%で、5%がやっぱりまだ不安残っているんですけど、70%の子、ここですね、これまでみんなと使ってきたから自信がついたという回答です。やはりこれが学校で正しく扱うべき理由というのが、やっぱり70%になっているのかなと思います。学校で自然に触れると4分の1,25%の子しか自信を持って使えないのが、適切な教育機会によって95%になるというところがあるかなと。このコメントからも、友達と一緒にやっていくことで新たな発見が見つかったという回答が見てとれます。
 以上のことを見据えて、私のほうからの提言として今回5つ挙げさせていただきました。
 1つ目は、前提となる姿勢・哲学のところです。最も大切なのは、先ほど事業者さんの発表からもありましたように、生成AIを通じて、特に子供たちがよりよく生きていくということかと思います。様々なAIが当たり前になっていくこれから社会で生きていく子供たちにAIの教育の機会を提供することは令和の時代の公教育の責務であるということを、ぜひ意識いただきたいと思っていますし、特にこういった新しいテクノロジー、地域とか家庭の教育環境がよい子には大きなメリットをそのままもたらすんですけれども、そうでない子にはなかなか機会が提供されず、世代をまたいで格差が拡大する傾向にあります。ですので、ベースとなる公教育で適切な教育機会を提供することのが絶対に必要です。その上で、技術の活用としては、人間を不要にする方向ではなくて、人間がよりよく生きる方向を考えたいところです。児童生徒においては、先ほどのビデオでのインタビューのように、安易に答えを見にいくのではなくて、よりよい学習の相棒にする。先生においては、プログラミングで助かったという声があったように、AIと共によりよい教育を提供する、そういう方向にぜひ考えていきたいと考えております。その意味で、諸外国の動向としても、アメリカ発のTeachAIというイニシアチブにおいても、最初に教育の目的というのが明示されていることも併せて御紹介したいと考えております。
 次に、ガイドラインの具体的な要望になるんですけども、全体のトーンがもっと推進モードになる必要があるかなと思っております。パイロット校が、今100校前後ありましたが、その次が大事で、もちろん最終的には全ての学校でというところになるんですけれども、今年度、来年度においてはパイロット校からの広がりが大事だと考えています。そのとき、やる気のある現場の先生を教育委員会とかがブロックすることないようなメッセージが必要かと考えていまして、今、暫定的な禁止通知みたいなのが去年出たままになっている教育委員会も恐らくあるかと思いますので、ガイドラインの改訂において留意点を明示した上で、それに合わせて通知を見直すように促すのが必要かと考えています。
 そして、小学校からの積極的活用です。教師が提示する形であれば低学年からどんどんやっていただきたいと思うんですけど、児童が直接触れる形においても、先ほど示したように、試行錯誤の回数という意味で小学校高学年が適切かと考えております。私たちのメッセージ数を見ましても、学校段階が上がると、平均プロンプト数は減っていくんですね。そういう意味で、やはり小学校高学年から体験することが大事かと考えております。
 また、アメリカのCOPPAについては、家庭も含めたところでの利用制限の年齢というところでございます。我が国の教育として、児童生徒がまず学校で安全に触れる環境を提供して、先ほどの学校で自然に触れると25%の子しか自信を持ってつかえないのが、適切な教育機会によって95%になるという結果も示しておりますので、ぜひここは今回、前向きに、小学校から積極的にというところを進めていただければと思っております。
 その上で、生成AIを適切に活用するためには、情報活用能力の育成をより一層充実させる必要があると考えていて、そのためには体系的・継続的な情報教育の時間が必要でないかと考えております。生成AIの仕組みとか活用を教育しようと考えると、中学校では中心となるのが技術・家庭科の技術分野、高校では情報科となるかと思うんですけども、現時点の内容でもなかなか時間数が足りないという調査結果もあります。その上で、先ほど紹介した原山小学校のように、情報活用能力を体系的に育成する時間を確保するのは有効かというふうに考えております。
 最後に、このガイドライン、定期的にアップデートする体制整備をぜひお願いしたいと思っております。今井先生からも先ほどありましたように、「機動的な改訂」というコンセプトは引き続き重要です。そこは議論をまたないかと思います。その意味で、例えばパイロット校とか学校現場での実証が年度単位で進むかと思いますので、それを踏まえて4月から6月に議論すれば、毎年夏休み前に改訂がアップデートできるですとか、あるいは大きな技術的インパクトがあったら、また都度改訂するとか、改訂に向けての体制の整備が必要ではないかと考えております。その際においては、ダイバーシティーの観点を引き続き御留意いただけるとありがたいかなと思っております。
 すみません、駆け足になってしまいましたが、私からは以上とさせていただきます。ありがとうございました。
【石川座長】  どうもありがとうございます。利根川委員がやられてきた個別の事例、うまくいっているような事例を御紹介いただくとともに、ガイドラインの制定に向けた御意見を賜りました。
 さて、これからは質疑応答、意見交換に入りたいと思います。これが実は本題なので、この時間を取るために、大分皆様には短時間でお話しいただいたところもあります。ただいま御発表いただきました利根川委員からの内容に関しての質疑応答や、委員の皆様からの意見交換に移りたいと思っております。御発言いただける方は挙手ボタンを押してお知らせいただければと思います。
 鈴木委員、どうぞ御発言ください。
【鈴木委員】  ありがとうございました。先ほどの今井先生のときにも、同じところに関心持って質問させていただいていたと思うんですけれども、AIに関しての最低限の教養というところ、利根川さんはどう考えるかというところと、それが小学校の場合は、特に低学年、中学年、高学年でどれぐらい教えられるかというのはかなり違ってくるわけですが、その辺りについて利根川さんとしてはどんな感じを持っておられるかを教えていただければと思います。お願いします。
【石川座長】  いかがでしょうか、利根川委員。
【利根川委員】  一問一答ですかね。ありがとうございます。
 私たち、小学校の、まずお尻のところでの研究とか実証が中心なので、正直、低学年・中学年はあまり持ち合わせておらないんですけれども、高学年の段階においては、AIというのは、既存のプログラミングのif elseとかと違って、データから確率で答えているんだよというところをぜひ押さえてほしいなというところと、あわせて、これはイライザ効果といいますか、ついつい人間のように見立ててしまうんですけれども、あくまでコンピューターが一定のアルゴリズムといいますか、モデルといいますかに沿って回答しているんだというあたりを押さえた上でというのが私たちとして強調したいところかなと思っています。
 その上で、そのほかの、ハルシネーションがあるんだとか、人間が主体性を持ってみたいなところは、界隈でよく聞かれる意見とは大きく違わないかなと思うんですけれども、我々としては、一定の仕組みに基づいた理解が、入り口ぐらいまでは小学校段階とか、今であれば中学生以降もまずはそこかと思うんですけども、必要かなと考えております。
【石川座長】  それは一般論として成り立つのか、どう使うかによってカスタムメイドしていかなければいけないのかというのはどうですか。
【利根川委員】  ごめんなさい、一般論とカスタマイズとおっしゃる座長の御質問の意味を。
【石川座長】  小学校高学年の教育一般に対してお話しいただいているのか、あるアプリケーション、ある使い方の中でどうすればいいかというお話をなさっているのかというのです。
【利根川委員】  そういう意味では、今話したのは、少なくとも今段階での生成AIについての一般論です。当然教室で扱うのは何か1つとか2つのAIの環境になると思うんですけれども、AIについて一般的にもってもらいたい認識としては、 AIってニュースで聞くと思うけれども、それって今まであったプログラミングとかと違って、データに基づいて確率でやっている、確率に基づいて答えているんだよというような仕組みのところは押さえていただきたいというふうに思っております。
【石川座長】  今回ガイドラインを取るときに、一般論でどこまで書くか、個別論をどこまで書くかというのは一つのポイントになるかと思って、質問させていただきました。
 佐藤委員、いかがでしょうか。
【佐藤委員】  佐藤でございます。御発表ありがとうございました。原山小学校で実践されていることに僕は価値を感じておりまして、本校の子供たちが情報活用能力をきちんと積み上げてきたというところで成果が出てきているんじゃないかなというふうに感じたところです。
 その中でお聞きしたいのが、高学年から積極活用ということの御提案に関しても重なると思うんですけども、この実践された子供たち、どのくらい情報活用能力を積み上げてきたのか。そしてそれは、生成AIの活用に関して言うと、具体的に情報活用能力のどの辺りが効いてそうかという、利根川委員の雑感で問題ございませんので、まずお話いただければと思っております。よろしくお願いします。
【石川座長】  利根川委員、いかがでしょうか。
【利根川委員】  そうですね、子供たちがどういったところ……、まず、コンピューターを怖がらないといいますか、変な話、新しいアプリケーションが来たとて、何かこういうものは自分たちにとってきっと有効なものだろうみたいな、地となる情報技術への信頼というものがあるから、恐れずに向き合ってくれるのかなというふうに感じましたというのが1つです。
 一方で、使い過ぎない、やってはいけないラインみたいな、情報モラルといいますか、その辺り分かっているので、特段このタイミングで、こういうことを聞いちゃいけないよねみたいなのを一々指導せずとも、ちょっとあえて試すような、爆弾の作り方みたいな、あえて聞く子はいるんですけれども、天然で悪いことはしないですし、これって当たり前にカンニング的なことに使わないよねみたいなところがスムーズに入ってくるのでというところがありますね。
 あと、科学的な理解の観点からも、「すごい、魔法みたい」ではなくて、「科学技術だよね」と、そこまで明示的に子供たちの発言があったわけではないのですけれども、同じプロンプトを打ったのに返事が違うね、これ、何でだろうというやり取りがありました。それってプログラミングだと同じことには同じことが返ってくるという体験をしているのに対して、比較することを通して、技術を科学的に捉える観点が育まれているというあたりが、私が見た、育まれている姿が映されたところはその辺りかなと思っております。
【佐藤委員】  ありがとうございます。よく分かりました。トラブルシューティングができたりとか、情報モラルがクリアされたりとか、プログラミング的思考というところですね、その体験がきちんとされているということが分かりました。何が言いたいかというと、高学年からの積極活用に対しての条件というか、そういったものがきちんと整理されていくといいんじゃないかなというようなことを感じた次第でございました。ありがとうございました。
【石川座長】  ありがとうございます。
 では、細田委員、お願いいたします。
【細田委員】  質問かどうか、ちょっと感想めいたところもあるんですけれども。
 私、教育長をやっていた頃に常々思っていたんですけれども、意思決定をする側の人たち、実際で言えば教育長とか、学校で言えば校長先生方の結構少なくない人々が、AIを教育活動に使っていくところについて本当に漠然とした不安みたいなものをそれぞれ何となく多くの人たちが持っているなというふうに思いまして。例えば、子供たちが危ないことを入力するんじゃないかみたいな不安についていいましても、ここで見てみますと、緊急性が高いエラーを送信したのは0.07%なわけですよね。ですから、そういった意思決定側が持つ漠然とした不安は、そうではないということもここで見てとれるわけです。
 それからもう一つ、ハルシネーションについてなんですけれども、ここは本当にすごく感動したんですけれども、原山小学校の5年生が、子供たちが早々にハルシネーションに気づいたというくだりがあったと思うんです。そして、そうかそうか、ではAIを使いながら勉強するときは、学習するときは、絶対的な正解が必要じゃないものに子供たちがシフトしていくという、子供たちがもうどんどんどんどん自走していく、いい方向に行く例がここで具体的に発表されている。私はこういうことを意思決定をする側の教育長とか校長先生方にもっと知っていただく、これが大切なんじゃないかなと思いまして、先ほど質問させていただいたことにも重なるんですけれども、とにかく皆さん漠然とした不安と、それから不安だけじゃなくてAIについて教師側がやっぱり知識不足ということで前に進めないところが多々ありますので、そういったことを前に進めていくためには、ぜひ、教師側、意思決定を持っている側にいっぱい知らせたいし、そしてこのガイドラインがそういう側面も持っていくべきだなというふうに思います。
 質問じゃなかったですね。こんなふうに思いました。
【石川座長】  ここは質問と意見の時間ですので、御意見いただいてよろしいかと。
【利根川委員】  一言だけ。
【石川座長】  どうぞ。
【利根川委員】  ありがとうございます。すみません、原山小学校、校長の許可は取っておりませんが、この会議の関係の皆様とか事務局の皆様とか、時間があれば原山小学校なのかどこなのか、ぜひ現場を見るみたいな機会も有効かなと思いましたので、ちょっと御相談させていただけるとありがたいかなと思います。すみません、校長の許可を取っていないので、そこだけ非常に勝手に言っております。
【細田委員】  でも、本当にそういう機会があったらいいと思います。ありがとうございます。
【石川座長】  今の細田委員の御質問の反対側、つまり不安を抱いている先生に対して、利根川委員はこういったことをやった経験はおありなんでしょうか。
【利根川委員】  そうですね、AIに限らずプログラミングのときから、特に小学校段階においては、子供の姿、そこから気づいていただくと、小学校の先生、前向きになっていただきやすいかなと思っておりますので、そこを大事にしております。あとそのときにやっぱり、こういうのは放っておくと若い先生、男性の先生ばかりになりがちなんですけれども、そうじゃない、もっと多様な先生がこういうところに前向きになってほしいなというところでなるべく、子供がいいならちょっと頑張ってみようかというのが日本の学校の先生は非常に強いので、その辺りをうまく刺激しながら研修とか様々な機会をつくっているというところでございます。
【石川座長】  ありがとうございます。
 森田委員、御発言お願いします。
【森田委員】  大変すばらしい発表、ありがとうございました。私も本当にこのとおりだなと思いながら拝聴いたしました。そして、細田先生の意見についても、今、私、現場は教育長という立場で、そのとおりだなというふうに感じていました。
 利根川委員からありましたように、この5つの提言、この最初の哲学という部分、やっぱりここが大事なのかなと。何のために使うのかということを子供も教師もしっかり捉えるというところをガイドラインの中でも訴えてもいいんじゃないかなと。そして、そのために何が、どんな能力が必要なのか、どんなスキルが必要なのかというところもきちんとガイドラインの中で整理していくことによって、ガイドラインを見た先生方も安心して使えるようになるんじゃないかなというふうに感じました。問いを発見する力とか、批判的能力とか、ファクトチェックとか、そういうスキルをきちんと身につけることから、この活用も正しく進んでいくところに結びつくんだというふうに感じました。
 その中で、一つお伺いしたいことがあったんですけれども。先ほどアラートを出して緊急性が高いエラーを出したのは3人いましたと。少ないのは非常に本当によかったなと思うんですけれども。これ、アラートを出すためにはログを残しているのかということと、ログを残すメリットとかデメリットというのは、何か心配といいますか、感じるところはあるんですけれども、その辺についていかがかというところです。よろしくお願いします。
【利根川委員】  ありがとうございます。まず、学校現場で使いたいというところで、先生のほうから一応全児童生徒のログが見れるよというのを児童生徒に明示した上で、この環境は使っております。なので、子供からすると、この会話というのは先生とかサービス提供者が見ることができますと知った上で、明示して使っているというのが、まず一つの特徴になります。
 ただその上で、先ほど言いましたように、子供たち55プロンプトとか、1時間に打ち込むわけですよね。そうすると、先生は全然読めなくなっちゃうので、その中でも、ちょっと要警戒なものがあると、先生側に画面上に通知が行くというような形での運用をしております。ですので、大丈夫? とか、どうした? とか、そういう指導が後からできるというところです。
 ただ、こういう話をすると、みんなのコードはAIとのチャットを検閲するシステムをつくりたいのかみたいな批判もあるかもしれないのですけれども、我々としては、あくまでこれは練習の場でありまして、ここで一定、児童生徒が整ってきたら、大人と同じ汎用的なツールを使っていく方向に行っていただければいいかなと思っておりますので、ある種最初の足場かけという意味でログがある環境を提供しているというような思想になります。
【森田委員】  ありがとうございました。
【石川座長】  ありがとうございます。
 では、藤村委員、どうぞ。
【藤村委員】  今までお話しいただいた利根川委員、細田委員、森田委員のお話、大変共感的に聞いておりました。全くそのとおりだと思っております。それを聞いていて、1点感じたことがございます。今現場に出ている先生にそういったことを学んでいただこうという話だったかと思うし、教育委員会はそれに対応しようということだったと思うんですが。私、実は教員養成大学におりますので、今回のガイドラインが今の現職の先生だけに対応しているのでは駄目なんだろうなと考えています。
 私ども既に四国の国立5大学は、生成AIの利用に関した教育内容を共同で入れていくということも実践しています。その中で分かったのが、先ほども話が出ていた、AIってどういう仕組みなの、考えているわけじゃないんだよみたいな話だとか、そういう仕組みの話。それから、こういう可能性、こういういい点があるということ。3点目は、限界もあるんだよということ。そして4点目は、問題点を学ぶと、先ほど細田委員おっしゃっていた、漠然とした不安があって使おうとしないということが劇的に改善されて、適切に使わせようという教員が育ちました。ですからそういった意味では、教員養成の段階からこういう内容をちゃんと子供たちにも指導できるし、自分たちは校務に適切に使うと、個人情報漏れないような形で適切に使えばこんなに役に立つものはないんだよということも含めて、教員養成が配慮すべきことについてもガイドラインで示していただくといいかなと思って発言させていただきました。
 以上でございます。
【石川座長】  どうもありがとうございます。ほかの先生方、いかがでしょうか。
 鈴木委員、お願いいたします。
【鈴木委員】  2回目になってしまって恐縮ですけれども。
 安心・安全ということについてちょっとお伺いしたいんですが。さっき事業者さんからもやたらと安心・安全って出てくるんですが、生成AIだけじゃなくてICT全般そうなんですけれども、子供はいろいろ失敗するわけですよね、間違った使い方もするわけですよ。それをゼロにすることは絶対無理なので、生成AIに関しても完全な安心・安全はあり得ないと私は思っているんです。むしろ、何かやらかしたときに、それを先生と子供とで、どうやって話し合って一緒に解決していくかということを支えていくことのほうが大事なので、今度のガイドラインにも私は、生成AIは安心ですとか安全ですとか、こういうふうにすれば安全です、絶対大丈夫ですみたいなことを書いても意味がなくて、いやいや、いろいろありますよと、いろいろありますけど、それをこうやって支えていきましょうというニュアンスじゃないと、逆に先生たちは安心できないんじゃないかなと思うんですが、それについてはいかがでしょうか。
【石川座長】  これは利根川委員への質問ですか。
【藤村委員】  関連して、藤村からよろしいですか。
【石川座長】  はい。
【藤村委員】  最初に私が発言したときに、判断力の育成が大事だと言いましたが、これは今、鈴木委員おっしゃったように、どんなものだっていろんなことが起きる。あれしては駄目、これしては駄目ではなくて、一人一人のウエルビーイング、ウエルビーイングというのは幸せという意味と、よりよい人間であり続けようとする人間の姿という意味があると思っていますが、そういった価値観、そしてその総和としての社会全体のウエルビーイングから考えたら、こういうことはやっていいとか駄目だとか、子供が主体的に判断して適切な行動を取れるようにしないと、管理では、先生が見ている、親が見ている前では悪いことしないけど、見てなかったらやっちゃうとか。それから、どんなことだって応用が利かなければ駄目ですよね。昔は鉛筆を使うことにも反対意見があり、インターネットを使うことにも反対意見がありましたけど、それでは世の中、進歩しません、ウエルビーイングにならないので、そういった意味では適切に価値判断しながら使う力が必要かなと、今、鈴木先生のお話を聞きながら、私も共感しながら聞いておりました。
 以上でございます。
【石川座長】  ありがとうございます。こういった話ですと、江間委員、何か御発言ございませんでしょうか。
【江間委員】  ありがとうございます。聞こえますでしょうか。
【石川座長】  はい、聞こえます。
【江間委員】  今までのお話、皆様の御議論と、あと話題提供いただいた企業様と今井様の話も興味深く聞かせていただいておりました。完全な安全・安心はないというところでの試行錯誤が大事になってくるというのは、まさにそのとおりだなと思っております。あとバイアスの問題も非常にやはり重要だと思っておりまして、よくある話ですけれども、例えば自国のデータセットの中にない異国の場所とかの写真とか画像生成とかしたところで、ちょっと変なイメージで出てきてしまっていたりとかもあります。その誤りを誰が判断するのか、人間であるという話もありましたけれども。その他にも「医者を生成してください」としたときに男性ばかりが出てくるみたいな、そういうところとかも、むしろ児童生徒さんのほうが議論ができるようになっていくかもしれません。試行錯誤しながら、生成AIが完璧じゃないということを議論できるように、教員側の人たちもサポートしながら考えていくことというのは非常に大事になってくるのかなと思います。
 安全・安心、プライバシー、それから吉田委員がおっしゃったような透明性ですとか、いろいろ事業者ガイドラインのところでも挙げられている原則に、教育現場でも考えるべきことというのは共通しているのだなと、改めて今日いろいろと勉強させていただいた感じです。
 最後に、先ほど細田委員もおっしゃっていましたし、あと利根川委員もおっしゃっておられましたけど、現場を見ることは大事だなと思っておりますので、もし機会があればなんですけども、一度どこかに見学させていただいて、現場の方とお話しさせていただいたり、どういうふうに使われているのかというのを見るということが、机上の空論ではなく、本当によりよいガイドラインをつくっていくためには大事だなと思いましたので、そこについても、事務局は大変かもしれませんけれども、もし何かいいアイデアがあれば伺わせていただければと思っておりました。
 以上です。
【石川座長】  どうもありがとうございます。ちょっとできるかどうか分からないですが、意見としてはお伺いしておきたいと思います。
 あと鈴木委員、先ほどの御質問の安全とかいうものの完全性の問題に関しては、ぜひメールで御質問をまとめていただいて、事業者様に一度振ってみたいなと私も思いますので、質問としてまとめていただいて、事業者に振れるような形でメールをいただけるとありがたいですが、鈴木委員、いかがでしょうか。それ以外にも御意見があるようですが。
【鈴木委員】  御質問に関してはそれで結構です。
 私が今、挙手したのは、江間先生がおっしゃっていただいたことですけれども、附属小金井小はいつでも見学可能ですので、1年生から6年生まで、こういうAI使った授業が見たいという御要望がありましたら、いつでもお声がけください。
 以上です。
【石川座長】  御意見として伺っておきます。
 前回、AIに慣れている学校も重要だけれども、AIに慣れてない学校に対するケアも必要じゃないかという御意見も出たと思いますので、その辺も含めて、皆様から御意見が出た中で実行可能なものを少し考えますが、見学はこの議論の中では少しハードルが高いなと私は思っていますが、検討させていただければなというふうに思います。
 佐藤委員、いかがですか。
【佐藤委員】  佐藤でございます。
 今、江間委員がおっしゃっていたバイアスに関することですけども、非常に私もそう思っております。生成AIにおけるバイアスという議論に関しては、メディア一般にも今までもあったと思うんですよね。そう考えたときに、現在の情報活用能力、学校で身につけてやっていくべきというようなことを見ますと、このバイアスという部分は非常に足らないというふうに私は認識しております。ですから、情報活用能力を検討する機会があるようであれば、メディアリテラシーのような観点もとても必要になってくるんじゃないかなというふうに思ったことが、江間委員の発言を聞いて感じたことでございました。意見でございます。
 以上です。
【石川座長】  どうもありがとうございます。そのほか御意見ございますでしょうか。
 細田委員、どうぞ。
【細田委員】  すみません、2回目で恐縮でございます。
 前回私、全然進んでいない学校、多くの全くに近く進んでいない学校、現場についても発言したんですけれども。まさに先ほど利根川委員もおっしゃっていたように、デジタル回りといいますか、とりわけAIについてもそうなんですけど、世代をまたいで差がどんどん広がっていってしまう分野だなというふうに実感しております。
 それで、このガイドラインに、いわゆるガイドラインだけでこの議論が進むのかどうか、ちょっと定かではないんですけれども、例えばグッドプラクティスみたいなものを別冊で用意できると、学校や教育委員会のレベルによって、自分たちがもうまさに緒に就いたところであったりとか、もうかなり子供たちもITのリテラシーが高く、AIを活用したすばらしい教育活動ができているところまで、逆引きで自分たちのレベルに合わせてグッドプラクティスなりが提示できるようなものがあると、本当に非常に学校現場や教育委員会はありがたいなというふうに感ずると思います。できるかどうかは別として、そんなこともいつも思っておるところでございます。
【石川座長】  どうもありがとうございます。
 最後に、前回ですか、バイアスの件に関して御意見をいただいていた相澤委員、一言何か御意見をいただければと思います。
【相澤委員】  ありがとうございます。本日、大変勉強になりました。
 バイアスについてですけれども、必ずしも生成AIというカテゴリーの中だけではなくて、情報教育一般に関係してくるような話題も多くあります。ここで議論しているバイアスやメディアリテラシーなどに関する課題は生成AIの中だけに閉じるわけではないということで、情報リテラシー全般とも結びつけて行けるとよいと思いますので、展開について今後もフォローできればと思っております。
【石川座長】  どうもありがとうございます。ぜひともガイドラインの生成では具体的な御意見あるいは御提案をいただければというふうに思います。
 それでは、最後と申し上げましたが、もう一人だけ最後に利根川委員、御発言があるようです。
【利根川委員】  すみません。発表者ですが、最後に一言、言わせていただきたいと思いまして、挙げさせていただきました。
 バイアスとか教員養成の重要性とか、私もまさにそのとおりかなと思っております。事例集についても、あるといいねというふうに思ったんですけど、我々もこの間、本を出したら、書店に並ぶ頃には少し古くなりかけるみたいなところで、ちょっと賞味期限がどうしようかなというのがあるんですけど、そこだけどうにかできれば、事例みたいなのもあるといいなと思っておりました。
 最後一言、手を挙げたのは、安心・安全の議論のところです。ここは非常に大事なところで、考え方は鈴木先生と恐らく一緒なんですけど、私も、かすり傷を負うのはいいと思うんですけども、でも骨折はしたくないよねみたいなところというんですかね、そこの何をもって安心・安全というかみたいなところをどう表現するのかというのは、ちょっと今後議論が必要かなと思っております。実際かすり傷しないと、いろいろ育っていかないわけなんですよね。ただ、そのかすり傷がないのも含めて安心・安全というのかみたいなところは、ちょっと表現の仕方があるかなと思っております。
 以上でございます。
【石川座長】  どうもありがとうございます。
 今日は時間がない中での議論になりまして、大変申し訳ございません。鈴木委員にお願いしましたけれども、事業者様への適切な質問をしていただくとよいのではないかなというふうに思っております。あるいは今井様の発言に対しても、メールで御質問いただければなというふうに思っております。
 概略的に、事業者様は新しいことに対して積極的に取り組んで、安全・安心あるいは著作権、コンプライアンス等々に関して一生懸命努力をなさっているということに関して敬意を表するんですが、使う側からすると、その抽象的な努力が具体的にどういう形になって出てくるのかというところが興味があるところでもありますので。それから、現場はそこで動くと思いますので、それに対してどんな表現を取ればいいのか、あるいはどんな努力があるのかというのが議論になるところかなというふうに思っております。
 先ほど今井様には、ハルシネーションの間違ったというのの間違ったというのはどうしましょうと質問したのは、やっぱり全体像として誰がどういう判断をして、どう実際に動かすのかというのが見えるような形のガイドラインにしていかなければいけないのではないかなというふうには思うんですが、それが非常に難しいということを委員の方々は御理解いただいて、今後のガイドラインの制定に向けて的確なる、理性あふれる御指摘をいただければありがたいと思っております。どうかよろしくお願い申し上げます。
 それで、今日の意見、議論、あるいは事業者様、今井様の御発表に対しての質問は、事務局のほうへ出していただければと思います。メールで回答をいただいた上で、皆様に提示させていただこうと思っております。
 最後に、次回の予定について、事務局から説明をお願いいたします。
【学校デジタル化PT 伊勢本】  事務局の伊勢本でございます。次回の検討会議の日程につきましては、追って私のほうからメールで御連絡させていただければと思います。
 以上でございます。
【石川座長】  どうもありがとうございます。
 それでは、本日予定した議事はこれで全て終了しましたので、これをもって閉会とさせていただきます。本日はどうもありがとうございます。
 
―― 了 ――

お問合せ先

初等中等教育局学校デジタル化プロジェクトチーム

(初等中等教育局学校デジタル化プロジェクトチーム)