情報科学技術委員会(第105回) 議事録

1.日時

平成30年11月15日(木曜日)13時~15時

2.場所

文部科学省15階特別会議室

東京都千代田区霞が関3-2-2

3.議題

  1. 「ポスト「京」のシステム開発」の中間評価審議結果について
  2. 今後の情報科学技術分野に関する研究開発課題の方向性について
  3. その他

4.出席者

委員

北川主査、有村委員、上田委員、喜連川委員、國井委員、栗原委員、瀧委員、辻委員、樋口委員、八木委員

文部科学省

千原大臣官房審議官(研究振興局担当)、原参事官(情報担当)、坂下計算科学技術推進室長、邉田専門官、齊藤情報科学技術推進官

5.議事録

科学技術・学術審議会 研究計画・評価分科会
情報科学技術委員会(第105回)
平成30年11月15日


【北川主査】  それでは、まだお見えでない方もいらっしゃいますが、定刻となりましたので、科学技術・学術審議会研究計画・評価分科会情報科学技術委員会(第105回)を開催いたします。
 本日は、伊藤委員、高安委員、土井委員、安浦委員、矢野委員の5名の方から御欠席の連絡を頂いております。そういうことで、非常に座席の距離も近くて、アットホームな感じですので、是非、活発な御議論を頂ければと思っております。
 それでは、事務局から資料の確認をお願いいたします。
【齊藤情報科学技術推進官】  資料の御確認をさせていただきます。お手元の資料、クリップをとっていただきまして、1番上、座席表の次が議事次第でございます。
 次が、両面、2アップ、カラーになっておりますが、資料1として、上田先生から頂いた資料を付けております。
 次に、資料2として、有村先生から頂いた資料を御用意しております。
 参考資料といたしまして、10月31日の研究計画評価分科会の資料1-2でございますが、ポスト「京」の中間評価の結果を付けております。
 委員の名簿に若干所属の修正がございましたので、参考資料2として、改めて本委員会の名簿を付けております。
 過不足等ございましたら、事務局までお申し付けください。
 以上でございます。
【北川主査】  資料はよろしいでしょうか。
 それでは、早速、議題の(1)に入りたいと思います。議題(1)は、「ポスト「京」のシステム開発」中間評価審議結果についてでございます。
 この件は報告事項でございますが、関連する資料は、参考資料の1でございます。
 この件につきましては、7月26日の第103回の会合で、新たに規定に追加しました書面審議のスキームを利用して、第104回の会合として、既に書面での審議を行ったものでございます。
 規定によりまして、書面審議を行った場合については、次回の会合で、主査から報告することになっておりますので、その経過と結果について、私から報告させていただきます。
 7月の第103回会合で承認頂きました運営規則に基づき、9月4日に、事務局から、中間評価結果(案)を書面で送付させていただきました。その後、2週間程度の間に、委員全員の方から、御回答を頂きました。それに基づきまして、必要な修正を行った上で、10月3日に、再度、皆様に御確認をお願いしたいものでございます。
 その結果、御了承いただきましたものを、10月17日に開催されました研究計画・評価分科会の第66回会合で、私から説明をして、参考資料1の内容のものを報告いたしました。この研究計画・評価分科会では、修正もなく、そのまま決定されておりますので、御報告させていただきます。
 この参考資料1の内容につきましては、既に書面審議をしていただいておりますので、報告は省略させていただきますけれども、もし経緯等につきまして、御質問がございましたら、よろしくお願いしたいと思います。よろしいでしょうか。
 それでは、特に御質問等がございませんでしたら、次の議題に移りたいと思います。
 2番目の議題は、今後の情報科学技術分野に関する研究開発課題の方向性についてでございます。
 前回の103回の会合では、JSTの研究開発戦略センターの木村様からプレゼンを頂いて、その後、御議論をしていただきましたが、今回は上田委員、有村委員に、それぞれ話題提供をしていただいて、それに基づいて、皆様で御議論いただきたいと思っております。
 それでは、まず上田委員からお願いいたします。
【上田委員】  それでは、こういう依頼を受けまして、こういうメンバーの方々に、意見を言うのもどうかなということですが、御指名ということで、飽くまで、私見ということで、今、私どももやっているような話をさせていただいて、議論のネタになればいいかなと思っています。
 これは復習ですが、一々、御説明するまでもなく、今、内閣府が人間に焦点を当てて、そういうようなシステムを作ろうと……
 大丈夫ですか。ちょっと画面が切れていますね。多分、皆さん、エスティメートできると思いますので、引き続きやりますけれども、結局、これは何を言わんとしているのかなと思ったとき、人間中心といったときは、一般社会の人たちなのです。その人たちに恩恵があるような情報システムないし科学の発展を期待しているということなのかなと解釈できて、結局、一言で言うと、やはり、現実問題というものに焦点を当てる研究が重要ではないかというメッセージかなと思っています。
 一方、第3次AIブームというのは、御承知のように、今、全世界的にも、2000年を皮切りに、機械学習の国際会議、ICMLだとか、NIPS、ディープラーニングをよく使うCVPRだとか、そういうところが、かつてのレガシーのAIのカンファレンスであったAAAIとかIJCAIというものに比べて、群を抜いて参加者数が増大します。
 ただ、最近、IJCAIやAAAIも、機械学習を結構インベイドしてきて、何だかよく分からないような状況です。今年のAAAIも6,000件以上の投稿があって、採択率は18%です。
 ただ、私の感覚だと、やはり、ちょっと応用みたいな、逆にNIPSとかICMLの敗戦処理みたいなものが非常に多くて、今、ちょっとコミュニティでも困っているというか、ペーパーだけを見て、査読をせずに10%ぐらい落としたみたいです。そんな荒れた状況になっているということが現状です。
 良いか悪いかは別として、産学ともに、みんな興味があって、NIPSは、今年は10分でソールドアウト、レジストレーションできない。日本は時差があって、12時で、私は12時半ぐらいに見たら、もうソールドアウトなんですね。ただ、いろいろプールしていたみたいです。そんな状況です。
 これは、もう言わずもがなで、なぜ、それだけ、データ科学といいますか、機械学習がブームになっているかというと、ジム・グレイという偉い人が、全世界に向けて、こんな本を出して、チューリング賞までやっておられて、言ったので、やはり産も学も、データ科学、AI、機械学習、こういうものが重要だという、余り中身を分からずに、そういう興味を持っているということは現状だと思います。
 一方、なぜ、ベンチャーなどが、今、どんどんはやっているかといいますと、従来の機械学習、パターン認識というのは、特徴量をいかに専門家が設計するかというようなところが、ノウハウです。それを数理モデルで作ったりとか、いろいろやっていたんですが、今、ニューラルネットは、御承知のように、エンドツーエンドで、データさえ集めれば、質のよいデータを入力と出力で、ペアとして集めれば、GoogleのNMTなんかもそうですけれども、数百万というコーパスを集めれば、5段階評点が1点も上がったという状況なんです。
 これは、研究というより、ビジネスとか、そういう観点では、もちろん、非常に良いことというか、いろいろなインパクトがあるのですけれども、研究として、こういうことを、ずっとやっていくのかというと、最近、我々の中でも、ニューラルで何かいい仕事をしても、研究者は余り尊敬されずに、いいマシンを持っているねとか、何かそういうふうな状況になっているので、やはり、文科省として、研究の方向性を出すときに、ディープ、ディープなどと言っている状況ではないかなと思います。
 一方、Marcusという、この人もハーバードだったか、どこだったか、有名な人なのですが、こういう論文も出しているわけです。“A critical aparaisal”ということで、ここに書いているとおり、これは、一般に言われていることですけれども、これをもっと細かく延々と論文にしたものですけれども、深層学習に対し、いろいろな批判があります。
 私なりの意見としては、そうは言いながら、深層学習はコモディティー化されたツールですね。そういう意味では、特にパターン認識では、教師あり学習というようなパターン認識の文脈では、これは、もう必須のツールだと、研究対象というよりも、ツールだということです。
 ただ、データが容易に準備できないような、例えば、故障検知だとか、あるいは大地震のデータだとか、そういうようなものには直接はできないし、因果関係も分からない。やはり、もう一度、モデリングというような考え方に回帰する必要があるのではないかというようなことを非常に思っています。
 これは、私がNTTと機械学習データセンターの代表として、NTTでAIはどうするんだという議論が数年前にあったときに、いろいろ議論して作った資料なのですが、今のAIというのは、ロボットだとか、パターン認識というものは、ヒトの知能をたくさん模倣するというAIに対して、これから、Society5.0ということは、ヒトの能力の補強をして引き出すというようなIntelligence Amplifierというような側面が、もっと重要になってくるだろうと。
 これは、ちょっと手前みそですけど、NTTはインフラ会社でもあるので、ネットワークAIとか、4つの分類をして、ヒトと共創するようなAIとヒトを支援するAIというような領域を作って、そこの中でのコア技術、あるいは、応用技術を研究開発しています。こういう見方も、AIとして、重要ではないかという感じがしております。
 IoT-AIといったときには、やはり、このスライドのような世界観かなと。これは上が切れていますけれども、Ambient AIという言い方をしていますが、これはまずセンサによって収集された現実の情報を対象とします。ウェブは、現実もあるのだけど、どちらかというと、バッチ的な情報なのですが、かつ、フェイクな情報も結構いっぱいあるようですが、リアルタイムセンサというものは、ノイズは載っているにしても、途中でハッキングされたら、別ですけれども、通常はフェイクではないのです。
 様々なデータがリアルタイムにある。かつ、このセンサ情報は、時間と空間にひも付いているので、いつ、どこで、何が起こっているかということが分かる。せっかく分かったんだから、それを分析して、何か困ったことが起こるのなら、起こらないようにしようではないか。
 あるいは、リスクが起こりそうであったら、事前に教えてあげて、警戒をするだとか、そのような情報を現実世界に還元すると、タイムマシンではないですけど、世界が変わるわけです。これにより何もなかったかような安心安全なレジリエント社会が形成される。このためのコア技術を、このexploring data analysisというところでやっていく必要がある。センシング技術も極めて重要になってきますけれども、その活用法を言っています。
 一方、最近、HPCIの方の委員会でも、議論させていただいていますけれども、今、理研AIPで、私が、地震関係で、防災科研との共同研究で、東大の地震研の人も含めて、いろいろやっていますけれども、かつて科学研究というのは、理論と実験観測との試行錯誤ということだったと思うのです。
 それに対して、今、スパコンがあって、しかもソフィスティケートされた、いわゆる物理モデルといいますか、そういうモデルがあるので、ただ、そこのモデルというのは、やはり未知パラメータを多数持っているわけです。
 例えば、地震でいえば、空間的に依存するようなパラメータを持っているので、もうあっという間に、100万とか、そんなパラメータ数になるので、手で人間が調整するわけにいかなくて、それをいかに機械学習で、逆生成するか。
 これは、大昔は、逆問題と言われるような問題になるのですけれども、ちょっと違っていて従来の逆問題は、どちらかというと、安定するような正則化による方法論だったのですが、こちらは、どちらかというと、シミュレーションを援用する方法になります。
 例えば、手前みそですけれども、これは数年前からやっているプロジェクトで、マルチエージェントシミュレータは、御存じだと思うのですが、何かいろいろな動画を見せて、こうなりますねということを示唆する可視化ですよね。
 そうではなくて、そうなりますねという危険を可視化するのだったら、ならないように考えてくれと、コンピューターとその背後に機械学習が走って、つまり、シミュレーションの上で、更にシミュレーションが走っているような状況を作り出すアプローチです。そこで、良い解を見付けて、こういうふうにやれば、こうなりますよというところまでも可視化するような学習型のマルチエージェントシミュレーションという技術を開発おります。
 これは、オリンピック・パラリンピックの内閣府のプロジェクト7という中で、NTTグループが入っている中でのコア技術でございます。実際の現場でこの技術を直接使って誘導するのは倫理的な問題もあって、オリンピック・パラリンピックで運用するわけではないんですが、ただ、警備会社に、このソフトウェアパッケージを提供して、彼らが、警備の計画を事前に策定する際に用いるというような方針で一応、進んでいます。
 一方、これは、AIPで、今、防災科学チームのメンバーを率いてやっている話ですが、もともと、いわゆる偏微分方程式を使って、三次元の地下構造から地震が起きたときに、どれぐらい揺れるかということをスパコンを使って予測するという研究を東大地震研の市村先生らがやられていました。
 彼から相談を受けたことは、そうはいっても、左の3D Soil Modelsというものは、非常にスパースで、3層構造になっているんですけど、1層目が地表面なので割と正確なんですが、2層、3層は、情報が非常に不正確なので、1点当たりに対して、約3,000回の計算をしないと、モンテカルロ・シミュレーションができないので、何かAIで効率化できないですかという相談だったのですが、1回シミュレーションすると、その3Dモデルに対する揺れが、学習データとして得られるわけです。
 それをメッシュ上に分解して、揺れの分布を見るんですけど、揺れの程度を分類問題だとみなして量子化して、CNNとDNNをいろいろ駆使してやったというものが、この研究です。
 これは2007年のCS17というところで、ベストポスター賞をもらっています。次のページにあるのですけれども、これは1層目と2層目、2層目と3層目がぼんやりしていますよね。これぐらいの分散を持っているわけです。
 だから、これでは、幾ら高精度の計算シミュレーションがあっても、かなり曖昧になります。これは、左側が、彼らが従来やっていた結果です。右側は、1回のシミュレーションに対して、それで得たデータを学習データにして、つまり、あれを細かくメッシュに切ると、相当な数のデータが得られるわけです。
 このデータに先ほどの手法を適用すると、結果がほとんど変わらないです。正答率としても、90%ぐらいの精度が出ていて、これは、結構、それなりにインパクトがある。つまり、数千倍の高速化ができたというわけです。というようなことも、これも、やはり、シミュレーションとモデリングの融合によって、こういうことができるようになったということを言っています。
 ちょっと雑駁でしたけど、まとめとして、超スマート社会ということは、やはり、現実問題をいかに解くかということで、例えば、どんなテーマがいいかといったときに、そもそも、科学という研究は、これも釈迦に説法ですけれども、ロマンみたいに、月に行きたいだとか、何の役に立つか分からないのだけれども、この研究は、どちらかというと、研究者のボトムアップでやるべき話で、人がとやかく言う話ではなくて、すごい天才が言って、10年ぐらいたって、すごいねとなる話です。
 一方、こういう戦略目標として掲げるときには、トップダウンに議論すべきですが、そのときに、AIなどという技術の話にしても、技術論で議論するのではなく、
 むしろ、解けていない現実問題を言ってみろ、みたいな、それをどんな手段でもいいから、解いてみろというような提案の方が、結果的には良いのではないかと思います。現実問題を解くということで、人間中心社会、いわゆるSociety5.0に根差した研究提案なのかと思います。
 ですので、現実問題に整合するような問題設定だとか、理論構築であるできです。例えば、例の先ほどの誘導のような話も、いろいろ文献を調べたのですけど、1953年に発表された、最速避難問題は極めて現実問題ですが、まだ、実応用で適用可能な方法論は存在しません。  例えば、この前、私も遭遇しましたけど、姫路で起こった人身事故なのに、東京から京都に帰れなかった。結局、私は、夜中に名古屋までしか行けなかったのですけど、何で、あんなばかげたことが、今のICT時代に起こるのか。何故、もっと迅速かつ適切に列車運行をスケジューリングできないのか。多分、良い方策がなくて、新幹線がどこかに止まったらまずいので、全体をまず止めてしまえという感じに思えます。現実には、未解決な問題が多いと言えます。全然解けてないわけです。
 関連して、連続最適化と離散最適化の融合研究は、まだ全然進んでいない。コミュニティが全然違いますから、連続最適化の人と離散最適化の人は、全くアプローチが異なります。
 なので、方法論で言うのではなくて、問題を先に言った方が、本質的ではないかなと。それを解けるなら、解いてみろというような問題設定が重要かと思います。そういうことを、最後に申し上げたいと思います。
【北川主査】  ありがとうございました。
 本日の議題は、これに集中しておりますので、比較的、時間があります。まず、今の上田先生の話に関連したところで、御自由に御議論していただければと思います。よろしくお願いします。喜連川委員。
【喜連川委員】  ちなみに、Jim Grayは、私の指導教官とも言える先生で、やはり、彼がすごいのは、上田さんが最後の方におっしゃられたことと結構同じなんですけど、TandemからDECに行って、IBM、そしてマイクロソフトと、とにかく、良く現場をご存知な点です
 有村先生も、結構知っておられるかもしれない。データベース屋さんは、この人を知らない人は誰もいません。
やはり、僕が、この方に一番教えてもらったことは、現実問題をもっと直視しろという点で、ずっとそうおっしゃっておられて、Tandemというのは、ノンストップコンピュータと言われて、絶対落ちないコンピューターなんですが、絶対落ちないというのは、何で落ちるかということが分からないと、落ちないようにできないのですが、その課題をすごくよく御存じで、理論だけでないところが素晴らしく、我々の業界では、この先生が神様です。
 彼は、データサイエンスとは言ってなくて、データドリブンなサイエンスであるという言い方を言っています。これは、文科省もお聞きいただければ、ありがたいのですが、サード・パラダイムがスパコンだと言い、コンピュテーショナルサイエンスなわけですが、コンピュテーショナルケミストリー、コンピュテーショナルソシオロジー、コンピュテーショナルサムシングというのは、過去非常に勃興したわけですが、もう その時代から次の時代に向かうべきだ、コンピュテーションではないんだといったのが JIM GRAYの4thパラダイムです。
 スパコンは、もちろん、いまだに重要な分野もありますが、データドリブンで、つまり、これからは、モデルが作れない世界で、サイエンスというものが、どんどん形成されるんだという世界観を入れて、4thパラダイムという本をお書きになられたわけです。2007年に、ヨットでお亡くなりになられました。
 これはどういうことかというと、データサイエンスなどという言葉を、今、あちこちで新しいトレンドとして騒いでおられることが散見されますが、もう10年以上前であるということを再認識する必要があります。
 つまり、これは上田さんもおっしゃっていたんですけど、系が余りにも複雑なときというのは、モデルがもはや、もうできるのか、できないのかが分からなくなってきたときに、この世界というものが出てきて、例えば、先ほどおっしゃられたような地震のような地球という系を対象としますと、あるいは、社会というような系を見ると、今回のブレキシットもそうですが、そういう問題に対して、データをよすがにしようという発想です。モデルではなく、データをよすがにしようという世界観なんです。
 そこがエンドツーエンドで、ようやく、何か知らないんだけど、世の中をまねすることまでは、できるようになってきました。上田さんの言葉によると、要するに、回帰ができるようになった。
 上田さんのご提案はそれはそうだけれども、もう逆に言うと、おもしろくなくなってきてしまったから、もう1回、モデルに帰るべきということをおっしゃれテイルという理解で宜しいでしょうか?
【上田委員】  はい。
【喜連川委員】  ところが、ここがちょっとトリッキーなところがあるのは、モデルに戻れるのは、やはり、そもそも、第一原理のように、フィジックスがかなりソリッドにあるようなところは、これができているように見えるというか、さきの地震の例もそうだし、今だと、マテゲノムだとか、ああいう物理則の世界ではないでしょうか。
 IBMも、データインテンシブマシンを売り出すシナリオは、マシンラーニングを、今、上田さんがおっしゃっていたこととほとんど同じことを言っておりまして、コンピュテーショナル・コストのリダクションというか、バイパシングに使いましょうということを、最初言っていた次第です。正にこの話なんです。
 ここからが、当方の質問ですが、この辺に関しては、やり方がいろいろあって、今、例えば、JAMSTECは、ある種、物理則から、エンラージしながら、学習域を広げるみたいな話とか、要するに、今、物理則と現実世界とのフュージョンに向かっているものが、一例と思っているのですが、こういうことができる問題のクラスは、やはり、相当限定されていて、トランプ政権をどうやっていくんだろうかとか、
そういうところになると、もう原理原則も、なにもない世界になるわけで、そこはどうするんだという問題が、やはり、残る気がします。これは1つのポイントです。
 もう一つは、上田さんがおっしゃられた、月に行くのは、最後の方で、キュリオシティーで、天才が出るのを待っておけばいい。それは、全然、逆さまで、今、内閣府がムーンショットと言っているものは、月に行くというのは、スプートニクで、もう打ち上げたんだから、何でできないんだ?ということで、DARPAが生まれたわけですよね。
 だから、あの例は余り出されない方がよくて、やれば、できると、だけど、コンポーネントを、それぞれつなぎ合わせるところを頑張ってやったら、できるかもしれない、努力しましょうと言ったことが、ケネディがやった話です。
 そうすると、今、僕らが理研に期待しているということは、やはり、そんなつまらない話ではなくて、ディープラーニングが出てきたみたいに、あれをレボリューションと見るか、エボリューションと見るかということは、難しいところだと思うんだけれども、だけど、もうここまで来たら、レボリューションと言わざるを得ないと思いますが、自分たちで何で考えてみないんだということが言われたら、ぐうの音も出ないわけで、今、チューリング賞50周年のときに、バーナーズ・リーのウェブが出た。 あれも、同じようなものです。でも、これだけ社会にインパクトを与える。
多分、50年後に、やはり、このDNNを見たとき、同じことは絶対言われると思うんです。それは、セオリティストから見たときにはデルタで、極度に大きなコンタムリープがあったかどうかは分からないけれども、やはりすごいなと結論を付けざるを得ないと、僕は思う。
 理研のAIPがやるべきことは、小生は月に行くことなんかどうでもいいと思っていまして、やはり、VapnikのV.C次元のような、ああいう話が難しいんだけど、何か誰か一緒に一生懸命考えてほしいなみたいな、何かそんな気がするんですよね。ちょっと、うまく表現できているかどうか、分からない。
【上田委員】  最後のコメントといいますか、御挨拶といいますと、正にAIPに2つのグループがあって、前者の方は、SVMだの、DNNに代わるようなものを生み出すための基礎をやっているということです。これは、ただ、ただ、数年で、何か出るわけではないので、そこはボトムアップにじっくりと取り組む必要があります。
 ただ、一方で、やはり、国民の税金を使っているので、5年とかぐらいのスパンでは、何かこんなものが、しかも、それは、皆さんにとって有り難いもの、それが1つの社会課題解決というようなもので、それが先の地震の予知だとか、被害推定だとか、あるいは、認知症の問題、あるいは、CiRAと今やっていますアルツハイマーの創薬作りだとか。そこは、もうゴールが先に決まっているので、余り技術をアピールしないというか、もういろいろな技術を詰め込んでやってみようと。
 これは、逆に言うと、AlphaGoだとか、ああいうものと同じようなスタイルかもしれませんけれども、そこにあまり1つの技術で、とがったもので、何かを実現しようなどということを言ってしまうと、恐らく、いつまでたっても、実現できないというようなことですよね。
 だから、一応、両方は、やっているということなんですね。前者は、やはり、機械学習、私も、二十数年、30年弱やってきましたけど、やはり、おっしゃるように、SVMとDNNというもの以外は、恐らく、みんな、小粒といいますか、歴史に残らないといいますか……。
【喜連川委員】  ベイジアンも駄目ですか。
【上田委員】  ベイジアンは、あくまでベイズ統計の輸入ですので、そういう見方をすると、いろいろな数学の最適化などというものが入っているんです。機械学習オリジナルの、機械学習のコミュニティが持ったオリジナルの成果は何ですかといったら、SVMとDNNかなと思います。
 ただ、DNNは、逆に言うと、いろいろな技術的にも、やるべきところは、本当にもうだっと食い尽くされた感があって、アーカイブにも、パターン認識のような関係のタスクだと、もう1日ごとに更新されていくような世界。これは、もう皆さん、学生さんがばっとやれば、パラメータを替えてモンテカルロ・シミュレーションをやっているようなものですから。そんなような状況で、それを研究と言えるのかということは、多少、微妙な感じはあります。
 ただ、後者の目的志向の方では、そういうものを道具にしつつも、単純にDNNを使うだけではなくて、回帰問題と分類問題を合わせて、新しいDNNを作ったりだとか、そういう亜種を作ることで、性能を上げたりはしています。
 ただ、しょせんは、それはDNNと言われてしまうと、そこは否定できませんが、目的そのものに研究としての担保があるか否かが重要です。。
【喜連川委員】  だから、僕が言った最初の方のそこを随分長くおっしゃられたんで、データサイエンスとリアルワールドというか、この宗教観が適用できる空間は、僕は、やはり……。
【上田委員】  そこは、そうですね。
 ただ、例えば、地震でも、そうはいっても、普通の力学の摩擦だとか、割とそういうようなシンプルなモデルで、ほとんどパラメータに委ねられているというか、結局、物理モデルもそんな正確に作れませんから、だから、かなり曖昧で、パラメータが山のようなモデルでしかないんです。そういう意味では、先生がおっしゃるような完璧なモデルでは全然ないです。
 だけれども、20年ぐらい、地質学の研究者が、ああだ、こうだ、手で合わせたりなどしても、こっちの地震に合っても、こっちに合わないとか、そんなモデルだと、予測に使えませんから、それは、こういう地震だけではなくて、先ほどの動的ネットワークの最大フローの問題などでも、ある程度の粗い数学モデルはあるのだけれども、現実に即したようなモデルはできていない。
 そこで、パラメータをいろいろ学習しながら、シミュレーションすることによって、いいモデルをサーチするようなアプローチが、シミュレーション科学みたいなことかなと。
 データ科学は、どちらかというと、割といいモデルを持っていたり、あるいは、観測データがたくさんあるような状況下で、データをたくさん集めたら、”More is different”で、データが新しい科学を生むような時代観だと思うのですが、そもそもデータがなかったり、作るモデルも正確でなかった場合に、なるべくいいモデルを作れるようなシミュレーションや学習ができないかということが、やや後半につながるような流れだと思っているんです。
【喜連川委員】  だから、それが、今度、The Fifth Paradigmだと言いたい?
【上田委員】  言いたいですね。
 それが、逆に言うと、HPCをどう有効利用するのか。単にシミュレーションをして、純モデルを作って、渋滞だとかのシミュレーションをやっているだけでは、少しもったいないのではないかと思います。機械学習とうまく援用するような形で、モデルそのものを精緻化するのが新たな方向性ですかね。
【喜連川委員】  ああ、それをFifthと言うか、なるほど。確かに、そこはまだ余り聞かないですね。おもしろいですね。
【北川主査】  今の複雑現象のモデリングのところについて樋口委員、何か。
 その後でやりましょう。
【樋口委員】  シミュレーションとデータ駆動型のアプローチの融合というものは、私のライフワークでもありますので、ちょっと発言させていただきます。
 喜連川先生の、取り扱える部分は狭いんではないかと、その点は、私も同意はいたします。
 ただ、一方、そこにもありますように、現在のいろいろなインフラとか人工物の多くが、シミュレーションのようなモデルがはっきりしたもので、いろいろ設計され、安全性などを担保されている部分がありますので、やはり、少ないとはいえ、その重要性というものは、かなりあるわけです。そこにデータ駆動型を融合させて、高度化するということは、サイエンスあるいはテクノロジーの観点から、重要ではないかと思います。
 以上です。
【喜連川委員】  僕ばっかりしゃべっていると、怒られるんですが、それはそのとおりなんですけれども、構造力学なんていうものは、原則、ニュートン力学で、建築屋さんの講義などを聞いても、そんなにおもしろくないですよね。だけど、それしかツールがないから、そういうものが広がっているわけですよね。
 逆に言うと、もっとコンプレックスな、もうちょっと上等なものができると、やはり、工場製品のデザインスペースが全然大きく広がってくるわけですよね。
 我々は、どっちを向かうのかというときに、そういう新しいパラダイムを……。みんな、上田さんに押し付けると、怒られるかもしれないんだけど、そっち側が、けたたましく大きいインダストリーセクターを作るんであれば、そういうこともやっていくべきではないかということが、僕のポイントだったんです。でも、樋口先生がおっしゃっていることと、原則それほど変わらないと思うんです。
【北川主査】  それでは、八木委員。
【八木委員】  シミュレーションは、やはり重要だとすごく思うのですが、実際に、今できていることは、データ同化、例えば、微分方程式の次数が変わるレベルぐらいの変形はできるかもしれないけれども、現実に表現できないような、非常に不連続なものは、実は、難しい問題かと思います。
 例えば、CFDとか、流体のシミュレーションを考えると、こういう部屋をシミュレーションしようとしても、そんな簡単ではない。
 だから、モデル化が一番難しい話で、どう、実世界をモデルの中に取り込むかというところが、最大の難しさだし、例えば、屋内だけでなく、外気温から受けたものも、全部モデル化していないといけない話です。
 モデル化は、全部、現実には近似形でしかないと思うのですが、その部分で特に不連続なところを、データサイエンスがモデルを導き出してくれるような流れができたら、本当は一番理想でしょう。少なくとも、人間に何か気付きを与えて、人間がそれをモデル化していければいいいですが、そこのところ、上田さんは、どう考えですか。
【上田委員】  まさにシミュレーションというのは、当然、そういう広い意味も持っていまして、いわゆる専門家が、今までの実験データを見て、あるいは、自分の信念みたいな理論、例えば、アインシュタインの宇宙論など。それが、宇宙の加速膨張につながるというようなことも、信念で言い切って、その後、超新星を見付けた人たちが、それを実証したということなのですが、あれもシミュレーションを援用していればもう少し効率よくモデルは作れたかもしれない。
 だから、今の数学者に足らないといったら、失礼な言い方ですけれども、やはり、理論だけで、それと、少ない観測データで理論を物語ろうとしても、なかなか効率がよくないので、数学者がそういうシミュレーションもうまく使えるようになれば、より優れた発想が生み出されるのでは。今、子供たちが、もうパソコンで教育を受けるようなものと同じです。
 だから、そういう意味を含めて、シミュレーションが、1つの研究の中に入り込む、スタイルの中に入り込むという意味で、いわゆる従来のシミュレーションという意味とは、ちょっと違うのですけどね。
【北川主査】  栗原委員。
【栗原委員】  私も物質科学の方からすると、全く同感でして、もちろん、社会現象のようなものは、現象の全体のルールを求めるというので、最初、言われたような情報への期待があると思います。でも、今、自然科学でも、情報に対する期待はすごくあり、いろいろつなぎたいと多くの人が思っていると思います。
 1つは、データを並べるようなデータ処理的なことがあると思います。もともとあるような、例えば、物質を変えて、融点を多数並べるような意味でのデータを並べて、読み取る。別に融点を並べてもしようがないかもしれないですが、膨大であると、目では読み取れないけれども、情報を使えば、簡単に読み取れるような扱い方だと思うのです。
 もう一つは、今、地震の例を出していただきましたけど、シミュレーションをしようと思うと、全部シミュレーションを、なかなかし出し切れないとか、理屈も部分的にはあるけれども、全体を通した理屈がないものを、どうやって理屈がつなげられるかというようなところで、全部の理屈が分からないとつながらないけれども、情報を使うことで、何か点がうまくつながっていって、いい形で論理がつながるというような意味でできると、非常にいいのではないかと思います。
 少し話は変わりますが、私のような少し外部的なものがシミュレーションをやりたいと思ったときに、シミュレーションが始まったころの論文には、何々モデルを使ってこのシミュレーションはされましたということしか書いてないことがよくあって、門外漢には分かりづらかったのですが、今は、どういうふうに近似をして、どういう計算するとか、どういうふうにパラメータに対しては確認していますというようなことを提示した論文となってきています。
 これから、情報科学を使うのでしたら、何かその使い方の例がみんなに分かる、どの部分が、どういうふうにつながっているんだということが分かるような使い方の例が出てくると、多くの人に広がっていくのではないかと思っていて、できれば使いたい方からの希望として申し上げます。
 それは、1つは、シミュレーションのようなところから、どういうふうに情報を取り上げて、例えば、物理シミュレーションと実際の被害をどうつなぐかというような、あるいは、地震が起こるところをモデル化するのかもしれないし、パラメータをとってくるのかもしれないんですけれども、というようなことを少し思っていたので、今回、何か似たような観点の話題が出てきたので、発言させていただきました。
【北川主査】  何かあります?
【喜連川委員】  上田さん、今のものに何か一言。
【上田委員】  今、ちょっと全体的に、例えば樋口先生から頂いたコメントなども、データ同化ということは、もちろん、樋口先生の統数研の真骨頂というか、お家芸だと思うのです。
 やはり、これも、地震データで、京大の地震研のシニアの先生といろいろ議論をした中で、いろいろ聞いたところ、やはり、非定常といいますか、急激な現象には、今のカルマンフィルタベースのデータ同化は難しいと。
 データ同化は、やはり、シミュレーションとモデルの橋渡しの技術として、レガシーの技術として、一応ちゃんとあるのですが、それを現実の複雑な現象に適用できるよう、どう発展させていくかということが、このシミュレーション科学というような領域なのかと。
 だから、まだきちんと解は出ていないのですけれども、一つ一つの事例として、ああいう例と……。ちょっとまだきょうはお見せできていませんけれども、今度、地震学会がウイーンであるので、発表するような話でも、これは、先生たちが作ってきた地震発生のモデルです。これは2016年には論文が出ているのですけど、まだ100年ぐらいの誤差があるのです。
 例えば、南海トラフの地震にしても、それを実際シミュレーションしたら、過去のデータに合わない。これを今2桁ぐらいの精度まで上げています。。これも、使い方は非常に簡単で、回帰と分類のニューラルネットワークをうまく組わせて解いています。
 余りテクノロジカルには、とがってはいないんですけれども、DNNを駆使することで、そういうことはできているということなので、一つ一つの事例で、あ、そういうことがシミュレーションを使いながらできるのかということを示していくのかなと。
 それは、余りトップダウンに、何か理論だとか、何とかで言ってしまうと、結局はきれいにならないといけないので、何もできない。だから、こういう領域を考えるときには、問題を先に考えないといけないかなと。
 地震研の人が言われていることは、とにかく十数年ぐらいの誤差で、発生が当たらないといけない。当たるということは、過去のデータで、ちゃんと実証できるということが、過去が当たっているなら、将来も当たるということなのですけど、そんなようなゴール感ですよね。
 だから、先に対象分野でのゴールが明確に定めるというようなアプローチが重要かなという。そうしないと、なかなかきれいな理論は、そう簡単に作れないので、いつまでたっても、未完成と言われてしまうので。
【北川主査】  次は國井委員、お願いします。
【國井委員】  上田さんの方向については、同感です。質問ですが、社会科学者との連携や、課題ドリブンで進めることは、極めて重要だと思います。量から質への転化ということが考えられ、社会科学でも、もっとデータを使って、今までと全然違うレベルで、いろいろなことが可能かと思いますが、その点はどうですか。
【上田委員】  それもおっしゃるとおりで、インダストリー4.0ということで、ドイツは、社会科学者が1,000人から2,000人ぐらいいるそうです。つまり、AI社会ではどういうふうに産業が変わるかだとか、雇用とか、そういうような泥臭い話だけではなくて、何か社会全体がどうかわるかの分析です。
 日本は社会科学者がほとんどいないそうなんですよね。だから、そこは別の課題として、一方で、そういう研究を立ち上げていく。例えば、地震は関係ないですけれども、もう少し自動運転だかとか、ああいうようなシステムが出来上がったときのいろいろな影響とか、そういう議論をドイツが先行的にやっているのは社会科学者がたくさんいるからですね。おっしゃるとおりです。それは、両輪で、そういう研究も必要だと、同感です。
【北川主査】  どうぞ。
【瀧主査代理】  ちょっと本質的な問題になるかと思いますが、シミュレーションの正確性にしても、学習の正確性にしても、いかにいいデータを集めるか、あるいは、正確にするかが重要です。
 先ほどの社会科学とも関係して、変なデータを集めると、それで、学習したもので、社会に害を及ぼすなどということがあって、データをもうちょっときっちり考えるというところの研究も要るような気がします。
 例えば、シミュレーションで出てきた結果が、実際と合わないということは、元々、初期条件で与えているようなデータとか、あるいはパラメータのモデルとか、そういうところが不正確なわけですよね。それを合わせていくということが必要です。
 合わせるところに、いい機械学習を使うということもありますが、その機械学習で合わせるところも、やはり、データが不足していると、いつまでも合わないような気がしますので、ディープラーニングがありきと考えても、データをもっときっちり考えるという研究をしていただきたいなと思います。
【上田委員】  それは非常に貴重な御意見でございまして、実際、理研AIPで、登録データメガバンクのコホート研究で、福島の数十万人のデータのキュレーションを機械学習でやる。そういう貢献を、最近やっているんです。
 おっしゃるように、やはり、医療データなど、ああいうものは、かなり書き起こしのミスだとか、非常にアウトライヤーのデータがいっぱいあるので、キュレーションしないと、できないような技術で、それを手でやっていると、なかなか大変なので、そこは、割とレガシーな機械学習技術ですけれども、そういうキュレーションをやるというようなことも、手掛けておりますので、それの前処理的には、非常に重要な研究だと思っています。
【瀧主査代理】  ありがとうございます。
【北川主査】  ほかに何かございますか。
 八木委員。
【八木委員】  機械学習は、基本的にアンサンブル平均的な話として、統計的な考えが多いではないですか。でも、現実には、社会の問題を見ていくと、継時的な変化がすごく大きなおもしろい問題になってくるけれども、今のディープラーニングは、余り、得意な世界ではない。
 そういう問題は、今、どう考えておられるのか。特に、今、医療の問題などにしても、やはり、時間の中での扱いが、すごく必要だと思います。
【上田委員】  なので、おっしゃるとおりで、だから、抽象化したシンプルな問題設定にして、“何とか研究”といってしまうと、もう、現実問題は全部対象外になってしまいます。
 だから、具体的な解くべき問題をいかに明確化するかということです。そのときの精度だと、ゴールがはっきりしてくれば、それを1つの技術で、1つの理論ではなくて、どう融合して、それを解くかというふうに考えるということは、このデータ科学シミュレーション的な研究のアプローチなのかなと思っています。まず、問題が先にあるということが大事なのかなと。
【八木委員】  問題の中でも、特に時間変化の経時的な扱いというものが、もっと積極的に使われると、また新しい違いが出るのかなと思います。
【上田委員】  そうですね。
【北川主査】  ほかに。
 樋口委員。
【樋口委員】  おっしゃるとおりだと思いますが、伝統的に機械学習、統計もそうですけれども、時系列とか信号を取り扱うところが、余り得手でないコミュニティなんですね。
 一方、信号とか時系列というものは、北川先生の時系列モデリングとか、あるいは信号処理の分野が非常に強いので、そのコミュニティを離れているとか、ちょっとセパレートしているところに、問題が1つはあるかと思います。
【八木委員】  何かそういうところをうまく突くと、違う世界がまた。
【北川主査】  ほかに何かございますか。
 では、最後に。最初に喜連川委員が言われたので、同じような話なんですが、ディープラーニングが、すごい応用が発展して、そこで、少し問題点が見えてきて、例えば、データの問題です。それで、シミュレーションをやるというような動きが出て、それは、かなり成果を上げていると思うんですが、やはり、そのときに、社会的課題……。先ほど、喜連川氏もちょっと言われたんだけど、課題が自然科学寄りのところに寄ってきているんではないかと思うんです。
 だから、本来のいろいろ情報科学技術として、問題のところに使える方も大事ではないかなと、個人的には思っているんです。
【上田委員】  そうですね。だから、冒頭で少し言いました避難誘導の最速避難誘導など、ああいう問題は、50年代に一応言われているのですけど、解けていない。もっと現実社会に沿った問題設定をするということが大事だと思います。
 ただ、今は、どちらかというと、多くのサイエンティストの人たちが、我々に寄ってきて、何かできないか、何かできないかと、そういうことを日々受けているので、一応、できないということはしゃくなので、何かやっているという感じですが、おっしゃるように、余りサイエンスに偏るだけではなくて、現実問題をやるということは大事だと思います。
【北川主査】  ありがとうございました。
 とりあえず、よろしいでしょうか。
 辻委員、よろしくお願いします。
【辻委員】  まとめの最後のところに「日本が強い自然科学領域との密な連携云々」とあるんですが、具体的にはどういうことでしょうか。
【上田委員】  これは、例えば、iPS細胞で、CiRAがアルツハイマーの創薬ターゲットを見出そうとしている。シャーレ上にいっぱいiPS細胞が出来上がるので、これがシミュレータになるのです。いかに1,200の今認められている薬の成分を組み合わせることで、アルツハイマーの治療につながるターゲットが見出せないかという研究です。
 人間ではできない。そうかといって、マウスとかでやっても、話によると、九分九厘アウトだそうです。マウスで効果があっても、人間では全然効果がないというケースが多い。そのため相当な無駄が生じる。で、iPS細胞を1種のシミュレータとみなしてやるというようなことが、自然科学領域でのシミュレーション研究になります。
【辻委員】  ほかにも、あるんですか。
【上田委員】  はい。マテリアルなんかも、結構そういうアプローチでやっています。
【栗原委員】  今までの言葉から考えますと、日本が強い自然科学領域というのは、いいデータのある領域で、なるたけ、レベルが高くて、それを連携して、新しいアプローチで更に進むと、世界トップの研究ができる領域であったり、もう変換できるというぐらい質のいいデータがあるような、領域ということだと思ったのですが、どうでしょうか。
【上田委員】  はい。それに近い領域だと思っています。
 この辺は、とにかく勝てるのかというような問いに対して、やはり、強いところで勝負していくということは、まずあるということの一環です。
【北川主査】  どうもありがとうございました。
 それでは、上田先生関連の質疑は、一旦、打ち切りまして、次は、有村委員から、プレゼンをお願いします。
【有村委員】  北海道大学の有村です。本日は、北川先生から発表の機会を与えていただき、ありがとうございます。始めます。
 今回、北川先生から情報科学技術の研究開発の方向性について課題を頂き、まとめてみました。私の立ち位置としては、1990年に大学院修士課程を出まして、その後、情報の分野に進み、その間、機械学習とデータマイニング等のアルゴリズムの研究を行っています。並行して、北大のグローバルCOE等の異分野融合に関する教育研究プロジェクトのリーダーをさせていただきました。最近では、計算機ハードウェア分野の方々と、機械学習ハードウェアの共同研究プロジェクトに参加しています。
 2010年代に入ってからビッグデータと人工知能について注目が高まって来て、今後の方向性についてさまざまな議論があります。ただし、いろいろな資料を見ても、見れば、見るほど分からなります。ただし、機械学習技術に代表されるいわゆるデータ志向の人工知能技術が先端情報技術の重要な一部であることは誰も疑わないと思いますが、人工知能と先端情報技術の今後を考えると、わからない点がたくさんあります。
一つは、今後、人工知能技術に関してどういう研究方略を立てて行けば良いかという点です。これには、難しいところがあり、そもそも、人工知能とは何かという議論は、まだ明確な答えに収束していないのが実情です。もう一つは、この場の議論にそぐわないかもしれませんが、一般にGAFAと呼ばれるような巨大IT企業等が、アカデミズムとは別なところで、先端情報技術に関する非常にインパクトのある結果を出しているという現状があり、それをどう捉えるべきなのか。産業としてはGAFAとの技術競争を行なうべきかという議論がありますが、一般研究者としては、人工知能と先端情報技術の未来として、彼らが目指すのと同じ方向を目指すのか、別の方向を目指すのかしかないのかをどう考えるべきかが、問題となってきます。
 スライドの2ページ目をご覧下さい。そこで、今回の私の立ち位置として、にわか歴史家として、データ志向の人工知能の源流である1990年代から現在までを振り返り、今後の人工知能技術の方向性を議論したいと思います。一部の議論は、2007年に、JSTのCRDSで「大規模データから知識獲得」に関する調査と戦略ワークショップ実施のお手伝いをした際の経験を含んでいます。ただし、2007当時は、ワークショップのどの話題提供者も「大規模データからの知識獲得に基づく情報処理」という概念は今後重要になると予測していましたが、一方で、その中核技術やキラー応用については意見が分かれており、明確な合意はありませんでした。一方で、2010年以降のクラウド、ビッグデータ、データサイエンス、人工知能とつづく動きの中で、現在2018年の状況は、ディープラーニングという分かりやすいコア技術が出て来て、同時に、機械学習と数理統計というコア技術と、ビッグデータによるデータへの関心、クラウドによる計算能力の供給がそろって、人工知能技術に関して楽観的な見通しをもっているように思います。
 今回のAIブームのことを「第4次産業革命」と呼ぶ方もおられますが、単なる発明によるだけでなく、それ以前の技術的と社会的な背景が準備された上でのイノベーションとして、今後の人工知能技術を考える必要があるかと思います。私自身が、1990年代から現在まで研究に携わってきましたので、単なる資料情報だけでなく、私自身が情報技術に関わった経験を通して、今のGAFAと人工知能の必然と偶然は何かを考えつつ、情報技術に関する事例と歴史を見ていきたいと思います。マーク・トウェインによると言われている言葉ですが、「歴史は繰り返さないが、韻を踏む」と言われているそうですが、同じことは起きないが、ヒントにはなるということで、議論のたたき台になればと思います。
 まず、これからの人工知能の方向性を考える上で、現在の人工知能技術が発展のどのような段階にあるかを仮定して議論する必要があります。スライドの3ページ目と4ページ目をご覧下さい。これは、最近のベストセラーで、Scott Gallowayさんという投資家出身で、大学教授をされている方の “The four:The Hidden DNA(略)”という本の図を参考に描いた図です。趣旨は、企業は、大体、起業期・成長期・成熟期・衰退期の4期にわたって発展し、終わっていく。この人は投資家、経営者なので、企業そのものだけでなく、どういう人が過程を進めるかに興味があって、最初が、アントレプレナー、次にビジョナリー、CEOまたはオペレータ、最後はプラグマティストです。
 ちょっとだけ説明すると、アントレプレナーというのは、会社が始まる前の段階では、夢を作り、語り、売るということが必要で、2番目の成長期というのは、うまくいくことが分かった時点から、科学技術、組織、人で、大規模に運転可能な仕組みを急速に作ること、一旦大きな組織ができると、リスクよりも安定で大規模に運転し、最後は、新規技術開発はせず、現実主義で撤退戦を生き抜くそうです。これを、人工知能技術、例えば、ディープラーニング技術に当てはめて考えると、技術の将来予想と研究開発戦略目標を立てるには、現在、どこにいるかの仮定が必要なことがわかります。データ志向の人工知能技術が、現在は起業期にあるならば、多くの科学者・技術者が多くの多様なアイデアを追求することが重要になるし、成長期で、いくつかの中核的なアイデアが生き残っていることが見えて来ていれば、大規模な研究開発プロジェクトによりそれらに資源を集中することに意味があるかも知れない。
 夢は、電気自動車か蒸気自動車かということは、蒸気自動車よりも、電気自動車の初期は盛んで、後で内燃になったんだそうで、そういうことで、ちょっとこれはどこなのかなということを見ながら行きましょう。
 2番目のポイントは、上田先生と樋口先生、ほかの先生等のお話を聞いて、気が付いたのですが、人工知能技術の今後や必要な対応について議論する際に、人工知能技術としてどのようなものを想定するかについて、一般の方についても、専門家についても、まだ社会的な合意ができていないように思われる点です。現状認識として、上田先生が言われたとおり、今は、ディープラーニングあるいは他の機械学習方式の基礎研究が進む一方で、応用成果もかなり出て来ており、一種の踊り場状態にも見えて、全体としては人工知能技術は、機械学習を中核として最初の成功をおさめたと言えるかと思います。
この場合に、今後の人工知能技術についての議論には、積極的なものと慎重なものの両方があるように見えます。スライドの5ページをご覧ください。現在、研究されている中核技術がスライドの左側に書いてある「1. 機械学習アルゴリズム」です。
ここで、第一の積極的な考えでは、現時点でこういうことができるんだったら、遠い未来に、人間がするような難しい仕事を出来るような、人間を超える人工知能もできるのではないかという考えです。これが、スライドの下側に「3. 汎用AI」と書いてあるところに対応します。これにもとづいて、いわゆる「汎用人工知能技術」のような研究開発の方向性を考えたり、その社会的な対応策を考えます。比較的遠い目標です。
もう一つの慎重な考えは、人工知能の今後の方向性として、1990年代までにもあったレガシーで複雑な巨大システムの中に、機械学習とデータ志向の人工知能技術が入っていくというものです。すなわち、いわゆる「AIシステム」が出現することが、今後の技術と社会におきる重要な出来事であると予測します。こちらは、スライドの上側に、「2. AIシステム」と書いてあるところに対応します。この方向の技術戦略としては、これらの新しいシステムを社会で安心して使用するためには、現在の人工知能技術とレガシーシステム側にどのような技術や要件が必要かを調べ、われわれはそれらを研究開発していくことになるかと思います。比較的近い目標かと思います。
後者のAIシステムについての具体的な例をあげると、1980年代以前の新幹線の予約システムであるとか、大規模プラントの制御システムとか、自動車等の移動体の電子制御などでしょうか。これは、以前、制御関係の仕事をされていた方に伺ったのですが、多くの要素が相互作用する大きなシステムでは、中核にきれいな制御理論を入れている場合も、場合によっては、非線形の関数を扱ったり、完全な理論がない対象を扱うことも往々にしてあると。しかし、現場の人にはすごい技術や経験があって、それらが暴れたり、非線形な挙動で予測できなかったり、想定外の動きをするときに、どうやって押さえ込むかというと点について、周りに、例えば、ハーネスを作るであるとか、何かそういうブラックボックスと思ってコントロールするとか、いろいろな方法でやってきたのだそうです。
単なる類比ですが、この話は、最近「AIシステム」と言われているものにも当てはまる話だと思います。つまり、現在の機械学習技術から「AIシステム」への発達には、中核技術・システム・社会・のさまざまな次元で、広義の技術開発が必要だと想像されます。実際に、そのような動きが世界的にもあります。少し飛んで、スライドの19ページをご覧ください。米国で「パートナーシップ・オン・AI」(「AI技術に関する連帯」)というコンソーシアムが数年前に発足しています。
 次に、ここにおられる先生方はよくご存知のことで、これは釈迦に説法かと思いますが、これから1990年代から現在までの先端情報技術の発達の歴史を駆け足で見ていきます。スライドの7ページから9ページをご覧ください。ここでは、特にGAFAと呼ばれる米国巨大IT産業を、情報技術と情報社会の変革の目印として見ていきます。このGAFAは、現在、時価総額が11月現在、米国で1、2、3、5位の巨大IT企業の頭文字です。一言でまとめると、これらの企業はデータを利用し、先端ITと人工知能技術を多用したサービスを提供しています。ということになります。これらの企業は、ウェブ検索と、個人相手の電子商取引、ネットワークコミュニティ構築(SNS)の利用に関して、世界的にも非常に大きな割合を占めています。
 このGAFAの技術基盤とは何かというと、先のScott Gallowayさんの本によれば、私の言葉を補っていうと、企業活動で蓄積された膨大なデータを活用して、統計分析、最適化、人工知能についての3世代にわたる研究に基づいた事業を行なっており、いわゆる「AI人材」が多数働いていると言っています。ここで、「AI人材」とは、一般的な定義はありませんが、私の方で仮に定義すると、機械学習や統計学に代表される数理の能力と、プログラミングに代表される計算の能力が高く、ビジネスやサービスに代表される実世界の活動に興味を持つ人材」という意味で使っています。
 で、遡ります。ここにおられる先生方は非常によく御存じと、私は思いますが、役目ですので、説明します。
 スライドの10ページをご覧ください。1930年代から現在までが、実際の計算機の歴史と申してよいかと思います。1930年代から1940年代に、ストアード・プログラム内蔵方式の電子計算機が登場しました。科学者のアラン・チューリングやフォン・ノイマンが関わり、電子計算機に、先行していた万能チューリングマシンのような理論的アイデアが合流して、今の計算機が出来た。それから、1950年代から1960年代には高級言語とOSが出てきて、1969年頃にUNIX/Unixという現代的なOSが登場します。おもしろいことは、現在のスマホの使用OSであるiOSとAndroid等は、いろいろな経緯を経て、このUnixから派生している。次に、1971年頃に、インテル4004という、全ての機能が1つのチップに入ったマイクロプロセッサが登場します。
それから、1974年頃に、ロバート・カーン氏とヴィントン・サーフ氏が、インターネットの中核プロトコル、TCP/IPを発明した。次に、1977年にApple社のスティーブ・ウォズニアック氏が、全てのソフトとハードウェアが1つの箱に入り、全ての入出力や起動用モニタプログラムも入って、電源を入れれば動くような、初めての個人用コンピューターが登場しています。1990年に、欧州CERNのティムバーナーズ・リー氏がWWW、ワールド・ワイド・ウェブを発明しました。これは、HTTP、HTMLの3つの基本技術を導入し、当初Webページの閲覧のために使われていたんですが、2000年以降、現在はかなりのインターネット上のウェブサービスはこの3つの基本技術を利用して動作しているそうです。これらが、GAFA以前の情報技術の発展の一部です。これらは、GAFAに限らず、今の時代の情報システムのほとんどが利用している情報インフラと言って良いかと思います。
1990年代半ばから2000年代半ば以降から、ウェブ検索サイト、計算端末としてのスマートフォン、クラウドが出現します。1998年頃にGoogleが設立され、1994年頃にAmazonが設立、その後、AWS(Amazon Web Service)というクラウドサービスを開始します。2004年頃にFacebookが設立されます。Apple社は1970年代後半に設立されていますが、2000年代にスマートフォンを世に出します。これらの企業は、当初の企業活動を次第に拡大しつつ、様々な研究開発テーマと、同時に、さまざまな分野の研究者とエンジニアを取り込みながら、成長しています。Googleについては、検索、機械学習、自然言語、計算機ハードウェア、クラウド、ストレージ、地図、スマホのOS、コンピューター囲碁、自動運転と進んでいます。Amazonに関しては、書籍のネット販売、ユーザーレビュー、推薦(機械学習)、ロボット、量販、物流、コンビニと対象を拡大しています。このように、いわゆるGAFAに代表される巨大IT産業が成長してきました。私自身の研究分野の周辺でも、さまざまな分野の研究者が、これらの企業に参加していることを実感してきました。
 このようにみてくると、いわゆるGAFAに代表される先端IT産業や、人工知能技術も、一つの技術だけでなく、スマホとクラウド、インターネットとウェブ、そして、機械学習技術のような、計算パワーと、データ、処理技術の三つが揃い、2010年代に一般にも広く利用できるようになって初めて、社会に大きなインパクトをもたらしたことがわかるかと思います。産業革命との類比でいうと、例えば、なぜ英国で最初に蒸気機関が広く利用されたかといえば、その理由として、無論技術開発があり、賃金が非常に高く、かつ石炭が安く、技術を普及させる厚いエンジニア層がいたからだという話があるそうです。いわば、2010年代からの人工知能技術に代表される情報技術の普及に関しても、2000年以前の蓄積がそれを準備したと見ることができます。あとは、この観察に基づいて、これからの人工知能技術の方向性を見ることができると良いのですが、これは難しい宿題です。
 次に、人工知能技術の現在について、簡単な調査報告をします。上田先生のご報告が正確なので、こちらはお話程度に聞いてください。スライドの14ページをご覧ください。昨年12月に米国で開催されたNIPS2017国際会議および今月札幌で開催されたIBIS2018ワークショップを調査してきました。このNIPS2017の参加者は8,000人で、前年から2,000人増えており、今年のNIPS2018はより増加が予想されるそうです。IBIS2018は、情報論的学習理論ワークショップと言い、今年で第21回目を迎え、今年の参加者数は約500人だそうで、国内最大の機械学習に関する研究集会です。
 スライドの15ページをご覧ください。現在の機械学習技術は、統計と、最適化、人工知能、データベース等が一体化したものといえます。この機械学習技術の始まりは、諸説ありますが、1959年のサミュエルのコンピュータ・チェッカーのプログラムにさかのぼると言われています。これは、アマチュアの人間に勝っております。その後、1960年代から1980年代と研究が続き、CARTやID3のような決定木学習アルゴリズムが、現実に役立つ最初期のプログラムと言われています。ただ、当時は学習アルゴリズムの扱いが難しく、理論もあまり解明されていませんでした。90年代半ばに入ると、飛躍の年になります。データベース分野でデータマイニングブームが起き、多様な分野の研究者とエンジニアが参加します。ブースティングとSVMという高性能で、使い勝手が良いアルゴリズムが出て、一躍、様々な応用に機械学習アルゴリズムが安定して使われるようになりました。
2000年代から2010年代に入ると、画像や音声等の解析競技会で、ディープラーニングが非常に優秀な成績を示すようになります。また、Google Brainの「猫画像」論文が話題になりました。先に上田先生が言われたように、そのときまでボトルネックだった人手によるデータの特徴の設計が、ディープラーニングによって、データからある程度自動的に行える見込みが出てきて、一気に興味と普及が本格化します。2017年には、Google Deep MindのAlphaGoが世界トップレベルの棋士に勝利し、ディープラーニングの自動運転等の応用にも盛んに適用されて、現在に至るということになります。
 次に、機械学習技術、とくにDeep Learning技術の現在をみます。スライドの16ページをご覧ください。ディープラーニングは、人工知能基礎技術として安定した地位を築きつつある。大規模データ処理に、非常に安定して、機械学習が使えるようになったことは、やはり、ディープラーニングの大きな功績といえます。とくに、画像解析やメディア処理のような目や耳としての用途には、安定して広く応用されています。さらに、これも上田先生が詳しく話されましたが、ディープラーニングを中核技術としたキラーアプリというか、ある種の応用アルゴリズムが出てきた。昨年のNIPS国際会議でも、GANのような応用アルゴリズムの発表に非常に人気がありました。
次に、経験が蓄積して、一方、理論解析でも、ディープニューラルネットが見掛けに寄らず、意外に安定していることがわかってきた。さらに、新しい世代の人工知能応用では、ディープニューラルネットを、単にデータから、非線形関数を非常にうまく近似する万能近似器だと考えようになってきています。NIPS会議の参加でも感じたのですが、かなり多くの研究者が、ディープニューラルネットを非線形関数の万能近似器と考えて使っていこう、その上に物を載せて、上位のシステムや方法を作っていこうとする動きが進んでいると感じました。
いいかげんな歴史の類比で恐縮ですが、現在のディープニューラルネットワークの出現というのは、固定配線プログラムの電子計算機が、プログラム内蔵方式になってどんなプログラムでもソフトウェア的に実行できるようになったことに対応するのではないか。つまり、従来、システムのふるまいを、その多くは非線形なものを、人間が手作業で構成してたものを、所望の非線形関数をデータから覚えさせてシステムに組み込めるようになったのではないか、と言えるかもしれません。
その他、ディープラーニングの基礎研究に関して、学習アルゴリズムの計算方法に、最適化の専門家が多数参入し、非常に進んでいる印象があります。また、グラフや時系列等の多様なデータに拡張する試みも盛んで、例えば、去年のNIPSのチュートリアルでも “Graph Convolutional Neural Network”は人気がありました。最後に、今回、調査して印象的だったのが、最近、ディープラーニングがなぜ予想外に実際にうまく働くかということに関して、2010年を過ぎて地道な良い結果が出始めていまして、しかも若い方々が、それを進めていることです。
ちょっと宣伝しておくと、これらのディープラーニングの理論的な解明に関して、我が国と我が国出身の優秀な若手が素晴らしい結果を出しています。IBISでも、何人か講演を伺いまして、例えば、多数の中の少数サンプルですが、AIPや、統計数理所、海外ではMITの方が活躍しており、心強く思いました。話が脇道にそれますが、情報と数学の連携分野については、NIPS国際会議やIBISワークショップ等の学会でも、微分幾何学や情報幾何学、計算代数等の数学的な話と機械学習が密接に関連する研究成果が出てきているようです。
 最後にまとめると、現在の機械学習は、大体、予測アルゴリズムと考えますと、基本的にはデータから、関数を推定・近似するブラックボックスと思っていい段階に来た段階ではないか。これは、人類が初めて手にした万能関数近似器ではないかと思います。先に、情報技術の歴史を概観しましたが、ハードワイヤで配線して、計算するハードウェアコンピューターではなくて、データとプログラムを同等に扱う現在のストアドプログラム方式の計算機が出たことで、今の爆発的な情報の世界があると思います。
 もしかしたら、現在のディープラーニング技術は完全ではないとしても、人間が書かなくても、データからそういう非線形関数をチューニングして求められる、便利な道具が出たんではないか。素人にも使える道具が出たんではないかと、楽観的には理解しています。   
一方で、現在の人工知能技術が抱える問題も出てきています。機械学習の得意な局面は予測ですので、現況として、ディープラーニングは推薦や顔認識等の比較的簡単な応用で使われて大成功している。うまくいったのでさまざまな応用に適用しようとすると、いくつかの応用は、実は現在の機械学習には非常に難しいタスクを含んでいる。例えば、機械学習は予測に特化しているので、重要な判断を任されたり、社会的規範を守りつつ予測したり、あるいは、複雑巨大システムの部品として、他の部品と強調して動作することに関しては、まだ経験不足と言えます。そのような理由で、今後「データに基づく人工知能技術」の研究開発を進めていくには、機械学習にも予測精度だけではない、何か他の機能や制約が要るのではないか等、いろいろな問題が急に分かってきたのが、この数年であるかと思います。スライド19ページでふれた “Partnership on AI”というコンソーシアム設立の動きなども、この方向で議論が動いていくことの表れかと思います。
今後については、まだ我々には未体験の領域ですが、機械学習アルゴリズムや、「データ志向人工知能技術」が何らかの形で、非線形なふるまいをもつ巨大で複雑なシステムか、または、汎用の人工知能かはわかりませんが、そこに入り込んでいくことが想像されます。これがいわゆる「AIシステム」の論拠かと思います。
これは夢のような想像かもしれませんが、現実には、過去の歴史で万能チューリングマシンがCPUとしてここまで社会に入り込み、人間が様々な機械の動作をプログラミングできるようになっていることを考えると、その実現はそれほど不思議なことではないのかもしれません。将来的には、中核の機械学習技術だけでなく、その周辺に位置する現実システムや社会とのインタフェースにあたる学問や技術も必要になってくるのかなと思います。これは、学会だけでなく、産業界や一般社会と協調が必要な部分かと思いますが。
以上で、私の話は終わりとさせていただきます。話が長くなって済みません。ご静聴ありがとうございました。
【北川主査】  どうもありがとうございました。では、ディスカッションをお願いいたします。まず、瀧先生。では、その次。
【瀧主査代理】  AFAの話とリンクして、お話しされたと思いますが、特定の技術だけが、うまくどんどん発展するということは、なかなか難しくて、社会環境とか、いろいろそれをエンカレッジするようなシステムが要ると思います。それが、いわゆるネットワークです。ネットワークの世界で、しかもデータを集めることができるというものと、機械学習が引っ付いたので、こういうGAFAの世界になったと思います。
 ですから、例えば、GAFAがなくて、ディープラーニングだけが世の中にあっても、これだけ皆さんが注目して、広がらなかったかもしれません。ということは、今後、日本から出てくる技術も、広がる仕組みを何か考えていくことも重要という御指摘と思いました。
【有村委員】  ありがとうございます。今の技術は、ネットワークと機械学習の結びつきで発展したということですね。
【北川主査】  次は國井委員、お願いします。
【國井委員】  GAFAの話について、なぜ成功したかといえば、もちろん、トップが技術を理解していて、技術的にもリーダーシップを発揮していますが、経営学的にいえば、ビジネスモデルをクリエーションできた点だと思います。何度もビジネスモデルを変えてきたりもしてきていますが、やはり、新たなビジネスモデルを作れ、かつ、イノベーションの企業文化を作ったことが重要です。Googleなどを見ても、人事などいろいろな分野にPh.D.がいっぱいいて、非常に科学的にオペレーションをしています。
 AIだけではなく、システムの作り方に関しても、ソフトウエアエンジニアリングが進んでいて、総合的な力がある。インテグレーションができる。
 企業ですから、事業をいかに成功させるかですけれども、ほかの分野の人も広く取り込んで、課題ドリブンで進める。ここがキーポイントですが、日本は、そこは極めて弱い。
 ドイツはインダストリー4.0でsystem of systemsを非常に強化していますが、日本はそこも弱い。
 強い個別技術がいくつかあっても、多分、社会的インパクトがなくて、技術的にも、そうすると、なかなか評価されない。もっとほかのドメインの方を巻き込んで、先ほど上田さんが言われた課題ドリブンで、何かしていくというような流れを作らないと、研究も人財育成もうまくいかないということになるのではないか。
 社会科学の人ももっと巻き込まなければいけないですし、ほかの技術分野の人も巻き込む。特に、経営学をもっと巻き込まないと、厳しいと思います。
【有村委員】  ありがとうございます。
【國井委員】  喜連川先生は、別の御意見があれば。
【北川主査】  喜連川委員。
【喜連川委員】  でも、何ていうか、このGAFAのノミクスの話とか、今の國井委員の話とかは、重要なのかもしれないんですけれども、さんざん、みんな言っているので、今更これをやって、どうのこうのという話は余りなくて、今やるんだったら、もうむしろアリババ方面みたいな感じですよね。米国企業は、むしろデクラインしていますから。
 ここの文部科学省のこの議論の中で、何を今議論すべきかという視点では、先ほどの上田さんがクリアにおっしゃっていただいたことは、当たり前だといったら、当たり前かもしれないんだけど、3と4をくっ付けましょう。それがシミュレーションですと。ここは、まだ余りフォローはされていないから、やってみる価値……。それは、いろいろ意見はあるにしても、それは1つのメッセージ観をおっしゃられたと思う。
 有村先生は、いろいろ歴史観を丁寧に振り返っていただいたと思うんですけど、粗方、みんな知っていると思うんですよね。
【有村委員】  はい、そうだと思います。
【喜連川委員】  それで、そのリズムとして、同じことが起きたけど、リズムとして、その次、何を予見して、日本がどうリアクトしているのかということをお聞きしたいんです。
【有村委員】  喜連川先生、おまとめ、ありがとうございます。3と4を合わせて、シミュレーションが重要な課題だということは、実際、そうだと思います。どうやっていくかということは、非常に難しくて、それは最大の疑問点かと思います。
 これは科学技術ということではないかもしれないんで、スライド2ページ目の産業革命の本に書いてあることですが、例えば、蒸気機関の技術というものは、できて、100年以上掛かって広まっている。イギリスで、一番最初に広まるんですけれども、そのときに最も重要だったことは、発明されてすぐ広まるのでなく、英国各地のエンジニアの間で、互いの技術交流により、蒸気機関のエンジニアリングの知識がどんどん広がっていって、最終的に新規技術が広く定着していくことだそうです。しかも、発明された技術を使うだけでなくて、エンジニア自身がそれを改良し、受容し、科学的原理もある程度理解しつつ、需要が進んでいったということが書いてあるんです。
 私は、それが何か今の先端ITの話と非常によく似ているような気がしています。今のウェブ系やAI系の若いエンジニアは、例えばディープラーニングだとすると、そのときに、技術に関するかなりアカデミックな知識が、実際の技術の中に生きてきているんです。IT先端技術では、今までそういう使われ方が余りなかった気がします。このことから、人工知能技術を進める上での方向性として、先端情報技術の土台が非常に厚くなることが前提としてあり、その上で中間層として先端的なエンジニアリングを進める人がいて、研究が上の方にあるという、一種のピラミッド構造が、産業とは別に何か要るんではないのかと言う気がしています。日常的な例で恐縮ですが、将棋や囲碁の世界では、もちろん奨励会というトップがあって、名人が上にいる一方で、日本中の将棋や囲碁ファンの小学生がたくさんいて、それらの中から自然に上がっていくことで続いているというような構造が、自然発生的に出来つつあるのではないかと思います。
 今までは情報科学技術、その中でも特に計算機科学は、そういう「すそ野」のようなものをあまり持たなかったと思うのです。もしかしたら、最先端の研究戦略とは違うところかもしれませんが、中核とすそ野というふうな構成になったときに、どういう研究ができるのかが大事かもしれません。ご質問への技術的な回答ができなくて、すみません。
【喜連川委員】  いや、だから、先ほど、日本の若手で、随分新しい貢献がなされているとおっしゃられ、僕は、そういうことをお伺いして、すごく元気になったんです。
 一方で、やはり、先ほど、上田さんがおっしゃられたように、一番根っこのところが、ちょっと微妙にかすっているというようなお話もあって、何かブームになると、ばあっといくというところは、受験勉強でこなれた我が国は、結構やれると思うんです。
 だけど、一番根っこ、そこの根っこを追及される日本の大御所もおられたわけですが、それでも、十分ではなかったと言い出したら、もう切りがないと思うんだけど、逆にそこを日本がエンカレッジをしていくような風土を作ることが、大切なのではないかと
 今おっしゃられたように、ITの先端技術が使えるかなどは、そんなことは、多分、全然ないと思っていて、今年一番どぎも抜いたことは、やはり、Amazonが、うちのコンポーネントは、原則、全部ベリファイしていますという言い方をした。
 その前、先端的なネット企業というのは、ほとんど関数型言語を使うようになってきたと、通常の言語なんか、もはや相手にしていないというところというのは、多分まだ余り外には出ていないけれども、そういう意味で言うと、テクノロジーは、ばんばん使われてきていて、日本がビハインドしているだけのような気がします。
 ですから、我々からすると、AIは、まあまあ御苦労さんというところまで来たといったとき、次、どこを狙うんだというような話は、もっと何か真剣に議論をして、若い人たちに、フォロワーではなくて、もうちょっと先をやろうみたいな雰囲気を、何かAIPでも、是非やってもらえばうれしいと思う。
 僕らが一番やりたかったことは、余り手前みそになるかもしれないけど、上田さんに手伝ってもらって、うちのファーストを動かしたときに、あの頃、本当に何も考えずに、触覚から、是非マシンラーニングの人を頑張らせようと、上田さんと随分話していたんです。
 そうこうしているうちに、AIブームになり、もう動いてしまったので、逆に言うと、もっと前から、そういう何か嗅覚で進めていくべきではないかなという、何かそういう気がするんです。その辺、どうでしょうか。
【有村委員】  ご質問ありがとうございます。先端ITの大規模プラットフォームで、理論的成果を実際の情報システムに生かしていることは、大事だと思います。喜連川先生が言われたように、例えば、関数型言語のラムダ式といったオブジェクトというものをサービスの中に入れてやることで、関数型言語の検証や計算モデルを利用して、ハードウェアや他のユーザーの実行系と切り離された形で、機能を扱うことができたり、性質や昨日の静的な検証ができたりする。それがなぜ出てきたかというと、クラウドサービスだけの問題でなくて、その技術的前提として、ウェブなどの業界で一度できたシステムに後から機能を注入したいということがあって、C言語やJava言語というようなプログラミング言語にラムダ式といった機能が、別の目的で先行して入ってきている。例えば、ちょっと違う応用ですが、大規模データ処理で、Hadoopというのは、大規模データ処理のフレームワークで、MapReduceの後継で、アイデアは数学的なのですが、現代の大規模データはクラウド上に既に載っているので、いわゆるバッチ処理をするには、クラウド場で直接やらなければいけなくなってきて、そういう数学的モデルを利用して、データを集めながら、あるいは、流しながら計算すると枠組みが、不思議なんですが、主に産業界から出てきている。
 今、喜連川先生が言われたことは、重要だと思います。一つ前の技術世代では、別の分野になっているものが、新しい学問や技術を学んだ若い人たちが、彼らの感覚では区別のない一つの対象として、中核技術を元に個別分野をつなげて、新しい一つの領域をつくりだしている。さきの技術もお互いにつながり合っていて、例えば、大規模なクラウド上の解析計算をするということを中核に、我々が余り理解していない横断的な研究技術分野が1つできている。それが、研究者とエンジニアが協力することで、基礎的な学問分野に密接に結びついて、インパクトを与え得る。
今日は機械学習の話ばかりしましたけれども、喜連川先生が言われたように、きちんと探せば、非常に高度かつ現実的な要求に会う技術分野が、もしかしたらまだ多くあるのかも知れません。一方で、そのような領域が見つかっていないことや、発見した領域を学問化する方法、研究開発プロジェクトを組織して、研究開発を進める方法が、まだよく分かっていないのが現状でないかと思います。
【北川主査】  予定の時間が過ぎているんですが、この機会に、何か関連して、話しておきたいということがあったら、どうぞ。
【樋口委員】  私、アメリカの学会、統計に関する学会などに出ていると、フェアネスとか、インタープリタビリティー、アカウンタビリティー、トランスペアレンシー、リプロデューサビリティーということが非常に真剣に議論されていて、それへの1つの答えが、きょう有村先生から御紹介のあったディープラーニングの原理の理論的な究明というところにつながる、1つのヒントなのではないかと思うんです。
 今申し上げたような、例えばフェアネスやアカウンタビリティーとか、その辺に関しての理論的研究の動向について、何かありますでしょうか。
【有村委員】  スライドの22ページに”Fair AI”というトピックの具体的な事例があります。Fair AIは、データマイニングの分野でも、機械学習の分野でも、人気が非常にありまして、米国と欧州で、非常に真剣に研究されていると思います。少なくともこの2年間に開催されたIJCAI、KDD、NIPS等の先端的な知能技術の国際会議では、必ず機械学習の説明責任や透明性、公平性なAIというトピックが扱われています。国内では、産総研で早くから研究と啓蒙活動をされています。資料としては、KDD2016国際会議のチュートリアルが有用です。
【北川主査】  まだ発言されていない方で何かありましたら。よろしいですか。
 どうもありがとうございました。本日の用意した議題は以上ですけれども、ほかの件で、もし、どうしても御発言いただきたいということがあれば、伺っておきたいと思います。よろしいでしょうか。
 それでは、事務局からお願いいたします。
【齊藤情報科学技術推進官】  次回の予定、次回委員会につきましては、追って日程調整をさせていただきますが、今年度、今期については、残り2回程度を開催し、こちら、今、行っていただいている研究開発課題の方向性について、取りまとめていきたいと思います。どうぞよろしくお願いいたします。
 なお、本日の資料につきましては、机上に置いていただいたものについては、御送付させていただきます。
 以上でございます。
【北川主査】  それでは、これで閉会とさせていただきます。
 本日は有意義な議論ができて、ある程度、先の方向も見えてきたと思います.また,今後議論すべきこともあるということが分かったので、引き続きこういう議論をしていきたいと思いますので、よろしくお願いしたいと思います。どうもありがとうございました。


―― 了 ――

お問合せ先

研究振興局参事官(情報担当)付

電話番号:03-5253-4111(内線:4235)

(研究振興局参事官(情報担当)付)