次世代計算基盤検討部会(第5回)議事要旨

1.日時

令和3年4月21日(水曜日)10時00分-12時00分

2.場所

オンライン会議

3.出席者

委員

安浦主査、合田委員、荒瀬委員、井上委員、上田委員、海野委員、後藤委員、小林委員、小紫委員、田浦委員、常行委員、中野委員、根本委員、肥山委員、藤井委員、三好委員

文部科学省

杉野研究振興局長、塩崎審議官、橋爪参事官、宅間計算科学技術推進室長、西川参事官補佐、太田専門職

オブザーバー

富士通研究所大石氏、理化学研究所計算科学研究センター松岡センター長、HPCIコンソーシアム朴理事長、HPCIシステムの今後の在り方に関する調査検討ワーキンググループ高木主査

4.議事要旨

今回の議事は主査代理の指名等があったため、開会から議題2までは非公開。
議題1:主査代理の指名について
科学技術・学術審議会情報委員会運営規則第2条第8項に基づき、小林委員が主査代理に指名された。
議題2:議事運営等について
科学技術・学術審議会情報委員会次世代計算基盤検討部会運営規則(案)(資料3-1)、科学技術・学術審議会情報委員会次世代計算基盤検討部会の公開の手続について(案)(資料3-2)に基づき事務局から説明があり、承認された。

議題3:次世代計算基盤について
事務局より資料4-1、資料4-2に基づいて次世代計算基盤検討部会における今後の検討の進め方、スケジュール案について説明があった後、杉野研究振興局長より挨拶があった。
【安浦主査】 杉野局長、ありがとうございました。
ただいま局長からの御挨拶にもございましたように、次世代学術計算基盤という考え方で、いわゆるハイパフォーマンスコンピューティングだけではなくて、それを使うためのネットワーク、SINETとか、あるいは大量のデータを蓄えるデータ基盤の構築も含めて、この委員会では、前期から、議論をしてまいりました。「富岳」の前の「京」が約7年、現役で働いていましたけれども、「富岳」もそれくらいは頑張ってもらいたい。「富岳」の先についても、複数のスパコンとするのか、1台の大きなスパコンとするのかどうかも含めて、どういうふうに今後の計算基盤を構築していくのかというのが現在のこの部会のメインのテーマになっております。それで、いろいろな視点からの御意見を伺っているところでございます。
先ほどの事務局からの今後の検討の進め方、あるいは予定につきまして、何か御質問とかございましたらお願いいたします。御質問のある方は、手を挙げるマークで手を挙げていただければ、私のほうから御指名いたします。よろしいでしょうか。
特に、「富岳」級のものをつくるとなりますと、その準備から実際の設計、製造で7年、8年というのは瞬く間に過ぎてまいります。そういう意味で、この期の今から数か月で議論することというのは、10年先の日本における計算基盤の在り方を決める極めて重要なデシジョンになりますので、委員の先生方それぞれのお立場から忌憚のない御意見をいただければと思っております。
特に御質問はないようですので、それでは、本日は、アプリケーションに関して1つ、富士通研究所の大石様のほうから、シミュレーションとAIの融合についてのお話をいただき、その後、「富岳」を運用されています理研の松岡センター長、さらにはHPCIコンソーシアムのほうから朴先生にお話をいただくということにしておりますので、よろしくお願いいたします。
では、まず富士通研究所の大石先生からお願いいたします。
【大石オブザーバ】 では、私のほうから、「富岳」とAIを活用した津波の浸水予測について御報告させていただきます。こちらの内容は、令和2年度の「富岳」試行的利用課題として実施した内容になっております。
まず背景ですけれども、東日本大震災では多くの課題が残されたわけですけれども、その中の1つが、津波の予測の高速化や高精度化と考えております。特に津波の予測に関しては、沿岸の津波高に関するものが主なわけですけれども、より安全な避難に向けては、津波の浸水までも予測するということが必要であるというふうに考えています。
震災後、そういった課題もありまして、特にこの10年で、日本近海における津波の沖合における観測網というのが非常に発達してきています。こういった観測、リアルタイムで沖合の津波を観測できますので、そういった情報を使って、より高精度に、津波が来る前に、どういった津波が来るのかと、陸上にどういった津波が押し寄せるのかというのを予測するような研究が活発に進められております。今回我々のチームで取り組んだ内容としましては、震災後10年で数十倍まで高速化しているスーパーコンピュータと、また震災後10年で非常に発達した人工知能を組み合わせることによって、新たな津波の浸水予測というのを実施してみたという内容になっております。
今回構築したAIですけれども、こちらは沖合で津波を観測した情報を入力することによって、即時的に陸上における津波の浸水状況を予測するという仕組みになっております。こちらのAIを、「富岳」を用いてどのように構築したのかに関する御説明がこちらですけれども、まず「富岳」を用いまして、シミュレーションによって、大量の津波の発生状況に関するシミュレーションを実施いたします。まず、津波がいろいろなパターンで、いろいろな地震で発生するというものを入力することによって、シミュレーションによって、沖合でどういう津波が観察されるかと、そのときに陸上ではどういった浸水が発生するのかというものを多数、データセットを準備いたします。今回は2万ケースを準備してAIを構築しています。シミュレーションによって生成しましたデータをAIが学習いたします。こちらで、沖合の津波波形が観測されたときに、陸上にその後どういった津波が押し寄せるのかというものが予測できるAIを構築することになります。
AIの学習までは「富岳」を用いるのですけれども、AIですので、学習時には非常に大規模な計算パワーが必要なんですが、実際推論するときにはそこまでではないので、一般的なPC上でも予測が可能ということで、「富岳」で学習したAIを一般のPCに移植いたしまして、そちらで浸水を予測するということを想定しています。その一般的なPC上に沖合の情報を入れることによって、即時的に津波の浸水が予測可能になり、そういった情報を津波避難対策等に活用できるということを想定しております。
こういったリアルタイムで浸水予測するといった場合には、これまでは地震発生から、観測に基づいて、どういった津波が沖合で発生したのかというものを逆解析等によって推定して、それを入力条件として、スパコンを用いてリアルタイムに浸水シミュレーションをするといった検討もありますけれども、今回実施している内容としましては、地震の発生後に、観測された情報を入力することによって、一般的なPCであっても非常に高解像度な予測が可能になるというふうな仕組みになっておりまして、津波浸水予測というものに関していろいろな可能性が広がるのではないかと考えております。
「富岳」で実施した内容について、順を追って、簡単に御説明いたします。
まずデータ生成ですけれども、今回、南海トラフ域を対象としてデータを生成しておりまして、南海トラフの波源域と津波の波源をランダムに、大量に生成いたしまして、そちらを入力としたシミュレーションを実施することで、沖合で観測される波形と陸上の浸水状況というものの組合せを大量に構築しています。「富岳」を用いておりますので、津波のシナリオを生成するためのシミュレーションもかなり高解像度にすることができまして、一般的な自治体等のハザードマップでは10メートル程度の解像度でシミュレーションがされておりますが、今回は3メートルの解像度で、2万件のシミュレーションを実施することができました。こういった高解像度なシミュレーションをすることによって、こちらにお示ししておりますように、例えば建物ですとか沿岸線の構造物ですとか、そういった細かい地形の情報というのをシミュレーションに入れることができまして、こういった形で道路を縫って進んでいくような津波の挙動なども再現することが可能となっています。
こういった高解像度なシミュレーションによって、特に臨海都市部は複雑な構造をしていますけれども、臨海都市部での建物や構造物の影響による局所的な津波のリスクの高まりといったものを再現することが可能になります。この左側が3メートルのシミュレーションで、右側が一般的な10メートルのシミュレーションですけれども、建物周辺で津波が高まっている様子なども再現できるようなものを学習データとすることができています。
こういった学習データを「富岳」上で、AIによって学習するわけですけれども、お見せしているのは、左側の図が学習に用いていないシナリオのデータですけれども、それをAIによって予測した結果が右側でして、こういった形で高精度に予測することが可能になっています。
「富岳」上で構築しましたAIのほうを一般的なPCに移植しまして、予測するということが可能になるわけですけれども、こちらは、こちらのPC上の、GPUではなくてCPUを用いて予測しているものですけれども、こういった形で疑似的に観測データを入力して、どのぐらいで予測できるかというのを今5パターンぐらいお見せしているんですけれども、かなり高速に予測することが可能となっています。
構築しましたAIに対して、内閣府のほうで想定している南海トラフのシナリオを入力して、予測できるかというものを検証した結果がこちらでございまして、内閣府のほうで津波の波源が公表されておりますが、こちらを用いてシミュレーションした結果が左側でして、同じシミュレーションから得られる観測データを入力して、AIによって予測した浸水状況が右側でして、こういった形で高精度に津波の浸水を予測できるということを確認しております。
今回2万ケースという数のデータを「富岳」の計算パワーを使って学習することができておりますので、内閣府のモデルのほうの波高を3倍に大きくした場合が予測できるかというのを実験したのがこちらでございまして、想定外となるような、こういった大きな津波であっても、左側の正解データをよく再現するようなAIによる予測が可能であるということを確認しております。
先ほどお見せしたのは、津波の浸水の深さですけれども、津波がいつ来るかというふうな情報に関しても防災上重要なわけですが、その情報に関しても、こういった形で精度よく予測することができることを確認しております。
以上となりますが、今回「富岳」の高速性を活用することで、3メートルという比較的高解像度なシミュレーションを2万件実施して、津波を即時予測するAIを構築しております。3メートルの高解像度ですので、建物の影響ですとか、そういったものによって局所的に高まるような津波のリスクも評価できるようになってきております。構築したAIというのは、PC上で、数秒間で津波の浸水というのをリアルタイムに予測することができるようになってきております。今回「富岳」の試行的利用でやらせていただいておりますので、より大規模に使うことができれば、より多数のシナリオですとか、より高精度なAIの予測なども可能になるというふうに考えております。
以上となります。ありがとうございます。
【安浦主査】 大石様、どうもありがとうございました。ただいまの御説明に対しまして、御質問がございましたらお願いいたします。
【合田委員】 合田でございます。興味深い発表ありがとうございました。
今日の話は、いわゆる学習データをつくるところは津波の浸水シミュレーションをたくさん流すと理解したんですけれども、それはそれでかなり重たい計算になると思います。一方で、そういった津波のシミュレーションというのは「富岳」以外のスパコンでもかなりやられてきていると思いますので、将来的に、「富岳」だけではなくて、ほかのスパコンで流したシミュレーション、浸水シミュレーションの結果を集めてきて、学習データとして使うといったような御計画をもしお持ちでしたら教えていただきたいんですけれども、いかがでしょうか。
【大石オブザーバ】 具体的な計画はないですけれども、おっしゃるとおりでして、今回「富岳」を全系つなげて計算するといった大規模なシミュレーションをしているというよりは、多くのシナリオに対して、比較的高解像度なシミュレーションを多数実施するということを行っておりますので、ほかの計算環境もうまく活用することで、そういった想定できるシナリオを増やすというふうなことは可能であるというふうに考えております。
【合田委員】 どうもありがとうございました。
【安浦主査】 それでは、次、上田委員、お願いします。
【上田委員】 どうも説明ありがとうございます。ちょっと簡単な質問なんですけれども、今回おやりになった方法というのは、シミュレーションによって沖合波形と陸上浸水のペアを学習されているということなんですけど、ちょっと聞き逃したかもしれませんが、2万回ぐらいのシミュレーションとおっしゃっていましたが、ここの関係性というのはどれくらい正しいんでしょうかといいますか、何か変な結果が出たりはしないんでしょうかという、その点に関していかがでしょう。つまり運用するときは沖合波形から陸上浸水を予測することになると思うんですけれども、この関係がかなり非線形といいますか、あまりきれいな関係でもないようなケースもあると思うんですけど、その辺りいかがでしょう。
【大石オブザーバ】 ありがとうございます。津波の浸水現象自体、非線形なものですので、今回も深層学習を用いた予測をしておりますけれども、御指摘の点はあり得ることかと思っておりまして、特に津波の観測データがそんなにきれいではないことがしばしばあります。その中でも特に、あまり観測データがきれいではなくなる場合というのは、特に海岸線にあるような検潮所とか、そういった局所的な地形の影響によって観測が乱れるというふうなものを用いると、先ほどおっしゃっていただいたような、観測と結果としての浸水状況の関係性に乱れが大きくなるのかなと考えておりますが、それもありまして今回用いているのは、沖合の、海の真ん中の津波の観測情報でして、そういったものは比較的、観測データとしては津波のシグナルをうまく抽出しやすいものであるので、そういった、どういった観測情報を入力とするのかというのは非常に重要な観点かなと考えております。
【上田委員】 ありがとうございます。分かりました。
【井上委員】 九州大学の井上です。御発表ありがとうございました。端的に2点、質問なんですけれども、1つは、この実応用を考えたときに、推論のときに、沖合で出た波の高さというのがどれくらいの遅延時間を持ってPCのところまで届くのかというところを教えてほしいというのが1点と、もう1点は、2万件、今回学習したということだと思うんですけれども、いわゆるこれでもう、ある種のシミュレーションに関するモデリングは終わりという話になるのか、さらに次、どういう課題が、もしあるのだとすれば残っているのかというのを教えてください。
【大石オブザーバ】 ありがとうございます。まず1つ目の、観測されて、津波が予測できる状況になってから実際津波が来るまで、どのぐらい時間があるのかというところですが……。
【井上委員】 すみません、観測データがPCに届くまでの時間です。津波ではなくて、入力が届くまでの時間。
【大石オブザーバ】 すみません、ちょっとそちらに関しまして、具体的な検討は今のところできておりませんで、観測している機関との連携が必要なところかなと考えております。
【井上委員】 分かりました。シミュレーションが結構早く終わるのは、シミュレーションのモデルリングを使った推論が早く終わるのはすごくいいなと思ったんですが、その入力が届くところにすごい時間かかってしまうと結局間に合わないということもあり得るかなと思いましたので、ちょっと質問させていただきました。
【大石オブザーバ】 そうですね。ただ、今用いている沖合の観測情報は、東日本大震災以降で非常に発達したんですけれども、当時も気象庁のほうにはリアルタイムに届いておりまして、気象庁が津波高の予測を上げていくというところの判断材料にはなっておりますので、そういったことは可能なのかなというふうに考えております。
【井上委員】 はい。
【大石オブザーバ】 2点目ですけれども、2万件で十分なのかというところは、今回、南海トラフで発生するものが東京湾に来るというところで評価しているんですけれども、東京湾付近で発生するような、相模トラフ沿いですとか、そういった津波に対してはまだデータに入っておりませんで、どういった地震が起こり得るかというふうな地震学的な知見と組み合わせることで、どういった津波に対しても予測ができるというふうなAIを構築するというのは、これから必要なところかなと考えております。
【井上委員】 分かりました。ありがとうございました。
【大石オブザーバ】 ありがとうございます。
【安浦主査】 あと、三好委員、根本委員、田浦委員の順にお願いいたします。
【三好委員】 ありがとうございます。私も2つ質問がありまして、端的に申し上げます。1つは、非常に正確な予測ができるようになったということで、すばらしいと思うんですけれども、気象予測なんかですと、予測の不確実性を、アンサンブルなんかをして、その幅、誤差の幅を捉えることで活用するということをしているんですが、そのようなことを考えていらっしゃいますでしょうか。
【大石オブザーバ】 ありがとうございます。そこはちょっと現状、今後の課題かなと考えているところでございまして、今、深層学習で予測しておりますので、予測の不確実性を評価するというところまでできていないので、今の予測が即時的に出るものをどうやって信じるかというところは、これからの課題かなと考えております。
【三好委員】 ありがとうございます。もう1点は、コンピュテーショナルコンプレキシティに関することなんですが、大規模な、「富岳」を使ったシミュレーションは非常に複雑な計算で、たくさん計算がかかると。これを、学習をすることで、計算を非常に単純にしている、単純といいますか、速い計算ができるようにしているということで、すばらしいと思いました。ただ、同じ計算をしようと思ってAIをつくると、余計に複雑になってしまうということがあって、非常に単純化させている、問題を単純化させているというところが工夫だと思うんですけれども、これは観測の次元と、あと出力として出す量の次元、これを見ますと、そんなに減らしているような感じがしないんですけれども、要するに3メートルメッシュで最終的にAIが答えを出してくれるようになっているように理解したんですが、そうすると、コンピュテーショナルコンプレキシティという観点で、どのようにこの高速の計算が可能になっているかというところを教えていただけますでしょうか。
【大石オブザーバ】 ちょっと私の理解ですけれども、1つは津波の伝播において、先ほども御質問ありましたけれども、沖合と陸上の関係性というのがどうやってクリアに、シンプルというか、おっしゃっていただいたようなコンプレキシティが抑えられた形になっているかというところがポイントかなと思っていまして、津波のシミュレーション自体は南海トラフ域の全ての領域をやる必要があるわけですけれども、今の予測というのは特に東京湾を対象としておりますので、東京湾に向かってくる観測点と、東京湾内のある一地域の浸水情報の関係性に着目しておりますので、そういったところで、シミュレーション自体がやっているものの中の一部を切り出した予測になっているというふうに理解しています。
【三好委員】 ありがとうございます。
【安浦主査】 それでは、根本委員、お願いいたします。
【根本委員】 根本です。前の質問とちょっと重なるところもあるかもしれないんですけれども、前の大震災のときには津波の高さを測る測定計が振り切れて、壊れてしまっているために、数値が正しく出てこなかったというような事例もあるというふうに伺っています。例えば、そういう不具合、機器からのデータが非常に不正確になっているような場合であるとか、あと津波の情報が時系列で続々と入ってくるというように、一遍に与えられるわけではないと思うんですけれども、そういった側面もあると思うんですが、そういうところから、実際にそれを地震が発生した際に使うということを想定したときにどういうふうになるのかというのが、イメージがあまりできないんですけれども、その辺を教えていただけますでしょうか。
【大石オブザーバ】 ありがとうございます。そうですね、そこは非常に重要な点だというふうに考えておりまして、御指摘のとおり、今、沖合の観測情報を入力としていると申し上げたんですけれども、その観測情報自体が、東日本のときには部分的に途切れてしまうですとか、そういった現象がありまして、そういった情報をいかにリアルタイムで使うかというところは、今は入力する必要のある観測情報というものを固定してしまっておりますので、途切れた場合に備えて幾つかのバリエーションを準備しておくですとか、あるいは、そういった観測データが部分的に取れないというふうな場合でも予測可能なAIというのを検討するですとか、そういったことが今後必要になるかなというふうに考えております。
時系列に関しましては、津波は地震波と違って、比較的時間をかけて伝播してくるものですので、今予測するために構築しているものも、何分間分の観測データでどのぐらい予測できるかというふうな、その時間発展ごとの予測精度というのを評価するようなことをやっております。
【根本委員】 すみません、ちょっとだけ教えていただきたいんですけれども、壊れてデータが来ない場合には、データが来ていないので、壊れているということは、そこがデータの欠損になるから分かると思うんですけれども、低い数値を送ってくるというような、要するに数値は来ているんだけれども、それは人間から見ると正しく測れていないんじゃないかと思われるような事態を、AIのほうでもそういったことを補正して計算ができるというふうに考えてよろしいんですか。
【大石オブザーバ】 すみません、そちらに関しては、そうですね、来なければ分かりやすいけれども、誤った数字を送ってきたときどうなるかということだと思うんですが、そちらは今後評価しないといけないところかなと考えておりますが、今、複数の観測情報を入力して予測しておりますので、例えばそのうち、ほんの少しずれたときにもある程度予測できるということは可能なのかなというふうには考えておりますが、大半におかしな数字が入った場合には、ちょっと検討が必要かなと思います。
【根本委員】 ありがとうございました。
【安浦主査】 どうもありがとうございます。それでは、田浦先生、お願いします。小林先生には、後の総合討論のところで御質問をお願いしたいと思います。
【田浦委員】 ありがとうございます。ちょっと聞き逃していたら申し訳ないんですけど、2万ケース使って教師データを生成するということだったんですけれども、1つのケースを実際シミュレーションするのにはどのぐらいの、「富岳」の何ノードぐらい使って、どのぐらいの計算時間の計算をする必要があったのかというのが1つと、あとは、ここでできたモデルは1つの地形に特化したモデルなんでしょうか、それとも、何か異なる地形に対してもそれを入力として、深さを予測できるようなモデルになっているんでしょうか。その2つ、お願いします。
【大石オブザーバ】 ありがとうございます。1点目ですけれども、今回のシミュレーションは、1つのケースに関しましては「富岳」4ノードを用いて、40分で実施しております。2点目に関しましては、今回、地形データ特化です。別の地域をやる場合には、別の地形を入れたシミュレーションによるデータ生成が必要になります。
【田浦委員】 ありがとうございました。興味深い発表、ありがとうございました。
【大石オブザーバ】 ありがとうございます。
【安浦主査】 大石様、どうもありがとうございました。また最後の総合討論のところで追加の質問等あるかもしれませんので、よろしくお願いいたします。どうもありがとうございました。
【大石オブザーバ】 ありがとうございます。
【安浦主査】 それでは続きまして、理化学研究所計算科学研究センターの松岡センター長から、計算機運用の観点から見た次世代計算基盤についてお話しいただきます。松岡先生、15分程度でお願いいたします。
【松岡オブザーバ】 それでは、松岡が発表させていただきます。
まず、次世代の計算基盤というのは、やはりコンピューティングとサイエンス、それを使ったサイエンス、計算の科学、計算による科学です。こちらが相乗的に進んでいくものが必要である、つまり計算機だけが発展しても駄目だし、それを使ったサイエンスだけが発展しても駄目で、両方ともしなきゃいけないと。そのためにはサイエンスとコンピューティング、サイエンスとサイエンス、コンピューティングとコンピューティング、これらの研究というのが全てこのプラットフォームの上で構成できる、構築できる、こういうふうなことが必要になってくると思います。ともすると我が国のスパコンというのは、どちらかというと、ただ単に使うほうが強調されておりましたが、先日、田浦さんの指摘があったように、コンピューティング自身を進化させるという非常に大きなミッションを担っているというのを我々は意識しております。
このような意識は欧州や米国でも同じようなビジョンを持っていまして、米国では、例えばDOEを中心に、ECP等の様々なプロジェクトがあって、それだけでも約5ビリオンの、しかも公的資金が投入されます。いろんなアプリケーションプロジェクトで言うと、実はこれよりはるかに上回る資金が投入されている。欧州もそれに呼応して、EuroHPCというのが新しいフレームワークで立ち上がりまして、大体総額では1兆円、8年間で1兆円以上。その中で、第1弾としてPre-Exaスケールシステムというのが3台、一台一台は「富岳」より若干小さいものの、例えば今度フィンランドで立ち上がるLumiというのは、少なくともカタログ性能では「富岳」を上回る。実際の性能はベンチマークを含めて「富岳」を下回るんですが、しかしかなり健闘するというマシンが今年末から来年あたりに上がったり、その後にエクサ級のマシン等を欧州域内の技術で開発するというプロジェクトもありますし、そこには、ただ単に計算科学、応用分野だけではなくて、多くの計算機科学の研究者が参加していくということが予定されています。
これは民間でもそうでして、例えばマイクロソフトは先日、「富岳」がローンチするちょっと前に、AIのスーパーコンピュータということで、Azureの中に世界5位以内に相当するようなスパコンを導入してAI研究に使うと話していましたし、実際ランキングには登場しなかったんですが、NVIDIAは実際にランキングに登場するSeleneというマシンをその後発表しまして、これは現在世界6位になっていて、AIだけでなく、自動運転のシミュレーション等の様々な開発用途に使われています。
そのような背景から今後どういう研究をしていかなければいけないかというところで、本センターは大体30近い研究チーム、計算の科学、計算による科学及び運用の技術を探求するチームを構成しておりますし、それが各大学や我が国の大学研究所はもちろん、国際的な連携を行っているわけですが、センターとして4つのフォーカスエリアというのを制定しています。1つ目は、当然ながら、それぞれの研究チームが今までやっていたそれぞれの分野というのを「富岳」の上で遡及して、高度化に寄与する、ないしは次世代ということを見据えた基礎的な研究を行うということがございます。これに関しては今回あまりカバーしていなくて、センター全体で、複数のチームにまたがる、ないしは外部のチームとの積極的な連携で行うアクティビティとして、2、3、4というのを今回御紹介したいと思います。
1つは、デジタルツイン、Society 5.0のためにデジタルツインというのを進化させていこうと、また、そのために、プラットフォームという形で「富岳」を進化させていくということで研究を行う。もう一つは、3番目になりますけれども、先ほどAIとHPCというか、第一原理シミュレーションと融合という御発表があって、これはすばらしい結果でございますが、しかしながら様々な委員の御質問がございました。例えば、精度はどうなのとか、非線形現象だから外れることがあるんじゃないか、そういうことをもっと根本的にやっていかないといけなくて、それをやらないと新しいマシンというのはもちろんデザインできないというところを我々は強く主張したいというふうに思っていて、そのような研究を展開しています。
4番目は、これは前から主張していることでございますけれども、コンピュータをつくるには新しいコンピュータが必要、これはハードウエアもそうですし、ソフトウエアも必要だと。まさに今まで、例えば「富岳」のときは、次世代の計算機や計算原理を探究するというのは9つの重点課題の中に入っていなかったんですが、萌芽的課題の中に、例えば脳型コンピュータというのがございましたけれども、今回、もし将来新しいマシンをつくっていくとか新しいコンピューティングを追求していくのであれば、それはまさに量子計算やニューロモーフィック、脳型コンピューティングなど、新しい計算原理や、それ以外の、今までの計算原理に基づいた計算もより高度化していくと、これらがメインの枠として入っていかなければいけないというふうに考えておりまして、それらの研究開発というのも本センターで進めています。
それぞれざっと御紹介しますが、まずはデジタルツイン基盤ですが、今まさにいろいろ社会が変革しようとしておりまして、これは住友ゴムの事例でございますけれども、今後、例えば電気自動車になるとモーターの燃費に対する寄与というのが、今のガソリン車だとタイヤというのは10から20%ぐらいなのが、電気自動車になると最大で40%ぐらいになるんじゃないかと予測していると。そのためにはタイヤの作り方に関して全く新しい考え方や、実際的には動的制御を行っていかなければいけないということでございまして、そのために、例えばタイヤ自身にセンサーを埋め込んで、それを収集して、場合によってはリアルタイムにシミュレーションとカップリングしていくとか、AIとカップリングしていくということを計画しています。
このように、例えばスマートシティとか医療等で、この手のデジタルツインというのはいろいろ検討されておりますけれども、本当の意味でのデジタルツインというのは、先ほどありましたように、まずシミュレーション、デジタルツインというのは基本的にはシミュレーションの部分が非常に大きいので、物理空間のシミュレーションというのがきちんとできないといけません。しかしながら、そこにサイバーなものが埋め込まれると、すなわち、例えばセンサー、例えばスマートシティを考えると、Arduinoのセンサーが10万個とか100万個とか、そういうものが実際の実空間にも広がっていて、それらが実際のデータをセンシングする。先ほど津波においてもセンシングがあって、井上さんの質問に、どのくらいで到達するんですかという質問がありましたけど、まさにそういうことが実はシミュレーションの中に本来入っていなければいけないんですね。
それが入っていないのが現状であって、今後プラットフォームとやっていくためには、このサイバー世界と物理世界を連携とか、密に連動して、まさに統合的にシミュレーションされて、さらにその上で実際に、例えばセンサーの開発なども、センサーで動くプログラムが開発できていく、そのようなプラットフォームができないといけないというふうに考えております。幸い「富岳」は、例えばArmが動くので、多くのセンサー、組み込みが動いているんですね。Armのプログラムというのをそのまま動かすことができます。
これがデジタルツインに、例えばスマートシティに応用されるとどうなるかというと、実際のシティ、都市があって、様々な物理現象がある。津波なんかもそうですけれども、様々な社会的現象、例えば交通網とか人流とか、そういう社会現象等が実際に起こっています。そこに、それをセンシングするため、ないしはアクチュエーションするためのIT基盤、ないしは処理するためのIT基盤が実際存在するわけです。それをデジタルツイン化するというのは、その物理部分をデジタルツイン化するだけではなくて、こちらのIT部分も実際にデジタルツイン化して、統合的なプラットフォームとして、もしこういうことが起こったら、例えば先ほどの津波においても、実際津波が起こったら本当にセンサーが働くのか、先ほど御質問があったように、事例があったらどうなるのみたいなところも、実際の、本当のセンサーが仮想空間にあるということで、シミュレーションを行うことができます。それによって、それを初めて学習することによって、新たなAIをつくっていけるというふうに思います。
逆に、このスマートシティの研究では、いきなりそのセンサーを置いてしまうというものも多いと、それは実際の境界領域を検証したり、設置技術を検討したりするのは大変重要なんですが、しかしながら実際、テストベッドとしては、スケーラビリティーという問題に必ずぶち当たって、10や100のセンサーを置くのは簡単なんですけど、10万置くのは難しいわけですね。それらの知見に基づいて、今度は仮想空間内にセンサーが置ければ、実際のスケーラビリティーの問題や、what if、こういうことが起こったらという、それに基づいたアナリシスというのが可能になるわけであります。まさにこういうふうなデジタルツインの統合的基盤ということが、我々のシミュレーション技術、世界トップを走るシミュレーション技術と世界最大規模のIT基盤である「富岳」の上で実現できないかというところで、様々な、例えば民間の、非常に有望な企業等とも相談をしております。
そのためにいろんなことをやらなければいけなくて、既にできていることもありますが、例えば、現実問題としてはクラウドサービスというのがあって、それを集めなければいけないとか、いろいろなことがあります。ただ重要なのは、「富岳」がそれに値するというのは、今までの、例えば「京」みたいなシステムというのは、HPCだけのソフトウエアスタックが装備されていたんですね。一方、EC2のようなクラウドというのは、このようなクラウドサービスにおけるソフトウエアスタックが一番充実しておりますけれども、逆に、デジタルツインでもう一つの要素、非常に重要な要素である物理的に行うソフトウエアスタックという部分が欠けていたわけです。これが「富岳」の場合、これを包括的に実際に装備することによって、両方のソフトウエアを動かすことができるということが今回非常に重要になっていて、このような装備というのをベースラインとしておりますが、さらにその先の研究というのを、実際のプラットフォーム化していくということを今行っています。
それに深く関連しますけれども、ビッグデータ、今のシミュレーション、AIによる経験的予測、このコンバージェンスというのが大事で、それはもう誰でも言っていることで、インテルなんかも言っているんですが、ただここで大事なのは、これが分散しているということは実はあまりよくないということです。例えば、これはインテルのスライドですけれども、今はシミュレーションやデータの蓄積とかAIというのがネットワークで分散していたり、ストレージで結合していて、でも実際、物すごいデータというのがあって、例えば今、三好さんがやられているようなものでも、データ同化の部分と観測部分とシミュレーションの部分は物すごい帯域が必要なんです。だからストレージに、それこそ分散していても駄目だし、ストレージにしまっておけるだろうということはできなくて、リアルタイムに1台のマシンでこれらが結合できなくては、まさに高速な、何ペタバイト・パー・セカンドに動くようなネットワークを活用して、これらが有機的に結合しなくてはいけないわけです。
さらに、そういうアーキテクチャだけではなくて、より原理的なことを考えなければいけない。先ほど様々な質問がありましたけど、それは全く納得がいって、つまりこれらの第一原理のシミュレーション、AIにおける経験則的なプリディクション、ビッグデータのインストルメンテーション、これらがどういう理論的な関係になるかということがつまびらかになっていかなくてはいけません。例えば三好さんとかは、こちらの第一原理のシミュレーションとインストルメンテーションがどのように融合するかということをただ単にやっているだけではなくて、非常に理論的な探究をしている。これはAIに関しても、この辺り非常に関心が高まっていて、実際にこのようないろいろなインスタンスがある。これはバイオサイエンスにおけるいろいろな事例があって、それを各研究チームがやっているんですが、それだけでなくて、このように機械学習と、これらのシミュレーションと経験則とデータというのがどのように関わってくるのか、これは、今度中央大学に移られた樋口先生のスライドですけれども、こういうことを基礎的にやっていかないといけないということが非常にいろいろなところで叫ばれ始めているんですね。まさに我々は、例えば今御紹介あったような幾つかの例だとか、ライフサイエンスにおける我々の、AlphaFoldを超えるようなたんぱく質の構造推定と、そこからのダイナミクスを行おうなんていうのを、新しくジョインした創薬の奥野部門がやろうとしていますが、さらにこれらのいろいろな事例を使うことによって、これの理論的な探求を行うと。これによって初めて、これらが、その大きい、先ほど申し上げたように1台のマシンの上で行われることによって初めて、最高の性能を得るには、どのようなことが得られるかが分かり、実際のアーキテクチャは、それをさらに拡幅するためにどうあるべきか。ただ単にフロップスを増やすだけではなくて、どういうところを増やしていかなければいけないかというところで分かるわけであります。
最後になりますけれども、じゃあどうやって計算を進化させていくかと。これはいつも使っているスライドですけれども、将来は様々なデバイスとかがいろいろ出てきて、ムーアの法則の終えんとともに革新的になっていくわけでありますが、1つの活動としては、本センター及び様々な大学の基盤センターを中心として、NGACIといった活動をしていて、先日、ホワイトペーパーを出した。しかし、この初期の結果、もう今やただ単にフロップスを増やすだけでは駄目だと、例えばフロップスでは、30倍ぐらいGPUを使うと、アグレッシブには30倍ぐらいの性能が一見出るように見えるんですが、しかしながら、よくメモリバンド幅のところを観測すると、ほとんど、せいぜい三、四倍しか「富岳」と比べて向上していないんですね。後で述べるように、ほとんど多くのアプリケーションというのはオーダーnの方向に向かっておりますので、そうなるとメモリバンド幅、ネットワークバンド幅が律速的になって、幾らフロップスを増やしても全く性能が上がらなくて、2028になっても「富岳」の三、四倍の性能のマシンしかつくれないということになります。
では、アクセラレータはそういうところにどう寄与するのというと、様々な形態のものがあります。もちろん我々はいろいろな技術的検討を行っておりますが、本来アクセラレータというのは、アクセラレータありきで議論しては駄目で、アクセラレータと異機種性というのは必要悪なんですね。本来は、どのアプリケーションなのか、今までのこの委員会でもいろいろなアプリケーションの方々が発言されていますけど、皆さん汎用性、汎用的で広いところに適用できる、まさに「富岳」のプリンシプルであったマシンの構築法というのを所望されているわけです。そこに特殊なものを持ち込むと、これは非常に阻害要因となるわけです。もちろん全く持ち込まないとはいかないかもしれませんけど、非常に利便性やプログラムアビリティー、ODE、それによって得られる性能向上をきちんと考えないと、ただ単にフロップスを増やしたり、LINPACKで1位になるとか、そんなことをやっていては全く駄目なんですね。そのためには、今後の、今のアプリケーションがどのような演算のコンプレキシティを持っていて、それがさらに将来どのように進化していくかというところの観点から根本的にアーキテクチャというのを、どのような付加的な要素をもたらすべきなのかということを考える必要があります。
これは、右側は富士通が持っているスライドですけれども、実は、あまり詳しく議論する時間がなくて、もしよろしかったら後で御質問いただければ幸いですけれども、全般的には、ディープラーニングとかを含めて今後、理論的な研究から、今一番橋頭堡でやるようなディープラーニング、量子シミュレーションを終えても、だんだんスパースなオーダーnの方向に向かっていって、かつ、例えば、これは富士通に悪いんですけど、1次モデルなんかも結局、これは国が支えていく間に全て帰着してしまうので、本質的にNPハードで解けないような、いわゆる量子アルゴリズムがどうしても必要な領域以外というのは、どんどんどんどん低オーダーのアルゴリズムに置き換わっていきます。そうなると、それはCPUやGPUによる演算で済むわけですね。それにさらにどうやってチップ内外のデータ移動とアクセラレーションしていくかというところが、まさにアクセラレータの部分となります。決してフロップスを増やすのが重要になるのではないと。
そのような観点から、私どもは、例えばNEDOのプロジェクトにおいては、田浦先生なんかも参加していますけれども、今のアプリケーションをアラインして、いかにバンド幅を増やしていくか、そのアーキテクチャというのを探索していますし、例えば、逆に演算性能が高いアクセラレータが入ったらどうなるのというふうな検討をしても、今回、IEEEのIPDPSの発表で行いますが、こちらは非常にコントロバーシャルなペーパーで、話題になっているんですけれども、実際、今NVIDIAのGPUなんかにありますマトリックスエンジンというのがもてはやされていて、ディープラーニング用ですけれども、それが本当にHPCなんかの今後役に立っていくんじゃないかというふうな淡い期待を抱いたんですが、非常に我々は綿密な、ありとあらゆる綿密な検討を行った結果、例えば「京」におけるワークロードでは、せいぜい全体で5%の加速しかない、DOEのアルゴンヌのワークも10%、さらに、それを非常に太らせて、ディープラーニングのワークをもっと増やして、マトリックスエンジンももう無限に速いなということを考えても、たかだか23%ぐらいしかマシンは速くならないという結論に達している。ですので、このマトリックスエンジンにおいても、少なくとも現状においてはほとんどHPCの将来には役に立たないというところが我々の結論になる。それ以外に、アルゴリズム等の研究を行っておりまして、むしろアルゴリズムでアーキテクチャというのをどう評価していくかというのを、今、副センター長の中島先生を中心に行っています。
最後、量子コンピュータ等の新しい計算原理に関しては、やはりスーパーコンピュータが必要というところで、4月から理化学研究所でも量子コンピュータセンターが、中村センター長を中心にできましたが、そちらに我々も供与していくと。特に量子コンピュータのシミュレーションを「富岳」で行う、先日NVIDIAからも発表がありましたが、我々のほうがNVIDIAと比べるとはるかに大きいシミュレーションができるので、そのようにシミュレーションをやって、数百Qubit級のシミュレーションが行えるようなことを目指すとか、さらに、アルゴリズムの探究。どういうところ、先ほど申しましたカテゴライゼーションで言えば、どうしても最終的には量子アルゴリズムに頼らなければいけない領域は何であるかというところをきちんと探究していくなどの様々な研究を、量子コンピュータセンターとの、例えば阪大の藤井先生とか、そういうところとの共同研究でやっていきたいというふうに思っています。同じようなことはニューロモーフィックでも行っていくということが予定されています。
以上でございます。どうもありがとうございます。
【安浦主査】 松岡先生、非常に幅の広い考察をお話しいただきまして、ありがとうございました。時間の関係もございますので、今、御質問、2件ほどお受けしたいと思いますけど、どなたかございますでしょうか。
藤井先生、どうぞ。
【藤井委員】 大阪大学の藤井です。情報科学のフロンティアを切り開くためのコンピューティングという観点、非常に興味深く拝聴させていただきました。まさに「富岳」界隈には新しい計算機システムを一からつくるというノウハウ等が、コンピュータアーキテクチャからソフトウエア工学までたくさんあると思います。まさに量子コンピューティング分野などは、これからその量子コンピュータ、ちゃんと稼働するような量子コンピュータシステムをつくっていこうという分野なんですけれども、そういった分野では、まさにコンピュータアーキテクチャやソフトウエア工学の人材というのが今不足していまして、世界的にもこういった分野に人がどんどん入ってこないと量子コンピュータが実現できないというような状況にあります。
そういった観点で、こういった人材、どうやってソフトウエア分野の方にこういう量子コンピュータというテーマを最先端テーマとして捉えていただいて、コンピュータアーキテクチャ、ソフトウエア工学というのを進めていくことができるか。何かそういった動き、もしくは取組がございましたら、教えていただけるとうれしいです。
【松岡オブザーバ】 ありがとうございます。我々、柚木チームリーダーだとか、もちろん量子コンピュータの中村リーダー、彼はつくるほうですけれども、そちらと、もちろん先生とも共同で様々なアクティビティを行っていきたいと思います。多分、1つ非常に鍵となるのは、やはり量子コンピュータを使える環境だと思うんですね。これは、DOEなんかが一生懸命やっているのは、やはりその使える環境をつくるというところで、実際の一部の、例えばIBMのマシンだとか、幾つかのマシンを、クラウド経由で使えるようなものをスパコンと連携してやっていますけれども、さらに、しかしながらやはりそれらは非常に、NISQであるとか、いろいろな障害、ハードルも高いので、より使いやすい環境としては、シミュレータが大事だと思うんです。
そのような大規模なシミュレータというのは、やはりある程度の並列計算機でないとできなくて、しかしながら計算機を持っているだけでも、エグザクトなシミュレーションをやろうとすると、ステートベースのシミュレーションをやろうとすると、やはりこれはすぐに爆発して、「富岳」でも51Qubitぐらいしかできないので、柚木さんがやられているような計算コントラクションだとか、これは世界的にはやっていますけれども、計算コントラクションを使ったような、アプロキシメーションを少し入れたような手法でQubit数を増やしていくというあたりが必要です。これもNISQとどう関係があるか分かっていないので、そういうところで量子シミュレータの精度を高めていきながら、こちらにありますように、アルゴリズムだとか、古典アルゴリズムとの比較だとか、そういうことを積極的に行って、非常に量子コンピュータの世界というのを、よりアプローチアブルな、普通の数理アルゴリズムだとかプログラミングだとか、そういった工学をやっている人たち、そういう人たちがアプローチできるような体制というのを、ぜひ日本の、分野の方々と協力してつくっていきたいというふうに思っています。
【藤井委員】 ありがとうございます。
【安浦主査】 それでは、あと中野委員の御質問で、ここでの御質問は打ち切りたいと思います。中野委員、お願いします。
【中野委員】 松岡先生、面白い話、ありがとうございます。先ほど藤井先生は量子コンピュータという、随分と先のお話に関しての御質問だったのですけれど、私は逆に、今のリアルタイムな「富岳」の使い方というところでおたずねしたいと思います。さきほど、リアルタイムというのが1つの重要なポイントになるという御説明を、サイバー、フィジカルの世界で見せていただいたのですが、実際、人工知能のモデルというのは全て、ある多量のデータに基づいていて、その上でつくられたモデルはリアルタイムで動くかもしれないけど、モデル自体が、データが変わってしまう場合、AIの性能のギャランティーみたいなところは、元のデータを持ちつつ新しいデータとの再計算ということで、データそのものに対しても何かギャランティーをしなくてはいけないシステムが必要になってくるのではないかと思われます。また、物理なんかだと、測定の方法が変わるとどんどん精度が変わっていくわけで、そのとき計算するデータで変わったりしたときに、では、その成果の正しさみたいなものを、データも含めてのギャランティーみたいなあたりは、今後こういうハイパフォーマンスコンピューティングの世界ではどういうふうに進めていかれるのでしょうか。あるいは、どういう見通しがあると、その下のたくさんのリアルなデータと今のモデルと、そしてそれを持続的に使うということに対してコントリビューションできるかどうかという、その辺りはいかがお考えでしょうか。
【松岡オブザーバ】 物すごくそれは広くて、大事な質問で、まだ、先ほど申し上げたように、さっきスライドをお見せしたように、そこをちゃんと理論的に解明していって、それをシステムに反映していく、それがないと実際に次のシステムが設計できないということが言えると。例えば三好さんとか、それで、データ同化における、例えばカルマンフィルターを使うとこういうふうになって、こういうふうになるというような理論的探究はされていますけれども、それを例えば先ほどあったディープラーニングだとか、そちらのほうにも逆に広げていかなければいけなくて、それと、例えばHPCにおける精度保証というのは昔からあったわけですけれども、インストルメンテーションでの精度保証と計算の精度保証は実は非常に大きく関連するわけです。そういういろいろな理論、それらがうまく融合して、それによって初めて、データにおける品質だとかシミュレーションの品質だとかAIにおける品質というのが、例えば違うデータを入れたときに、どういう範囲内でその解が収まるのかというのが出てくると思います。
まだまだそれは、別に我々だけではなくて、これは世界的にも緒についたばかりで、例えば、これも紹介した樋口先生の仕事ですけれども、例えば2019年あたりからそういうのが出てきて、こちらにあるように、ニューラルネットワークの多段、ブロックでつないでいく話というので、それでレイヤー間でどんどん計算が進むというのは、実は、言われてみればそうなんですが、オイラー法による積分と同じようなことをやっているわけですね。だからDNNというのはHPCの積分法と関係があるんじゃないかというところが、例えば今ヒントとして挙がっている。
別な議論では、これもまだ全く緒についたばかりなんですけど、例えばディープラーニングにおけるネットワークを、例えばうちの理研のAIPではカーンさんというところのグループが、それがベイジアンのインターアプリケーションをどうやって得られるかということを、いろいろ深い理論的研究をやられていて、そのベイジアンにおける確率空間において、それぞれ、要するにベイジアンになれば、いろいろな確率空間におけるファクターにおけるアシュアランスというのは出てくるわけですけれども、それが実はシミュレーションで出てきたデータと、出てくる結果と、どういうふうに、うまくそれをモデリングできるんじゃないかということが最近、東工大の横田さんとか、その辺りといろいろ議論はし始めているんですね。そういうふうにディープラーニングの間に、例えばベイジアンのインターアプリケーションをかませることによって、もしかするとシミュレーションの結果とトラクタブルになるかもしれないという、そのようなことがもう一つ理論的に分かってきたというのはあります。
これらの研究を、実際具体例も含めて進めることによって、本来いろいろ、もちろんアプリケーション分野の人たちはいろいろなことを、トライアルをやられているわけで、それら理論的な研究と実際のビッグデータとAIと、モデルベースのシミュレーションの融合の、実際のインスタンスにいろいろ適用していくことによっていろいろなことが分かってきて、それで始めて次のマシンをどうつくるべきかというのがだんだん見えてくるんじゃないかなというところを期待しております。でも非常に息の長い話であって、次のマシンはもちろんもっと早くつくらなければいけないんですけど、少しでもそういう話がフィードバックできて、マシンの進化に寄与できていければというふうには思っています。
【中野委員】 どうもありがとうございます。よいリードモデルが見えることを期待しております。
【松岡オブザーバ】 はい。非常に面白い世界です。
【安浦主査】 非常に深い議論になっておりますが、ちょっと時間の関係もございますので、また総合討論のところで議論の続きはさせていただきたいと思います。松岡先生、どうもありがとうございました。
【松岡オブザーバ】 どうもありがとうございました。
【安浦主査】 それでは続きまして、HPCIコンソーシアムの朴理事長のほうから御講演いただきます。すみませんけど、15分で、よろしくお願いします。
【朴オブザーバ】 では、始めます。
それでは、本日はお招きいただきましてありがとうございました。HPCIコンソーシアム理事長をさせていただいています筑波大学の朴と申します。本日の内容は、HPCIシステムの今後の運営の在り方に関する調査検討WGというのを、我々のコンソーシアムの理事会中心にやっておりまして、こちらの御報告です。今日の内容は、主にその調査検討WGの主査をされていますJAXAの高木さんのほうでまとめていただきましたので、それを御報告いたします。
あらかじめ申し上げますけれども、これは在り方の検討をするWGです。技術論ではありません。ですので、今日のお二人の御講演は技術的な話が中心だったんですけれども、これは在り方ですので、スライドも文章しかないという、ちょっと色気のないスライドで恐縮ですが、そういう立場でお話ししているものですので、御了解をお願いいたします。
まず、HPCIシステムの調査検討、我々は調査検討WGと呼んでおりますけれども、今後の運営の在り方に関する、これは運営の話ですから、枠組みとかです。それで、このWGの提案を基にして、毎年6月に文科省に対して提言を出しております。今年は「富岳」の元年のようなもので、「富岳」についてはもう既に運用が始まっておりますので、「富岳」の運用の在り方に関してと、それから今日のお話の中心は、これは提言案の目次ですけれども、この3番の計算科学技術振興というのと、4番のフラッグシップ計算機の在り方について、この点について重点を置いてお話ししたいと思います。
まず、「富岳」の運用はもう始まりまして、私も3月9日の共用開始のイベントで講演させていただきましたが、非常に順調な発進をしているというふうに思っております。その「富岳」に関しては、「京」で培ったいろんな制度の利点がいっぱいありまして、それをうまく使いつつ、より利便性の高い運用をしていただきたいと思います。この中に幾つかテーマがありますけれども、まず何といっても基礎科学、それから基礎的な研究、あるいは産業利用というところで、従来のHPCはやはり骨格でありまして、ただHPCだけではない、トラディショナルなHPCだけではなくて、AIとかSociety 5.0までが含まれたのが「富岳」の立場だということは十分理解しておりますので、そういった観点で、今、運用の、全体の100%のリソースをどう使うかということを、文科省のほうを中心にしてやられていると。成果創出加速課題というのも、これは今日の前半の話で重要な点ですので、これは既に走っていて、この後、今年度追加の課題も募集するというふうに伺っています。
それから、政策対応というのは、いわゆるSociety 5.0等の実社会に関する部分で、これは文科省のほうで特別に設置したリソース、大体全体で5%ぐらいが供されると聞いていますけれども、その部分が「京」とはまた異なった使い方になります。そして何よりも、新規利用や運用形態の検討として、例えば、今日も何個か話が出ましたけど、松岡先生の話の中にあったように、外部データと連携したリアルタイム処理であるとか、省エネ技術に関していろいろと考えなければいけないところが出てくると。そういったところでやっていただきますが、いずれにしても「富岳」はもう運用始まっていますので、ここついては特に今日は申し上げません。
それで、次なんですが、前半の話として計算科学技術振興というところに焦点を置きたいと思います。HPCIコンソーシアムは、御存じのように、HPCの計算資源の提供ですね、理研を中心として、9大学プラス2国研のリソースをどうやって使ってもらうかという、そのリソースの提供側の立場と、それから、より重要であります研究コミュニティです。様々な計算科学、計算工学のユーザ側の方々との協働の場ですので、こちらのほうで、コンソーシアムとしては計算科学の技術振興というのに非常に注目しております。
もともとHPCI戦略プログラム計算科学推進体制の構築というところで始まりまして、「京」では非常に潤沢な予算が与えられました。5つの課題に対して、1年間1課題当たり約5億円という非常に大きい予算で、これのおかげで様々な、まず人材育成に活用されましたし、それから今日まで、「富岳」まで続いています主要なアプリケーション開発もここで行われたと。ポスト「京」、つまり「富岳」の重点課題は、これが5課題の大きい柱だったのが、9つの中くらいの柱に分割されまして、実は結果的に基礎科学のところは、1本の大きい柱だったのが中くらいの柱に縮小されて、5が9になって、これは増えたのではなくて、ちょっと減ったんですね、予算的に。でも、やはりいろんな重要な部分、9つの、それぞれ重要課題、あるいはアプリケーションに対する予算が充当されました。
ところが、昨年度から「富岳」の早期利用が始まっているわけですけれども、この段階で、この9つあった柱の重点課題は、さらに18課題に細分化されました。これは各重点課題の中で幾つにも分裂をして、結果的に成果創出加速課題の一個一個になっていると。この予算規模は、実に「京」の時代の3分の1以下に落ちています。これは非常にゆゆしき状態だと思っております。もちろん文科省の計算科学関係の予算が絞られているのは重々承知しておりますけれども、結果的に小さく散ってしまって、それでそれぞれのところでなかなか人材育成ができなくなっているというのが実情です。この部分に関してはぜひとも何とか改善してもらいたいというのが、この「振興」というところに込めたメッセージです。人材育成に関してはソフトウエアの利用者と開発者に分かれるわけで、もちろん利用者のほうが圧倒的に多いんですけれども、それぞれの両方が必要で、コミュニティの中でそれをどうやって育成するかというのが重要だと思います。
それで、アプリケーションソフトウエアの利用を促進するということが、「富岳」の活用に、あるいはHPCIの全リソースの活用に、最大のアクティビティになるわけです。1つ目に、開発されたソフトウエアの利用者の人材育成というのは、そのソフトは使いこなさなければいけないわけで、よくあるケースは、開発したんだけど、結局開発したチームだけが使っていると。そうすると、それは膨大な資産を、予算とか人材投入してつくったアプリケーションソフトウエアが十分に回収できないと、投入したものに対して。
ここで第三階層という言葉が出てきます。第二階層と第一階層は、御存じのように、第一階層はフラッグシップマシン、「富岳」です。第二階層は、11のセンターにありますサブシステムというか、下の階層にある、一台一台は立派なスーパーコンピュータですけれども、それらが活用されている。第三階層というのは、さらに手元のPCとかに、例えば非常に簡易版の国プロアプリケーションがインストールされていて、まず使い方をそこで勉強してくださいと、その後で第二階層や第一階層にステップアップするというようなことも今後は考えなければいけないのかなと。つまり、いきなり「富岳」を使いなさいといってやると、ユーザコミュニティが縮小してしまったり、ユーザが限られてくるので、それをもっと裾野を広げると。「富岳」のシンボルが言っている裾野を広げるというのは、ユーザを広げるということにまさにつながるわけですから、この辺のことを今後も考えなければいけないと。
それから次に重要なのは、何といってもアプリケーションの開発者です。これは本当に、先ほど申し上げた「京」、ポスト「京」、それから現在の成果創出の中でどんどん予算が縮小されているというのは、結果的には人材の雇用が難しくなっていて、この人材の育成に投じられる予算が絞られている。そうすると当然ながら、こういった開発に携わる人たちが減っていきます。それから、これはもう「京」が始まる前から私はずっと言い続けていることなんですけれども、とにかくソフトウエアを開発できる人がちゃんとアプリケーション側にいてほしいと、これはコデザインそのものなんですよ。ですけど、アプリケーション側は予算が少ないと、当然、科学の研究者しか雇用できなくて、そうすると、開発するという立場にいる人はなかなかキャリアパスが開けなくて、これ、欧米と日本のすごい決定的な差だと思っています。こういうところをちゃんと充塡しないと、どんどんどんどん開発能力を持った人というのがしぼんでいってしまって、いずれは日本製のソフトはほとんどなくて、もうみんな買ってきたり、オープンソースでやっていくということになってしまうと思います。この点、「富岳」はArmベースになりましたので、少し有利になっちゃっているんですね。有利になっちゃっているというと言い過ぎですけれども、より広いアプリケーションを受け入れられるようにはなりましたけれども、だからこそ、逆にそこで動くようなものが世界でも動くようになってくれるので、そういったところの人材育成にもう1回立ち返るべきだと、そういう話です。
コデザインのことは先ほどももう言いましたので、繰り返しになってしまいますけれども、やはり次世代の計算基盤と、それからそれを使う、あるいはそれのアプリケーション開発をするという人たちが、両側が車の両輪になって開発を進めなければいけない。「富岳」ではこれは非常にうまくいったと思いますが、それを続けて、さらに躍進させなければならないと。また、アプリケーションは、つくった人だけではなくて、世の中に、あるいは世界に広まるような形で、それを使った人が次のアプリケーションをつくるというようなエコサイクルができる必要があると思います。
第二階層資源については、HPCIの「富岳」が今できましたので、その下の層にある位置づけですけれども、ここはここで非常に重要です。何しろ「富岳」は単一のアーキテクチャのシステムで、それに対してGPUとか、ほかの演算加速関係とか、それからデータサイエンスに特化しているとか、いろんなアーキテクチャがあり得るわけで、そういったところの多様性は今、第二階層資源が支えています。ここのところを引き続き継続するとともに、この後の後半の話で、単一アーキテクチャというのはどこまで有効なんだろうかというところにも関わってきますので、またそこで触れたいと思います。
さて、もう一つの話は、フラッグシップ計算機の在り方です。「富岳」はもうできましたから、当然ここで言っているフラッグシップは、その次のマシンに関してです。優位性のある性能というのはもちろん一番重要ですから、あらゆる問題を解消しながら、ちゃんとそれを使っていることでほとんどの問題が解けるというような優位性は必要です。
それで、商用計算機への展開というのは、新聞なんかでよく、「京」はここに失敗しているとたたかれていますけれども、要するにアーキテクチャとプロセッサの問題で、「富岳」はそこで、富士通、文科省、理研で、Armを使うという大英断をした結果、かなり裾野が広がる、商用展開が広がりやすいマシンになったと思います。一例でいいますと、「富岳」はプロセッサが非常に優れているわけですけれども、MPPとしてだけではなくて、クラスターとしてもつくれるようになって、富士通がそれをつくって、例えばアメリカのクレイがOEMで販売するというところまで広がっています。この辺は「富岳」がうまくいっているところを引き続き、引き継げればなということです。
それから、システムの開発形態、ここが一番、多分提言の中で重要な話になると思いますが、3つ問題があると思っています。1つは、更新期間の長期化です。プロジェクトから始まって、例えばフィージビリティースタディから詳細設計で実装まで、大体六、七年かかっていて、さらにそれを5年間、あるいはそれ以上長期にわたって使うということで、大体日本のフラッグシップマシンはほぼ10年サイクルでつくられていて、では次のポスト「富岳」は2030年にできるのかというと、もうその時代にはアーキテクチャも全く変わっているでしょうし、いろいろなところでこの長期化というのは大問題だと思っています。
もう一つ、2番目の問題で、単一CPUに頼るということのシステムがそろそろ限界かもしれないと。松岡センター長の話にも、いろんな可能性の話がありましたけれども、結局「京」と「富岳」は単一CPUで、汎用アーキテクチャで、普通にマルチスレッドとメッセージパッシングでプログラムできますということできましたけど、当然ながら電力当たり性能の限界はどんどんどんどん近づいています。ムーアの終えんに伴って近づいていって、今までのフラッグシップはこれで耐えてきたけれども、次が果たしてそれでいいのかと。今日は技術論はお話ししませんけれども、例えばNGACIの、先ほど紹介があったコミュニティ、研究者のコミュニティの中でも、これは非常に重要な問題として捉えられています。
それからもう一つ、3番目は、ちょっとここに書いてあるのと違うんですけれども、だから今まで、長期間で単一CPUで、理研が中心でつくるという形が2世代続きました、「京」と「富岳」と。次は本当にそれでいいのかというのを、もう本当に今考えて、ちょっと立ち止まって考えるべき時期に来ているのではないかなというふうに我々は思っています。
単一CPUの超巨大システムということのメリットとデメリットをきちんと整理する。それから演算加速装置、GPUなんかが代表ですけれども、今いろんな可能性があります。これがどこまで適用できて、どういうアプリケーションには強いのか、弱いのかということ。それから、国産技術だけでつくっているわけです。これはフラッグシップとしての旗印には違いないんですけれども、これがずっといけるか。例えば、簡単なことで言うと、富士通はGPUを持っていません。それが演算加速器というところまで手を伸ばして、1社、あるいは国産の会社だけでいけるのかということを考えないといけない。
それから最後に、3点目として申し上げたかったのは、理化学研究所、R-CCSが中心になるんだけれども、第二階層はそこでどういう働きをすべきなのかという役割です。第二階層は第二階層で勝手に調達をすればいいというのも、そろそろ限界かなと思います。結局その第二階層は、11のセンターにお金が散っているところでやっているようなもので、しかも各センターは全部、独自のコンセプトでシステムを導入します。選択肢が限られてきたから結構似たシステムがいっぱい入りますけれども、それにしてもリソースが分散されるというのは、HPCIの世界ではあまりいいことではないと、その辺のことを考えなければいけない。
これがほぼ最後のスライドですけれども、したがって、その開発に向けて、技術的な背景です。NGACIが今頑張っていますけれども、「富岳」のときにやったフィージビリティースタディというのが、アーキテクチャの可能性や多様性を考える上で重要だろうと思います。また、そのサブシステムの開発というのは、つまりメインの単一アーキテクチャのCPUベースのもののほかに、何らかのサブシステムを違うアーキテクチャで、やはりサブフラッグシップシステムとして考えるというのは1つの考え方かと思います。ただ、ここのところを、では同じように理研がやるのかというと、ちょっと違っていて、例えば第二階層の中でコンソーシアムをつくって、それはそれでサポートする。そうすると、長期間の開発期間というのを少し埋めるような、時期をスライド、シフトさせたサブシステムというのは違うアーキテクチャでということで、時間が長過ぎるということ、あるいはこれは調達なのか開発なのかという問題。それから、R-CCSと第二階層のセンターの関係、それからアーキテクチャ的な広がりという3次元的な問題をうまく解決するような、新しい形なりコンソーシアムというのができるというのは1つの検討すべき課題ではないかなと思います。アプリケーションについては、前半に申し上げたとおり、人材育成を中心にして引き続きやっていかないと、しぼんでしまうと思います。
このWGの委員の名簿と、予定について参考資料としておつけしましたので、後で御覧ください。
以上です。
【安浦主査】 朴先生、どうもありがとうございました。極めて政策論的にも大きく考え直すべきポイント、それから人材育成という極めて本質的な問題点、こういったところをきちんと御指摘いただきました。どうもありがとうございました。
それでは、ただいまの御講演につきまして御質問、あるいは御意見ございましたら、お願いしたいと思います。朴先生の今のお話と、それからその前のお二方のお話、合わせてでも結構でございますので、総合討論にこのまま入りたいと思いますので、よろしいでしょうか。
小林先生、先ほどお手をお挙げになっていましたけど、今よろしいですか。
【小林主査代理】 ご指名いただき、ありがとうございます。朴先生の今の、第一階層、第二階層、HPCI全体を見据えた連携に関するご意見は、大変重要なご指摘だと思って聞いておりました。この点について、最後の理研と基盤センター間、すなわち、第一階層と第二階層との連携ということに関してですが、理研のフラッグシップはトップダウン的に、すなわち戦略的に、そして基盤センターはボトムアップ的につくられて、それが多様性とHPCIの全体的な底上げに貢献していると思っているんですけど、その連携というのがどの程度のものを考えられているのか、HPCIにおけるシステムやサービスの多様性をどこまで担保しながら連携の仕組みをつくろうとするのがいいのかなど、御意見をお聞かせいただければと思います。
【朴オブザーバ】 大変重要なお話で、これは今から考えなければいけないと思っているので言っているんですけれども、要するに今までは、開発時期とか投入時期がうまくずれてくれている、それから第一階層、第二階層でアーキテクチャがうまく分散してくれている、そして第二階層はいろいろな努力をして、一番端的なのは、「京」から「富岳」まで1年半空いてしまったところを第二階層資源が埋めたと。あらゆるところで第二階層がかなり自立的に、ちょっと強く言うと手弁当的にやっているところがすごく多くて、当然各スパコンセンター、第二階層は重要な役割だと思ってやっているんですけれども、ではそれがずっと、この自立的な、大学やセンターの運営に任せたままでいいのかというところが問題提起なんですよ。国は「富岳」だけに傾注しますと、残りは運営費交付金でうまくやってくださいという形が、結果的には、フラッグシップマシンがすごい複雑な演算加速の塊みたいなものになるとはちょっと思えなくて、それはそれでいっぱいユーザがいて、便利に使えるんだけれども、そのほかの、支える、別アーキテクチャのものというのが完全にセンターの自立でやっているという状況がずっと続くかというと、結構疑問だなと。
そこのところを何かもう少し、緩くでもいいので固めるような、例えばこういった統一的なアーキテクチャをみんなで入れていきましょうとか。私の頭にあるのは、実はT2Kという、筑波大と東大と京大が同じアーキテクチャのものを3個別々に入れましょうといった取組、それからさらに、やはり手前みそですみませんけど、筑波大と東大が、JCAHPCといって、一種のコンソーシアムをつくって、2大学の予算と人材を投入して、「京」を抜くマシンをつくったと、あの辺のモデルというのが何らかの形でできないかなと。当然、9大のセンター、9つのセンターを解体しろと言っているのではなくて、そこのところが国家プロジェクトにより綿密に参加できるような、何らかのコンソーシアムのような形というのは1つあり得るのではないかなと、ぼんやりと考えています。
【小林主査代理】 私は逆に、昔、小柳先生がまとめられた提言書で、フラッグシップと、それを支えるシステムを位置づけるというような話あったので、それを思い出しました。ご意見ありがとうございました。
【井上委員】 九大の井上です。朴先生、御講演ありがとうございました。勉強になりました。
この論点でまとめられているところで、すごく私も大事だなと思って聞いていたんですけれども、ここの答えを探るときに、恐らくやはり何らかのコアの部分というのは国産というのがどうしても残ると思います。そうなったときに、いわゆる日本の中のベンダーがどこまで本気で、このプロジェクト、いわゆるスパコンビジネスというところにずっとやるかというところもかなり影響してくるかなと思っているんですけれども、日本の中の産業界をもっと巻き込むといいますか、裾野を広げるといいますか、そういったところも重要かと思うんですけど、その辺りはお考えでしょうか。
【朴オブザーバ】 すごく重要な話で、まず現実をにらむと、結局、国産でこれができる会社はもう富士通1社しかないわけですよね。当然NECもベクトルエンジンとか頑張っていますけれども、これだけの巨大システムを全部ちゃんとつくり上げて、アプリまで載せるというところは、残念ながら今、1社しかないと。アメリカとかヨーロッパは数社あるわけで、そこに対して、ではゼロになってはいけないでしょうという話が一番最初の起点。そのためにはベンダーが、つまりスパコンメーカーが、当然魅力的なビジネスにならなければいけなくて、ビジネス展開というのが多分エコシステムなんですよ。ビジネス展開できるように、ちゃんと最終的なデザインをやって、実装してもらって、みんながそれを、日本だけではなくて、世界でも買って。例えば「富岳」のプロセッサ、アメリカのソニーグループが買ったとかというのは結構大きいインパクトで、だからそういうところの展開力。それから、なるべくオープンのアーキテクチャでやって、アプリケーションがどんどん開発されるから、それを使うためにこれを買うというように回ってくれないと、恐らく1,000億円規模を国が投じるからそれでマシンがつくれます、だから完成しましたという構図は、そろそろもう終わりじゃないかなと思います。
【井上委員】 ありがとうございました。
【安浦主査】 それでは、根本委員、お願いします。
【根本委員】 根本です。いろいろな要点盛りだくさんでお話しいただいて、ありがとうございました。どうして、この必要性であるとか、開発の必要性であるとか、大事な点というようなことというのは、全部――全部かどうか分かりませんが、大事な点は盛り込んでいただいているんだと思うんですけれども、ただ、一ユーザとして距離を置いてこれを見たときに、マシン、いわゆる計算資源を使うだけであれば、ほかのサービスも幾らでもあるという考え方もあるんだと思うんですね。もちろんそれは、私が言っていることは、別に必要性を改めて問うというようなことを言いたいわけではなくて、もちろんその必要性というのは改めて問うまでもなく共有されているものだとは思うんですけれども、使うというだけではない側面というのも含めて、全体像というのがもうちょっと見やすく整理されると分かりやすいのではないかなというふうに思うんですけれども、その辺りはどのようにお考えですか。
【朴オブザーバ】 大変難しい課題で、答えにくい課題なんですけれども、フラッグシップマシンのいいところというのは、やっぱり国がこれを中心にしてまとまっているというところだと思うんです。これは政策的に非常に重要な点でもありますけれども、だからアプリケーションをみんなが勝手に、いろんなアーキテクチャの上でどんどん開発して、そのアーキテクチャの上でしか動きませんというようなこと、だからユーザからしたら確かに、単に動くマシンがあればいいんでしょうけれども、例えばHPCIのプログラムの中で、非常に巨大な計算資源を無償で使えていたりするわけですね。そういうことがほかのところでも自由にできるかというと、必ずしもそうではありません。それから、開発というところを、じゃあどういうマシン、どういうシステムに傾注してつくっていけば、ユーザが増えていってくれるのかと。だから、途中で言いましたけど、つくったものを自分たちで使うだけだったら、何やっても別に構わないわけです。でも、その開発に対しても何らかのお金を投じて、国が支援しているわけですから、成果創出プログラムとかで。ですから、そこのところをちゃんと使うための1つの枠組みとしては、何らかのフラッグシップとかHPCIの枠組みというのが機能することはモチベーションになっているんじゃないかなというふうに思います。
【根本委員】 すみません、ちょっと私の聞き方がよくなかったんだと思うんですけれども、使うということにフォーカスするというのもそうなんですが、使うことによって生まれるものというのもあると思うんですね。使うから生まれるということと、また使うということが包括的に語られるということがそろそろ必要になってきているのではないかなというふうに思うんですけれども、あまり使うところだけをフォーカスして考えると、この全体像というのが見えにくくなるのかなというふうにもちょっと思ったんですが。
【朴オブザーバ】 すみません、生まれるものというのは、科学成果という意味ではなくて、そこから生まれるコミュニティとかエコシステムのことをおっしゃっているんですか。それとも成果のことをおっしゃっているんですか。
【根本委員】 それは両方あると思うんですけれども、議論上、成果でも構いません。
【朴オブザーバ】 そういうことであると、だから計算科学フォーラムという枠組みがずっとあるわけです。こういう結果が世の中の科学技術、あるいは社会に必要であるから、こういう計算をすべきであると、そこでターゲットになるアプリケーションが決まって、あるいは規模が決まって、それに向かってデザインするというのが、「京」とか、特に「富岳」でやってきたことだと思います。ですから、あとはそれをどう活用するかということだと思うんですけれども。
【根本委員】 いや、そういうことを言っているわけではないんですけれども、ちょっと話が多分うまくかみ合っていないんだと思うので、また後にします。ありがとうございました。
【安浦主査】 また後ほどメール等でやり取りもさせていただきたいと思いますので、あるいは次回以降、また議論させていただく可能性もあると思います。
それでは、総合討論、時間がほとんどなくなっておりますけれども、全体通して御意見等ございましたらお願いいたします。
小林先生、ちょっとお待ちいただいておりましたけど、よろしくお願いします。
【小林主査代理】 それでは、最初の大石さんの御発表についてお聞きしますが、先ほど田浦先生からも同じような質問があったので、関連するのかもしれませんが、この計算というのは4ノードでしょうか、全系をお使いになる必要はありませんか。例えば2万ケースを計算するのに、どのぐらいの計算規模というか、時間が必要でしょうか。加えて、2万件の学習データ量も、もし可能であれば教えていただければと思います。
【大石オブザーバ】 ありがとうございます。全系は使っておりませんで、「富岳」の試行的利用でしたので、リソース的にも限られているところがありまして、今回2万件生成するのに利用したのは5万ノード時間程度になっておりまして、「富岳」は15万ノードございますので、比較的小規模です。
【小林主査代理】 そうすると、この委員会では、ポスト「富岳」を議論するわけですが、例えば100倍の性能が得られたらさらに何ができたとか、シミュレーションとAIに質的な変化が得られるとか、何かそういうのはありますでしょうか。もしありましたら教えていただければと思います。
【大石オブザーバ】 そうですね、1つは、高解像度化もできますし、あとは先ほど申し上げたような津波のシナリオを増やして、想定外をなくすような予測ができるですとか、また、予測対象地域を増やす等も可能になるというふうに考えております。
【小林主査代理】 そうすると、日本全国をカバーするぐらいになると、そのぐらい必要だというような御意見ですか。
【大石オブザーバ】 そうですね、はい。日本全国やるには全系規模が必要というふうな試算もさせていただいています。
【小林主査代理】 どうもありがとうございました。
【小林主査代理】 次に松岡先生に1つお聞きしたいんですけど、運用上、「富岳」のいろいろな活用法を御検討されて、非常に幅広いエリアで活用できるというご説明でしたが、あまりにも「富岳」の使い勝手が心地よいと、ムーアの法則の終えんに伴い、いろいろな議論で示された将来像を考えたときに、どうしてもシステムのアプリケーションとのコデザインがどんどん深くなるというか、ある意味ドメインスペシフィックなシステムにならざるを得ないと思うのですが、その汎用とドメインスペシフィックの間のトレードオフというか、これまで「富岳」の利用でぬるま湯というか、心地よかったユーザを、将来のそういうシステムにジャンプアップさせるための仕組みというのは、何かお考えでしょうか。
【松岡オブザーバ】 いろんな答え方できるので、どうやって短く答えようかと思うんですが、まず第1に、今回コロナプログラムというのが「富岳」で動きましたが、あれは、実は重点課題の成果創出でやられたいろいろな計算手法というのを、1つの、コロナという非常に大きな、ある意味でグランドチャレンジに対して、それぞれのいろいろな分野が適用して、コロナというところで、いろいろな形でそういうふうになったわけです。チャレンジしたわけですね。それは計算規模でも、例えば奥野さんがやったものというのは、「京」だと1年以上かかる、1つのたんぱくターゲットに対して、「京」全系使っても1年かかるのが、「富岳」全系使うと3日でできる。なぜそれが重要かというと、今回コロナというのは迅速な結果が必要だったわけですね。
今回、その辺は非常に我々は定量的にアセスメントしているんですけれども、例えば飛沫感染で大変「富岳」が有名になって、かつ、いろいろなコロナの対策、有効な対策を立てましたが、あれは物すごく迅速に対処できたので、普通のスパコンを使っていると、やはりあれはもう、例えばOakforest PACSを占有してもなかなか怪しかったぐらいで、「富岳」が立ち上がるぐらいのところで、もう迅速に、どんどんどんどん計算を動かすには、メソドロジーと計算パワーの進化が必要だったんですね。
そのように、実際の大きなチャレンジ、社会的問題を解決していく場、まさにSociety 5.0に代表されるような社会的問題を解決していくというところに、本当の、いろんなアプリケーション分野が挑戦していくと。それは長期的スパンもありますし、短期的スパンもありますけど、そういうことをやっていくことで、やはり現実問題に直面して、いろんな形での、本当の利用ですね、本当に社会問題を解決する利用というのが盛んになっていくというふうに思っています。
その中で非常に重要なことというのは、しかしながら、全てに迅速な結果を得るというのは、ぬるま湯ではなくて、実はやっぱり使いやすさというのは本質的に関わってくるんですね。つまり、例えばアクセラレータを入れて、プログラミングするのに5年間かかっていたら、迅速な結果は得られないです。なので、それは実はぬるま湯ではなくて、汎用的なエコシステムをなるべく保持しながら性能向上していくというのは、実は非常に本質的なことだと思っています。なので、オーダーnアルゴリズムに変化していって、変な計算アクセラレータみたいなものは実は入れないで、メモリのほうを、一番その主眼的になるメモリのほうを進化させていく、メモリ帯域やネットワーク帯域、I/O帯域と進化していくようなアクセラレーション技術というのを開発していくというのが本流であると、アルゴリズムとともにですね。そのように、それは小林先生に申し上げるような、実は釈迦に説法かもしれませんが、非常に本質的だろうというふうに思っています。実はそれはスパコンだけではなくて、汎用技術としても、クラウドなんかもそうなっていくと思います。
なので、そういう形で今後のコデザインで実社会応用していくと、かつ基礎的なところも同時にやっていくというところをやって、その計算科学と計算機科学を両輪で進めていくというのは、まさに、実は非常に、我々及びアプリケーションの方々も厳しいですね。成果が上がるとすばらしいですけど、非常にチャレンジングな世界に持っていくというところで、ということを予測しておりますので、まさに今後、我々だけではなく、理研だけではなくて、いろいろな基盤センター、大学、ないしは、さっき朴さんの話にもありましたが、諸外国の様々のセンターとも連携して、センターや企業とも連携して進めていきたいというふうに思っています。まさにこれからチャレンジの時代なんですね。
【小林主査代理】 分かりました。では、引き続きよろしくお願いいたします。ありがとうございます。
【松岡オブザーバ】 要するに、現在のプログラミングモデルをなるべく保ったままメモリ帯域加速するというのは、ものすごい技術なチャレンジ。
【安浦主査】 本日の部会の時間が来てしまいましたので、本日の委員会はこれで終了させていただきたいと思います。まだまだ御議論いただくべきことたくさんあると思いますし、今日は本当に、大石様、それから松岡センター長、朴理事長から、それぞれのお立場で極めて重要なお話をいただけたかと思っております。どうもありがとうございました。
それでは、事務局のほうにマイクを返したいと思います。事務局、お願いします。
【太田専門職】 事務局でございます。御審議どうもありがとうございました。本日の議事につきまして、議論が足りなかった点等ございましたら、メールにて事務局まで御意見をいただければと思います。
また、次回、第6回につきましては5月27日を予定しておりますので、よろしくお願いいたします。その後、第7回、第8回につきましては、現在日程調整をしておりますが、確定次第、別途事務局から御連絡させていただきます。
【安浦主査】 それでは、以上をもちまして閉会したいと思います。本日はどうもありがとうございました。今後ともよろしくお願い申し上げます。