ここからサイトの主なメニューです

今後のHPCI計画推進のあり方に関する検討ワーキンググループ(第4回) 議事録

1.日時

平成24年7月4日(水曜日)17時~19時

2.場所

文部科学省3階3F2特別会議室

3.出席者

委員

小柳主査、秋山委員、天野委員、石川委員、宇川委員、加藤委員、小林委員、関口(和)委員、関口(智)委員、常行委員、富田委員、中島委員、中村委員、平尾委員、牧野委員、松尾委員、松岡委員、村上委員、室井委員、渡邉委員
(HPCI計画推進委員会)土居主査、土井委員
(説明者)統計数理研究所 樋口所長、齋藤特任助教、東京工業大学 高安准教授、キヤノングローバル戦略研究所 大西主任研究員

文部科学省

下間情報課長、林計算科学技術推進室長、村松計算科学技術推進室長補佐

4.議事録

議事に先立ち、林計算科学技術推進室長より、参考資料1、参考資料2を説明。また、平尾委員より「京」の状況について説明があった。

(1)スパコン利用に関するヒアリング

樋口統計数理研究所所長より、資料1に基づき説明。質疑応答は以下のとおり。

【富田委員】 ワクチンの効果はパラメータの推定をするのか。例えばワクチンの効果のパラメータがあって、その値を知りたいということなのか。

【樋口所長】 そうではなく、シナリオをたくさん用意しておくということ。もう一つは、病院もこの中につくっていて、患者がどれくらい来るのかをリアルタイムで観測することにより、パラメータの絞り込みができるような仕組みになっている。

【富田委員】 人間の行動のモデル化はどのくらいするのか。

【樋口所長】 今のところは単純で、毎日のスケジュールは全部決まっている。途中のいろいろな動きは反映されていない。それよりも、病気がうつるところのプロセスを精緻化したい。

【平尾委員】 東大の柴崎さんが人の動きをGPSでダイナミックにとらえ、それを可視化することをやっている。これは必ずしもパンデミックではなく、防災や交通量ということだと思うが、先生の研究とはどのような関係になるのか。

【樋口所長】 今は各人のスケジュールは決まっているが、パーソントリップデータ、あるいは先生がおっしったようなデータを取り込むことによって、よりリアリスティックな人の動きを入れていくことは可能であり、そのデータ取り込みをやっていきたいと思っている。

【中村委員】 あらかじめいろいろなパラメータで計算をしておくということだが、インフルエンザがはやった場合に、特徴に合わせたパラメータがあって、それで絞り込むほうが対応しやすいのではないかと直観的には思うが。

【樋口所長】 まずパラメータサーチをしておいて、シナリオをたくさん用意しておく。シミュレータの中には病院も入れてあり、実際はそのデータをどのように集計していくかにもかかわるが、保健所や学校といったスケールでデータを集め同化をさせることにより、用意していたシナリオの中でどういうものを取っていくのか、また、そのシナリオから基づく予測ができるのではないか思う。

【中村委員】 4日間あれば「京」で計算できるということだが、はやり始めても4日ぐらいで対処できるのであれば、それで間に合うようにも思う。「京」のようなスパコンが実際に必要だというためには、やはり機動的な対応が必要だというふうになると非常に説得力があると思う。しかし結果をためておくだけなら、10分の1の性能で40日かかってもいいということになると話が違うように思ったので質問している。

【樋口所長】 シナリオ計算のときはリソースを使って解決しておけばいいと思う。ただ、同化をするときには、ある制約された時間の中で問題を解決しないといけないので、それは時間をかけていいのか、あるいは短期集中でパラメータ、あるいはシナリオに基づくさらなる予測をするのかというのは考えないといけない。

【秋山委員】 一般の我々が経験しているようなインフルエンザの場合には、スーパーコンピュータ使ってまで何で計算するんだ、というように一般の人は思ってしまう。今日の説明では、樋口先生は脅かすようなことは一切おっしゃらなかったが、もしH5型が仮にパンデミックになったら、自衛隊が出動してどこをどう隔離するかというシミュレーションが必要になってきて、今回のシミュレーションの価値も大きくなると思う。先生方のグループでは、このような激しいシナリオまでを入れるような研究も行っているのか。

【樋口所長】 極端に強毒の場合はやっていない。現状はある一定の予算内でどのようにワクチンを打ったら効果的なのかというところにフォーカスしている。どれぐらいワクチンを用意したらいいのかを、あらかじめ押さえておくのは大切だと思う。

【宇川委員】 パラメータの数が多く、それで多くのケースをやると、差異が非常にはっきりする場合はいいが、山、谷がたくさんあって、どこがほんとうのミニマムなのかよくわからないという状況が多いと思う。それについては、どのぐらいの経験が積み重ねられているのか。

【樋口所長】 例えば、最初にどのような人たちが病気にかかるかで一定の幅はあるが、これを定量的に押さえておくことは重要だと思う。

【宇川委員】 それは同意するが、10の7乗ケースをやったときに、これはいわば極端なことをやっているのだと思うが、そのときに本当にそんなに差が出るのか、ミニマムを一体どうやってローケートするのかということに関する研究も必要ではないかと思って質問した。何らかの意味で最適解を見つけようとしているわけですね。

【樋口所長】 最適解ではなく、むしろ分布として、どれくらいのお金でどれくらいやったら、これぐらい以下に抑えられるといった分布の視点であり、あるものに関して非常にブロードだったならば、こういう施策はあまり有効ではない等々の評価ができるので、ミニマムとかピークといった探索ではない。

【小柳主査】 この会議では「京」を上回る計算量の次世代の計算機をどう考えたらいいかということをやっている。先生のお話のようなエージェントモデルで、どのくらいの計算量を増やしたら、それに見合ったブレークスルーがあるかとか、予算投入と効果について、どのようにお考えか。

【樋口所長】 私が直接答えるのは難しいが、先ほど分布というふうに言ったように、何らかのピーク等々の新しいものを発見するという視点ではなく、分布でこういうお金を使ったらこれぐらいになるという面的な広がりで物事をとらえることも重要ではないかと思う。それが現状のブレークスルー、あるいは新発見等々で語られるような科学観とどう相入れるのかは、私がここの場で議論するものではなく、ちょっと違った視点での面的な広がりの似たような計算をたくさんやることによって、総合的にいろいろ物事を考えることも重要だと思う。

【小柳主査】 たくさんやれば、何か新しい知見が得られるだろうというだけでは、予算を考える方を説得するのは難しいので、あえてお伺いしたような次第です。これも今後ともいろいろ議論をしていきたいと思う。

【加藤委員】 たくさんのケースをやるだけではなくて、例えば大きな計算機が必要ということは、むしろエージェントの数が、今の120万から1,200万になるとか、そういうことだと思うが、その場合、どのような新しい知見が得られそうなのかをお伺いしたい。

【樋口所長】 スケールを大きくするのが適当なのか、逆に最小単位でどのようなことが必要となるのか。例えば、海外から何か来たとか、微小なものがどれくらい影響するかというところで全体のスケールをとらえて、それで大きくしないといけないときは大きくしないといけないし、この規模である意味違ったいろいろな感染のパスメカニズムを入れるのが適当なのかは、やってみないとわからない。

【関口(智)委員】 一つの応用としてマルチエージェント系のシミュレーションにハイライトされたというところは非常に意義があると思うが、今回のケースの場合、それぞれのエージェントの計算は局所的なものなのか。もちろんエージェント同士はいろいろと通信するとしても、もっと帯域的なデータを共有しながら、エージェントがテーブルを見ながら動作を決めていくのか。更には、実時間の中でインターネット上の色々な情報を集めてきて、このシミュレーションに取り込んでいくというようなスケールのところまでお考えなのか、そのあたりを教えていただきたい。

【樋口所長】 現状においては、計算は全部局所的です。シミュレーションでは、例えば、電車の中でどれぐらい人が接近しているのかというのも計算していて、距離に応じ、あるいは人口密度によって感染の度合いが変わる、そういうところをきちんとやりたいため局所的にしている。
 また、もっとグローバルなインターネット上の情報によって、人がどのように動くかという情報もあるので、それを取り入れていきたいと思う。

高安東京工業大学准教授より、資料2に基づき説明。質疑応答は以下のとおり。

【小柳主査】 例えば「京」みたいに密結合でノード間の通信が非常に高速なものならもちろんいいが、お話を聞いていると、いわゆるクラウド的というか、それほど通信は強くなくても、数がたくさんあるものでも済みそうであり、その辺を少し整理することが必要だと感じた。

【高安准教授】 そのとおりであり、クラウド等、これからどんどん蓄積されていく情報をいかに効率よく計算していくかということで、たくさんのノードの計算が必要になってくると思う。

【平尾委員】 大量のデータをいかに構造化するかとか、あるいは知識化するかというのが非常に重要になる。方法論として、例えばグーグルの検索エンジンなどがあるが、あれでは十分ではなく、要するにウェブ上の情報の関係をうまく引き出す、編集エンジンのようなものが必要になると思うが、それについてはどのようにお考えか。

【高安准教授】 ウェブ上からの編集エンジン、検索エンジンという意味では、日本の技術が進んでいて、例えば電通さんもそういうサーバを持っているし、ホットリンクさんみたいなところだと、ほとんど網羅的に日本で書かれたものをリアルタイムに近いような形でロボットが取ってきて言葉を分析し、その言葉をポジティブに使っているのか、ネガティブに使っているのか、といった分析をするツールは既にある。その分析した結果をどう反映していくかということになる。

【牧野委員】 ネットワーク構造の解析で、データ量と計算量の関係が気になった。実際にこれが大きくなっていったときに、そういう方法を使うことに対する展望はどうか。

【高安准教授】 私どもは、100万社の企業のネットワーク、100万掛ける100万のn乗の計算が必要といったが、実際は、もっと効率のいい計算方法、例えば深さ優先探索などを駆使して使っている状況である。

 また、世界規模のデータも存在し、日本だけではなく、外国に幾ら流れたのかということまで考えていくと、1億掛ける1億ぐらいのマトリックス、それを深さ優先探索でどうとらえるのか、アルゴリズムの工夫はできるが、それだけでは限界はあると思う。

【中村委員】 金融市場の例ではパックディーラーモデルを使って、数百ミリ秒ぐらいではあるが、暴落などを予測することができるようになった。ただ、実際にはミリ秒が必要であるということだったが、それはより計算量という量的な支援が必要なのか、あるいはモデルの精緻化という質的なことが必要なのか。100倍速度を上げるためには何が必要なのか。

【高安准教授】 与えられた限られたデータから、どれだけ高速に正確にパラメータを推定していくかという問題なので、モデルの精緻化と計算量の両方が必要です。最近は、膨大な計算量を必要とする粒子フィルター法を導入することで、昔のような最尤法を使っていたときよりはずっと推定が高速化され、ほんの少しのデータでも、パラメータの変化点に適合した新たな粒子が増加する形で、状況に急変にも対応し、変化点を捕えられるようになってきた。

【小柳主査】 確かにそこに書いてあるようにより安価に高性能なものがたくさん使われるとうれしいというのは、我々もそのとおりだが、これをどのくらい定量化できるかが、計算機を考える側としては重要になってくる。その見通しはどうか。

【高安准教授】 これがミリセカンドで動いている金融市場のデータで、この後、大きな暴落、価格変動が起こってくる。ここでは20万粒子のシミュレーションをしていて、どのくらい力が加わっているのかという計算をしている。どのぐらいの過去を見て戦略しているディーラーがどのぐらいいるのか、順張り、逆張り、トレンドは順方向になるのか、逆方向になっているのか、それを推定したものを出している。非対称なポテンシャルになっているのか、それとも対称なポテンシャルかを過去データを使いながら、計算しているバージョンをお見せすると、一瞬の変化を多分5 tickも遅れないで検出できている。そういう意味ではかなり優秀につくられていて、なおかつエージェントのモデルと対応しているので、どういう行動が行われたという再現シミュレーションもできるようになっている。ここで必要とされる計算は、パラメータを変えた沢山の並列処理と時系列との整合性の評価であり、並列数が増えればそれに応じて、精度を上げることができると期待している。

 

(2)国内外の動向と計算科学技術の利用状況、今後の必要性について

林計算科学技術推進室長より、資料3に基づき説明。質疑応答は以下のとおり。

【小柳主査】 まず第1の国内外の動向について、皆様の意見を中心にまとめた資料について、つけ加えることやおかしなところがあれば、ここで議論して精緻化したいと思う。

【牧野委員】 2ページ目の(5)番のところで、コンピュータ関連企業の中心プレーヤーの変化があるが、ARMはIPベンダーであり、チップを作っていないのでチップベンダーという表現はおかしいと思う。

 同じページの一番下に半導体製造の海外への委託増加とあるが、増加というと、まだ国内でもつくっているように見えるのでこれも少し違う。現実に近い表現にしたほうがいいと思う。

【小柳主査】 我々としては最先端をベースに考えているが、少なくとも最先端は完全に委託してしまっているという意味では増加だと思う。

【土居計画推進委員会主査】 同じ場所の(5)のグローバル化について、IESPによる米国、欧州、日本、中国の国際連携、これは何を指すのか。

【松岡委員】 IESPは、インターナショナル・エクサスケール・ソフトウエア・プロジェクトで、エクサスケールに向けたソフトウエアスタックを共同でサーベイし、何らかの共通性を持った形で構築していくというフォーラムである。今まで、ソフトウエアに関してはそこまでの協力関係を統一して行うというのはなかったが、ハードウエアよりむしろソフトウエアの方が複雑化しているという認識もあり、IESPという組織が活動している。それにはDOEや、日本の主要大学、ヨーロッパでは、例えばPRACE、及び日米の主要ベンダー等が参加して白書等を出版している。

【小柳主査】 注をつけたほうがいいかもしれない。中国も入っているのか。

【松岡委員】 中国も入っている。

【土居計画推進委員会主査】  具体的には、今もう現実にスタックは。

【松岡委員】 色々なホワイトペーパーはできているが、詳細設計については今後、より詳細なところに踏み込んだ協力関係を結んでいくことを、今まさに関係者でやろうとしているところ。

【関口(智)委員】 先ほどの牧野先生のご指摘のところで、特に半導体については、いわゆるファブだけが外にあるという考えではなく、デザインそのものも海外に移っているという懸念がある。実際のビジネスでは、かなりデザインそのものも外部に委託されているところがあり、外部にデザインを頼まないと、そのファブを有効に使えないということもある。そのような状況をもう少し子細に把握したほうがいいと思う。

【牧野委員】 日本に物理設計までできるデザインハウスもまだある。

【関口(智)委員】 ですから、そこが多分議論で、できるというのと、ちゃんとできるというところとの。

【小柳主査】 エクサの基盤になるかどうかという。

【関口(智)委員】 ええ、そこまで持っていかないと、できるかできないかという意味だと、それは当然できていることは間違いない。

【牧野委員】 いわゆる三社でできるかというと、かなり厳しくなっていて、ベンチャークラスのところでないとできなくなっていると思う。

【関口(智)委員】 おっしゃるとおりです。ですから、そこら辺をちゃんと把握しましょうということです。

【宇川委員】 1ページの(2)の国内の整理のところで、「計算環境の整備が進んできているのではないか」となっている。確かに現在までは進んできていると思うが、ポイントは今後どう考えるべきかであり、進んできているのではないかという言葉は、もう十分なのではないかというニュアンスに取られてしまうとおかしなことになるのではないか。(1)の「積極的に進められているのではないか」は、やはり全体的に積極的に進めているというニュアンスになっていて、そのとおりだと思うが、(2)はニュアンス的に表現を変えた方がいい。

【小柳主査】 今後ますます必要というのは、実は次のポイントであるのだが、ここでもそのことを明確にした書き方にする必要があると思う。

【林計算科学技術推進室長】 今後のニーズについてはまだ調査がないので、何となくこのような文章になっているが、そういうことも踏まえながら、工夫をしたいと思います。

【小柳主査】 文科省としては、ここまで来たというのも非常な努力の成果ではあるので、それはある程度書きたいという気はあったのだと思うが、今後ますますということで、これはまた引き続いて議論していく必要があると思う。

【中島委員】 今の話で、結局何が起こっていたかというと、TOP500シェアの話をするのもいかがなものかとは思うが、結局「京」ができたのでTOP500シェアは一度落ち込んでいたものが数年前までに戻った、という話だと思う。

【平尾委員】 地球シミュレータ以降、七、八年の間で日本のトップのマシンの演算速度は、せいぜい五、六倍にしかなっていない。世界はその間200倍とか、中国は500倍ぐらい増えているが、「京」でようやく追いついたという感じである。決して世界をまだリードしているという側面はなくて、これまで失われた10年近くをやっと取り返した。そういう意味では、これからがほんとうの勝負だろうと思っている。もちろんそれを使ってどのような成果を出すかもそうですが、ハードウエア的にもそういうところに来ていると思う。

【小柳主査】 今までTOP500の分析をすると、トップをとると、下が薄くなるというのを繰り返しているようなところがあり、今回の「京」をつくるときの計画の最初でも、時間的なバランスと、階層的なバランスと両方が強調されていたが、なかなかそのとおりになっていないというのが現状ではないかと思う。

【中村委員】 そのことに関しては、(1)はトップのことを国際比較しているが、(2)は国際との比較がない。例えば国外のトップレベルのものがどれくらいあるかがないと、今の平尾先生のお話に対応できないと思う。

【牧野委員】 さっき平尾先生がおっしゃった、日本の性能向上が小さかったという話に関して、そのような議論のためには、小さかったのはどうしてかという原因の理解と分析が必要で、そうなったことに関して、今後どう考えるかという展望があるべきだと思う。

 性能向上が少なかった理由は、別に予算が減ったからではなく、そのこともちゃんと理解しないといけない。「京」でかなりの程度までリカバーしたが、例えばBlue Gene/Qに比べると4倍ぐらい差がついているというようなことは、このワーキンググループで将来を考える上では大きなポイントだと思う。

【小柳主査】 大事なポイントだと思う。ただ、今4倍といったのは、価格性能比の話ですね。価格は単純には比較できないところがあって難しい。

【土居計画推進委員会主査】  国産といったばあい、TSUBAMEなどのようにどこまで入るのかは悩ましい話もあるが、例えばTOP500で設置されているものがこれだけあって、そのうちいわゆる国産がどの程度だというような分布もつくっておいていただければと思う。

【小柳主査】 国内設置の計算機の中での国産と海外国製とのシェアを分析する必要があるということですね。

【土居計画推進委員会主査】 そうです。というのは、昔にさかのぼったときに、例えばTOP500のトップ10のうちの何台ぐらいを占めていたかという比較等々をやっていくときに違ってくる。

【宇川委員】 その点に関しては、一昔前になるが1990年代、95~96年ころは日本産のスパコンがTOP500の数十%を占めていた。トップ100を見てもそうだったと思う。それがすごく落ちてきてしまって、地球シミュレータのころには10台を切るような状況になり、その状況がつづいている。ただ「京」が10ペタを達成したので、性能的にはすごく回復したが、いわばセカンドレイヤーのマシンがどうなっているかというと、そこは相変わらず貧弱なままである。それに対してヨーロッパは、レイヤー的にちゃんと整備を進めてきていて、トップマシンと並んでセカンドレイヤーのマシンも十分に整備しつつある。そういう状況に対して、我が国として十分なのか、ということではないかと思う。

【小柳主査】 それから向上著しい中国も、Tier-0だけではなく、TOP500に載るようなTier-1に相当するマシンも、性能は別としても日本よりも数はある。これは今後の科学技術の発展に大きなインパクトがあると思われるので、この辺の分析も必要になる。

 

林計算科学技術推進室長より、資料3に基づき項目2の説明。質疑応答は以下のとおり。

【中村委員】 下書きでは、2.(2)のシミュレーションの利用のところに、生命科学分野の記載がなかった。本日の資料では医療・創薬分野が追加されているが、ライフサイエンスという生命科学も入れていただきたい。現状ではまだ多くはないが、将来は脳科学など非常に重要なことが出てくる。

【小柳主査】 分野としてライフサイエンスですね、わかりました。今のところで、実験だけではわからないとか、実験できないのでシミュレーションが必要というのは、産業利用の衝突解析や風洞実験のかわりのようなことも当然あるわけですね。

【加藤委員】 まあ、それはあると思います。

【富田委員】 シミュレーション技術について書かれていると思うが、実際に観測や実験結果と同時にやっていく、つまり、データ同化は今後シミュレーションだけではなく大きな核になると思う。そういうのも盛り込んではどうかと思う。

【小柳主査】 (5)に多少関係することが書いてある。

【富田委員】 (5)は特にデータの利用や初期値の作成で、データ同化に含まれる。それ以外にものづくりに関してもそういう技術が生かせていくと思う。

【渡邉委員】 (4)のところの「地震シミュレーションにおける高精度な地殻情報の入手」について、これは地震波が建物に与える影響に関しては必要だが、地震全般のシミュレーションにおいては、地震波が伝搬するのは20キロとか30キロとか深いところになる。建物に影響を与えるのは表層であり、表層に関してはかなりデータがあるが、地殻の深いところは、地震が起きて、そのたびに地震波からそれこそデータ同化といったことで調べるしかないから、これはおそらく永久にわからないと思う。

【小柳主査】 地震波の解析と評価というか、逆解析みたいなことになるんですね。

【渡邉委員】 逆解析ですね。それからもう一つ、(5)の避難シミュレーションのためのリアルタイム観測データについて、避難シミュレーションにはリアル観測データは間に合わない。むしろ避難シミュレーションに関しては大量のシミュレーションをやってデータベースをつくることになるので、この辺は誤解を招く可能性があると思う。

【小柳主査】 ここで言っているのは、おそらくリアルタイムに観測して、超高速計算機でシミュレーションして、避難誘導方策を出すというような夢のようなことを考えたのか……。

【渡邉委員】 それは無理だと思う。それより、様々なケースに備え、100万回、1,000万回シミュレーションして、観測データからそのデータベースを引っ張り出すということをしないと無理だと思う。地震屋さんが、リアルタイムと言っているのは、地震波からどこでどんな地震が起きたかを逆に調べるという意味でのリアルタイムになる。

【小柳主査】 それは緊急地震速報でも活用されている。

【平尾委員】 科学技術は自由を獲得する人間の知的活動だと思うし、偶然や宿命などに支配されない自由の枠組みを拡大する活動と思っている。実際には、例えば客観的に存在する法則を発見したり、それを意識的に適用することで、私たちが運命に身をゆだねることなくより自由を獲得するわけであり、そういう活動を人類はずっとやってきた、それが科学的な点だったのではないかなと思う。そういう意味で、シミュレーションは、科学的にこれから先を予測できる可能性を持った学問であり、ぜひ言葉として予測の科学というようなものを入れるといいと思う。

【小柳主査】 ありがとうございます。また、富田さんの専門から言うと、データ同化みたいな話をもっと表に出してもいいというような意見はあるか。

【富田委員】 これはむしろ室井さんの専門だと思うが、データ同化は気象・気候の分野で発展してきた経緯があり、こういう手法はほかの分野にも生かせるし、実測データも含めてデータが爆発してきているので、そのデータを利用しない手はない。例えば、ものづくりに生かすようなことができるのではないか、というところを盛り込んだほうが発展的になると思う。

【室井委員】 事前のヒアリングの際に、今後検討する最先端のコンピュータは、汎用的なものであるか、専用的なものであるかという質問もあったと思う。この2.全体の書きぶりを見ると、汎用のものを目指していくように書かれているが、それでいいのか。また、富田さんはアプリ全体を精査し、今後何を目指すかという議論をしていると思うが、分野ごとにブレークスルーを設定し、そこに向けてやっていくというのは必要だと思う。ただ、色々な人に使ってもらうというようにも読めるので、どこにブレークスルーがあって、どこを重点的にやるかも考える必要があると思う。

【小柳主査】 色々な分野を考えていることは確かだが、それを汎用の計算機でというわけではなく、まだ先の課題という理解である。必ずしも汎用計算機の要件を分析しているわけではない。

【関口(智)委員】 科学でいわゆる知のフロンティアを開拓していく話と、それを実際の社会への出口でディプロイしていく話は、全然違う軸だと思う。同じハードウエアを使うかもしれないが、多分違うオペレーションになると思うので、そこを分けて議論するにはどうすればいいかを、考える必要があると思う。

【秋山委員】 平尾先生のコメントまで戻ってしまうが、計算機システムが未来を予測するというメッセージは重要で、ぜひそのように書いていただきたいと思う。一つつけ加えさせていただきたいのは、それを必ずしも演繹的なシミュレーションだけではなく、いわゆるデータマイニングやパターン認識、機械学習のような方法で危機のパターンをあらかじめ先取りするということもある。シミュレーションの方がわかりやすいので、そちらがメインで構わないが、必ずシミュレーションとデータの帰納的解析というのが、両方とも未来予測につながるというメッセージは入れていただきたいと思う。

【平尾委員】 (2)のところで、シミュレーションや理論計算は、実験の補完とか補うという言葉があるが、実験と計算科学は、視点が違うと思っている。決して補完物という位置付けではなく、もう少し的確な言葉を選んでいただきたいと思う。

【中村委員】 (5)に戻るが、社会的ニーズにどうこたえるかという部分が抜けているように思う。先ほどのマーケットの話でも、予測したデータをどう社会に公開していくのかは非常に難しく、それが間違った予測であれば甚大な問題を与えてしまうことになる。だれが結果に責任を持って社会に紹介していくかということも、きちんとした議論をすべきと思う。

【小柳主査】 結果の公開という点だが、社会にどう生かすかというときに、何かもう少し広いコンテクストがあるような気もする。

【中村委員】 そのとおりであり、ここでは入力しか書いてないが、出力部分も必要だと思う。高安先生にお伺いしたいが、先ほどのような場合に、当たれば確かにすごくいいが、それがもし間違えたような場合、どのような保険のようなことが考えられているのか。

【高安准教授】 勘違いをされてしまうかもしれないが、現状では、予測をしているわけではなく、現状の市場を分析しているということになる。現状を正しく高速に判断するために、その指標を出すということをやっている。逆に私たちはただデータ解析をしているだけでもなく、データ解析で色々な統計的な法則性を見つけ、それを反映するミニマムなモデルをつくるということが大事である。いいモデルができれば、外れた場合のシミュレーションも行えるようになるので、リスクをある程度評価できるようになると思う。

【小柳主査】 確かに経済物理というと、物理の第一は複雑な現象から単純な法則ということなので、逆も大事だということですね。

【富田委員】 予測するというと、どうしても一本の線を予測するみたいに聞こえてしまうが、本質はエラーの広がりを予測するということである。そのことをどうやって伝えていくか。いい言葉がないものかと思っている。

【加藤委員】 計算機科学の方は比較的共通の認識があると思うが、計算科学というと、人によっては狭義のシミュレーション、予測のためのシミュレーションから、先ほど出たような分析とかいろいろある。最初に「計算科学とは」を説明しておかないと、その後の議論がわかりにくいと思う。だいぶ前にこういう議論をしたような気がするが、きちっと答えを出しておいたほうがいいと思う。

【小柳主査】 答えというか、概観ですね。加藤さんにお伺いしたいんだけれども、産業利用の話が後で出てきますが、この辺は何か、大問題だと思うんですが。

【加藤委員】 全体像を見てみないと、ここだけではコメントしづらい。

【小柳主査】 加藤さんが相手にしているような企業は技術のレベルが違うので、こういう問題も違ってくるような感じがしている。

【松尾委員】 インフルエンザの拡大予測及び介入政策立案というような表現があったが、このような計算科学技術の利用状況、今後の必要性という意味では、国として政策立案に利用するとか、国家として利用するというように明確に言ったほうがいいと思う。

【土居計画推進委員会主査】 今のようなご意見のあったときに、例えばサンエンス・フォー・ポリシーということで、かなり広くなっているものをどこまで限定するかということになる。あれもこれも、何でもあるというわけには多分いかない。その意味でも分類学みたいなことで、構成を考えたほうがいいように思う。

【小柳主査】 広い意味の基礎科学と、それの応用、いわゆる工学的な応用というのではスタンスが違うのではないかと。ただし、両者が密接に関係しているというのも近代科学の特質なのでということですね。

 産業利用の最後の6ページの上から2つ目の○に「ソフトウエアの開発が目的ではないため」とあるが、これは産業利用の場合について言いたいのだと思う。ですから、「商用ソフトウエアを利用する場合に」というようにしないと、誤解を招くことになる。

【加藤委員】 この問題は奥が深く、結局ボリュームゾーンに展開される、あるいはお金を持っているのは産業界で、産業界で使っているのは商用ソフトになる。スパコンも含めた情報通信産業全体を発展させようとすると、商用ソフトをどうしていくかは非常に大きな問題だと思う。そういう意味では、また別な章でそういう議論がされるのかなということで特に発言しなかった。ここに関しては、特に商用ソフトの利用者が現状では産業界に多いので、そういう人たちがスパコンをどう使うかが重要な問題であるというぐらいを書いていただけばいいと思う。

【小柳主査】 私の限られた経験では、自分でソフトを書くという人もいないわけではなく、予想外に多かったという印象がある。

【加藤委員】 いないわけではないが、例えば私が1984年ぐらいに会社に入ったときは、みんなインハウスをやっていた。ところが、90年ぐらいからは、ほとんどISVに変わっている。それは開発費とか維持経費を考えたときに、ISVの方が圧倒的に安い。ところがここに来て、1万コアとか10万コアということになって、ISVだけでは対応できないということで、我々がやっているようなソフトウエアとか、あるいはオープンソフトウエアが注目されているという状況にある。

【小柳主査】 例えば材料などの分野では、インハウスでやるのが多いという印象がある。

【加藤委員】 そうですね。確かにその分野はまだデファクト的なISVソフトウエアが決まっていないのでそうなんですが、熱流体や構造などの解析は今までもISVでやられていた。そこにボリュームゾーンがあるのも確かだと思う。

【渡邉委員】 システムとして考えた場合に、現場で一番頭が痛いのはI/Oになる。データ解析しようとした場合には、並列処理ではなくシーケンシャルにしないと他のマシンではできないが、その途端にI/Oがネックになってくる。システムとして考えたときには、I/Oにも触れる必要があると思う。

【石川委員】 細かいことを言い出すと、どんどん増えていってしまうと思うので、これは別に議論してはどうか。

【小柳主査】 ビッグデータが問題だなんていうと、必然的にそういう問題が出てくるので、そのことをどこかでやらなきゃいけないということを頭に入れておきたいと思う。

【加藤委員】 I/Oも確かですが、ストレージが非常に大変だと思っている。また、今後HPCIを考えるときに、そもそもデータがどこにあって、だれがどういうふうに使っているのかを、利用の観点でも考えていく必要があると思っている。ただ、まだこの議論の全体像が見えないので、どこでそういうのが……。最初のころにそういうことも書いておいたほうがいいように思う。

【平尾委員】 ここの議論はシステムの開発がメインになっているが、ソフトウエアの開発に関しても、デファクトスタンダードなキラーアプリを日本としてどうするのかというようなことも議論してもいいのではないか、あるいは項目を起こしてもいいのではないかと思う。

【土居計画推進委員会主査】 今回は全体のどの程度のボリュームが出てきているのか。

【小柳主査】 前回の資料7にある項目のうち、最初の2つが今回の資料になる。今回出てきた意見については、資料に反映していきたいと思う。次回は項目3の「将来の我が国における計算科学技術システムの在り方」について議論していきたいと思う。

 

(3)その他

村松計算科学技術推進室長補佐より、次回の日程(8月10日金曜日、10時から12時)を報告。

小柳主査より閉会発言

 

お問合せ先

研究振興局情報課計算科学技術推進室

電話番号:03-6734-4275
メールアドレス:hpci-con@mext.go.jp

(研究振興局情報課計算科学技術推進室)

-- 登録:平成24年08月 --