学術情報委員会(第7回) 議事録

1.日時

平成25年12月4日(水曜日)10時00分~12時00分

2.場所

文部科学省3F1特別会議室

3.出席者

委員

西尾主査、上島委員、岡部委員、加藤委員、喜連川委員、倉田委員、後藤委員、斎藤委員、竹内委員、辻委員、土方委員、美馬委員、吉田委員

文部科学省

(科学官)美濃科学官
(学術調査官)市瀬学術調査官、宇陀学術調査官
(事務局)下間参事官(情報担当)、長澤学術基盤整備室長、その他関係官

オブザーバー

阿部国立情報学研究所准教授

4.議事録

【西尾主査】  時間になりましたので、ただいまより第7回学術情報委員会を開催いたします。
 本日は、師走のお忙しいところを御出席いただきまして誠にありがとうございました。これからの御審議をよろしくお願いいたします。
 それでは、本日は、前回お話ししましたとおり、SINETのユーザーからのヒアリングと、活用事例の紹介を行った上で意見交換を行いたいと思います。是非活発な意見交換をお願いいたしたく思っております。
 それでは、まず、事務局から御説明いただきます先生の紹介をお願いいたします。

【長澤学術基盤整備室長】  それでは、本日、プレゼンテーションしていただきます先生方の御紹介をさせていただきます。まず、国立天文台光赤外研究部主任の水本好彦先生でございます。
 それから、静岡大学情報基盤センター副センター長の長谷川孝博先生でございます。
 それから、北海道大学情報基盤センター副センター長の棟朝雅晴先生でございます。
 それから、本日は、オブザーバーとして、国立情報学研究所の安達先生に代わりまして、阿部先生に御出席をいただいております。

【阿部国立情報学研究所准教授】  阿部でございます。よろしくお願いいたします。

【長澤学術基盤整備室長】  以上でございます。

【西尾主査】  先生方にはお忙しいところを御出席いただきまして誠にありがとうございます。
 次に、事務局より、配付資料の確認及び傍聴登録等についての報告をお願いいたします。

【長澤学術基盤整備室長】  それでは、配付資料の確認と傍聴登録でございますけれども、その前に、本日は羽入先生と山口先生が御欠席でございますので、御紹介させていただきます。
 配付資料につきましては、お手元の議事次第のとおりでございます。資料は1から5までございます。机上資料としては1から4までございますので、御確認いただきまして、落丁、不足の部分等ございましたら、事務局までお願いいたします。
 それから、本日の傍聴者は23名となってございます。
 以上でございます。

【西尾主査】  羽入先生が急遽、出席ができないということでございました。
 では、時間が限られておりますし、後半の意見交換の時間を確保したく、早速ですが、ヒアリングをさせていただきます。ヒアリングの進め方としましては、水本先生、長谷川先生、棟朝先生の順番で、非常に短い時間で恐縮でございますが、10分間で御説明の後、15分間の質疑応答、意見交換という形で順次進めたいと思いますので、どうかよろしくお願いいたします。
 それでは、まず、水本先生、お願いいたします。

【水本主任】  皆様、おはようございます。国立天文台の水本です。今日は国立天文台におけるネットワーク利用の現状と将来という話をさせていただきます。
 まず、国立天文台の紹介ですけれども、国立天文台というのは国内に4か所あります。それから外国に2か所。北は岩手県水沢から、長野県の野辺山、岡山県の岡山観測所、それに東京三鷹市に本部があります。この四つのキャンパスがSINET4ないしはJGN等の高速ネットワークでつながれて一つのキャンパスネットワークを構成しております。さらに国立天文台というのは天文学の共同利用機関ですので、全国の共同利用の皆様は、SINET4の40Gbps、ここから天文台に入ってくるようになっております。
 そのほか外国に二つ。一つは、ここにあるハワイ観測所です。ハワイ観測所はハワイ島にあるすばる望遠鏡。それから、チリ観測所、これは南米のチリにある電波望遠鏡の観測所です。
 まず、一番普通の使われ方をしているのが、水沢にございます水沢観測所、ここに今年からスーパーコンピュータを導入しました。以前は三鷹にあったんですが、電気代等々の理由から、ここに移しました。御存じのように、スーパーコンピュータというのは非常にたくさんのデータというか、計算結果を出力します。その計算結果は、ここ水沢にためるのではなくて、三鷹本部にある手作りのストレージがありまして、そこにためるようになっています。そうすると、この間に非常に太い通信線が必要になります。残念ながら、水沢というのは情報僻地でございまして、SINETが来ていないのです。そのために、NTT大手町のデータセンターまではJGNで来て、ここから三鷹の本部まではSINET4でつながっているという使い方をしています。
 これは、少し見にくいかと思いますが、お手元の資料を見ていただくとよいと思いますが、これはどのくらいのバンド幅が使われているか先月の11月の統計です。ここのピークのところで大体5Gbps、平均的には1Gbpsくらいなのですけれども、スーパーコンピュータとストレージはこの1年くらいに倍増する計画ですので、数年後には、この10Gbpsのバンド幅はフルに使うようになる予定です。
 次に御紹介するのは非常に特殊な使い方です。光結合VLBIというのですが、まずVLBIの説明をしないと分からないと思います。電波望遠鏡を二つ、まず一つの望遠鏡がここ,もう一方が1,000キロとか、地球の裏側にあってもいいんですが、そういうような二つの望遠鏡を一つの望遠鏡にするための技術をVLBIといいます。ここは、今は一つの望遠鏡で受けた信号は磁気テープとかディスクに入れて、それらを一つのところに持ってきて相関器で相関処理をして、一つの絵にします。これには非常に手間と時間が掛かります。そこを光結合にする。いわゆる通信線を使ってリアルタイムでデータを持ってくれば、瞬時に絵が描けるということになります。これには非常に太いバンド幅を必要とします。ここに書かれていますように、大体1ステーション当たり10Gbpsというのが世界の光結合VLBIの動向です。これが、通信線が、速く太くなれば、幾らでも使いこなせるという状況になっています。
 現在はどのくらいの使用率かというと、これは、観測は常時できるわけではなくて、多くて月に一、二回なんです。1回の観測というのは8時間くらいですので、使っている時間は1日当たり8時間で、月に二、三回しか使えませんから、非常に太いバンド幅を必要とするのですが、使う期間は非常に短い。そういうような特殊な使い方です。
 これはどういうところのアンテナを使っているかという説明図ですので、後でごらんになってください。
 次に、ハワイとチリの外国に大きな観測所があります。これが多分国内の研究機関と少し違ったところだと思います。まず、ハワイの望遠鏡の紹介ですが、ここを見てください。これは有名なアンドロメダ星雲の写真というか、観測データなんですが、これはすばる望遠鏡の現在開発中の次期主力観測装置Hyper Suprime-Cam、HSCというんですが、それで撮ったものです。これが1回の撮像でパシャっと撮れるんです。どのくらいの大きさかというと、1.5度くらいあります。これは月なんですけれども、これまですばる望遠鏡に付いていたSuprime-Camではこのくらい撮れた。HSCの前身の機械ですが、それでも世界一の視野を誇っています。世界の大きな望遠鏡、8メートル、10メートルクラスはせいぜいこのくらい、このくらいの視野しかないんです。これが一挙に撮れるというのがとんでもなくすごいことなんですね。これを実現するために、100枚以上のCCDを使っています。ということは、一挙にとんでもない量のデータが出てくるということです。
 それを表したのがこの図、一晩で約8時間観測すると500GBくらいのデータ量になります。これを日本まで持ってこなければいけない。そのためには、やはりそれなりのバンド幅の通信線が必要になります。現在の通信回線がこれです。今のところ、これは、後で説明しますが、OC3のバンド幅しかありませんので、HSCが動き始めると大体1Gbpsのネットワークが必要になる。これが早急に必要になってくるというところです。
 どのようにデータが送られてくるかというと、これはハワイ島のすばる望遠鏡、よく見る写真ですが、それがこのハワイ島の4,000メートルの山の上にあります。そこから通信線でずるずると下りて来て、ここからOC3のネットワークになっています。ハワイ観測所のほかの生活線はSINET4の太平洋線を通ってSouthern Cross経由でこういうふうに使っていますが、データはこちらを通しています。
 次、最後ですが、ALMA望遠鏡というのは、国際電波望遠鏡のプロジェクトです。これは日本だけで造ったものではなくて、アメリカ、ヨーロッパ、日本、世界各国が寄ってたかって造ったもので、南米チリのアンデス山脈標高5,000メートルの高地に全部で66台のミリ波サブミリ波の電波望遠鏡からなる電波干渉計です。まだ66台は動いてないんですが、これを使って巨大な一つの電波望遠鏡にしようというものです。既に動き始めておりまして、これが絵です。この電波望遠鏡はどのくらいすごいかというと、東京から大阪駅にある一円玉が分かるんです。大阪の人にそれを言ったら、そんなの絶対見えない、すぐに拾われちゃうからと言われて、説明を逆にしなくちゃいけないなと思っているんですが、そのくらいの能力を持っています。すばる望遠鏡はどのくらいかというと、ここから富士山の上にあるピンポン玉がわかる。富士山ですよ。大阪よりもずっと近くてピンポン玉の大きさですから、ALMAはすばる望遠鏡の10倍以上の解像度があるんです。
 これはまたまたとんでもない量のデータを、電波干渉計というのは非常に多くのデータを生成します。データレートは大体このくらい。50Gbpsくらいです。これ以上取っても送れないし予算的な制限でデータを保存するストレージの容量からこのレートに今のところ抑えられていす。このデータは、ここチリのサンティアゴに本部があるんですが、そこにアーカイブするようになっています。
 これはとんでもないデータ量なんです。年間200TBくらいになりますから、そうなると、これを世界中のみんなが寄ってたかって取りにいくわけにいきません。そこで、ヨーロッパ、アメリカ、日本にそれぞれ地域センターというのを作って、ここにあるデータを全部コピーします。例えば日本、東アジアの利用者はここの地域センターにアクセスして取っていくことになります。これを見ていただくと、非常にバンド幅は狭いんですね。これが大きな問題です。このALMAの成果をきちんと出そうとすると、日米欧の競争になるわけで、ここからいかに速くデータを持っていけるか、そこが勝負になります。あとは、もちろん天文学者の能力によります。
 データ転送にどのくらい時間が掛かるかというのを最後にお話しします。これは試験運用のときの平均的な1観測当たりのデータ量ですが、平均的には150GB、1回パシャっと撮ると150GB出てくるんです。これを10Mbpsくらいのもので送ると4時間も掛かってしまうわけです。10個、20個も持ってこようと思っても、1個あたり4時間も掛かってしまうので実用的にならないわけです。これを一応処理してデータ量を20から50分の1にしたとしても、現在のネットワーク性能ではこのくらいの時間、10分から25分。ALMAがフル性能で動き始めますと1個当たり6TBぐらい出ますから、何週間というオーダーになってくる。前処理しても半日とか掛かってしまうわけです。こういう意味でバンド幅の広いものが要る。以上は観測データを日本の地域センターに持ってきたあとの日本国内の状況です。ですから、日本の地域センターから国内の研究者までの高速回線が必要になってくる。
 長々話しましたが、これはまとめです。国内には、いわゆるキャンパス間ネットワークがSINET4を中心にして構成されています。特にバンド幅を広く使っているのがスパコンの水沢と三鷹の間のネットワーク。これは特殊な使い方の水沢の光結合VLBI。あと、外国は、すばるとALMA。基本的には、天文学というのはデータを生産するところが僻地にありますから、その僻地からどうやって我々利用者のいるところまでデータを運んでくるか、そこが非常に重要です。ですから、ネットワークなしには最近の天文学は進みません。ということで、ネットワークは必須ですということで、私の話は終わりにします。

【西尾主査】  非常に簡潔で、しかもインパクトのあるお話をいただき、ありがとうございました。
 ここで、皆様方から御質問を受け付けたいと思いますけれども、いかがでしょうか。どうぞ。

【辻委員】  どうも貴重なお話、ありがとうございました。今の御説明の中で、すごく大きな大容量のデータを扱われているので、それの転送に時間が掛かるというのがポイントだったかとは思うんですけれども、一方で、この蓄積系のデータを送るという話だけではなくて、リアルタイムで例えばALMAの望遠鏡を遠隔で操作をしようだとか、そういった試みがあると、また違った要求条件が出てくるのかなという気もするんですけれども、いかがでしょうか。

【水本主任】  ALMAというのは、観測者が直接観測するわけではなくて、プロの専門家集団がいて、そこが観測を実施します。一方、すばる望遠鏡というのは現在でも、すばるのあるハワイ現地に行かなくても、三鷹本部からリモートで観測できるようなシステムがあります。すばる望遠鏡を作った当初からそれを計画していました。ただ、やはりこのHSCみたいな大きなデータが出てきますと、どういうデータがとれたかというのを見ながら、では、次をどうしましょうとか、これはちょっと駄目だから、もう1回やり直しましょうみたいな判断をしなくちゃいけない。ということは、やはり大きなデータを持ってこなくちゃいけない。
 現在は持ってこられませんから、必要な部分を切り出して持ってきて、それを見て、次にどのような観測をするかを判断し望遠鏡を制御するという形になっています。ただ、すばる望遠鏡は500トンもある望遠鏡で、それが誰も見ていないところで動くととても危険ですね。ですから、制御は、山頂にいるオペレーターに対して、リモートの三鷹にいる観測者ないしはオペレーターがテレビ会議システムを通してこうしてくださいと言いながら、今からコマンドを送るよ、というような手順で、リモート観測ができるようになっています。これは非常に有効に働きます。

【辻委員】  ありがとうございます。

【西尾主査】  喜連川委員、どうぞ。

【喜連川委員】  ちょっと参加が遅れましたので十分御拝聴できなくて、間違っているかもしれませんが、今の話で、次の望遠鏡のアクションを起こすのに、その前に撮った画像を目で確認するということが重要だということでしょうか。

【水本主任】  もちろん目ではなくて、最初は、計算機がいろいろ処理をします。撮られたデータというのはノイズだらけですので、それを簡易処理して、人間が目で見て評価できるくらいのものにする。ですから、それはリアルタイムでやります。それは山頂にある計算機、ないしは生データを三鷹に持ってきて、三鷹で解析する。現状のネットワークでは、三鷹までそのデータを持ってくることができませんから、それはハワイの計算機の上で処理をして、それで簡単になった簡易画像を見て判断し、フィードバックする。
 あと、問題は、非常に空というのはノイズが多いんです。ですから、1個、パシャっと撮るんではなくて、何枚も撮りためて、それをノイズを引きながら足し算をするというようなことになります。ですから、何枚足すかというのは、そのときの空の状況によって変わるので、天候を見ながらその辺りを人間が決めなくちゃいけない部分があります。これの自動化というのを10年間やっているんですが、なかなか難しいです。なかなか難しいというのは、観測者が許してくれないんですね。こんなの使えないよ、もうちょっとちゃんとしてくれないかなと。ですから、平均的に8割くらいの人は満足するのですが、残りの2割を満足するようにするのはなかなか大変という状況です。

【喜連川委員】  御質問させていただきたいポイントは、実効帯域、つまり、実質的に遠隔からローカルまで持ってこなきゃいけない量というのは、ローデータではさすがにないのではないかと。そのボリュームは、先ほどお書きいただいています150GBとか6.4TBというこの……。

【水本主任】  それはALMAの数値で、それは全然できません。それに、ALMAの場合は観測者が観測の質を評価するのではなくて、チリの山にいるオペレーターが評価しています。すばるの場合は、それより全然データ量が少なく、リモート観測ができるのはすばるだけです。すばるの場合は、一晩当たり500GBと書いてありますが、これは一晩の観測データの総量です。1回、1ショットで、1CCDあたり、2k×4k×2バイトで16MB、カメラ全体で16MB掛けるCCD100個、計約2GB、それだけのデータが一遍にパシャっと撮れます。それを大体10分の1にして持ってきますから、100MBとか、そんなものです。

【喜連川委員】  では、それは全然問題ないですね。

【水本主任】  ですから、それは問題ない。全観測データの転送に何故、太平洋線というか、SINET4とSouthern Crossを使っていないかというと、RTTが問題になります。その遅延の問題があるので、そういうのを10個とか、20個、パーっと持ってきたいというときに、十分なFTPの性能が出にくく、随分待ちになってしまう。そこが問題になるので、細いですが、一応バンド幅を占有できる短い専用線を使っているということです。

【喜連川委員】  RTTとトラフィックの帯域、つまり、スループットとは原則独立ファクターですので。

【水本主任】  独立です。

【喜連川委員】  今は多分ボリュームだけを考えればいいと思うんですけれども、私の最近、聞いた話の中では、パロマーなんかですと、シンキングテレスコープとか彼らは言っていました。要するに天文台の中で一番必要なコンポーネントは、実はこれはほとんど自動車と同じなんですけれども、もちろんテレスコープは重要なんですけれども、脳みそがマシーンラーニングのプログラムそのものになっている。おっしゃいますように、8割は受けて、2割は文句がある。とは言いながらも、8割がプログラムでこのトラブルになっているということは大きなファクターで、5分の1のボリュームに落とすことが論理的にはできるわけですね。つまり、やはり無尽蔵に運ぶことはできない。

【水本主任】  5分の1に落とせるのは簡易処理の結果ですから、実際には、その処理のものを使って論文を書くわけにはいかないわけです。ですから、論文を書くときにはもう一度、生データに戻って……。

【喜連川委員】  そうです。

【水本主任】  フル解析をします。

【喜連川委員】  でも、それはリアルタイムに来なくてもいいわけですね。

【水本主任】  フル解析には何ヶ月も場合によっては何年もかかります。だから、リアルタイムじゃなくていいんです。

【喜連川委員】  そうでしょう。

【水本主任】  はい。

【喜連川委員】  ですから、先ほどの百何十GBぐらいのところ、あるいは数百MBぐらいのところは、リアルタイムでテレスコープを動かすためにやるために広帯域が必要なわけですね。

【水本主任】  そうです。

【喜連川委員】  だから、その議論は二つに分けてやらないといけないんですね。

【水本主任】  はい。別物です。

【喜連川委員】  望遠鏡を制御するためにどれだけのボリュームのデータをどれだけ速いスピードで持ってきてほしいかというリクワイアメントと、後から論文を書くために高精細なデータをゆっくりでもいいからきっちり送ってきてくださいというのと、この二つをごちゃごちゃにすると話がややこしくなると思いますので、余り時間を取るといけないんですが、何かちょっとそういうリクワイアメントを整理してSINETにぶつけていただきますと、全面的なサービスをさせていただきたいと思いますので。

【水本主任】  現状として、リモート観測はできなくたっていいわけです。ハワイで観測できますから。問題なのは、天文台というか、光の望遠鏡ですから、夜しか観測できませんから、大体8時間から10時間。8時間から10時間で撮りためたデータを1日のうちに送り終えないとたまってしまうわけです。それが最低限のリクエストになります。これが全てのデータを三鷹にコピーするという意味で、流れは一方的です。山頂からずるずると三鷹まで下りてくる。テレスコープコントロールの場合は、指令も行きますから、行ったり来たりの双方向です。これはそんなに大きなバンド幅を必要とするものではなくて、現状のOC3の性能がフルに使えれば問題なくできます。

【喜連川委員】  もう余り時間を取るのも。

【西尾主査】  よろしいですか。

【斎藤委員】  今のお話の前提に疑問があるんですけれども、これは日本の天文学者だけではなくて、世界中の天文学者がどういう行動をされるかということに関係するんですが、チリ、アタカマ砂漠に住めとは言いませんけれども、例えば日本にずっといなくて、例えば近くのチリの首都のサンティアゴに何か国際的な組織を作って、そこに滞在していただければ、サンティアゴとアタカマ砂漠だったらずっと近いじゃないか。ハワイも同じだと思います。だから、そこに住めばいいんじゃないでしょうか。

【水本主任】  今はどこに住むかというのは余り問題にはなりません。昔は、望遠鏡のそばに観測所があって、そこに宿泊施設まで造って、観測者がそこに行って、観測からデータ解析まで一連の処理をするということが普通でした。ところが、1990年代くらいから、ネットワークが普及したこと。あともう一つは、いろいろな解析プログラム、基本的にはデータではなくて、それを処理するためのソフトウェアが非常に重要です。そのソフトウェアは観測者、天文学者それぞれが独自開発したものと共通のものがあります。共通のものは何とかセンターというところの計算機に入れて、そこで使うことは可能ですが、自分で開発したもの、これは飯の種なんですね。ですから、そのソフトウェアというのを共通の計算機の中に移植して使うということはしません。そういう意味で、リクエストは自分の計算機環境の中でデータを処理したいというのが1990年代の終わりくらいからあり、2000年になったら、もう完全にそうです。ですから、国立天文台のデータセンターの役割は、昔はCPU貸しという、CPUを用意して計算環境を整えて各自の処理ソフトを使ってもらう。今もそれはありますが、そこのところじゃなくて、データを欠損なくどうやって皆さんが心地よく持っていけるか。1週間待つのではなくてということです。そういうような状況になっております。

【斎藤委員】  私の申し上げたかったことは、太平洋を飛び越えてわざわざ専用線を作らなくても、地理的に近いところにいれば、ずっと安く上がるんじゃないか。そういうコストパフォーマンスの話です。

【水本主任】  そういう意味では、何人くらいの方がそれを使うかというところだと思います。このALMA望遠鏡というのは国際共同利用になっていますので、利用者というのはそんなに多くなくて、世界中の人で100人とか、そのくらいしか使えないんです。そういう方々はどこかの大学の先生だったり、研究所の先生だったりする。そういう人たちに、半年、そこに住みなさいと言うと、それは許されるのかなという問題があります。

【竹内委員】  大変興味深いお話をありがとうございました。今の質疑の中でも、データセンターという言葉が出てまいりましたけれども、データセンター機能において、集められたデータというのをどういう形で保存をしていくというポリシーをお持ちかどうか、またその内容を少し補足いただけると幸いです。

【水本主任】  今日は省略してしまいましたが、そこが一番重要なんです。一つ一つのデータサイズはすごく大きいですが、撮られたデータも1分に1枚ずつ撮ったとすると、とんでもない数のフレームが出てくるわけです。その中から欲しいものをどうやって探すかというのは、これはもうデータベース管理しかないわけです。ですから、撮られたデータは自動的にデータベースに展開されていまして、もちろん画像そのものではなくて、いわゆるメタデータですが、それをデータベースに展開して、それは世界で共通のプロトコルで取れるようにしています。それをバーチャルオブザバトリーと言うんですが、このバーチャルオブザバトリーのシステムは2000年くらいから世界各国が集まって標準化をして、それにのっとったプロトコルです。国立天文台も、皆さん、パソコンをお持ちでしたら、JVOというキーワードで引いていただくと出てきますので、皆さんもお使いになれると思います。そういうようなシステム、いわゆるデータベース検索で自分の欲しいデータを取ってこられるような仕組みを開発しております。

【竹内委員】  例えば何年間保存ができるといったようなことについてのポリシーはお持ちでしょうか。

【水本主任】  データは消しません。天文学というのは普通の自然科学の実験と違って、再実験ができないわけです。向こうが、相手が変わってしまったらアウトですので。変わってしまったという時間変化を追うということも大切ですので、撮られたデータは基本的に消しません。事故があっても消えないようにというのに苦労しているところです。

【竹内委員】  ありがとうございました。

【西尾主査】  美濃先生、どうぞ。

【美濃科学官】  先ほどソフトウェアは自分で書くから、自分の横に置かなきゃならないというお話がありましたが、ちょっと違和感があります。今はクラウドサービスの時代ですね。だから、一番大きいデータをできるだけ動かさないようにして、反対にそっちの方にソフトウェアを持っていくという考え方、これからそういう方向に行くのではないかと思います。現在は、みんな横に置きたいという話で、大学でもそういう話がよくあって、自分の横にマシンがないと駄目だというような発想がまだあるのですが、これからだんだん大学の方にサーバがあって、どこにサーバがあるか分からないという時代になってくるわけですね。そうすると、大きなデータは動かさない方がいいという発想ができます。ある程度集めなければならないというのは分かりますが、パロマーみたいな形でリージョナルなデータベースを作るというところまでは高速化が必要だと思いますが、そこから先は個人とデータセンターの間のデータ転送ぐらいの容量でいいのではないかなと思います。その辺りはどうお考えですか。

【水本主任】  いまのはやりはクラウドですが、昔はグリッドサービスが2000年くらいから始まった。国立天文台ではそれらを検討して、グリッドサービスなどいろいろ開発をしてきました。難しいのは、どういうソフトウェアがあるか分からない。パッケージソフトになっていない複数の解析プログラム、これは多くの研究者によって何十年にもわたって作られてきたものですから、片やFortran66で書かれているようなものから、Pythonのものがあったり、そういうのをごちゃ混ぜで使います。さらに商用ソフトも使うことがあります。そうすると、マシン環境依存なんですね。クラウドが全てというか、バーチャルマシンが全てそういう環境を吸収してくれるかというと、現在、残念ながら、そうなっていないんです。ですから、標準的な8割の人を満足することはできるかもしれない。8割無理ですね。5割の人は満足できるかもしれない。大学院生レベル。ところが、一流の研究者になってくると、そうはいかないというのが残念ながら、現状です。ただ、おっしゃるように、クラウドサービスの方に向かっていく流れは当然だと思います。

【西尾主査】  喜連川先生、どうぞ。

【喜連川委員】  それはちょっと、やや世の中的には、美濃先生がおっしゃった方が比較的妥当感がありまして、クラウドがアメリカにあると、チリからアメリカまで運ばなならないというちょっと矛盾したことになるわけですけれども、美濃先生がおっしゃいましたことは、例えばNASDAQのようなもの、あるいは東証のような証券会社というのは、コンピテーションというのは原則数メートルのところでしかやらないんですね。つまり、データが湧いているところの横でやることによって、レスポンスを極度に低減させて、株の売買の強力化を実現しているという現実があります。
 大体こういう極限状況というのは普通、ファイナンスの領域から出まして、それがサイエンス側に流れてくるというのが多いのですけれども、データが出ているところでプログラムを動かすというのは、これは今後もう多分マストになると思います。おっしゃいますように、いろいろなレガシーのプログラムがあるからというお気持ちは分からなくはないんですけれども、これはどんな業態でもプログラムのメンテナンス、リビジョンというのはやらなくてはいけないものですから、そちら側に足を引っ張られて、新しいIT環境に乗っていけないということはちょっと、テレスコープ本体の予算を削ってでもそちら側に投入するということの宗教観の変革が必要だと思います。これは本当に科学の進歩といいますか、日本が先進的な研究成果を出すためには遠回りでもそれをやらないといけないと思います。テレスコープにお金を突っ込んでも、処理ができなかったら、本末転倒ですので。これは文句を言っているつもりではなくて、そういうふうな流れに絶対なると思います。

【西尾主査】  まだいろいろと御質問があるかと思いますけれども、時間が来てしまっております。そこで、水本先生へのコメントですが、先ほど意見が出ましたように、例えば帯域が今後どれだけ大きくなれば、今までできなかったことで、こういうことができるようになりますというような、より具体的な形でのリクエストを出していただくことは重要ではないかと思います。

【水本主任】  はい。分かりました。

【西尾主査】  水本先生、どうもありがとうございました。後の自由討論の時間に、先生の方に質問が再度あるかもしれませんが、どうかよろしくお願いいたします。
 それでは、次も長谷川先生、よろしくお願いいたします。

【長谷川副センター長】  どうも静岡大学の長谷川です。SINETと本学で進めておりますクラウドとの活用事例ということでお話しさせていただきます。
 本学、現在でこそアカデミッククラウド、NIIさんがやられているクラウド、SINET直結のデータセンターが提供しているクラウド等々ありますが、まだ4年、もう5年ぐらい前に立ち上げを始めたんですけれども、その当時には、大学で利用できるクラウドというのが非常に選択肢としては少なく、クラウドプレーヤーさんをしっかり選定して構築していったということがございます。
 それから、画面転送型のシンクライアントということで、いろいろなところでいろいろな試行がなされて、うまくいったり、いかなかったりという話は聞いているんですけれども、我々、これは4年をもう超えたぐらいの試行を続けておりますので、クラウド化とシンクライアントを絡めたお話。
 それから、教育・研究用のサーバのクラウド化、これも2010年にクラウド化を全面やったときに一緒に行いましたので、この話を。
 それから、学認については、今日はちょっとお話しできないと思いますけども、現在、9か月目くらいで進めております。
 それから、もう一つ、これは非常にスパンの長い話ですけれども、国際規格のISMSとITSMSというもののマネジメントシステムを取っておりまして、それを進めながらクラウド化を推進してきたというような経緯がございます。
 現在、一番熱心にやっている、センターで一生懸命やっているところは動画の宣伝サイトということでやっておりまして、これについて少しお話。
 あと、冒頭に少し、要望ということで簡単に書かせていただきましたけども、クラウド化を行う上でBCP対策必須となっていまして、データの総合バックアップ、大学間で連携するようなバックアップでの帯域確保が必要かなということと、これは少し甘えもあるかもしれませんが、SINETはどんどん増強されていくんですが、ラスト1マイルでどうしてもスループットが出ないという各大学さんの悩みがあるのではないか。我々もそれがございまして、コンサルテーション的な窓口とか、そういう情報を集約されたところがあると非常に助かるなという思いがございます。
 それから、シンクライアント。最終的には、シンクライアントやリモートデスクトップなどで遠隔に本体があって、そこで大学の運営とか、教育とか、そういうものができるようなところになるんではないかと思います。
 それから、カジュアルという言葉をちょっと思い切って使いましたけれども、格式張らずに、動画をばんばん配信できるようになった。静岡大学でYouTube等を検索すれば1万数千件出てきます。そのような時代になって、動画を使って積極的に大学のアピールをやっていこうということで現在取り組んでいるということです。
 簡単に、本学のネット状況なんですが、7,000人ほどの静岡キャンパスと5,000人ほどの浜松キャンパスの二つのメインキャンパスからなっておりまして、ここはもう15年ほど前に専用線をお借りしております。従来、SINET3のときには、名古屋大学さんに浜松側から落ちておりまして、従来型のラックに積み上げの基幹システムを構築しておりましたけれども、ちょうどこの中間ではないんですが、焼津のところに商用のデータセンターが建ちまして、ここに5ラックほど基幹を納めるラックサーバをお借りしまして、ファイアウオールからストレージから全て運営側のサーバを全部集約したのが2010年になります。
 この赤い線が専用線ですので、ここには商用のデータセンターとはいえ、完全な学内LANが構築できておりまして、そこで従来型のクラウド型の情報基盤を構築していった。これはシンクライアントのサーバなんですけれども、こういうラックを5台ほどで、ごらんのように、まだすかすか状態で集約できたということです。ちょうどタイミングが良く、SINET4に切り替わりまして、今、焼津データセンター側からNTTさんのデータセンターに直結しているような形になっております。
 ちょっとデフォルメして書いておりますけれども、先ほどのデータセンター内に、本学の基幹サーバ、事務系の運用サーバも含めて全て集約しております。御存じのように、運営とか、基幹サーバを集約しても、研究室内にはたくさんのサーバがございましたので、それを集約するようなパブリッククラウドセンターと呼んでおりますけれども、商用のクラウドプレーヤーさんからセンターで資源を一括借りまして、手を挙げてもらえれば無償でその教員、研究者にクラウドを貸し出すというようなサービスを始めました。2010年です。最終的には、各キャンパスにあるサーバネットワークも全部、外に出してしまって、すっきりしたキャンパスを構築していこうという取組を2010年頃から始めていったということでございます。
 このときに、一番分かりやすく、センターが支払っている光熱費、ガスと電気をエアコンに使っておりますので、サーバで電気をがんがん使いながらエアコンで冷やしていくというようなことをやっておりましたので、クラウド化、一室、サーバ室が会議室になってしまって、電力を全然使わなくなりました。ガスもです。そのときの効果としては大体400万円が年間で浮いたということです。これは一括調達で、この分は含まれておりますので、今までは年間400万ずつ払っていって1,400万ほどです。それがなくなったというような効率が得られているということです。
 これは焼津のデータセンター内で動かしているシンクライアントサーバなんですが、当初は教員にも使っていただこうということでしたが、なかなか浸透はしなかったんですけれども、事務系にはしっかり浸透しまして、大体これはこのブレード1台で運用しているシンクライアントサーバ群ですけれども、1セッションで全体が350ぐらいのセッション数が張られております。350人ぐらいが遠隔で使っているというようなデータです。それが非常に大きなボリュームがあれば、それまでは各事務系の端末にパソコンがあって、恐らくITに詳しい方がセクションに一人いらっしゃって、事故があったらメンテナンスしていたということだったと思いますが、シンクライアントになりまして、焼津のデータセンターの方に1か所にああいうブレードの一団体で収まるようになっているということです。実際のシンクライアントの数はこういう数で、まさにシンであって、裏側にお弁当箱みたいなのが付いていて、ここの画面が焼津データセンターで動いた画面の転送で全て操作が行われている。これはある期間、かなり長い期間でのシンクライアントの利用数ですけれども、徐々に上がっていることが分かります。最近では400オーバー、セッションオーバー、400人ぐらいが同時に使っている。これがワンブレードの塊で済んでいるということで、このような活用が見られます。
 これはもう一方で、研究室のサーバ群を2010年の10月から貸出しを始めまして、手を挙げたら、とにかく無償でお貸出ししますと。その代わり室内でサーバを上げていたら、もう利用しないで、どんどん移行していってくださいという取組を始めて、もう4年近くなるんですけれども、徐々にこのように利用数が上がってきておりまして、スペックも非常にシンプルに分けております。8割ぐらいの方は、これぐらいのスペックで満足して、2割ぐらいの方がこれじゃ足らない、ファイルサーバに使いたい、研究用サーバに使いたい、計算サーバに使いたいという方がいらっしゃるんですが、これはちょっとコモディティ向けといいますか、8割ぐらいのユーザーが満足するようなスペックのもので、価格も非常に安くて月額で500円から4,000円ぐらいのサーバを300機ほど貸し出せる資源を購入しまして、徐々に上げていったということです。もちろんクラウドサーバが上がっておりますので、学内のグローバルIP数はどんどん下がっていっております。
 では、安価なクラウドサーバがユーザーはどういうふうに満足度が上がるのかということで、そんなに高級なクラウドではないので不満かというと、そうでもなくて、これはアンケートを採った結果なんですけども、とても改善した、少し改善したというような変化しないということも含めまして、これぐらいの満足度が得られている。本当に500円から月額4,000円ぐらいのサーバです。
 これは大学のユーザー、自分たちがどうだったかなんですが、このサービスを他大学に勧めることができますかというような、ちょっと普遍性を含めて質問を変えてみたんですけれども、そうすると、自分たちが使うよりも、ほかにはもっと勧めていいんじゃないかというような傾向があったということです。
 いろいろなWebサイドが立ち上がっていますので、今280台ほどリリースしておりますので、貸し出しておりますので、200以上のWebサーバがクラウド上で動いているということになります。ほとんど大きな問題はございません。
 もう時間がありませんので、あとマネジメントの方なんですけども、大体情報系のマネジメント、ISMS、ITSMS、IT、BCMSとありますけれども、マネジメントが進んできますと、だんだんユーザー満足度の方に進んでいきまして、ここで可用性を高めるためにクラウドを我々は活用していったということになります。情報系のマネジメントの目安としては、大体可用性に重きを置いていくようなマネジメントの確立になっていく。これもどういうふうにISMS上でクラウドの活用を処理したかということなんですけれども、何か資産を運用するといろいろなリスクがあるんですけれども、通常はリスクがあれば、管理策を打って、それを小さくしていって、最終的に受容する。もう一つは、クラウドの管理策を打ってリスクを移転するんですけれども、通常なかなかこの移転だけでは、クラウドの行った先の安全がどうかとかなり心配になるということです。
 多くの大学さんでは、恐らくここがかなり心配で、このぐらいのリスクでは受容できないということで、クラウド化が足踏みをしちゃうところだと思うんですけれども、我々、この段階をちょっと通り過ぎまして、さらに、クラウド化を行ったデータセンターの先で更にデータの交換や物理的なデータ輸送でやって、十分受容可能なリスクにして、クラウド化を推進したというような図でございます。実際には遠方の大学さんとのひかりのバックアップです。これはSINETを利用させていただいております。
 それから、ひかりのBCP、これは当時、まだ選択肢がなかったということで、詳しく説明させていただきますけれども、これは2010年以降はデータセンター内でやっておりましたけれども、これを今、山口大学さんとSINETのL2VPNを活用して毎晩、事務系のデータを移転してバックアップを取るような方法をやっております。
 もう一つ、実際にはスニーカーネットと呼ばれるそうですが、物理的にデータをクラウドのサーバセンター上で集約して、物理的に輸送して貸金庫に納めるというような処理を年2回やっております。このときに、本当にデータセンターがなかなか接続できずに、スループットが得られずになった。このような方法をやったんですけれども、今、いろいろなクラウドの選択肢がございますので、ここをしっかりネットワークでどんどん転送できるようなことができるのではないかと思っております。
 クラウドの立ち上げから5年ぐらいになりますけども、300台というクラウドサーバが学内にないという軽快感を共有できていると思います。最初はなかなか特に重要なサーバは外に出せないということをいろいろ議論していたんですが、今はもう何か主要なサーバを上げるときには、データセンター空いていますか、というような質問に変わってきています。クラウド化によって、学内のネットワークがどう変わるかということなんですけれども、通常はファイアウオールがあって、学内にサーバがあれば、ここの通信は折り返し通信するようなことがあるんですけれども、この辺がクラウド化になったことで、外のアクセスについては完全に外に、学内に入ってきませんし、学内での折り返しの通信がないということで、スループット的、帯域的にも非常に軽快なネットワークに学内は変わっていったということです。
 今、この辺はいいんですけども、あとは、今、動画をいろいろやっておりまして、この辺でこれからは動画、かなりデータを使いますので、100MB、200MBとか、その単位のものが幾つもあるという状況ですけれども、こういうところの動画をもうちょっと軽快にできるような環境があれば非常に助かるなと思っております。
 以上でございます。

【西尾主査】  長谷川先生、貴重なシステム構築のお話、ありがとうございました。
 それでは、皆さんから御意見とか御質問があると思いますが、いかがでしょうか。喜連川委員、どうぞ。

【喜連川委員】  ちょっとお話しが速くて、少し聞き逃してしまったかもしれないのですが、いずれにしましても、本当にここまですばらしく展開されているというのを初めてお伺いしまして、非常に立派だなと思うんですけれども、クラウドに転換するときに、自分が持っているサーバを使わないようにすると、クラウドは無料で使わせてあげるみたいな表現があったかと思うんですけど。

【長谷川副センター長】  はい。

【喜連川委員】  ちょっとそこら辺がよく分からないんですけれども、普通、クラウドにすると、クラウド側のコストをどこかが払わなきゃいけないはずで、そこはどうなっているのでしょうか。

【長谷川副センター長】  もう本当に4年前になるんですけれども、一気にサーバを置き換えるというのはなかなか、手元にないと、という方もいらっしゃいますので、まず我々がやったのは、声の強い方にとりあえずクラウドを数台借りて、どんどん使わせてみたんです。そうすると、早めに1週間、2週間で入れ替えるような工学部の先生方もいらっしゃったので、これは十分受け入れられるかなということで、そういうような地道に展開をしていったということと、予算については、センター側で毎年、少しは余裕があったので、それを思い切って最初に初期投資をしたということです。完全にセンターの経費でやりました。ほかのところを削り落として、クラウドの資源を一括調達してといっても、先ほど何度か申し上げましたように、450円から4,000円ぐらいのものですので、それを手が挙がった分だけセンター側が毎月お支払いするというような形で、徐々に増やしていったという形です。だから、センターの経費で一括して購入してということです。これが先です。

【喜連川委員】  今、科研費には、クラウド使用料というものを書けるようになっていますから、もはやそういうちんまいPCサーバなんて買うなというエモーションがそこに表れているわけですけど、そのお金がセンターの方に行くというのではなくて。

【長谷川副センター長】  徴収システムはやめました。

【喜連川委員】  やらない?

【長谷川副センター長】  なしです。

【喜連川委員】  それは研究者にとってはすごく天国ですね。

【長谷川副センター長】  そうです。天国なんですが、おっかなびっくりというか、猜疑心もあって、なかなか一斉には、冒頭の立ち上げが百数十台でしたので、いろいろなこのぐらいですね。140台。今からこういう無料サービスを始めますと言って、センターで一生懸命声を掛けて、これぐらいしか集まらない。

【喜連川委員】  ちょっと安過ぎる気がしますが、月額で450円から4,000円ですか。

【長谷川副センター長】  月額です。

【喜連川委員】  商用のクラウドサービスに比べますとやたらと安い気がするんですけれども。

【長谷川副センター長】  これは二十数社から選びました。パフォーマンスもそれなりに調べまして、自動処理をディスクの書き出しとか、HPPのパフォーマンスとか、いろいろ調べました。当時はアマゾンさんとかがかなり高額だったんです。

【喜連川委員】  それは今でも。

【長谷川副センター長】  それを450円ぐらいから始めるということで聞きまして、それを、もちろん劣るところはありますけども、全体のバランスとコストパフォーマンス的には一番いいだろうということで選んで、それをずっと4年間使い続けておりまして、かつ利用者はどんどん増えているというような状況です。

【喜連川委員】  これ、無料だったら、もちろん増えるのは分かるんですけど。ちょっと長くなって恐縮です。これはサーバ買いなんですか。それとも、いわゆる使ったCPU時間分だけ。無料だから、話がすごくややこしくなっちゃうんですけれども。

【長谷川副センター長】  これは定額です。完全に定額です。

【喜連川委員】  いわゆるクラウドモデルのコンソリデートした分の利得感というのが使っていないCPU空間をシュリンクさせるとか、ピークシフトさせるとか、そういうファンクションは450円だとないわけですね、多分。

【長谷川副センター長】  はい。これにはありません。VPNサーバ、VP仮想サーバを一つの筐体に切っていて、シングルテナントという形で、1台の筐体には静岡大学しか入っていないということはやっていただいているんですけれども、簡単に実はシステムバイブレーションができません。VPNを切っているだけですので、だから、そこら辺はクラウドと言いつつも、我々、センター全体でクラウド資源を総括して買って、そこを各部局に案分して仲良くやってくださいよという形で配布しています。だから、なんちゃってクラウドとちょっと言われるときもあるんですけども、それで結構ですということで、我々はその代役として、クラウド資源を買って、それを部局で案分して、仲良く使わせるというところでクラウド化と呼んでいて。

【喜連川委員】  NIIもサービスを考えたく存じます。世の中の標準に比べて安過ぎますね。どうもありがとうございます。

【西尾主査】  後藤委員、どうぞ。

【後藤委員】  ありがとうございます。私も、特にBCP辺り取り組んでいらっしゃるのはすばらしいと思いました。今の喜連川先生の御質問に続いてのものです。いわゆるフィジカルなサーバをVMで統合なさっているとのことですので、VMで使っていらっしゃる方も多いと思うのですが、一つめの質問は、VMで満足なさっている研究者のユーザーがどのぐらいいるか、です。よく耳にするのですが、研究者の方は、フィジカルなサーバをちょうだい、と言うことが多いので、VM貸しが普及しなくて困っている管理者の方が山ほどいらっしゃるとのことなので。
 二つめの質問は、事業者さんからまとめ借りして、それを学内に渡しているということは、学内のユーザー管理はどなたがなさっていて、そこに関する、特にセキュリティ的な意味でのユーザー管理はどこまでなさっていらっしゃるか。
 あともう一つの質問は、最後、特にインターネットにつながるところで。

【長谷川副センター長】  すいません、一つずついいですか。

【後藤委員】  はい。

【長谷川副センター長】  1番目の質問がフィジカルサーバをどのぐらい使ってということですか。

【後藤委員】  フィジカルサーバを研究者に使っていただいているか。

【長谷川副センター長】  分かりました。やっぱりクラウドが一番手元になくなる不安があるということで、私も以前、クラスターで計算してきたので、そこら辺の心理はよく分かります。とにかく声の強い方に、とにかく居室で部局のサーバとかを本当に立ち上げているような状態でしたので、そういう先生方にまずちょっと使ってみてくださいということで、本当に2,000円ぐらいのサーバから提供したんですけども、本当部局のWebサーバぐらいだったらできるということで、まず手に取って触らせてみると、手に取ってと、クラウドなんですけれども、コンソールで打たせてみて、応答性とかを見てやっていただいて、そのものが外にあって本当に不便かどうかというのを感じていただくということから徐々に始めました。
 140台ぐらいから始めれば、だんだんうわさが広まっていきますので、それで順調に伸びてきたのかなと思います。そして、本当にコアなユーザーの方で研究用計算サーバとか、そういう先生方はいまだに手放しておりませんが、そういう先生方も研究室のWebサーバだったらいいねぐらいの話になって、いろいろな形で浸透していく。だから、本当に何か展開しようとすると8割、2割というお言葉がありましたけれども、まさに8割ぐらいを我々は満足するスコープでサービススコープを展開していきまして、2割の方々の言うことに余り惑わされないというか、非常にシンプルに専門家の方にとっては、非常にあの辺、まどろっこしくて、たった四つしかないのみたいな話なんですけども、シンプルに8割方を満足させるようなサービス体系にして、それで徐々に展開を図っていったということです。
 御回答になっておりますか。

【後藤委員】  本当はユーザーに貸し出している物理サーバと仮想サーバの割合をお聞きしたかったのですけど。

【長谷川副センター長】  どうでしょう。グローバル化の数であれば、これを展開する前に600ぐらいまでグローバルIPがあったのが今100台に落ちています。100から200の間にグローバルIP数が落ちていますので、そのぐらい学内のグローバル機器はなくなっています。ただ、各計算サーバの数となるとちょっと各研究者把握ということで、申し訳ない。

【後藤委員】  分かりました。結構です。では、セキュリティの件を教えてください。

【長谷川副センター長】  セキュリティについては、いわゆる大学であちこち学生さんとかが立ち上げてしまうのを野良サーバと言っておりますけども、持ち主が分からない。卒業生がいなくなった。卒業していなくなったら、サーバが分からなくて、メンテナンスが全然行かなくて、セキュリティホールになってしまうというような状態があったわけなんですけども、これは我々センターが貸出ししておりますので、申請書を書いていただいて、誰が責任者かというところが3名ぐらいリストが挙がるようになっております。見ていただければ分かりますが、各3月にガクッと落ちているんです。実は毎年3月になったら、そのサーバは使っていますか、もう要らなければ資源として返してください、再配布しますからということでやっておりまして、ちょうどこの辺とかは20台ぐらいずどんと落ちているのは、本当にいわゆる学内にそのまま放置しておくと野良サーバになるものを我々が回収して再配布しているということです。
 アクセス制限とか、リフォルトクローズにして必要なサービスポートだけを開けて配布するようなイニシャル設定をやっておりますので、基本はHTTPとWebサーバです。そのポートだけを開けてデイリーのパッチをあてるような状態でお渡ししているというような状況でセキュリティを固めています。エージェントプログラムを載せてセキュリティを見るということもちょっと試みましたが、そこは管理者の方も抵抗がございますので、そこはちょっとお任せしたということです。

【後藤委員】  もう1個だけいいですか。

【西尾主査】  どうぞ。

【後藤委員】  最後に、同じセキュリティですが、通常の商用環境ですとマネージド・セキュリティ・サービスとか、MSSという言い方をしますが、クラウドへの外部からの侵入なり、そういうものを常時モニタリングするような機能について、アウトソースも含めて検討なさっていますか。

【長谷川副センター長】  まさに自分たちでやろうということが、何かエージェントプログラムをインストールして皆さんに使っていただこうという考えもあったんですが、そこはちょっと途中でやめてしまいまして、実際にはクラウドプレーヤーさんがDOSアタックとか、その辺の監視をしていて、そこの連絡をもらうということをやっている。
 それから、我々としては、イニシャルの設定をしっかり強固にしてお渡しする。それから、年に数回、しっかり貸し出している研究者の方と連絡をとってサーバの運用状況について確認する。貸している分、無料というのは、ちょっと仕掛けがあるのはそこら辺でございまして、貸しているので、こちらから連絡をとっていろいろな情報を集める権利がある。ただし、余り突っ込んだ監視はしませんからということをやっております。

【西尾主査】  よろしいですか。

【後藤委員】  はい。

【西尾主査】  吉田委員、どうぞ。

【吉田委員】  全学でクラウドのメリットを追求するという感じでやっておられるというのは非常に敬服いたしました。ちょっとお伺いしたいんですけども、先ほど、クラウド化のリスクという話がありましたが、多分、利用者の方々から見たときのクラウド化のリスクとして一番大きいのは、サービスレベルがどこまで保証されるかということじゃないかと思います。利用者に課金していないために、利用者側も主張しにくいという事情はあるのかもしれないですが、サービスレベルの目標ですとか、具体的なサービスレベルアグリーメントを設定しておられるのか。それから、ITサービスマネジメントをやっておられるということは、サービスレベルを保証するための当然仕組みだと思うんですけども、そこらの辺の考え方について、お答えいただけますか。

【長谷川副センター長】  ありがとうございます。まさにマネジメントの取組と直結するところでございまして、ISMS、11年目になるんですけども、もうかなりルーチン化していたので、昨年、ITSMS、要はセキュリティ、安全な水が確保できたら次はおいしい水にしようということで、ユーザー満足度を上げる意味でITSMSを取得しまして、実は学内の委員会でサービスレベルを確定しておりまして、昨年から始めまして、それで一応ユーザーの学内委員の理解を得ているということです。実際には、クラウドプレーヤーさんのSLAもございます。もし99.何%満たさなかったら、その月の料金は返却するというSLAがございますので、一応それは、我々は受けておりますけども、そういうところでのSLA。それから、とにかく常時連携で、いろんな障害がちょっとでもあったら、どういう理由かということで、障害率は、クラウドで10%以上、クラウドがもし停止するようなことがあったら、本学のSLAとして公開することにしています。センターのホームページ内で、学内にどういう原因で何台が停止したということを通知するような体制を整えております。その辺で、徐々にユーザーの方も理解をしていって、安心してくれたかなと。実際の具体的なバックアップについては、RAID1でも使ってないんですけども、完全なスレーブのハードディスクに毎週システムイメージをバックアップするというのがクラウドプレーヤーさんのサービスです。それでほとんどの方が納得していただいてはいるんですけども、先ほど更にということで、半年に1回は一つのNASにしっかり納めて、手に握るぐらいのNASが、二百何十台分のシステムが全て入るんですけども、それを今回はひかり号でバックアップしたんですけども、今後、ネットワークとかセキュアな運搬の方法を使って、半年に1回というのも次の情報基盤のものに組み込んでしまいましたので、そこは年に2回は物理的なバックアップも行うということでございます。

【西尾主査】  まだいろいろと議論があると思いますが、後で自由討論の時間を設けますので、またそのときに、長谷川先生にはどうかよろしくお願いします。
 そうしましたら、今日の最後の御説明をいただく、棟朝先生、どうかよろしくお願いいたします。

【棟朝副センター長】  それでは、北海道大学情報基盤センターにおきまして、本学のアカデミッククラウドに関する設計構築の業務を統括しております棟朝と申します。本日はお時間をいただき、ありがとうございます。
 これより本学におきますアカデミッククラウドに関わる取組につきまして御説明を申し上げたいと思います。
 まず、北海道大学におけるアカデミッククラウドシステムについて簡単に御説明申し上げますが、こちらは北海道大学内のみならず、全国の学術研究者が利用できるスパコン並みの性能、全体で43.8TFlopsを有する国内最大規模の学術クラウドシステムでございます。こちらは2年前、2011年11月よりサービス開始で2年たちますけれども、現在も国内、場合によっては海外におきましても最大規模となっておりまして、バーチャルマシンでいうと、使用上は2,000以上のバーチャルマシンが起動できまして、現状、大体3,000コアの、相当のバーチャルマシンがこのシステムの上で動いております。こちらのシステムは、単に計算資源を仮想化するということではなくて、仮想化だけであれば、各大学、業務系でいろいろやられておりまして、本学も、これとは別に業務系の仮想化基盤はあるんですけれども、こちらはクラウドのミドルウェア、これはCloudStackと呼ばれるものなんですけれども、これを導入して、本格的なIaaS(infrastructure as a service)と申しまして、計算資源をサービスとして、こちらにあるウェブポータルをクリック何回かするだけで、利用者が必要とする計算資源を直ちに提供するというオンデマンドサービスインフラを提供しているというところが大きな特徴になってございます。
 さらに、本システムの特徴といたしましては、最近、ここ一、二年、ビッグデータということが大分注目されておりますけれども、2年前の時点でHadoopのクラスタを自動的に利用者が、例えば500台Hadoopのクラスタが欲しいといった場合に、それを1時間ぐらいで構成して、すぐ提供するというシステムを、これは2年前からなんですけれども、提供しておりまして、最近では機械学習のパッケージ等も全てパッケージング化して、ビッグデータ関係の研究者が利用できる基盤を整備してございます。
 ネットワークに関しましては、SINETに直結しておりまして、こちらは40Gbpsですけれども、全国の研究者が快適に御利用いただけるような環境整備をするとともに、こちらはファイアウオールとIPS、本学の入り口のところではファイアウオールに加えましてIPS、侵入検知システムです。侵入がもし検知された場合には遮断するようなシステムが入っておりまして、さらに学内向けにもファイアウオールがありまして、本システムの特徴といたしましては、利用者ごとの全てネットワークをVLANで分離して、このCloudStackのソフトウェアの機能なんですけれども、利用者ごとにファイアウオールとVLANを持っております。したがいまして、利用者それぞれがそれぞれのセキュリティ要件に応じましてファイアウオールの設定管理をして、万が一、何か問題が起きた場合には利用者の方自身でネットワークを止めるという管理も全てできるということで、セキュリティ面に非常に配慮したシステムになってございます。
 さらに、本学では、クラウドシステムを含めて全体なんですけども、脆弱性検査というというのを定期的に行っておりまして、サーバに脆弱性があるかどうか。このクラウドの場合には初期設定で出てくるサーバは当然脆弱性ないんですけれども、ユーザーさんがいろいろ設定等をされると、脆弱性が出てくる可能性もありますので、定期的に脆弱性検査を行いまして、問題があった場合には直ちに通知するというような取組もしてございます。
 本システム、当初、2年前、設計はもう三、四年前ぐらいなんですけれども、設計段階では研究室にそれぞれ個別に管理されているサーバを集約化すると。特に計算サーバとか、シミュレーション用に例えばクラスタを研究室でお持ちになるというような、研究向けに各研究室がばらばらに計算リソースを管理したのでは非常に非効率的であるということが当初のもくろみでしたので、それを移行するということです。
 したがいまして、本クラウドシステムの大きな特徴としては、普通の商用データセンターのクラウドであれば、どちらかといえばコスト重視ということで、比較的性能は低めのものを使うと。ただし、安価なものを使うということがあるかと思いますけれども、こちらは研究室のサーバ、特に研究向けのものを移行するということで、クラウドシステム、2年前の時点で、全部で40コア、1サーバ当たりあるような非常に高性能なサーバに移行していただくということで、もちろんコスト、電力削減、これは仮想化も使うと10分の1ぐらいになりますけれども、それは当然のことといたしまして、特に導入した効果として大きいのは、個人的に重視しているのはスピードアップです。時間軸の方の節約というところが非常に大きいかと思います。特に、例えばクラウドシステムを構築する場合を考えますと、入札等になりますので、調達に数か月掛かってしまうということがありますけれども、このクラウドシステムを使うことによって数時間でこういうような、これまでの最大ですと500サーバ相当のものを1研究者が、これもポータルから500という数字を入れて、500台欲しいということをクリックするだけで、さすがに500台になると管理者の審査が入るので使えるのは翌日になりますけれども、そういうような非常に短い時間で研究を始められると。私も個人的に経験がありますけれども、何か思い付いたと、こういうことをやらせたいといった場合に、ポータルをぱぱっと触って、サーバを確保して、あとは学生さんに渡して、あとの残りをやってくださいというのが1時間ぐらいで出来上がるというところが、時間的なスピードアップが特に研究においては非常に重要かなと実感しているところでございます。
 さらに、このクラウドシステム、全国の研究者の方にお使いいただいているんですけれども、特徴的なものといたしましては、例えばこれは薬学部の先生なんですけれども、創薬化学におけるin silico screeningといいまして、要は計算シミュレーションで薬剤の構造を最適化して、実際のターゲットとする病気とか、臓器の組織とか、その分子構造に合うようなものを見付けるというドッキングのシミュレーションをよくやられるものなんですけれども、こういうようなシステムを本クラウドシステムからシステムを切り出して、先ほど申し上げましたとおり、本クラウドシステムの特徴といたしましては、ユーザーごとにVLANを隔離して、ユーザーごとにその上にファイアウオールが乗っているという形で、完全にシステムを隔離して自分の好きなように構築できますので、例えば共用のスパコンとかクラスタ等はちょっと使いにくいと。特にバイオの場合には、なかなかセキュリティ要件は厳しいですし、当然のことながら情報が漏れては困るということがございます。又はシステム設計とか、これはエンジン関係の機械工学のエンジン関係のシミュレーション、燃焼シミュレーションですけれども、そういうような共用のものがなかなか、どちらかというと、使いにくいような用途でいろいろと御活用をいただいております。
 こちらはXLサーバという一番いいサーバなんですけれども、これは40コアありまして、これだけ実は物理なんですね。クラウドといいますと、仮想化という前提が何となくあるかと思いますけれども、本来は、例えばクラウドのミドルウェアも最近ベアメタルで自動的に構築するという機能もありますので、別に仮想化とかベアメタルというのは本質ではないかと思っているんですけれども、我々のクラウドでは、このXLで一番グレードの高いサーバ、これは1週間ですぐ売り切れました。ですので、研究者向けにはハイエンドのものが人気があるという状況で使われております。
 さらにもう一つの特徴といたしましては、ビッグデータの処理パッケージというのを提供しております。こちら、ビッグデータの関連の研究をされた場合に、もちろんHadoopを使いますと。あとは、関連するものとしては、一緒に使われるMahoutとか、統計でよく使われるRとか、こういうようなものを全てパッケージング化して提供をしております。これもMPIとかTorqueとか普通の並列計算もできるというパッケージでございまして、これは自分で始める場合には、クラスタを買ってインストールをして、OSからミドルウェアから全部相性も考えながらインストールしてとなりますと大分時間が掛かりますけれども、こちらの我々のクラウドシステムのポータルからパッケージを選んで、台数を選んで、あとファイアウオールの初期設計を選んで、あとは、こちらのところは細かな設定を少ししまして、例えば認証とか、そういう設定をしてクリックすると。そうしますと、このシステムのリソースから、自動的な負荷分散をするような仕組みも入っていまして、仮装マシンをできる限り負荷分散する形で全体のクラウドシステムから切り出して、更にこのHadoop、Mahout等のパッケージも全てインストールしたパッケージとして、クラスタシステムを自動的に設定して、大体1時間で終了しまして、翌日には使えると、こういうようなパッケージを提供してございます。こちらは仮想環境ですので、全部ベアメタルで作った本当の専用ですね、Hadoop専用システムよりは当然のことながら性能は若干落ちるんですけれども、まずはHadoopを使ってみたいとか、若しくはオンデマンドで、必要なくなったら返す必要があるという、運用面での効率化という意味では、こういうふうな運用で提供いたしまして、例えば一遍に、これまでの最大は、先ほど申し上げましたとおり、500台というのがありまして、500台を例えば1か月間だけ使って、あと返すと、こういうような使われ方で、特にビッグデータ処理というのはテンポラリーになることが多いですので、常時使うというわけではないので、そういうのをオンデマンドサービスとして提供させていただいているというのが特徴になります。
 さらに、設計時に想定しなかったような活用事例です。こちらは逆に重要かと思うんですけれども、つまりクラウドを導入する理由というのは、単にコスト削減とかいうことではなくて、先ほど言ったような時間軸の向上、スピードアップ。あとは新しいことをする、イノベーションを促すためのインフラとしての役割が非常にこれから特に重要になってくるかと思うんですけれども、そういう意味で、例えば一例としては、先端的なPaaSというもの、これはIaaSの上なんですけれども、IaaSが普通のマシン環境を提供するものであれば、PaaSというのはプログラムをこのプラットフォームに送り込んであげると自動的に構築してということができます。先端的なIT環境を構築して研究に活用するとか、あとは、こちらは私も想定していなかったんですけども、例えば我々の大学は水産学部がございますけれども、漁船からデータを衛星でうちのクラウドに集めてデータ同化等の処理を行うといったような、個人的にも想定していなかったような活用事例が種々出てきているというところでございます。
 さらに、北海道大学のクラウドでできたことを全国展開するという意味で、インタークラウドシステムと呼ばれる、いわゆる大学のプライベートクラウドを連携させたインターネットがネットワークを連携という意味で、クラウドシステムを連携させたインタークラウドシステムの実現に向けた取組というのを行っております。
 こちらの目的といたしましては、各大学のプライベートクラウド、もちろん商用クラウドも当然入ってきますけれども、複数クラウドから要求要件に合わせて必要なリソースを持ってきて、研究者専用のシステムを作ると。バーチャルプライベートクラウドと呼ばれますけれども、インタークラウドの世界中にあるようなリソースから、もちろん最終的にSINETに接続されたところで、非常に高速なネットワークを活用するというのが非常に重要なポイントですけれども、そのSINETに接続された各機関の持っている特徴的なリソースを組み合わせて一つのシステムを作るということを、どういうふうにやると簡単にできるかという、全体のインタークラウドの管理ポータルはどうあるべきかとか、どういうようなアプリケーションがあるか。これは設計探査の例なんですけど、スパコンとかクラウドのデータを連係して設計を行うという研究等、そういうようなものを、もちろん北大クラウド単独では実現をもちろんできるんですけれども、これをさらに全国展開するということで、規模の経済とかネットワーク効果及びビッグデータの連係などを実現したいということを考えております。
 こちらは最後になりますけれども、こういうようなシステムを作る場合、要素技術は、最近であれば、我々の使ったクラウドスタックもそうですけれども、オープンソースですね、大分状況はよくなってきておりますが、それら全体を使って、全体のシステムとして作り上げると、特に複数サイト間での運用連携というのは大きな課題になってくるかと思います。したがいまして、例えば運用連携技術に関する検討とか、我々が今行っている例でいうと、SINETの北端の北見工大と琉球大と北大、SINET全体でのインタークラウドの試験システムの構築とか、認証連携とか、仮装ネットワークの連携、あとは仮装マシンのクラスタをこれで作るとか、分散データベースを全国規模で作って、災害が来ても日本全体が災害にならない限りは大丈夫とか、そういうようなことに関する研究等を行っております。
 あとは、コミュニティ活動とか人的側面とか、そういうような取組も、民間も含めて行っておりまして、ビッグデータとクラウドの連携につきましても、北大で、これは統計数理研究所と一緒にやっていますけれども、そういうことで連携を深めているという状況でございます。
 ちょっと駆け足になりましたけれども、以上になります。

【西尾主査】  どうもありがとうございました。
 先進的な取組の御紹介をいただきまして、非常に参考になりました。時間が押し迫っておりますけれども、北海道大学の試みに関しまして、御質問とかございませんでしょうか。喜連川先生、どうぞ。

【喜連川委員】  これは、値段はどうなっているんでしょうか。

【棟朝副センター長】  本システムは、スパコンとの共同調達で学際大規模計算機システムというのがありまして、実は、厳密に言うと、幾らかというのは正直分かっていないところがありますけれども、正確な金額はちょっと。

【喜連川委員】  ユーザーは。

【棟朝副センター長】  ユーザーの方は、今のところSサーバという、1コア相当で月額525円となっております。ですので、AWSと比べると10分の1ぐらいかもしれないですね、それぐらいの。なぜかといいますと、これはスパコンも同じなんですけれども、スパコンのサービスの提供に当たりましては、光熱水料を取るという原則になっておりまして、これは実は光熱水料の金額になっております。正直言いますと、来年度から若干、さすがに安すぎるというので値上げする予定ではあるんですけれども、それでも大学全体としては余計なサーバをそこで使わなくなると、電力の削減等々、できる限り安くして、ただし、無料にしてしまうと逆に殺到しすぎてなかなか厳しくなりますので、そういう意味で、負担金という形で光熱水料の実費を頂くという形でリソースの配分の割当てをコントロールするというとともに、安く設定することでできる限りこちらに移行していただくということで、おかげさまで現在、先ほど申し上げたとおり、3,000コア相当ぐらい移ってきているということでございます。

【喜連川委員】  そうしますと、先ほどの静岡大学さんの場合には、外のクラウドを使うと。しかし、その外のクラウドも500円ぐらいで安いと。北大さんの場合は、いわゆるスパコンとのどんぶり調達の中でにじみ出てきた部分をクラウドとして使うということで、方向感としてどうでしょうね。最終的に大学がこういうクラウドを、旧帝大系は運用することでいいのかもしれないと個人的にも思わなくもないんですけども、長い目で見たときに、大きなコンソリデーションという意味では、外のものも、つまりパブリッククラウドとの連携みたいなのはどんなふうにお考えですか。

【棟朝副センター長】  先ほどのインタークラウドと申しましたのは、当然のことながら、パブリッククラウドもプライベートクラウドも、例えば大学間の連携のコミュニティークラウドといいますけれども、それらは別に対立関係ではなくて、それら全体を統合した、全体のシステムとしてインタークラウドを実現すべきであるというのが個人的な考えでして、まずは個々のユーザーが要求要件に従って、例えば単にウェブサーバを作るというだけであればパブリックでいいでしょうし、例えばスパコンと密に連携してデータを処理するということであれば、スパコンの近くにある基盤センターのクラウドが必要でしょうしという形で、利用者が最適配分をしていくということになるかと思います。もちろん、最後の最後は、ITで最終形というのはなかなか厳しいところがありますけれども、だんだんとパブリック寄りになっていくというのは間違いないと思いますけれども、基盤センター等、大学の特に情報系の研究を行っているところの役割としては、できる限り最先端のエッジの部分を整備して、研究者に最新の環境を提供していくということが役目かとは思っております。

【喜連川委員】  最少で借りる単位は幾ら、例えば2時間計算バッチで借りたいとかいうことはできるんですか。

【棟朝副センター長】  現状では、我々、月額にしております。これは大学の予算の縛りの関係で、オンデマンドにすることも考えたんですけれども、そうすると予算が読めなくなってしまうので、もちろん将来的にはオンデマンドにして、これはユーザーさんがどれくらいクラウド運営になじんできてくれるかということに依存してくるかと思いますけれども、現状は月額でございます。

【喜連川委員】  ありがとうございます。

【西尾主査】  加藤委員、どうですか。

【加藤委員】  先進的な取組の御説明、本当にありがとうございます。
 お伺いしたいのは、オープンソースソフトを使っているということで、オープンソースそのものをお使いになっているのかということと、それから、プライベートクラウドの運用の体制、どのくらいのレベルの方がおられて、あるいはベンダーが何人ぐらいおられているとか、その辺、参考までにお伺いしたいと思います。

【棟朝副センター長】  我々が導入した2年前の時点では、実はオープンソースでなかったんですね、Cloudstackは。あるアメリカのベンチャー企業が開発されたもので、その後、オープンソースになっております。もちろん方向性としてはオープンソースでできる限りやるべきだと思うんですけれども、サポートはついてございます。運用体制につきましては、スパコンと共通ですけれども、クラウド担当が二、三名ぐらいで、あとはベンダーさんは、何名かというのはハードウェアのスパコンの方のものもありますので、スパコン全体を含めて10名ぐらいついているか思うんですけれども、という状況でございます。ただ、最初想定したのは、例えば2,000も、バーチャルマシンを動かしたら大変なことになるだろうと思ったんですけれども、意外にそうでもなかったと。むしろちょっと問題があるとすると、簡単に使えるようになってしまったので、例えば初心者かマシンを取って、例えばLinux全く分かりませんと、何とかしてくださいという、そういう初心者の対応の方がむしろ問題になっているかと思います。

【加藤委員】  ありがとうございました。

【西尾主査】  まだ御質問があるかと思いますけれども、後で御質問をいただく時間を確保したいと思います。棟朝先生、どうもありがとうございました。ここでヒアリングに関しましては一旦終了させていただきまして、特徴的な活用事例について事務局の方から説明いただきまして、それから自由討論に入りたいと思います。時間が迫っておりますので、できるだけ簡潔に説明をお願いいたします。

【長澤学術基盤整備室長】  本日、ヒアリングに来ていただくことはできなかったのですが、その他の先進的取組事例として資料4をごらんいただければと思います。いろいろな使われ方がされているということで事例を紹介しております。
 1番目は、立命館大学のデータセンターとキャンパスをSINETで接続しているというところで、遠隔キャンパスをSINETで利用してつないでいるという例でございます。2枚目は、長岡技術科学大学がデータセンターとなって、全高専の図書館のシステムを連携するクラウド方式を対応しているというのが2枚目でございます。
 3枚目は、教育系で、京都、大阪、奈良の教育大学が3大学で双方向の遠隔講義システムをSINETを使って連結していくという事例でございます。
 4番目は、HPCIで、スパコンのネットワークをSINETを使って実現しているという例でございます。
 5番目は、九州大学で国際的な遠隔医療活動を行っているということで、これはネットワークで国際連携によりライブ手術とか遠隔カンファレンスとか医学生への講義等を国際環境の中で広範囲に行っているという事例でございます。
 6枚目は、LHCのCERNの加速器の実験データを世界中でネットワークを組んで分散、解析処理して共有しているという事例でございます。
 事例の紹介は以上でございます。

【西尾主査】  どうもありがとうございました。
 本日はSINETのユーザーサイドからの三つの先進的なシステム構築例を御説明いただき、長澤室長からは、国内で進んでいます先進的な取組の紹介がございました。これから討論に入りたいと思いますが、ヒアリングに御出席いただいた先生方からは、もし説明し足らなかったようなところがありましたら補足的に御説明いただいても結構です。また、本日参加の委員の方々から、今までの内容を踏まえまして全般的な質問、あるいはコメント等がありましたら、御発言いただきたくお願いいたします。
 水本先生は、喜連川先生の御質問に対して一言補足なさりたいと思うのですが、いかがでしょうか。

【水本主任】  今日の話は、データを取った本人の話をしたんですけども、天文学というのはデータアーカイブが非常に重要で、観測をした人に対してそれの100倍くらいの研究者がそのデータを使って論文を書きます。ですから、観測する人がデータのそばに行けばいいじゃないですかという使い方ではなくて、もうデータベースは世界中にあるんですね。その世界中にあるデータの中からを自分の欲しいデータを持ってきて、それを組み合わせて一つのサイエンスにする、これが天文学の今の流れです。ですから、どこにデータがあるかなんていうのは気にしないでも取れる状況を作らなきゃいけない。そのためには、ラスト1マイルで絞られていると使えなくなってしまいますよと。これを言い忘れましたので、補足させていただきます。

【西尾主査】  非常に大切な観点かと思います。

【阿部国立情報学研究所准教授】  よろしいでしょうか。

【西尾主査】  はい、どうぞ。

【阿部国立情報学研究所准教授】  先ほどの長谷川先生のところで、SINETの方に要望ということで書かれていた項目ですけれども、ラスト1マイルで性能が出ないというような話で、サポート窓口を設けてほしいというような要望がございましたけれども、実は既にSINETの利用推進室というところで受けておりますので、是非御気楽に相談をお願いしたいと思います。よろしくお願いします。
 以上です。

【西尾主査】  どうぞ、岡部先生。

【岡部委員】  私もSINETに関わっておりますけど、阿部先生がおっしゃったように、SINETの方で推進室があるんですが、各大学の要望というのは非常に多様で、正直、大学の立場から見てみますと、推進室の機能はもっと拡充されてもいいんではないかなと。いろんなきめ細かい対応について、もうちょっと御検討いただければ思います。

【阿部国立情報学研究所准教授】  どうもありがとうございます。今、推進室自体は、メンバーとして、私、室長をやっているんですけれども、ほかに専任2人の少ないメンバーで回していますが、頑張りたいと思いますので、よろしくお願いします。

【西尾主査】  今日まだ御質問なされていない方でいかがでしょうか。上島先生、どうぞ。

【上島委員】  貴重なお話を多数お教えいただきましてありがとうございます。
 クラウド、静大の方も、それから北大の方もですけれども、研究用の利用は大分進められているように思いますが、例えば図書館サービスなどの、学内の共同サービスの実施について、その辺りの移行状況と、皆さんの理解や支援といいますか、そういった面はいかがでございましょうか。

【西尾主査】  では、長谷川先生、棟朝先生、短い時間で恐縮ですが、コメントいただければと思います。

【長谷川副センター長】  幾つか思い当たることがあるんですが、図書館については、我々、実は学認の推進で、本来はセンターからやろうということなんですけれども、実は図書館側からジャーナルを早くつなぎたいということで、かなりお尻をたたかれまして、テストフェデレーションもスキップするような形で本番にいけたということで、非常にクラウドも統合認証もうまく使っていただいていると思っています。

【上島委員】  動いているということですか。

【長谷川副センター長】  動いています。

【上島委員】  それとあと、例えばそういうクラウドサービスに声の大きい人から順番に声を掛けてというようなことで推進、促進されたと思うのですけれども、それは大体、皆さん、そういう推進体制をいつもとっておられるわけですか。

【長谷川副センター長】  そうですね。今回、動画のコンテンツを始めたんですが、それは大学から猛反対がありまして、半年ぐらい計画していたんですけども、それでもセンター内で動画サイトを作ってみようということで、ものを見せてやっていくことが基本だと思うんですけれども、机上の話で提案するとどうも駄目なんですけれども、実況をして、提案して使ってもらうと、そういうものだということで一気に理解が進むということで、4月1日には公式の動画サイトに立ち上げることができたということで、そういう経験を何度も実はしておりまして、シンクライアントもそうです。当然使えないというところから始まっていまして、事務系でそんなもの無理だと、もちろん研究者も無理だということだったんですけども、実際に学長はじめ、その辺から使ってもらうと、キャンパスを移動しても同じセッションが張られていて非常に使いやすいということで、だんだん定着していくんです。とにかく反対は必至なので、それを前提で、まずセンターでできることから始めて声の強い方に、こんなものですよと使ってもらう、それを繰り返し何度もやってきたという感じがします。

【上島委員】  お話いただいたと思うのですけども、350のセッションで260台でしたか。

【長谷川副センター長】  はい。

【上島委員】  初めにお話いただいたかもしれないのですが、静岡大学の全体の規模と学生数、教員数をお教えいただけたら。

【長谷川副センター長】  7,000人と5,000人のキャンパスで1万2,000人です。学生が1万500人おりますので、1,500名ぐらいが教職員ということになります。事務のセッションでほぼ400台ぐらい起動しておりますので、シンクライアントはですね。これももう4年掛かっておりますけども、もう端末がどんどんシンクライアントに置き換わっていって、非常に楽な運営になっていると思います。あとは、忘れてはいけないのは、ITの廃棄物がとにかく少なくなるんですね。それが非常に大きいことかと思っています。

【上島委員】  野良サーバについては。

【長谷川副センター長】  野良サーバもそうですが、減価償却したサーバ群の数ですね、こういうのが確実に減っていくというのと、事務系の方が本来、コンピュータのお守りなんかしたくないわけで、それを一極集中でやっていただけるということで、それなりに満足して浸透している現状だと思っております。実際、集約管理の一番のメリットは、ひとたび障害が起こると大学全体の機能が停止する、これが8時間規模で、この4年間で1回だけございました。そのときには、多少のリスクはあるんですけども、それでも、そういう事態があっても、通常の日頃の使いやすさと軽快さを選んでいくのではないかと思っています。

【上島委員】  ありがとうございました。

【西尾主査】  どうぞ、棟朝先生。

【棟朝副センター長】  北海道大学の状況ですけれども、今回お話はしなかったんですけれども、事務系は別途、仮想化基盤ございまして、北大の場合には、環境ということでサステナビリティーキャンパスということで、全体の方針といたしまして、クラウドにできる限り集約することというのが、理事レベルでそういうような方針が立てられております。北大のトップページももちろんこちらのクラウドに載っておりますし、あとは、興味深い事例としては、例えば理学研究科でハイブリッドクラウドを組んでいまして、理学研究科のサーバと本クラウドのシステムのサーバを組み合わせて学内でハイブリッドクラウドを作るというような使い方も実はしてございます。事務系の取組としては以上です。

【西尾主査】  美馬先生、どうぞ。

【美馬委員】  今日のお話は主に大学、アカデミックなところでの研究利用のお話だったと思います。その一方で、大学内だと、天文台はないかもしれませんが、授業などのオンラインのコースなどはこれからたくさん出てくると思います。そういった学習リソース、教育リソースの話についてはどうなっているのか、少しお話を、簡単で結構ですので、状況をお知らせいただけないでしょうか。

【西尾主査】  非常に大切な観点かと思いますが、どうかよろしくお願いします。

【長谷川副センター長】  恐らく大学で二つに分かれているのは、本当にリテラシー教育でオフィス系のソフトが一つ入っていればいい端末というところと、各部局の専門ソフトを入れられて、要はCADとか、三次元のものを扱わないといけない端末をセンターがお守りしないといけないという事態がきて、我々は後者でして、パッドクライアントにいろんな専門ソフトを入れざるを得ない状況でして、そこまではシンクライアントには持っていけませんでしたが、例えば静岡キャンパス側は、いわゆる文系の学生が多いので専門ソフトも少なく、節電も含めてノートPCという形の選択をとって4年になりますけども、これがかなり受け入れられて、電力の削減に大きく貢献しているかなというのがございます。実際にクラウドに置いているのは、我々の教育用端末と全教職員のメールサーバとストレージは焼津のDCの中に入っておりますのは、それはここ数年、何の問題もなく利用できているということです。

【美馬委員】  すいません、学生のノートPCというのは、学生が個人で所有しているのでしょうか。

【長谷川副センター長】  教室で利用する備付けのものをノートPCで利用しています。

【美馬委員】  質問は、そういうことではなく、授業のオンライン化とか、授業を遠隔で提供するとか。

【長谷川副センター長】  OCWとか、そういうイメージの話でしょうか。

【美馬委員】  はい、そうです。

【長谷川副センター長】  それは静岡大学で、まさに静大テレビジョンを立ち上げた初期の構想はそうだったんです。もちろん日本でもOCWのコンソーシアムが立ち上がっているのは知っておりますけども、授業などを公開できないかというところから始めたんですが、これも猛反対がございまして、ならばということで、各種イベント、キャンパスのイベントとか、公開講座とか、そういうものは動画にどんどんしていこうということで、ここ半年ぐらいでもう100以上のコンテンツを上げておりますので、そういう状況です。完全にフリーの動画として提供していくのはこれから始めようかなというところです。

【棟朝副センター長】  北大の状況ですけれども、今回の紹介は、教育系はしなかったんですけれども、教育系は別途、ELMSというポータルシステムがございまして、こちらは昔からあるシステムなんですけれども、どちらかというとSaaSに近い形ですけれども、そちらでコース学習の管理等々ができるシステムがありまして、学生の学習管理も全部そちらで行っております。OCWにつきましては、何年も前から取り組んでおりますし、あとは道内大学の教養教育の連携ということで、今、システム構築中なんですけれども、ビデオ配信等、コースウェアですね。これはまだ確定ではないんですけど、edXを使うということで今検討してシステム構築は進めていると、そういう状況です。

【西尾主査】  よろしいですか。

【美馬委員】  それについての回線とか、そういう設備に関しての要求というのは、教育側からは出てこないのでしょうか。

【棟朝副センター長】  もちろん道内の大学、SINETに接続されておりますのは、北海道内ですと北大と北見工大だけになっておりますので、ほかの大学ですね、道内大学連携は道内の国立大学が連携してございますので、現在のところはまだ試験構築段階ですので、本格運用段階になった際には、当然そういう要求は出てくるかと思います。

【西尾主査】  ほかにいかがでしょうか、岡部先生。

【岡部委員】  水本先生の天文台の取組をはじめ、各SINETを非常に効率的に御活用いただいている機関のお話をいただきまして、今日の委員会は、次期SINETの方向性を考えるということで、次期SINETについてはNIIの方でSINET3からSINET4に進化したのを、さらに同じ方向で大体お考えいただいていると私は認識しているんですけども、もちろんSINETをもっと増強したいという気持ちはここにいる皆さん、共通だと思うんですけど、予算には限りがありますので、めりはりを付けるというんですか。どこを充実させてほしいというふうに、限られた予算の中で、結局、今のSINET4から次に進化するに当たって、どこに重点を置いてほしいかというのを、もしそれぞれの立場で一言頂けるのであれば、お願いしたいと思います。

【西尾主査】  水本先生からどうぞ。

【水本主任】  国際回線というのを増強してほしいというのは、ちょっと言い過ぎかなと思います。これは利用者の数がどのくらいかということがありますから。問題は、日本国内でどうするかというときに、天文台の一番最初の図でお見せしましたが、水沢につながっていないとか、そのように一つの機関に対して一つのノードという制限があるために、たこ足になっているところ全部は、SINETだけではこれまでつなげなかったんですね。あと、例えば岡山観測所なんかでも僻地の山の上にあったりするので、そういうところも一つのSINETみたいなもので、同じバンド幅でつなげたらうれしいなと思っています。SINETにJGNの代わりができるかどうか、ここです。

【岡部委員】  ちょっとよろしいですか。今おっしゃった1機関1か所……。

【水本主任】  これまで水沢みたいなところに引いてほしいというと、例えば東北大あたりのところまでいっていますから、あとは自前でやりなさいと。

【岡部委員】  つまり、今のSINET4の1都道府県、1データセンターアクセスポイントの原則をもう少しきめ細かくならないかという御要望だと理解すればよろしいですか。

【水本主任】  はい、そうです。

【岡部委員】  分かりました。ありがとうございます。

【西尾主査】  水本先生、海外線のことは、遠慮なさらなくても良いと考えます。日本が、世界に先駆けてe-Scienceを積極的に推進していくという意味では、むしろ水本先生が強くリクエストしていただくことが大切だと思います。

【水本主任】  今、一番必要なのは南米チリとの回線なんです。距離、長いんですよね。だから、そこのところをどうするかというのは非常に頭の痛い問題で、これが速くならないと、せっかく日本が3分の1パートナーでお金を出したんだけど、サイエンスをみんな持っていかれてしまう。そこは大きな問題です。ですから、主張していいんだったら声を大きくして、大きな声で言います。

【西尾主査】  私は、天文台関係のさまざまなプロジェクトのお話を伺ってきたのですが、どちらかというと、焦点が望遠鏡を作るところばかりに当てられているという気がいたします。望遠鏡が完成して定常的な運用に入ると、あとは情報処理システムが大きな役割を果たしていくことになります。プランニングの段階からそのようなところまでを見通した予算・運用計画が大切なのではないか、ということを喜連川先生は先ほどおっしゃったのだと思います。

【水本主任】  まさにおっしゃるとおりで、今いろいろ装置を作るときに、制御系も含めてソフトウェアにかかるお金は3分の1から半分かかると言われているんですが、現実使われているお金は1割以下なんです。これでは駄目なんですね。あともう一つ、最初に作られた、まずハードウェアが動かないとどういうデータが出てくるか、最初と違いますから。そういう意味で、ソフトウェアやアーカイブというのはいつも後送りなんですね。そのお金は後でいいでしょうというときに、もう建設予算は使い切っている。そうすると、運営経費でやらなくてはいけない。運営経費からやるので、今度は、そのデータをアーカイブし、まず皆さんが使えるデータにするところまでは何とか持っていきますが、それから論文にするところというのは、例えば先ほどの1枚の絵、ありましたね。あそこに100万天体ぐらい写っているわけです。その100万天体1個1個を調べていくのは研究者なんですね。その方々が使うソフトウェアをどうするかというのは、皆さん、やることが違いますから、それの開発費というのを国立天文台が持つって難しいんですよね。そういう意味では、ネットワークを速くして、自分のところに持って行く、そういう手間をいかに短くして、研究に専念できる環境を皆さんに提供できるかというところが一番重要だと思うんです。ですから、ネットワークが大変重要です。

【西尾主査】  どうもありがとうございました。後は、岡部先生の御質問に対して、長谷川先生、棟朝先生、短い時間で恐縮ですが、御要望などを言っていただければと思います。

【長谷川副センター長】  もう今、幾つか話したことなんですけども、何か新しいことを展開するには、とりあえず具体的なものを提供した方がいいかなということと、我々の中で要望というか、シンクライアントが意外と、50センチ角ぐらいのハードウェア一つあって、1万人の大学の事務系の処理の大部分が賄えるというのは、非常にここ数年で実証できたことも大きな成果の一つだと思いますので、それは運営になりますけども、それを教育研究に展開できるような仕組みでSINETが展開できていったら非常にユーザーも喜ぶんじゃないかなと思います。今はほんとにSINET直結のクラウド、データセンターが、選択肢が増えておりますので、その中でそういった展開が期待できればうれしいと思います。
 以上です。

【西尾主査】  棟朝先生、どうぞ。

【棟朝副センター長】  1点絞ってお願いいたしますと、例えばインタークラウドの研究を我々やっていますと、それでSINETの数十Gbpsのネットワークが使えますと。民間の方は目を輝かせ、非常にそれはすばらしい環境ですねと言っていただけますので、今後ますます拡充していただきたいと。
 インタークラウドの研究をする場合に、バーチャルマシンはクラウドミドルウェアで取れるんですけれども、それらをつなぐ仮想ネットワークの部分ですね。これは今いろいろ技術開発が進んでいるんですが、それを使うということでもよろしいんですが、マネジメントの方ですね、例えばクラウドのミドルウェアと密に連携させる部分とか、管理ポータルの部分、つまり使い勝手ですね。ユーザーに対する使い勝手の部分に少し開発の部分に投資をしていただいて、よりSINETが使いやすくしていただくということをお願いしたいと思います。
 以上です。

【西尾主査】  どうもありがとうございました。加藤委員、先ほど手を挙げておられましたが、いかがですか。

【加藤委員】  聞き忘れたことがあるので、後から長谷川先生に聞いてもいいんですけれども、プライベートクラウドとパブリッククラウドの関係のところで、長谷川先生、御説明なかったんですけども、指認認証のところで、パスワードを全面的に発行されているというお話があって、プライベートクラウドのところと、例えばパブリッククラウドの中に安否情報だとか幾つかございますけれども、IDとパスワードを、シングルサインオンになっているとか、あるいは学内で、卒業した人はパブリッククラウドの方に自動的にいくだとか、そういうような工夫をされているのかどうかというようなところをお伺いしたいと思います。

【長谷川副センター長】  一応、静大IDを4月に始めまして、それは永年IDになっておりますので、永年IDといっても50年ぐらいを見ているんですけども、それについては、始まったばかりなのでまだ卒業生が出ていないんですが、要は「shizuoka.ac.jp」のついたメールアドレスを中心としたアカウントについては、毎年外に流していこうということを考えています。それて今、情報基盤の整備時期ですので、それで進めているところです。
 それから、プライベートとパブリックの使い分けなんですけども、パブリックについては、本当に全学の研究者が自由に使っている部分で、プライベートについては、研究者のものを当初置こうとしたんですが、それはやっぱりやめておこうということで、完全に機関と大学の学務情報とか人給システムですね、そういうものの主要なシステムだけに集約していまして、資産は我々、アセットとしては我々の持ち物になっていますが、そこにも、次期ではクラウドを投入していこうとなっております。要は、私物をどんどんなくしていこうという方向で、プライベート化も進めていこうと考えております。
 指静脈は説明できなかったんですけども、指の中の静脈ですね、これを展開しようということを考えたんですが、生体情報に対しては非常にアレルギーのある方かいらっしゃって、フィンガープリントみたいな指紋形状が残るような印象があるんじゃないかなと思ったんですが、それでも一部、窓とパスワードの自動発行等に使っております。我々、120日で1万2,000人のパスワードの更新をシステマチックにやっていますので、年間、先の千葉大でも発表させていただいたんですけども、4万件のパスワード発行機を2台で回しています。それは指静脈を含むものとICカードで含むものです。そういう形で、添付の資料のような形で、扉認証とかパスワードの再発行にLDAP連携でやっている状況でございます。

【西尾主査】  土方委員、何かございませんか。

【土方委員】  どうもいろいろありがとうございました。いろんな試みをされているんですが、多分そのときに一番気を使うのは、それを利用する研究者の方であったり、先ほど先生がおっしゃったように、仮に今、学生さんへのサービスをやっているとすれば、その評価というのは何か具体的にやられているんでしょうか。

【長谷川副センター長】  そこはマネジメントだと思っていまして、年に3日間かけての外部審査もあるんです。さらに、情報学部には内部監査員をお願いしていまして、情報学部から2名の先生に、これも2日間の内部監査を実施しておりまして、かつ、年に三、四回、基盤センターの運営委員会を行っておりますけども、そこでは、クラウドの障害とか、要は28項目のサービスを我々提供している、リストアップしている、内部ページに整理しているんですけども、それらについてのSLAですね、どういう障害があったとか、そういう報告を年に1回行っていまして、かつ、SLAという形で、文書で五、六ページのSLAを全学の委員レベルで結んでおりますので、それの継続についても年に1回確認をとって、ISOの審査に臨むというような体制でやっています。あとは地道なマネジメントという形だと思います。

【西尾主査】  北海道大学はどうでしょうか。ユーザーサイドからの評価をどのように生かしていくのかということだと思いますけれども。

【棟朝副センター長】  本クラウドの設計に当たりましては、当然のことながら、ユーザー全員からアンケートを採りまして、それを基に分析してということではございます。利用規定等に関しましては、基本的にはスパコンと同じ枠組みで運用してございますので、実はHPCIの話もこちらありましたけれども、HPCIでも提供しておるということで、スパコン系の利用規定ですのでSLAというのはないんですけれども、そういう形でやってございます。ユーザーからのフィードバックにつきましては、窓口がございまして、そちらの方に御意見を頂くという形になってございます。

【西尾主査】  倉田先生、いかがですか。

【倉田委員】  今回のヒアリングは先進的な事例で、大変参考になりましたし、このような事例において、ネットワークの重要性は非常に強く共通認識として持てたのではないかと思います。ただ、今後の、この委員会での審議の進め方が逆にちょっとよく分からないなというところがございまして、もちろんこういう形で、個別の分野ではもうデータなしでは、ネットワークでデータを流通させてくれなくては全然研究は進まないというような分野がもう幾つも、今回の天文学だけではなくて、あることはある程度分かっています。静岡大学さんの事例は、研究に限らず,大変すばらしい、非常によく考えられたクラウドだと思います。ここでは逆に商用サービスをお使いになっていると私は認識したのですけども、それは例えばSINETのネットワークとどういう関係で,今後どうなるのか。ほかの大学がこれと同じように若しくは同等のサービスを展開しようとしたときに、一体何をどう考えればいいのかというところがちょっとよく分からないなと思いました。

【長谷川副センター長】  1点だけ。ほんとに2009年ぐらいから計画を始めた時点では選択肢がなかったということです。今の状況であれば、本当にSINET直結のものをどんどん使いたいという気持ちです。

【倉田委員】  ありがとうございます。

【西尾主査】  倉田先生のおっしゃったことは、今後のこの委員会での審議で大切なことでして、後で少しだけお話をさせていただきたいと思います。どうも貴重な視点をありがとうございました。
 斎藤先生、喜連川先生ということで、質問を打ち切ります。

【斎藤委員】  1ユーザーとして、SINETについての要望も含めてなんですが、今、我々の研究所でもやっと昨年、Wi-Fi化したんですね。そうすると、SINET全体がWi-Fi化になったらいいんじゃないかと、全国どこでも使える。別に研究所にいなくても、どこかの山の中にいても使える、ちょっと携帯との対抗になりますが、それはいかがでしょうか。

【西尾主査】  これについては、阿部先生、どうぞ。

【阿部国立情報学研究所准教授】  確かにWi-Fiということで、アクセスポイント等を広げること等、我々、一応、次期にはそういうところも検討を進めたいとは思っています。あとは、少々クラウド的な使い方とは違うんですけれども、我々のところでクラウド業者が直結してSINETにつなげる枠組みがありまして、その中に、一つ、UQ WiMAXの会社が、岡部先生のところで使っていると思うんですけれども、そういうことで、ネットワークというか、Wi-Fiを使って大学に直結にVLANを張って、大学内のLANとして使えるようなことも進めていますので、そういうものもまた発展させながら進めたいなと思っています。
 以上です。

【岡部委員】  今の件に関して、私、国立情報学研究所学術情報ネットワーク運営・連携本部認証作業部会の主査として御説明させていただきます。国立大学だけではなくて、全世界規模でのWi-Fiの学術系のローミングの仕組みとしてeduroamというのがございまして、NIIの認証作業部会主導で、各大学の協力を得ながら、例えば京都大学は今アクセスポイントが1,500ほどあるんですが、全てeduroamに対応していますので、eduroamのアカウントを持っておられる方なら、ヨーロッパから来られた方も、どこでも使える状態になっています。今、情報提供という形で各大学に御協力をお願いしてということになっているんですが、私の方からNIIに言うのであれば、もう一歩踏み込んで、そういう仕組みを事業的に位置付けられないかということ、あるいは大学だけじゃなくて、例えば町中でも使えると便利という要望がありますので、事業者なんかと交渉をしていくというところについても、次期SINETの中になるのか、外になるのか分かりませんが、NIIとして継続的に御検討いただきたいと思います。継続的に検討していますと言うべきだと思います。

【西尾主査】  どうもありがとうございました。斎藤先生の御質問の内容は、それが実現するとすばらしいことだと思います。現在、様々な御検討をいただいているということですが、岡部先生もNIIのメンバーとして、どうかよろしくお願いいたします。
 喜連川先生、最後にどうぞ。

【喜連川委員】  もう岡部先生に十分お答えいただいているので、僕はいなくていいのかなと思うぐらいなのですけれども、今の斎藤先生の御質問に関しまして、非常にエクストリームなユーザーをサポートするということと、それから、本当の一般の学生さんとしての素朴なリクエスト、非常にワイドスペクトラムなニーズがある中で、どういうふうにめりはりを付けながらサービスを展開していくかというのはかなり大変なことですので、真摯に、今頂戴しました宿題は今後検討していきたいと思います。
 私が申し上げたかったことは、先ほど西尾先生もおっしゃった国際回線のことなんですけれども、日本が学術のハブとなる、日本に来たいと思うような環境というのが、我が国が作っていかないといけないと思います。日本に来るとネットワークが遅くて、全然研究データ使えないなというような状況になると、国立天文台だけではなくて高エネ研もそうですし、バイオもそうですし、多くのビッグサイエンスというのが今、全部データに依存しているときに、こんなところへ来て研究できないということになってしまうと、誰もサバティカルで来なくなってしまいます。これでは国益上、非常に大きな損失になるかと思いますので、私は、国際回線の持つ意義というのは、相当大きなものを持っているんじゃないかなという気が個人的にする次第です。
 それから、ソフトウェアの開発経費がというお話があったんですが、これはよく分からないんですけど、これは天文台のお金の使い方が悪いのか、そういうふうにしかお役所から使わせていただけないのか、この辺があまりよく分からないんですけれども、例えばアタカマの山頂からサンティアゴまでのラインは、これは天文台を作るときの経費でラインを敷設されておられるんですね。ということは、大型の実験設備を作られたときに、そこからある程度の線を引き出さなきゃいけないという、つまり扇風機を買っても、電気冷蔵庫を買っても、コンセントまでの電源ケーブルというのは、洗濯機とか扇風機とか冷蔵庫についているわけですね。その線を後から買えというようなメーカーはどこにもいないわけです。それと同じように、大きなファシリティというものを買ったときには、コンセントまでの線は付けておくというのが普通の考え方になっていくんではないかなという気もしなくもありません。長い線を買わないといけないときはどうするのかというところは、お互いに協力し合って、合意点に達するように議論させていただきたく考えております。ネットワークの最も大きな役割の一つは、巨大な、スーパーな実験設備をみんなが非常にカンファタブルに使えるようにすること、これは大変大きなミッションだと考えておりますが、ネットワークの機器への歩み寄り方をどういうふうにするかという点を是非今後一緒に考えさせていただければありがたいなと思います。

【西尾主査】  どうも貴重なおまとめ、ありがとうございました。
 もっと議論をしたいところですが、時間が来てしまっております。今日、3名の先生方には本当に貴重な事例の御紹介、さらには将来への展望についての御意見を頂きましたことに対しまして、改めて心よりお礼申し上げます。どうもありがとうございました。
 そこで、先ほど倉田先生がおっしゃっていたことで、次回をどうするかということですけども、これまでの御説明や御審議を踏まえまして、次期SINET及びアカデミッククラウドの展開に関する構想の素案に関しまして、国立情報学研究所から御説明をいただいて審議を深めるということにしたいと考えております。この委員会として、今夏の審議のまとめを発出して以降、今まで何回かにわたって議論してきたものをベースに今後議論を深めて、次の審議のまとめを発出したいと考えていますが、そういう方向でよろしゅうございましょうか。その素案を国立情報学研究所で作成いただいて、次の審議のまとめを策定すべく、今後、議論を重ねていくことを考えております。
 それでは、事務局より連絡事項等がありましたらお願いいたします。

【長澤学術基盤整備室長】  どうもありがとうございました。本日の議事録につきましては、委員の方にも御承認、御確認いただいた上で公開をさせていただきます。次回は1月17日の金曜日で、10時から、場所は3F2特別会議室でございます。
 御参考ですけれども、IDEの12月号に、この間の審議のまとめを踏まえましてラーニング・コモンズの特集が組まれておりますので、ごらんいただければというふうに思っているところでございます。

【美馬委員】  ちょっとだけ補足させてください。ここの中にはラーニング・コモンズと学修環境整備に関して長澤室長もお書きになっておられて、ここでの審議まとめがしっかり入っています。

【西尾主査】  美馬先生、御紹介ありがとうございます。是非それを参考にしたいと思います。
 長澤室長、続けてお願いいたします。

【長澤学術基盤整備室長】  今後の日程は、資料の方でございます。
 今後のまとめの方向性ですけれども、予算の関連からしますと、今後の対応というものを考えますと、どのようにして効率化していくという話もございますし、あとアカデミッククラウドにつきましては、在り方というものを、こういった良い事例というのを紹介しながら展開して、この在り方を示していくということもございますので、先生方には国立情報学研究所から出していただく素案を基に、クラウドと次期のSINETの整備計画についてはどのようにすべきかの御意見をまとめていければと思っておりますので、よろしくお願いいたします。

【西尾主査】  本日はいろいろと貴重な議論ありがとうございました。今日の議論には出てきませんでしたけれども、今日の議論の内容を実現していく上での人材育成の問題であるとか、研究分野だけではなくて教育分野でのクラウドシステムの在り方、これも非常に重要な観点かと思います。そういうことも含めまして、次回の本委員会におきまして議論を深めていきたいと思っています。
 それでは、これで閉会とさせていただきます。本日は貴重な御意見、また貴重な御説明をありがとうございました。心よりお礼申し上げます。

―― 了 ――

お問合せ先

研究振興局参事官(情報担当)付学術基盤整備室

首東、佐藤
電話番号:03-6734-4080
ファクシミリ番号:03-6734-4077
メールアドレス:jyogaku@mext.go.jp(コピーして利用される際は、全角@マークを半角@マークに変えてください)

(研究振興局参事官(情報担当)付学術基盤整備室)