2030年のコンピュータ
引用元:http://arch2030.cs.washington.edu/slides/arch2030_tom_conte.pdf
スマフォの性能が毎年のように上がっていることから、もう性能向上は限界だと数年前から言われているけど結局上がるんでしょ、という人は多いかと思う。
GPUのようにマルチコアをたくさん使えばなんとかなるんでしょ、というのもすぐに限界がくる。シングルスレッドだと既に性能向上は終わっている。
これを見ればトランジスタ数は無理やり増やせるかもしれないが、トランジスタ数にスケールしていない。上のグラフではコア数は増やせるように見えるかもしれないが、コア数はこれ以上増やしてもキャッシュのコヒーレンシを取るコストが馬鹿にならない。
プロセス世代を進めた場合、今のFinFETから変えていく必要があり、ナノワイヤFET、カーボンナノチューブFETなどが言われているが、どうなるかは不明である。
そもそもリソグラフィどうするんだ問題もある。
3D構造では、シリコン貫通ビアを使わないとしている。
3D構造しかないという話だが、歩留まりが落ちるなどがあり、コストが高くなってしまうのと、放熱の問題で、超えるのは難しいようである。
貫通ビアの代わりのビアが検討されている。
放熱に関しては中を通してやって放熱する方法が検討されている。
IBMのelectric bloodのようなものも有用かもしれない。
液浸だとか、沸騰冷却なども使われるかもしれないが、当然だが家庭では使いようがない。図は以下から引用している。
下記はHPのYouTubeの動画から引っ張ってきたものである。22:00から紹介されている。右が下がっているが横ばい、もしくは緩い右肩上がりかと思う。
未来を加速する、HPEの最新イノベーション (HPEDay 大阪 2016年7月)
性能を上げるためには、根本的に変えないといけないが、そこまでのコストをかけられる企業はどれくらいいるのか、というのが暗雲となっている。
HPのThe Machineは今までのメモリ構造を置き換えたものである。
やりたいことはメモリのデータ移動が馬鹿にならないコストを払っているので、じゃあメモリを中心において汎用CPUではなく、用途に応じた専用アクセレーターをメモリの近くに多種多様におけばいいじゃないかということである。
http://www.pdl.cmu.edu/SDI/2016/slides/keeton-2016-10-19-memory-driven-computing.pdf
http://arch2030.cs.washington.edu/slides/arch2030_wong.pdf
こちらは演算をしているよりもメモリアクセスしているのが大半であるという指摘がされている。
現状だとメモリが階層構造になっているため、メモリ管理コストが高くなってるのと、階層が離れたメモリへのアクセスが性能を上げるためのネックになっている。
http://www.mcs.anl.gov/events/workshops/ross/2015/slides/ross2015-keeton.pdf
The Machineというとこの図がニュースサイトなどで出てくるが、これだけ見てもなんだこれとなる。
こちらの図になるとわかりやすくなるのだが、逆に今までと何が違うのかがわかりにくくなる。不揮発性メモリを持っているわけだが、こちらだとSSDと何が違うんだということになる。
SSDは口にDRAMを持っており、Flashの転送速度が遅いのを隠蔽しているに過ぎない。DRAMへのアクセスなのだから、どれだけ高速で大容量のDRAMを使うか、通信帯域をどうするかになる。
The Machineの話に戻す。実際のものはあり、上のようなブレードになっている。
フォトニクスによってメモリにアクセスするようになっている点が違う。
フォトニクスの処理はFPGAで行っているようである。
フォトニクスを使っているのは離れた場所へメモリを置くことができるようにするためだそうで、高速になるわけではないと言っている。
家庭用の光ファイバの10G-EPONのようにことをやり始めると、発熱や光と電気の変換ロスが無視できないのかもしれない。
またHPはGen-Zを推進している。インターコネクトはやはり重要でデータをいかにやり取りするかなのかと思われる。
メモリの種類としてはこんなことが言われているが、速く扱いやすいメモリが欲しい。
とはいえDRAMが無理だ無理だといわれつつも、結局DRAMにしかないという道もあるわけだが…。
機械学習ようのハードも出てきており、消費電力は小さいのが売りではあるが、いかんせんスケールしにくい。