IT系メモ

興味のあったことや、勉強したことなどをメモしていきます。

コンピュータ関係の情報まとめ

積層はコストなどの課題で厳しそう

メモリに関してはHBMで積層にしたものが出てきたものの、まだ性能的に十分ではなく、HBM2でようやく性能が活かせるかというところ。ただGPU側のアーキテクチャ変更が必要で、単純に外につければ性能が上がるような代物でもない。

 

CPUの上にメモリが来るかも、という話は一時出ていたが、こちらは熱の問題があってダメ。IBMが、"Electronic blood"というものでバナジウムウオン水溶液を積層にした半導体の間に血液のように流してやって電子の供給と排熱をしようとしており、はい熱効率は高いようだが、HPC向け。

 

2.5D、3Dが来るだろうという話はずっと出てきており、技術も着実に出てきているが、PCの台数が減っていっているのと、スマフォもこれ以上伸びないということで、数が出ないと安くできないが、コストがかかって高いものしか作れないので売れないという悪循環になろうとしている。

 

積層はCPU周りではシリコン貫通ビア(TSV)が有名だったが、Hybrid Bondingなどもimecが検討している。imecは一般には知られてないがインテルサムスン他の大手メーカーと共同研究しており、要は世界最先端。

 

日本のメーカーで、ベンチャーだがスパコンを作ってGeen500で2位を取ったPEZYというグループの一つのUltra Memoryという会社がある。そこが使っているのが積層したDRAMチップ間を磁気結合で信号伝達するという方法もある。TSVだと歩留まりが悪くコストに効いてきていたが、磁気結合だと有利だという。ただいくらでも積層できるかというとそういうわけではなく、チップの厚さが影響するようだ。そのためチップを研磨してどれだけ薄くできるかという技術も必要となる。

 

HBMで帯域が増えるとはいえ、CPU/GPUの間でデータのやり取りをするのはロスがあるということで、HBMの中に簡単な演算回路を入れてやろうという話もある。ただソフトが複雑になりすぎて、作っても使う人はいないかと思われる。

 

微細化はEUVが出来ても???

そろそろ微細化が限界と言われつつも、なんとかムーアの法則を守ってきたが、インテル有価証券報告書で発覚し、チックタックモデルをやめた。

 

トランジスタの構造については、FinFETの次にSi-Nanowire FETなどいくつか考案されているが、まだこれですべて解決という話にはなっていないよう。プロセスに使う材料も増えているので、工程増加、コストに効いてきてる。

 

EUVリソグラフィが出来ないとと言われ続けてかなり経つが、今までの光を透過して縮小パータン焼き付けするタイプでは、EUV光が液体に吸収されてしまうので、反射型でしなければならないなど、全く新しいタイプに切り替わる&製造機器のコスト増ということで、遅延に遅延を続けている。

 

現状のリソグラフィでダブルパターニング、トリプルパターニングなどももう限界で、いつかはEUVに切り替わらないといけないが、iPhoneほど世界的に売れるなら採用できるかもしれないが、工場としてはずっと動かさないといけないわけで、他に売れるものがないと稼働率が下がる時期が出てくることになり、EUVリソグラフィに投資するか???という感じである。

 

7nmはEUVのよう。4nmはEUVのダブルパターニングとか、まだ実際にいけるかは不明だがそういう話のようだ。

 

EUVが13.5nmの光で、1/4波長までがリソグラフィとして限界なので、EUVリソグラフィに変わってももう先がない。

 

微細化して小さくなるとコストが安くなるというのが売りだったわけだが、製造コストが高くなって、せっかく小さくしても安くならないどころか、逆に減価償却終わった旧世代の工場を使ったほうが安いという話になる。

 

高性能化をするのであれば、微細化して詰め込めるトランジスタ数を増やさないといけないが、無理しても・・・といった感じである。

 

FPGAなどのアクセラレータ系との組み合わせは

インテルFPGAを作っているアルテラを買収して、Facebookなどのデータセンター向けにXeon+FPGAを1パッケージにしたのを発表している。

 

FPGA部分でディープラーニング用のアクセラレータの回路を入れたり、ネットワーク構成用の回路を入れることでレイテンシを減らしたり、といったことを想定しているよう。

 

FPGAで回路が書き換えできるのだが、必ずしもFPGAで回路を組めばCPUより早くなるわけでもなく、GPUのようにデータに依存関係がなく、並列度を上げられるものでないと効果が薄い。

 

パッケージが大きくなりすぎているので、PCにまで出てくるかは不明。高すぎて一般の人は買えないとも思われる。

 

GPUカード+機械学習カードという組み合わせもあるのかもしれないが、性能の良いGPUカードを2枚使った方が安くてそこそこ性能が出るということになるかと思われる。GPU機械学習用のチップというデュアルチップ構成のボードというのも組み合わせとしてはあるが、どうなるか。

 

量子コンピュータや光コンピュータは

量子コンピュータは商業利用されて10年近く経っているD-Waveがありバージョンアップは繰り返しているものの、ブレイクスルーして一般家庭が手を出せるレベルにはまだほど遠い。ワークステーションとして使うのもまだまだ。

 

Googleは費用が発生している以上、宣伝しないといけないので、量子コンピュータ万能説っぽく聞こえることを言っているが、1024qubit辺りまでは、まだまだ家庭のPCの方が早いし、液体水素で冷却しなければならないので期安定運転に不安が残るなど、特許を取るために触ってると理解している。

 

現状の性能が出ていないのは、ノイズが多く、1回の計算結果が正しいかどうかわからないので、同じ計算を繰り返しているせいでもある。パリティのように誤差補正機能は既に検討されているので、成功した時点で、今までのPCと性能が並ぶもしくは量子コンピュータの方が早くなる条件がある。(それでもすべてのアルゴリズムが早くなるわけでもない)

 

imecでも積層の次の候補として量子コンピュータを検討しているようだ。D-Waveと同じ方式かどうかは不明

 

もう一つ光コンピュータというのもある。Optalysys社と呼ばれるイギリスの会社なのだが、2020年を目標に作っている。MITなども光コンピュータをやっているらしいが、量子コンピュータに対してこっちは盛り上がっていない。

 

結局、2Dでチップ同士を接続するのでは?

チップ同士を接続して性能を上げるためには、キャッシュコヒーレンシを取れるようにしないといけない。PCIeは遅すぎる。

NVIDIAのNVLINKの第一世代があるがキャッシュコヒーレンシは出来ず第二世代で対応。

CACHE COHERENT INTERCONNECT FOR ACCELERATORS (CCIX)というのも出てきてる。こっちは異なる命令セットでもデータ共有しようとしている。

こんな感じで2Dのチップ同士を接続するのではなかろうか。