NTT東西、従来より10倍速い光回線サービス「フレッツ 光クロス」4月開始へ …… コスト限界に近接する通信技術。

ITmediaの記事である。

こういうのを見ると、いつも思うのだ。
90年代にBIGLOBE(PC-VAN)やNifty-Serveのバックボーンが50Mbpsとか100Mbpsで高速とか謳っていた時代が懐かしいなと。

2000年代に入り、1Gbps以上になり、今は100Gbps~Tbps時代に変わっているが……果たしてそれが個人の家庭環境で必要なものかというと、どれだけのデバイスでどんな通信をするか、相手のサーバーはどこにあるかに依存する話だ。

そもそも、ここでいう最大速度はあくまで共用ノードの最大通信速度であり、ベストエフォート型である。
だから、例えばGoogle DriveやMicrosoft One Drive、Apple iCloudなどからデータをダウンロードすれば、毎秒125MBなんて凄い速度が出るわけでも無い。頑張っても、30MB~60MB/s平均だろう。USB2.0(480Mbps)並になる。10Gbpsになったからといって、その速度が出るわけじゃ無い。サービスによっては1Gbpsと速度が変わらないじゃないというサービスもあるだろう。これは、1人当たりが使うノードリソースに制約が設けられているからだ。相手の求める速度をいつも出せるようにしていると、みんなが高速を求めたときにオーバーフローするからだ。

だから、想定される下限セッション数と上限セッション数で速度を最適化しているのである。そのため、著しく高速化するとは限らない。

即ち、並列で沢山の自宅デバイスが繋がっているなら、確かにこの速度が上がることは魅力的だろう。そのぐらいの話だ。
そしてこれは、今後も変わらないか、もっと厳しくなるかもしれないとも言える。


<モバイルネットワークの5Gもそうだが……実は>

間に挟むサーバーによってレイテンシー(latency/遅延率)なども変わっていくというのもご存じだろうか?5Gは遅延が少ないからとか言うがあれの遅延というのはあくまで、端末から無線を飛ばして基地局で応答を返すまでの速度であり、通信全体の遅延が著しく減るかは解らない。それは、先にあるサーバーや回線の混雑状況や設定次第だ。

ただ、通信側の遅延が減れば1つの速度低下の原因が緩和される分、遅延は減るだろうということになる。ただ、それが当たり前になった時に、4Gがそうであったようにパケ死と呼ばれていたセッション超過やオペレーションキューの滞留が起きないのかというと……。それは有り得る。要は、全体がそれに対応しないと結果的に他が滞留を生み出すという法則があるのだ。

エッジコンピューティング(なるべく他のサーバーをいくつも中継せずユーザーに近い縁の部分で通信コンピューティングを行う手法)に対応したクラウド環境でKDDIとNTTが力を入れているが、そういう環境を広げてクラウドやネットサービス事業者もエッジに拠点を移していかないと、速度だけで対応出来るものでもないということだ。

これらが、拡充されていくと10GBaseにしても役立つサービスが出てくるだろうが、クラウドで制御出来るリアルタイム思考を持つロボットやVR、MRヘッドセットがサービスとして広がりでもすれば、家庭でもこれがないと使えないサービスがあるので、普及が求められる日がくるかもしれない。


<現実問題を言えば……この業界もコストが嵩む割に利益は減っている>

現実を言えば、昔のFTTHが始まった頃は、バックボーンの方が速度が大きかったため、速度が上がれば恩恵も大きかった。そして、それを構築する業者も利益が大きかった。今はむしろバックボーンの方が追いつかなくなっており、実は投資しても割に合わないことが増えている。

その最大の理由は、主に信頼性が安定しているHDDストレージの速度が上がらない、容量が増えないこと、電力消費が増大していること。さらに、消費者がその速度の恩恵に対してメリットを感じにくくなったこともある。

まず、速度の恩恵というのは簡単だ。
100秒かかるダウンロードやアップロードが10秒に短縮されれば、だれもがこれは快適だ素晴らしいと思うだろう。
しかし、今でも1秒で終わる作業が0.1秒で終わるとして、その恩恵を10倍の恩恵として認識出来るかというのがそれだ。
それだけの容量増加に対して、複雑な作業や目的、コンテンツが増えていくなら良いが、それもなく日常と同じものを求めているなら、その投資に対して速度アップの恩恵は少ないだろう。

じゃあ、次の問題だ。

「HDDストレージの速度が上がらない、容量が増えない」が今後も続くなら何が起きるのか今何が問題になるのか考えたことがあるだろうか?

これは、本当に重大な問題である。
クラウドビジネスはそのうち、人件費に負ける日も来るかも知れないという現実だ。いやいやそれはないと今は思っている人も多いだろうが、サーバーの維持費は現実問題としてかなり高い。電気代は掛かるし、セキュリティ更新の費用は掛かる。サーバーを毎日監視する人材やシステムに費用が必要になり、リプレースは短いシステムなら3年長くても5年~8年サイクルで行わなければ、保守部品も無くなる。

AzureやAWS、Google Cloudなどが市場で寡占化を進めていてサービスの進化で利益を上げているのは、大規模サーバーで大きなリソースの塊を作れば、多様なサービスが展開でき、そこから広告、自社販売、クラウド提供などのビジネスが自社のリソース投資としては一元的に(管理しやすい形で)、そして外側から見れば多角的(多様なサービスに見える形で)に提供できるからに過ぎない。

これらも、クラウドが出来るサービスを増やし続け、且つ、それで増えていくデータが投資コストを下回る間は良いのだが……。もしもストレージの容量が増え続けなれば、実はどこかで利益が少ないデータやサービスを消していかなければならなくなる。実際に、Googleの検索サービスは十数年以上古いと検索期間指定しても出て来ないはずだ。それはそういうことだ。ぱっと見では見えないが、それが見える形になっていく日は年々近づいているとも言える。これは、HDDの容量が増え大容量製品の価格が下がることがなければ、たぶん難しい。

SSDで代用すればと思われがちだが、SSDは緩衝装置として、空き領域が一定程度必要なので、システムデータの高速運用には良いのだが、増えていく長期DBの保管につかうには、リスクが高い。3D XPointならまだマシだと思われるが、これはコストがまだまだ高く、容量もNANDほど大きくない。だから、HDDの代わりは今のところ存在しない。

で、そのハードディスクの速度は実は大容量化するほど落ちている。大容量品はSMRなどで多重記録をするため、それが徒となっているわけだ。だから、エッジコンピューティングをして、SSDや3DXPointを緩衝装置(ここでいう緩衝はよく使うデータを高速な補助記憶に保管しておくことで遅延を軽減するということ)に使って低遅延にしないと、実は高速サービスの恩恵を本当の形では活かせないという難しい現実が世の中には転がっている。

即ち、高速化の恩恵を受けるには、部品点数が増えるということだ。それはそれだけ故障リスクが増したり、製品のお値段が上がると言うことでもある。
だから、この手のサービスは、5Gでしか使えないような高度な自動運転などに応用することが先行されるわけだ。これなら、まだ高価にしても利益が出やすいからだ。

これを安いサービスに落とせるかは、基盤となるハードウェアビジネスが一定のブレークスルー(別にHDDである必要は無いが、何らかの手)を見いださないといけない。それが見つからなければ、必ず停滞から衰退へと流れが変わるだろうという見方も出来る。まあ、今日明日の話ではないが、10年単位のスパンで見ると、そういうことも考えなければいけないだろう。

まあ、それまでは最先端を追い続けるのもありだが、そこも頭の片隅に残して置かないと、気が付いたら投資損(良いと思って買ったけど、大した恩恵がないということ)していることもあるかもしれない。そういうのがあるから売る側も大変だ。


szkさま
コメントありがとうございます。

言われて見ると、その通りです。実際に、指摘を受けてから気が付きました。私自身が以下の記事にある内容に飲まれたパターンのようです。
自然な事と言えばそうなんでしょうけど、ある種恐ろしくもあることです。元々の言葉の意味を失っていくのですから。こういうのが結果的に、人と人との誤解を広げるのかな?

本当は、こういう部分を指摘する記事を結構書いてるくせに、情けない。
今回はご指摘ありがとうございました。

















この記事へのコメント

szk
2020年07月03日 09:42
以下の部分、パケ死ではなくパケ詰まりの間違いかと思います。
「4Gがそうであったようにパケ死と呼ばれていたセッション超過やオペレーションキューの滞留が...」

一般的に、パケ死は使いすぎによって高額請求が来て首が回らなくなることを指すようです。

この記事へのトラックバック