top of page

AI時代に変わりゆくデータセンター

  • Writer: Shingo Sakamoto
    Shingo Sakamoto
  • 2 days ago
  • 30 min read

Updated: 18 minutes ago

今回は「AI時代に変わりゆくデータセンター」というテーマで調査してみました。近年、データセンターに対して豊富な資金が流入していますが、その背景にはクラウドとAIという大きなトレンドがありそうです。そこで、データセンターに求められる要件がどのように変化しているのか?なぜ変化しているのか?という点を、掘り下げていきたいと思います。

なお、調査にあたっては、IDATEN Venturesが独自に情報収集・公開している資金調達ニュースを参考に、2024年に報じられたデータセンター関連企業の資金調達案件を1件1件紐解いていきました。最終章で1社ずつご紹介しています。

なお、為替レートについては、2025年7月12日時点のものを使用しています。

(Source: ChatGPTで筆者が作成)
(Source: ChatGPTで筆者が作成)

データセンターとクラウド

そもそもデータセンターとは何か?という疑問は基本的すぎるかもしれませんが、意外と理解が難しい概念です。文字通り捉えれば「データがある場所」となりますが、一般的にデータセンターについて人々が語る時、「膨大なデータがある場所」が前提となっていることが多いように思います。

実際、ChatGPTにデータセンターとは何か?という質問を問いかけてみると、「データセンターとは、膨大な量のデジタルデータを安全かつ効率的に保存、処理、管理するための施設です。」と返ってきます。

データセンターと聞いて、(もしかしたら自分だけかもしれませんが)最も想起されるワードは「クラウド」あるいは「クラウドサービス」ではないでしょうか?例えば、クラウドサービスとして有名なAmazon Web Services(以下、AWS)は、場所自体は非公開ですが、日本に複数のデータセンターを持っていると言われています。もちろん、AWSと競合するMicrosoft Azure(以下、Azure)、Google Cloud Platform(以下、GCP)もデータセンターを保有しています。

データセンターとクラウドサービスの関係を、もう少し身近な例で置き換えてみると、データセンターは「図書館」、クラウドサービスは「オンライン図書サービス」と言えるかもしれません。データセンターは、あくまで「膨大なデータを保管している施設」にすぎず、もしクラウドサービスがなければ、ユーザーはどのような本が置かれているのか検索することも、オンライン上で図書を借りることもできません。クラウドサービスがあることによって、ユーザーはインターネットを通じてどこからでも図書館に付随するサービスを利用できるようになります。

クラウドには、大きく分けて「パブリッククラウド」「プライベートクラウド」があります。前者は「公共図書館(サービス)」、後者は「プライベート図書館(サービス)」のようなものです。

公共図書館には共用の本棚・机・椅子が設置されており、契約すれば誰もが自由に本棚を借り、人々に読んで欲しい図書を置くことができます。そして、人々は自由にそこを訪れて図書を借り、机や椅子を利用して図書を読むことができます。パブリッククラウドの代表例が、まさにAWS・Azure・GCPです。この3つの他に、例えばOracle・Alibaba等もパブリッククラウドサービスを提供しています。

プライベート図書館は、特定の組織専用の図書館です。本棚・机・椅子は基本的に特定組織に属する、あるいは許可された人だけが利用でき、人々が自由に訪れることはできません。プライベート図書館は、特定の組織が求める要件に沿って、カスタマイズされた設計にすることができます。例えば、できるだけ多くの図書を置きたい組織向けには、本棚の間隔を短くして高密度に本棚を設置する、本棚を高くして梯子を設置する、本棚を厚くして図書を重ねて並べられるようにする等の工夫が考えられます。あるいは、あるカテゴリーに属する本の入れ替えが激しい組織向けには、図書館の一部のエリアを入れ替え専用ゾーンにしてその他を固定ゾーンにする等の工夫が考えられます。このように、どのような図書館サービスにしたいかによって、図書館に求められる要件は変わります。パブリッククラウドはこういたカスタマイズに限界があることや、複数ユーザーが共同利用することで処理が遅くなってしまう時があることから、資金力のある大企業がプライベートクラウドを選択することがあります。(財務力にそれほど余裕のないスタートアップがプライベートクラウドを利用することは、あることにはありますが、珍しいと思います。)

なお、プライベートクラウドの場合、特定の組織自身がデータセンター施設を建設・管理する他に、コロケーションサービスを利用するケースもあります。コロケーションとは、いわば「データセンターのレンタルサービス」のようなものです。コロケーションデータセンターの管理者は、顧客に対してデータセンターの物理的スペース(ラック・キャビネット等)、電力・冷却機能、セキュリティ対策設備、通信接続、災害対策等、一連のリソース・サービスを提供します。

電力・冷却機能の話が出ましたが、もう一度図書館の例えに戻ると、図書館サービスの品質を決める「図書館員」が電力・冷却機能と言えそうです。あるユーザーが、オンライン図書サービスを利用して、読みたい図書を検索して、自宅に届けてもらうよう注文する場合を考えます。この時、図書館側では、注文の入った図書がどの棚に置かれているか調べ、本棚まで足を運び、該当の図書をピックアップして配送準備を進めます。もし図書館員が少なければ、複数の注文が同時に入った場合に、まず片方の図書の配送準備をした後、もう片方の配送準備を行うため、時間がかかってしまいます。データセンターにおける電力とは、まさに「図書館員の優秀さ・人数」と考えられます。すぐに図書を見つけ、走って本棚に到着し、すぐに配送準備ができる図書館員がたくさんいれば、例え注文が重なってもスピーディに対応することができます

データセンターの規模を表す指標・単位には、フロア面積(平方メートル)・データ処理容量(フロップス)・ストレージ容量(バイト)等がありますが、最も代表的に用いられるのが電力容量(ワット)です。これは、データセンター全体に供給される電力の総量を指しており、データセンターの規模を判断する最も基本的な指標となります。

なお、データセンターにおける電力容量を考える時、「クリティカルロード(Critical Load)」と「キャンパス(Campus)」というワードが登場します。クリティカルロードは、データセンターの運営に不可欠なIT機器・システム(サーバー・ストレージ・ネットワーク機器等)に供給される電力を指し、キャンパスは、データセンターの敷地全体あるいは建物・施設を含む大規模施設群を指します。

もう一度戻ると、冷却機能とは、図書館員の回復能力と言えます。いくら優秀な図書館員でも、ずっと走り続けていると疲労が溜まり、次第に対応スピードが落ちていきます。あるいは、人によっては疲労が溜まり怪我をしてしまう場合もあります。そこで、いかに図書館員が体力を回復させるか、というテーマが重要になってきます。データセンターもまさに同じです。我々が日常的に使用するパソコンでも、YouTubeを見ながらAdobeで動画編集をしながらZoomでテレビ会議をすると、あっという間に熱を帯びてくるように、データセンターに置かれたサーバーに負荷がかかると熱が発生します。この熱をどう効率的に除去するか、というのがデータセンター市場における最重要課題の1つとなっています。

コロケーションとさまざまな接続

しばしばクラウドと対比的に用いられるワードとして「オンプレミス」が挙げられます。一般的に、オンプレミスは、企業が自社の建物やオフィスにサーバー・ネットワーク機器等のインフラを設置し、運用・管理する方法です。プライベートクラウドも、コロケーションサービスを利用せずに自社運用する場合は、オンプレミスに近い部分があります。プライベートクラウドは仮想化技術・自動化ツールによってサーバーやストレージのリソース管理を柔軟に行うことができるという点で、オンプレミスと区別されることが多い一方、オンプレミスでも仮想化技術・自動化ツールを活用すればクラウドと近い運用が可能になります。

コロケーションサービスを利用したプライベートクラウドは、どちらかというとパブリッククラウドに近い側面があります。コロケーションサービス事業者が提供する接続サービスを利用して、さまざまな接続を行うことができます。

ハイブリッドクラウド接続

ハイブリッドクラウド接続は、オンプレミス・プライベートクラウド(コロケーション)・パブリッククラウドを組み合わせた構成で、コロケーション施設内の自社サーバーからパブリッククラウドのデータセンターに接続することができます。この場合、特に重要なデータやアプリケーションをコロケーションで安全に管理し、一部のデータの保管・処理をパブリッククラウドで柔軟に行う、という運用が可能になります。

マルチクラウド接続

マルチクラウド接続は、複数のパブリッククラウドを同時に接続しているケースで、クラウド間のデータ伝送・負荷分散をコロケーションが軸となって行います。

バックアップ接続

バックアップ接続としてコロケーションを利用すると、企業のオンプレミス環境で通常のデータ保管・処理は行いつつ、災害が発生した場合はコロケーションからデータを復元し、事業継続に役立てることができます。

インターネット接続

多くのコロケーション施設はインターネットエクスチェンジポイントに接続されており、ユーザーはインターネットからコロケーションデータセンター内のサーバーにアクセスすることができます。

VPN・専用線接続

セキュリティを重視する場合、コロケーションと自社データセンターにVPN・専用線で接続するという構成になる可能性があります。

このように、コロケーションデータセンターは、電力・冷却機能を提供するだけでなく、さまざまな接続サービスを合わせて提供することがほとんどです。

では、どのようなシーンで、顧客がコロケーションデータセンターの接続サービスを利用するのでしょうか?参考として、次のようなユースケースを考えてみます。

  • 前提 ある製造業の企業A社がコロケーションサービスの顧客であると仮定します。A社の品質管理部門は、製造ラインからデータを収集・分析して、不良品の検出・生産プロセス改善に役立てています。製造ラインには多くのIoTセンサが設置されており、各センサが1秒ごとに大量のデータを収集しています。

  • 接続の流れ A社はまずこの膨大なデータをコロケーションデータセンターに設置した自社サーバーに集め、データの保管・前処理(フィルタリングによる利用可能データの抽出)を行います。前処理されたデータはパブリッククラウド上のデータレイクやストレージに送られます。パブリッククラウドで行ったデータ分析の結果は、再びコロケーションデータセンター経由で製造ラインにフィードバックされます。

このユースケースにおいて、「A社から直接パブリッククラウドにデータを送るのではダメなのか?」という意見もあり得ると思います。ただ、いくつかの観点でコロケーションサービスを利用する方が良い可能性があります。

1つ目はコストの問題です。膨大なデータをそのままパブリッククラウドに送ると、クラウド側のストレージコストが高くなります。

2つ目がデータ転送の安定性・速度の問題です。今回のシーンは製造ラインにおけるリアルタイム制御であり、低遅延であることが求められますが、A社からパブリッククラウドに直接接続すると、パブリッククラウドのデータセンターの位置やパブリッククラウドの混雑状況によっては、接続の安定性・速度に課題が生じ得ます。多くのコロケーションサービス事業者はパブリッククラウドと連携して専用の回線を確保しているため、安全かつ高速にデータを転送することができます。

データセンターに求められるクオリティ

アメリカのデータセンターには、Uptime Instituteという団体が定めた基準があり、その基準をクリアしているかどうかでデータセンターとしてのレベルを判断することができます。レベルとしてはTier1からTier4まで存在します。

Tier1は設備が冗長化されておらず、容量(電力容量・冷却容量等)や配電に問題が生じた場合や保守時にはデータセンター全体の停止が必要です。Tier2は設備が冗長化されているものの保守には依然として全体停止が必要です。Tier3は全コンポーネントが冗長化され全体停止することなく保守作業が可能になります。Tier4は一部の機器や配電経路に故障が発生しても全体の運用は影響を受けません。

AIの登場でデータセンターに何が起きているか?

上記でご紹介した基準は、ある意味「これまで」のデータセンターに対する要件でしたが、この章では、AI時代にデータセンターが新たに要求されることをご紹介します。

この点についてVantage Data Centersという企業のCTOが2024年8月にコラムとして発表した内容が大変参考になりました。そのコラムは「The Outsized Influence of AI on the Data Center Industry」(データセンター業界におけるAIの大きな影響)というタイトルで、OpenAIがChatGPTをリリースして生成AIが普及してから、データセンターがどのように変化していく必要があるのか論じされています。せっかくなので、重要だと感じた箇所をそのまま引用してみます(なお、原文は英語で、Google翻訳を行いました。)なお「AIワークロード」という言葉がたびたび登場しますが、これは「AIの処理を実行するために必要な計算処理やデータ処理のタスク全体」を指しています。

(以下、重要部分の抜粋)

AIワークロードには、データセンター内のラック、列、さらにはネットワークにまで影響する数多くの固有の要件があります。まず、AIワークロードには、非常に低遅延のネットワークが必要であり、高度なアルゴリズム機能に対応するために InfiniBand ネットワークが必要になることがよくあります。(*InfiniBandは、特に高性能コンピューティング環境やデータセンターで使用される、高速かつ低遅延のネットワーキングプロトコルおよびインターフェース規格)
ネットワークの制約に加えて、AIアプリケーションでよく使用されるGPUにより、ラックの電力密度が大幅に増加し、ラックあたり約 50kW以上になります。現在、最新のGPUを使用するAIラックには 27kW〜48kWが必要です。この電力密度は将来的に増加すると予想され、データ モジュールの構成と冷却方法に大きな影響を与えます。これらの密度でAIワークロードに使用される標準的なデータモジュールを空気で冷却し続けることは可能ですが、レイアウトに大きな変更が加えられる場合に限られます。
これらの高密度ラックと、AIアプリケーションに必要なタイトで低遅延のネットワーク、そして空冷の制限が組み合わさることで、AIデータモジュールは従来のクラウドデータモジュールとはまったく異なるものになります。従来のクラウドワークロードでは4MWの部屋に 24ラックの20列を配置していましたが、AI レイアウトでは8~10ラックの9列のみを配置します(4MW=4,000kWを8*9=54で割ると55.5kWとなる)。
ハイパースケール顧客向けに設計されたデータセンターは、現在のラック密度で今日のAIアプリケーションとワークロードのニーズを満たすことができます。しかし、ラック密度が上がり続けると、これらの実稼働データセンターは変更が必要になります。AIが予想どおりに進化し続けると仮定すると、AI専用のデータセンターを設計して構築するのが理にかなっています。
AI固有のアプリケーションとワークロードに関して、データセンターの設計者が考慮すべき要素がいくつかあります。冷却が主な考慮事項です。データ センター内では、設計者は液体冷却を組み込む方法を決定する必要があります。液体冷却では新しいデバイスが導入され、データ モジュールの形状が変わります。さらに、データセンターのオペレーターは、分散配管、データモジュール内の流体力学、潜在的な漏れ、およびそれらが運用に及ぼす全体的な影響などの側面を考慮する必要があります。
電気面では、密度を高めながら部屋を縮小する必要があるかもしれません。液体冷却が主な冷却メカニズムになると、空気の流れを最適化する列設計を放棄し、ネットワーク遅延などのAI固有の要件を優先する配置を採用できます。
今日のデータセンターでは、AIアプリケーションやワークロードでも空冷が依然として効果的です。ただし、前述したように、ラックあたり 60kWまたは70kW以上という電力密度の増加により、液冷の導入が必要になります。多くの大手クラウド企業やハイパースケーラーが、液冷ソリューションの設計に積極的に取り組んでいます。データ センターにおける液体冷却の現在の傾向、そしておそらく将来の方向性は、ラック ベースの液体冷却、具体的には液体からチップへの技術を備えた冷却剤分配ユニット (CDU) を使用することです。この導入方法はますます一般的になりつつあり、将来の液体冷却の実装では好ましい選択肢になると思われます。液体冷却環境への移行によって、空気の必要性が完全になくなるわけではありません。一部の顧客アーキテクチャ コンポーネントは液体冷却に適していないか、液体冷却に対応できません。データ センターの設計者は、適切な空気と液体の比率を見つけ、それを冷却戦略に組み込む必要があります。
AI アプリケーションの需要により、データセンターオペレーターが1平方フィートあたりの全体的な密度を大幅に増やす必要が生じた場合、同じ施設で両方のワークロードをサポートする実現可能性は低下し、異なる設計が必要になります。進化の観点から見ると、特にAI企業がソリューションをうまく収益化できれば、今後3年以内にAIに特化した施設への移行が見られるようになると予想しています。この専門化の程度は、高密度化の要件とAIアプリケーションの商業的成功によって決まります。

上記からわかるのは、「1ラックあたりに必要な電力が50kWを越えるかどうか」が1つの基準になる、ということです。50kWを越えると、既存のデータセンターは大幅な設計変更が必要になるため、AIネイティブなデータセンターを設計・建設する必要がありそうです。ただ、その初期投資を行ってまで新設すべきかどうかは、AI需要が今後も成長し続けるかどうかに依存しています。そして、AI需要の成長は、AIソリューションがうまく収益化できるかどうかで決まります。詰まるところ、(特に生成)AIが一過的なトレンドではなく、真に顧客体験を変え、それに見合う代金を顧客から支払っていただけるようなアプリケーションに必要不可欠な役割を果たすか?という問いが重要であるように思います。

なお、こちらの記事によると、アメリカの電力総使用量は約4兆kWh(40億MWh)で、現時点でアメリカのデータセンターが消費する電力はアメリカの電力総使用量の約4%と言われています。つまり、アメリカのデータセンターは現時点で、合計1.6億MWh(40億MWhの4%)の電力を年間で消費していることになります。そして、こちらの記事によると、アメリカにおいてデータセンターが消費する電力使用量は2030年に現在の約2倍以上(約9%)になると言われています。この背景には、生成AIの普及が関わっています。同記事によると、Google検索に比べて、ChatGPTを用いた検索は約10倍の電力消費が必要となるそうです。具体的には、1クエリあたりの電力使用量が、Google検索が0.3Whに対して、ChatGPTは約2.9Whであるそうです。テキスト検索だけでこの数値であるため、画像や動画の生成となるとさらに電力消費が激しくなると思われます。

データセンターと冷却技術

AIによってデータセンターが受ける影響の中で、最重要要素の1つが「冷却設備」です。

まず、データセンターにおけるこれまでの一般的な冷却方法は、空調冷却(Computer Room Air Conditioning, CRAC)ホット/コールドアイル分離(Hot/Cold Aisle Containment)の2種類でした。空調冷却は、空調ユニットで冷風を供給しデータセンター内の機器を冷却するという最も一般的な方法で、ホット/コールドアイル分離は機器が搭載されたラックに対して片側通路から冷風を送り、反対側から温風を排出する方法です。冷風と温風が混ざらないようにするため冷却効率が高まります。

そして、先ほどのコラムでも登場しましたが、近年新たな冷却技術として主流になりつつあるのが、液浸冷却(Immersion Coolong)ダイレクトチップ冷却(Direct Chip Cooling)です。

液浸冷却

液浸冷却は読んで字の如く、機器全体を絶縁性の高い冷却液に浸して直接冷却する方法です。従来の空調冷却に比べると冷却効率が大幅に改善し、エネルギー消費量も削減できるため注目が集まっています。液浸冷却は元々スパコン用に検討され始めた技術ですが、データセンターの中でもデータ処理量が非常に大きい「ハイパースケールデータセンター」の増加や、地球温暖化ガス削減に向けた取り組みの活発化で、データセンターでの採用が進んでいます。

液浸冷却には、単相式二相式の2種類が存在します。単相式は、冷却液が常に液体のままで気化しない方式で、機器を不活性液体に浸し、温まった冷却液をポンプで循環させ、外部で冷やしてから戻します。温まった冷却液を冷却する方式には、ドライクーラー(冷却液を通す熱交換器に外気を当てて冷却する。外気温が高い場所では冷却効率が低い)、冷却塔(温まった冷却液を冷やした水と熱交換させて冷却する。水の蒸発熱を利用して効率的に冷却が行われる)、水冷式チラー(冷媒ガスを使って冷水を作り出し、温まった冷却液を冷水と熱交換させて冷却する。)等があります。不活性液体には、電気絶縁性(液体が電子機器や回路基盤と接触してもショートを発生させないため)・高い熱伝導性(熱を効率的に吸収・伝達することが必要)・化学的安定性(他の物質と反応しないこと、あるいは腐食性がないこと)・低粘度性(冷却液の循環をスムーズに行うため)・低毒性等が要件として求められ、代表的な不活性液体として、PFPE(パーフルオロポリエーテル)・ミネラルオイル・シリコンオイル等が挙げられます

二相式は、冷却液が温まると気化し、気化した冷却液が冷却器で冷やされて再び液体に戻って循環する方式です。一般的に単相式よりも冷却効率が高いと言われていますが、冷却液や設備に求められる要件が複雑になり、相対的にコストがかかると言われています。

(Source: https://www.netone.co.jp/media/detail/202209221-01/)
(Source: https://www.netone.co.jp/media/detail/202209221-01/)
ダイレクトチップ冷却

ダイレクトチップ冷却はチップに冷却用プレートを取り付け、その中に冷却水を流すことで直接的に熱を取り除く方法です。ダイレクトチップ冷却で肝になるのは、CDUというコンポーネントです。これはCooling Distribution Unitの略称で、サーバーやラックへ供給する冷却水の温度を調整する機能を持ちます。CDUは、チップの発熱量に応じて適切な温度の冷却水を供給し、循環して戻ってきた冷却水を再び適切な範囲内に収まるよう管理します。

先ほどの「データセンター業界におけるAIの大きな影響」というコラムでも言及されていましたが、AIワークロードがメインとなるデータセンターの冷却方法としては、特に液浸冷却とダイレクトチップ冷却が重要になると考えられており、後ほどご紹介する企業の中でも、冷却ソリューションを専門に扱っているところがあります。

世界のデータセンター関連企業の動向

この章では、2024年に資金調達(エクイティだけでなくデットも含む)を行ったデータセンター関連企業のご紹介を一部ご紹介します。並び順は資金調達実施日(公開された日)が新しい順としています。

  • DC BLOXは2014年にアメリカで設立された企業です。公開されている範囲で、エクイティとデットを合わせて5億ドル(≒736億円)以上調達しており、直近では2024年10月にデットで2億6,500万ドル(≒390億円)調達したことを発表しました。

  • ホームページのトップタイトルは、「CONNECTED, AI-READY DATA CENTERS FOR DIGITAL BUSINESS」で、主にアメリカ南東部にフォーカスして、データセンタービジネスを展開しています。ホームページにはデータセンターマップが公開されており、アラバマ州に2ヵ所、サウスカロライナ州に2ヵ所(追加で1ヵ所建設中)、テネシー州に1ヵ所、データセンターが存在します。

  • 同社は、デット調達のプレスリリースに合わせて、公共・民間共にハイパースケールデータセンターの需要が増加していること、およびそれに合わせて建設プロジェクトを複数進めていると紹介しました。DC BLOXについて、ハイパースケールデータセンターを取り扱っているという点では競合他社に対する優位性となる部分が見当たりませんでしたが、アメリカ南東部にフォーカスして密度高くデータセンターを保有している点は差別化になっていると思いました。

  • Xscape Photonicsは2022年にアメリカで設立された企業です。NvidiaやCisco(が運営するCVC)を含む投資家から、累計5,700万ドル(≒84億円)調達しています。

  • 同社は、データセンターでAIモデルを高速で利用する(AIモデルの学習・推論を行う)ために独自のシリコンフォトニクス技術を活用したデータ伝送ソリューションを開発しています。従来の光ファイバーは1つの波長、あるいは数パターンの波長しか伝達することができませんでしたが、Xscape Photonicsのシリコンフォトニクスを用いると、1本の光ファイバーで同時に伝送できるデータ量(データの帯域幅)を大幅に増やすことができると期待されています

  • Xscape Photonicsは、多波長分割多重(Wavelength Division Multiplexing、WDM)という、異なる波長の光を別々のデータ信号として扱い、同じ光ファイバーにまとめて送信する技術を応用していると思われます。ただ、WDMは異なる波長の光を分離・結合し、隣接する波長同士が干渉しないよう管理するためにコストがかさむ点が課題と指摘されており、その課題をどう解決しているのか説明している箇所は見つけられませんでした。また、長距離通信の場合、光ファイバー内で異なる波長の光はそれぞれ減衰度合いが異なるため、通信距離が伸びるほどデータ伝送の品質に低下・ムラが生じるという課題がありますが、こちらも同様に対策について説明された箇所が見当たりませんでした。

  • Xscape Photonicsは、上記の課題を解消しつつ、従来のデータ伝送技術に比べて、転送能力を10倍にし、消費電力を10分の1にできると考えています。

  • 同社の創業メンバーには、フォトニクス分野で豊富な研究実績を有するコロンビア大学の教授、Broadcomのエンジニアが含まれ、フォトニクスや半導体に関する豊富な経験を持つ博士やエンジニアで構成されています。

  • DataBankは2013年にアメリカで設立された企業です。2024年10月には、AustralianSuperというファンドをはじめとする投資家から20億ドル(≒2,950億円)を調達しています。

  • 同社は、現時点で、アメリカを中心に771ヵ所、563MW分のデータセンターを保有・運営しています。DataBankの563MWという数値がどれくらい大きいか理解する際に、アメリカのデータセンターの電力の何%程度か?というのはわかりやすいと思います。もし仮に24時間・365日稼働した場合、563MW×24時間×365日=493万MWhとなるため、アメリカのデータセンター全体の約3%を占めることになります(実際はフル稼働とならないことが多いため、もっと小さな数値となる)。

  • LiquidStackは、2012年にアメリカで設立された企業です。公開されている範囲では、2021年から外部資金調達を開始し、累計で4,000万ドル(≒61億円)調達しています。直近の資金調達は2024年9月で、リード投資家はTiger Global Managementです。

  • LiquidStackは、液体冷却ソリューションプロバイダーとして、・液浸冷却(単相・二相どちらも)・ダイレクトチップいずれもカバーしている点が強みです。LiquidStackは、2024年8月に、1MWクラスのCDUを発売しましたが、この製品はETL(アメリカおよびカナダにおける製品の安全基準に適合しているという認証)、CSA(カナダの安全基準に基づいて製品を評価する認証)、CE(EU加盟国で必要な安全基準の適合マーク)の認定を受け、第三者試験も合格しています。

  • Phaidraは2019年にアメリカで設立された企業です。累計で4,000万ドル(≒59億円)以上を調達しています。Phaidraの共同創業者は3名いますが、そのうち2人はDeepMind出身です。こちらの記事によると、CEOのJim Gao氏はDeepMindでエネルギー分野向けのAI開発プロジェクトをリードした経験を持ち、Googleのデータセンターの冷却エネルギー消費を40%削減することに貢献したそうです。

  • 同社の売り文句は「Your Virtual Plant Operator」で、データセンターに設置された複数センサから施設の使用状況をモニタリングし、AIエージェント「Alfred」に冷却・電力供給を最適化させることができます。なお、同社はデータセンターに特化しているわけではなく、エネルギー業界や製薬業界向けにも一連のシステムを提供しています。こういった施設では、ポンプ・チラー・冷却塔・ファンウォール等のコンポーネントを制御するBMS(ビル管理システム)が導入されていますが、PhaidraのソリューションはBMSに接続され、より高度な分析を行ったうえで制御指示をBMSに送り返す仕様になっています。

  • こちらの記事によると、PhaidraのAIには強化学習が使用されています。実際の顧客事例では、ソリューション導入後、最大15%のエネルギー節約が実現されているそうです。詳細を完全に理解するのは難しいですが、同社の強みは特に冷却効率の向上にあるようです。PhaidraのAIソリューションを利用するとデータセンターの熱安定性を高めることができ、劣化・故障を抑制することができるそうです。

  • JDC Power Systemsは2000年にアメリカで設立された企業です。北米地域全体のデータセンターに対して低〜中電圧の配電設備および制御システムを提供しています。機器提供だけでなく、データセンターの設計・調達・試運転を含む総合エンジニアリングを行っています。

  • 2024年7月、Madison-River-Capitalというプライベートエクイティファンドが投資を行いました。プレスリリースによると、急速に成長するデータセンター市場においてJDC Power Systemsは競争優位性を持っており、今後さらに大きく成長する可能性がある、とのことです。

  • ST Telemedia Global Data Centresは、2014年にシンガポールで設立された企業で、ST Telemediaの子会社です。

  • 2024年6月、アメリカのKKRというプライベートエクイティファンドが約13億ドル(≒1,910億円)の投資を行うと発表しました。プレスリリースによると、アジア太平洋地域全体でデータセンターに対する関心が急速に高まっており、今回調達した資金を用いて、インド太平洋地域にデータセンターを展開していくと書かれています。ST Telemedia Global Data Centresは95ヶ所を超えるデータセンターを持ち、合計容量は1.7GW(1700MW)に達します。

  • 同社のデータセンター事業モデルは基本的にコロケーションサービスで、同社のコロケーションサービスのウェブサイトを見ると、冷却方法はホット/コールドアイル分離(冷気の供給と、機器の高温排気が混ざらないようにする)のように見えます。

  • Vantage Data Centersは2010年にアメリカで設立された企業です。Intelのデータセンターを買収してデータセンター事業に参入しました。累計で約170億ドル(≒2兆円5,000億円)調達しており、買収を通じてヨーロッパ・アジア・アフリカに進出しています。

  • 35ヶ所に保有するデータセンターの合計容量は約2.6GW(2600MW)で、24時間365日稼働した場合、アメリカのデータセンター年間消費電力の約9%に相当します。

  • Bulk Infrastructureは2006年にノルウェーで設立された企業で、データセンター・ファイバーネットワーク、物流不動産の開発を事業の核としています。

  • 北欧でデータセンターを運営する最大のポイントは、再生可能エネルギー由来の電力コストが低いことです(ノルウェーの電力は、98%が再生可能エネルギー由来)。同社は、コロケーションサービスに加えて、フルオーダーメイドなデータセンター建設を手掛けており「持続可能なデータセンター」を謳っています。

  • ノルウェーは国の政策としてデータセンター投資を掲げています。こちらの資料は、ノルウェーのMinistry of Trade, Industry and Fisheries(日本でいう経済産業省)から公開されている資料ですが、冒頭に「Powered by Nature, Norway as a data center nation」と書かれていることからも、再生可能エネルギーを用いたデータセンター産業に力を入れていることがわかります。

  • ノルウェーはEUに加盟していませんが、EEA(欧州経済領域)の一部であり、EUが定める4つの自由な移動(商品・サービス・人・資本)を享受しています。データ保護規則についてもEUの法律がノルウェーで実施されることが保証されており、実質的にEU域内にデータセンターを建設することと変わらない、という点がBulk Infrastructureのホームページではアピールされています。

  • TierPointは2010年にアメリカで設立された企業です。同社は2023〜2024年のうちに資産担保証券の発行で約16億ドル(≒2,350億円)を調達しており、アメリカに40ヶ所のデータセンターを保有しています。

  • 同社は、コロケーションサービス、プライベートクラウド、パブリッククラウドまで幅広いデータセンターソリューションを展開しています。

  • Exowattは、2023年にアメリカで設立された企業です。2024年4月に2,000万ドル(≒29億円)をエクイティで調達していますが、このラウンドにはOpenAI CEOのSam Altman氏が投資家として加わっています

  • まだそれほど情報が多くありませんが、こちらの記事によれば、同社は太陽光エネルギーを熱に変換する「Exowatt P3」と名付けられたモジュールを開発しています。P3には特殊なレンズが付けられており、長時間持続する顕熱バッテリーに熱を蓄えます。このバッテリーにはシリコン複合材料が使用されており、化学反応・相変化・電流なしでエネルギーを蓄えることができるそうです。ただし、それをどのように実現するのか、という詳細は記載されていません。

  • Thintronicsは2018年にアメリカで設立された企業で、電子材料用絶縁体の開発を行っています。これまでに累計2,300万ドル(≒34億円)調達しています。

  • 高精細チップの中にはぎっしりと銅線が入り組んでいますが、その間には誘電体という絶縁材が挟まれています。また、チップとその下の構造の間には誘電体フィルムというシート状の材料が存在します。こういった絶縁材料の分野で世界的なシェアを持つのが味の素株式会社のグループ会社である味の素ファインテクノ株式会社です。これを層間絶縁材料と言い、味の素は「味の素ビルドアップフィルム®︎ABF」と名付けています。味の素ファインテクノのページを見ると、「味の素ビルドアップフィルムはパソコンの心臓部である高性能半導体(CPU)の絶縁材に使われており、現在では全世界の主要なパソコンなどの層間絶縁材のほぼ100%のシェアに達しています。」とあります。

  • この材料をアメリカで内製できるようにしよう、というのがThintronicsの挑戦です。アメリカでは2022年に成立したChips and Science Act(チップ・サイエンス法)という法律によって、半導体に関わる研究開発を政府の補助金がつきやすくなりました。同社がアメリカ企業としてチップメーカーに絶縁体材料を供給することができれば、ストーリー的にも国からの支援を受けやすいと思われます。

  • 同社が狙うのは、ハイパースケールデータセンターで求められる、データ伝送効率を極限まで高めたチップに対する需要です。確かに味の素ファインテクノはほぼ100%のシェアを持っていますが、味の素ファインテクノはチップに組み込まれる材料について、絶縁体材料以外は供給していません。これはつまり、チップ内の材料間の連動性に改善の余地があるとも考えられます。Thintronicsが用いる絶縁材料がどのような競争優位性を持つのか、詳細は明かされていませんが、すでに半導体業界の複数企業で素材テストを行い、競合他社のフィルムに比べて優れた効率性(絶縁材料の効果を示す指標としてDk値という数値を採用しているらしい)を示していると発表しています

  • STACK Infrastructureは2019年にアメリカで設立された企業です。同社は、IPI Partnersという投資ファンドが、Infomart Data CentersとIPI Partnersがそれぞれ保有していたデータセンターを統合する形で新設した企業で、設立当初からハイパースケールデータセンター需要に応えていくことを事業戦略の中心に据えています。

  • 同社はアメリカ国内だけでなく、アジア・ヨーロッパにもデータセンターを保有しています。設立以来、グリーン証券化商品(Green Securitized Notes、環境に配慮した資産・事業から生み出されるキャッシュフローを裏付けとする証券化商品)で累計28億3,000万ドル(≒4,420億円)を調達し、次々とハイパースケールデータセンターを建設している。

  • 2024年10月には日本の千葉県に36MW容量のデータセンターを開発することを発表しました。

  • Divcon Controlsは1990年代半ばにアメリカで設立された企業です。エネルギー管理システムを専門としており、現在はデータセンターのビル自動管理システム(BAS、Building Automation System)・電力監視システム(Electrical Power Monitoring System)を提供しています。

  • 同社はすでに1GW分以上の顧客のデータセンターにおけるビル管理・電力監視を行っており、2024年2月には、Goldman Sachsが投資することを発表しました。

上記リストには、設立数年の若い企業もいれば、設立から十数年経過する歴史のある企業もあります。ただ、いずれの企業も、ここ数年の間に(デット・エクイティどちらも含めた)外部資金を用いて急成長を狙っています。特に生成AIが登場してから、AIの普及が急速に進んでいることもあり、ハイパースケールデータセンターに対する需要はこれからさらに大きくなっていくことが予想されます。ハイパースケールデータセンター市場をゴールドラッシュと捉えると、例えば冷却・光通信・チップ材料等は「ツルハシ」と呼べるような技術スタックかもしれず、今後も引き続き注目していきたいと思います。

IDATEN Ventures(イダテンベンチャーズ)について

フィジカル世界とデジタル世界の融合が進む昨今、フィジカル世界を実現させている「ものづくり」あるいは「ものはこび」の進化・変革・サステナビリティを支える技術やサービスに特化したスタートアップ投資を展開しているVCファンドです。

お問い合わせは、こちらからお願いします。

今回の記事のようなIDATENブログの更新をタイムリーにお知りになりたい場合は、下記フォームからぜひ IDATEN Letters に登録をいただければ幸いです。


Comments


Commenting on this post isn't available anymore. Contact the site owner for more info.

©2017 by IDATEN Ventures. Proudly created with Wix.com

Azabudai Hills Garden Plaza B 5F

5-9-1 Toranomon, Minato-ku

Tokyo 105-0001 JAPAN

All rights reserved © IDATEN Ventures
  • Facebook - Grey Circle
  • Twitterの - 灰色の円
bottom of page