今年初めから感知されたテック業界の新しい雰囲気は、アメリカのビッグテックの人工知能(AI)モデルを脅かす「中国産AI」の登場と、規制に対する世界各国のスタンスの変化に要約されます。
中国のAIスタートアップ「ディプシク(deepseek)」は登場とともに世界中に衝撃を与えました。
各国でディプシク遮断の動きまで起き、時間が経つにつれて話題性は多少落ちる雰囲気だが、米国と中国の2大国間のAI覇権競争の第2幕が開かれたという評価です。
開発費用を画期的に減らしながらもAI性能は上げながら、高コスト構造であるアメリカのAI企業に対する依存度を下げることができる可能性と中国AIの潜在力を示したからです。
特に中国企業がAIと密接に連係し、また別の「ゲームチェンジャー」である「ヒューマノイド」分野で突き進む姿を見せ、今後強大国の技術覇権競争がより一層激しくなる展望です。
2月10日にフランス·パリで開かれた「AI首脳会議」。
フランスのエマニュエル·マクロン大統領が意味深長なメッセージを投げかけました。
彼は「ヨーロッパが世界の他の国々と再び歩調を合わせなければならない」とし「AI規制を単純化するだろう」と言いました。 これは2年前に英国で開かれたAI首脳会議で規制方案に焦点を合わせたこととは相反する歩みです。
これまでヨーロッパはAI開発競争で遅れたという評価と共に「規制」を通じて外産AIの影響力拡張を警戒し「AI主権」を守る戦略を守ってきました。
だが、その間「ミストラルAI」等、フランスのAIスタートアップが速い速度で技術追撃に成功し、オープンソースなどを活用して相対的に少ない費用でもビッグテックに匹敵するAIを作ることができる道を探しながらヨーロッパのAI戦略にも変化が起きる姿です。
これまで<ザ·テックウェーブ>で数回強調したように、AIという大勢の技術発展を防ぐ方法は事実上ないように見えます。
これからのカギは、誰がより早く技術を先取りするか、人類がどのようにAIを賢明に統制する方法を見つけられるかにかかっているでしょう。
人々の実生活にAIが適用され、数十億人がAIチャットボットを使うようになった現実で「当分AI研究を中断しよう」という言葉は空虚に聞こえることさえあります。 ニューヨークタイムズは「AI終末論者たちがますます居場所を失っている」と言いました。
巨大なAIの波の中、軍事用AIへの関心も高まっています。 これまでAIの軍事的使用がタブー視されるのが不文律のように思われたなら、最近は公然と軍事用AIを開発する動きが目につきます。
メタ、オープンAI、グーグル、ミストラルAIのような有数のテック企業は、防衛産業企業と協力したり、関連して独自のチームを設けるなど、軍事用AIに対する準備に取り掛かりました。
特に、中国のAIとロボットの威力が相当な水準に上がったことを全世界が目撃し、国家安保のために軍事用AIに対する対策を慌ただしく用意する雰囲気です。
今週の<ザ·テックウェーブ>では、タレスグループのペトリス·ケイン会長とのインタビューを通じて現状を診断していきます。 彼は11年間、欧州1位の防衛産業メーカーであるタレスグループを率いている欧州の防衛産業の大物です。
パリで開かれた「AI首脳会議」に最近参加したケイン会長が韓国の読者に伝えるメッセージも伝えます。 彼は「サイバーセキュリティ保護なしにはAIは私たちが耐えられない賭博」という特別寄稿文を本誌に伝達してきました。
ケイン会長は「AI自体は必須不可欠な存在になりつつある。 AIの効率性は他の追従を許さず、どんな企業や政府も無視できない有望な利益を約束している」とし「AIは電気ほど私たちの人生に必須な要素になるだろうし、これに対する『サイバーセキュリティ』が非常に重要だ」と強調しました。
タレスグループのパトリス·ケイン会長は記者との書面インタビューで、中国のAI躍進について、「中国がAI分野で重要なプレーヤーになったことは驚くべきことではない」とし、「他の生成AI事例と同様に、ディプシークのような技術は防衛分野の特定事例と関連がある可能性がある」と述べました。
特に彼は国防と防衛産業に特化したAI開発の必要性と今後の競争構図を強調しました。
ケイン会長は「例えばAIはジェット機に乗っている操縦士や任務を調整する間、職員に自然語で情報を抽出し伝達するのに一部役に立つことができる」としながらも「AIのための大部分の国防アプリケーションはこのように単純だったり特定技術に基盤しない。 センサーをよりスマートにしたり、ドローンをより自律的にしたり、任務計画をより効率的にするためには、他のタイプのAIが必要だ」と説明しました。
彼は「軍隊はディプシクやチャットGPTのようなデータだけに基づいた道具では充足できない具体的な要求事項を持っており、生死がかかった状況では絶対的な信頼性を望む」と話しました。
AIを軍事的に適用するためにはAIによって機械がどのように作動し、AIで出てくる結果について続々と知っていなければならないという説明と解説されます。
ケイン会長は「このような条件が国防のような重要なアプリケーションのために特別に設計されたハイブリッドと呼ばれる特定AIモダリティをタレスグループが開発している理由」と説明しました。
AIだけでなく、AIを搭載して進化するロボティクスも軍事分野に取り入れられ、無限の発展が予告されます。
先立って世界経済フォーラム(WEF)は「2016世界危険報告書」で殺人ロボットを名指しして「実現可能性が高まっており、既存戦争の規則を揺るがすだろう」と明示したりもしました。 「人間軍人」の代わりに「殺人ロボット」たちが戦争を行うことが現実化できるのです。
「夢のAI」と呼ばれる人工一般知能(AGI)がAIの軍事化を現実化する「トリガー」になりうるという展望もあります。 AGIとは、与えられたすべての状況で人間のように推論、学習、問題解決能力を備えた強力なAIのことです。
実はこれは1997年、ノースカロライナ大学のマーク·グブルド教授が自己複製システムを備えた軍事用AIの出現を予告しながら初めて使用した概念です。 テック業界では、AGIを人間を超える超知能AIに向かう段階と見ています。
ケイン会長は、サイバーセキュリティの重要性を繰り返し強調しました。 AIの発展とともにサイバーセキュリティは軍事分野の核心として浮上する領域です。
彼は「AIに対する公開的な議論は主に倫理、誤った情報、そして未来の職業に焦点を合わせているが、重要な問題はAI自体のセキュリティ」とし「AIが社会のほとんどすべての部分に内在しているため、やや間違えればすべてのことを粉々にすることができる巨大で相互連結されたシステムが作られたわけ」と言いました。
果たして我々は危険に備えているのでしょうか。
ケイン会長は「疾病診断から敏感な位置に対する物理的接近管理に至るまでAIが作業をより多く統制できるようになりサイバー攻撃の余波は幾何級数的に大きくなっているが、驚くべきことに一部AIは強力なだけに脆弱だ」と警告しました。
彼によると、AIを攻撃する2つの重要な方法があります。
1 つ目は、個人の健康記録から機密性の高い企業機密に至るまで、すべてを侵害するデータを盗むことです。
ハッカーは医療データベースを悪用したり、チャットボットを騙して自分の安全網を迂回するなど、モデルを騙してセキュリティ情報を吐き出させることができます。
2つ目は、モデル自体を妨害し、危険な方法で結果を歪めることです。
例えば、AIで駆動される自動車が「停止」表示板を「70mph」などと読み間違えると、大きな脅威に直面する可能性があります。 AIが拡張されるにつれ、このように可能な攻撃リストはますます増えるだろうというのがケイン会長の予想です。
彼は「このような危険によってAIを放棄することは最も大きなミスになるだろう」とし「セキュリティのために競争力を犠牲にすることは組織が急速に必須になっている技術に対する経験と統制力を第3者に依存させるだろう」と指摘しました。
AIのリスクを甘受せずにAIの利点をどのように得ることができるでしょうか。
ケイン会長は、3 つの秘策を助言しました。
第一に、AIを賢明に選択せよ。 彼は「すべてのAIが攻撃に同じように脆弱なわけではない」と強調します。 たとえば、大型言語モデルは膨大なデータセットと統計的方法に依存するため、非常に脆弱であるという説明です。 AIにすべてを提供する前に、組織が使用するAIのセキュリティを確認し、賢明に選別して使用することが必要だという意味と解釈されます。
第二に、立証された防御機能を配布、使用せよ。 ケイン会長は「シンボリックまたはハイブリッドモデルのような他のタイプのAIはデータ集約的ではなく明示的な規則に従って作動するため、解読がさらに難しく、立証された防御機能を配布する」と助言しました。
彼は特に「デジタルウォーターマーキング、暗号化、オーダーメード型学習のようなツールは新しい脅威に備えてAIモデルを強化することができる」と説明しました。 例えば、タレスの「バトルボックス」を通じてサイバーセキュリティチームはAIモデルをストレステストし、ハッカーが脆弱性を悪用する前に脆弱性を探して修正しているという説明です。
第三に、組織のサイバーセキュリティレベルを向上させること。
ケイン会長は「AIは独立的に運営されるのではなく、より大きな情報生態系の一部」とし「伝統的なサイバーセキュリティ措置はAI時代に合わせて強化され、オーダーメード化されなければならない」と強調しました。 これは職員教育から始まり、結局人間のミスはサイバーセキュリティシステムのアキレス腱として残っているという説明です。
AIによる脅威を決して見逃してはならず、これに今から備えなければならないというのが彼が繰り返し強調したメッセージです。
「よくAIを巡る戦いが悪意的な行為者と無意識的な被害者間の持続的な衝突の場だと看過することができる。 しかし、今回はいつにも増して大きな危険が伴う。 AIのセキュリティが優先されなければ、AIの力を利用して被害を与えようとする人々に統制権を渡す危険がある」(パトリス·ケイン·タレスグループ会長)
去年7月、5年ぶりに韓国を訪れたケイン会長は記者に会い、量子コンピュータによるサイバー攻撃の危険性を数回警告しています。
彼は「クラウドやデータセンターにほとんどすべての核心情報が集まる『超連結』時代に既存暗号体系を完全に崩すことができるのが量子技術だ。 これからサイバーセキュリティ分野の核心的な話題になるだろう」と警告しました。
彼は「サイバー攻撃は非常に恐ろしい速度で現れ続けている」として「特に量子技術は現在完全に商用化されていないが、未来に日常化されるだろうし、これにともなう潜在的脅威を数多くの企業が認知している」と話しました。
テック業界で量子コンピュータのサイバー攻撃を懸念する理由は、技術発展速度が速いためです。
量子コンピュータとは、量子原理に従って並列処理が可能な未来型コンピュータを意味します。 通常のコンピュータが0または1の数字を活用するのとは異なり、量子コンピュータは00、01、10、11の4つの状態を使用します。
このため、一般コンピューターが100万回演算してこそ解く問題を量子コンピューターはたった1000回の計算で解決できます。 今日、量子コンピュータは特定の領域で通常のコンピュータを凌駕した「量子優位」を達成した状態と評価されています。
特に、量子コンピュータを持ってサイバー上で攻撃が行われる場合、大きな被害が予想されるというのがケイン会長の懸念です。
彼は「すでに量子技術がコンピュータ、スマートフォン、レーダー、GPS、半導体など色々な分野に接木されているが、私たちが現在見ているのは氷山の一角に過ぎない。 この技術で世の中が完全に拡張され変わると予想し、タレスもこれに多くの投資をしている」としました。
特に量子コンピュータの登場で「サイバーセキュリティ」の版が完全に変わる可能性があるとケイン会長は強調します。
コンピューティング速度が非常に速い量子コンピュータの特性上、既存の暗号体系を数秒以内に解読することができ、これを活用したサイバー攻撃などで既存のセキュリティ体系が危険に陥る可能性があるからです。
量子技術で暗号体系が崩れると、暗号化で保護する通信やデータがすべて攻撃者に露出される可能性があるわけです。
情報技術(IT)業界の一部では、量子コンピュータが10年以内に既存の暗号システムを破ることができるほど強力になると予想しています。 サイバー攻撃などで拡張可能な量子コンピュータが2030年頃に登場するという展望まで出ています。
米国政府は量子コンピュータが既存暗号システムを無力化できるという憂慮の中で敏感な安保·技術プロジェクトから関連暗号化を適用し2035年までに完了するという計画を明らかにした経緯があります。
各国のAI競争が次第に佳境に突き進んでいます。
AIとの技術シナジーにより、ヒューマノイド、ドローンなどの商用化と技術多角化の速度も驚くほど速い水準です。 こうした技術覇権競争で取り残されるのは、経済を越えて国家安保にも致命的な影響を及ぼしかねないという分析です。
AI技術開発において技術を商用化する「窓」だけでなく、技術による逆効果や敵国や脅威勢力からの攻撃に備える「盾」開発にも疎かにしてはならないというのがヨーロッパ防衛産業の大物の助言です。
私たちは果たして準備ができているのでしょうか。 これに対してだけは「分裂」ではなく団結した行動が必要な時点です。 ゴールデンタイムが今も流れています。
最後に、パトリス·ケイン会長の特別寄稿文全文(原本)を共有し、今週の『テックウェーブ』を終わります。
By Patrice Caine
The AI debate is raging, and skepticism is high. But AI is here to stay. While some headlines criticise tech giants for AI-driven social media or questionable consumer tools, AI itself is becoming indispensable. Its efficiency is unmatched, promising gains that no business or government can ignore.
Very soon, AI will be as integral to our lives as electricity – powering our cars, shaping our healthcare, securing our banks, and keeping the lights on. The big question is, are we ready for what comes next?
The public conversation around AI has largely focused on ethics, misinformation, and the future of work. But one vital issue is flying under the radar: the security of AI itself. With AI embedded in nearly every part of society, we’re creating massive, interconnected systems with the power to shape – or, in the wrong hands, shatter – our daily lives. Are we prepared for the risks?
As we give AI more control over tasks – from diagnosing diseases to managing physical access to sensitive locations – the fallout from a cyberattack grows exponentially. Disturbingly, some AIs are as fragile as they are powerful.
There are two primary ways to attack AI systems. The first is to steal data, compromising everything from personal health records to sensitive corporate secrets. Hackers can trick models into spitting out secure information, whether by exploiting medical databases or by fooling chatbots into bypassing their own safety nets.
The second is to sabotage the models themselves, skewing results in dangerous ways. An AI-powered car tricked into misreading a “Stop” sign as “70 mph” illustrates just how real the threat can be. And as AI expands, the list of possible attacks will only grow.
Yet abandoning AI due to these risks would be the biggest mistake of all. Sacrificing competitiveness for security would leave organisations dependent on third parties, lacking experience and control over a technology that’s rapidly becoming essential.
So how do we reap AI’s benefits without gambling on its risks? Here are three critical steps:
Choose AI wisely. Not all AI is equally vulnerable to attacks. Large language models, for example, are highly susceptible because they rely on vast datasets and statistical methods. But other types of AI, such as symbolic or hybrid models, are less data-intensive and operate on explicit rules, making them harder to crack.
Deploy proven defences. Tools like digital watermarking, cryptography, and customised training can fortify AI models against emerging threats. For instance, Thales’s “Battle Box” lets cybersecurity teams stress-test AI models to find and fix vulnerabilities before hackers can exploit them.
Level-up organisational cybersecurity. AI doesn’t operate in isolation – it’s part of a larger information ecosystem. Traditional cybersecurity measures must be strengthened and tailored for the AI era. This starts with training employees; human error, after all, remains the Achilles’ heel of any cybersecurity system.
Some might think the battle over AI is just another chapter in the ongoing clash between bad actors and unwitting victims. But this time, the stakes are higher than ever. If AI’s security isn’t prioritised, we risk ceding control to those who would use its power for harm.
The author is CEO of Thales Group.