人工知能(AI)技術をベースにしたチャットプログラムとして、ChatGPTは登場以来、各方面から広く注目を集めています。ChatGPTは軍事分野にどんな変化をもたらすのか、AIは人間を追い越すのか。 そんな疑問を抱きながら、本記事ではChatGPTを取り上げ、AIの一般的な軍事利用について整理していきます。
中国ニュースサイト新浪新聞に掲載された記事より。
ChatGPTが注目されているのは、人間のフィードバックによってモデルのアルゴリズムを最適化する「RLHF」という新技術を導入し、AIモデルの出力が人間の常識や認知、価値観に収束するようになったからです。
簡単に言えば、ChatGPTはこれまでのAIモデルに比べて「より人間に近い」のです。この「人間らしさ」は、主に自然言語処理、つまり意味解析とテキスト生成の領域で発揮されます。
意味解析に関しては、これまでのように多くの質問に答えられないということはなく、基本的にユーザーからのどんな質問にも効果的に答えることができ、テキスト処理に関しては、どんな質問に対しても論理的でわかりやすく、しっかりとした文章で答えてくれるようです。これは、自然言語処理の分野では大きなブレークスルーと言うべきでしょう。
この技術は、明らかに軍事に応用できます。平時には、ChatGPTベースの情報統合システムをアシスタントとして活用し、アナリストがインターネット上の膨大な情報に対してデータ分析を行うことで、情報分析の効果を高め、価値の高い潜在的な情報を発見することができます。
戦時においては、ChatGPTを利用した情報統合システムにより、大量の戦場情報を自動的に統合して総合的な戦場状況報告書を作成し、情報担当者の作業負担を軽減するとともに、速いペースで進む戦場において戦闘員の情報分析・計画能力を向上させることができます。
また、ChatGPTは認知対策の実施にも利用できます。ChatGPTの強力な自然言語処理機能は、世論を素早く分析し、貴重な情報を抽出したり、偽の発言を作り出して国民感情を混乱させたりするために使用することができます。
また、ChatGPTは、「戦わずして敵を倒す」という目標を達成するために、対象国の政府のイメージダウンや国民の立場の変化、さらには社会の分断や政権の転覆を目指し、微妙で複雑な認知攻撃・防御戦術を用いて、対象国の国民意識を誘導、欺瞞、さらには操作することができます。
ChatGPTは自然言語処理技術を使用しているとされており、これは米陸軍の「結合全ドメイン指揮統制」構想の重要な開発項目です。
2020年7月1日、米国ランド研究所空軍プログラムグループは、報告書「現代戦における統合領域指揮統制-AIアプリケーションの特定と開発のための分析的フレームワーク」を発表しました。
報告書は、AI技術を6つのカテゴリーに分類し、そのうちの1つである自然言語処理は、統合領域コマンド&コントロールに明確な用途があるとしています。音声やテキストから情報を抽出し、関連情報を部隊指揮官や個々の兵士に送信して潜在的な紛争や機会を警告するためです
ChatGPTが人気なのは「より人間に近い」というのが大きな理由の一つですが、「より人間に近い」というのは「人間の知能に近づいている」というのとは違います。ChatGPTはあくまでAIの新しいレベルを表しているのです。ChatGPTはAIである以上、やはり当然の欠点があります。
現在、主流のAIは、脳の「パターン認識」機能をシミュレートしています。
当初、科学者たちはこの機能を「ルールを作る」ことで実現しようと考えていましたが、すぐにそれがうまくいかないことがわかりました。
例えば、人をルールで定義することは難しい。なぜなら、人の外見、大きさ、行動などの特徴は、明確で統一されたルールで記述することができず、ましてやコンピューター言語に翻訳することはできないからです。現実には、私たちは人を見たときに、ルールではなく、脳の「パターン認識」機能によって、瞬時にその人を認識しています。
この認識プロセスは、科学者に次のような洞察を与えました。第1に、脳は強力なパターン認識装置であり、その認識機能は訓練によって改善できる。
第2に、脳の認識能力は論理や規則に基づくものではなく、「自動的」な行為である。
第3に、脳は数百億個のニューロンで構成されており、脳は明示的なルールに基づいて計算するのではなく、ニューロンに基づいて計算する。
これが、現在主流のAIの根底にある論理であり、脳の動作メカニズムのシミュレーションです。この論理に基づき、科学者たちはニューラルネットワークアルゴリズムに基づく様々なタイプのニューラルネットワークモデルを開発し、良い結果を出しています。
これらのモデルは、入力層から画像などの情報を入力し、中間層で自動的に処理し、その結果を出力層から出力するディープラーニングモデルであり、 これが現在主流のニューラルネットワークのアルゴリズムで、ChatGPTも同様です。
違いは、一般的なAIモデルが100万語の学習データとパラメータしか持っていないのに対し、ChatGPTは3000億語のコーパスと1750億個のパラメータを持っていることです。
一般的なAIモデルはプログラムに学習データを 「供給」しているのに対し、ChatGPTはは学習データをもとにChatGPTの世界認識を向上させています。
これが、ChatGPTが「賢くなった」ように見える最大の理由です。 しかし、ChatGPTはあくまで「奇跡の強さ」であり、その原理は過去のAIモデルと根本的に異なるものではありません。
AIの根本を理解すれば、AIには2つの自然な欠点があることがわかります。
第一に、AI自身が「何をしているのか」を理解していないこと。AIモデルは具体的な意味を持たないニューラルネットワークのパラメーターの束に過ぎず、AIは出力にのみ責任を持ち、入力と出力の論理的関係を説明することはないありません。
第二に、AIの「振る舞い」は学習データによって決定されます。AIの訓練に使うデータ量が多ければ多いほど、AIの能力は高まります。 しかし、さらに多くのデータは「経験値」を意味するだけに、予期せぬ事態に遭遇すると機能不全に陥ることもあります。AIは大量のデータを 「餌」として与えられ、その性能はすべてデータに依存していると言えます。
その結果、AIは人間の知能に比べて真の理解力が弱く、かつ学習データに依存しています。
生まれつきの欠点はあるものの、AIが優れた「スタッフ」「アシスタント」であることは間違いありません。
現在までに、軍事におけるAIの応用範囲は拡大しており、より多くのAIの戦闘応用が現実のものとなりつつあり、あるいは現実のものとなっています。
例えば、偵察認識の分野では、一部の先進国軍が、各種航空目標の迅速なタグ付けや個体識別にAIを活用しており、すでにドローンなどの小型目標の自動検知・識別を実現しています。
無人戦争の分野では、米国国防総省の高等研究計画局が、ドローン、自律型地上ドローンや水中潜水艇、陸上移動式無人プラットフォームの適切な作戦目的での集団利用を研究するための一連のプログラムを実施しています。
さらに、AI技術は指揮統制、訓練シミュレーション、ロジスティクスなどの分野に浸透しており、徐々に重要な役割を果たすようになってきています。
++++++++++++++++++++++++++++++++
中国ではChatGPTを科学的に捉え、どう活用していくのか考えようとする前向きの姿勢が見られます。「人の仕事が奪われる」「よくわからないから怖い」などの後ろ向きな意見が多いどこかの国とは大違いです。
参考記事
<新浪新聞>从ChatGPT看人工智能的军事应用