統計でたどる人類と経済の発展史 第9回: コンピュータとAIが切り開く経済統計の時代
公開日
2025年9月12日
更新日
2025年9月30日
前回(第8回)では、第二次世界大戦期から戦後にかけて、GNP/GDPや産業連関表、CPIなどの基盤指標が整備され、統計が国家の経済運営に必要になったことを確認しました。今回はその続きとして、1950年代以降にコンピュータの登場が統計の質と量をどう変え、さらにはAIの発展が意思決定をどう加速させてきたのかを、実際の数字とともにたどります。
いまこの内容を知ることで、物価上昇や為替の変動、サプライチェーンの混乱、そして生成AIの急速な普及など、足元の出来事がデータの「早さ」と「精度」を以前にも増して企業や政策の競争力に直結させていることの理解にもつながるかと思います。中央銀行や国際機関でも機械学習の活用が進んでおり、統計の作り方と使い方は静かにアップデートされ続けています。
この記事の主な内容
1. 1950〜60年代:コンピュータが国勢調査を変えました
米国の事例:1951年、米国センサス局は世界初の商用コンピュータ UNIVAC I を導入しました。これは「パンチカードと人手」に頼っていた統計処理を一気に電子化する大きな転換点でした。なぜここまで効率化が求められたかというと、当時の米国は戦後ベビーブームで人口が急増し、調査票の数が爆発的に増えていたからです。1960年の国勢調査では、調査票をマークシート方式に変え、マイクロフィルムから磁気テープへ自動変換する FOSDIC を導入しました。その結果、入力作業は 1950年の約20万時間から1960年には約2.8万時間 にまで短縮され、コストも 約600万ドル 節約できたと報告されています。対象人口は 1億7,932万人 と過去最大規模であり、手作業では到底追いつけない規模感でした。
日本の事例:1960年(昭和35年)の第9回国勢調査では、統計局に大型事務用コンピュータ IBM 705 が導入されました。記憶容量は 約40KB と現代のスマートフォンに比べればごく小さいものですが、当時としては画期的でした。日本も戦後の人口集中や都市化で調査対象が膨らみ、統計の処理スピード向上が急務でした。この機械化により、人口集中地区や世帯集計がより精密になり、結果の公表時期も前倒しされました。これを契機に他の統計分野でもコンピュータ化が広がり、統計の役割が「単なる記録」から「政策判断の迅速な材料」へと変わっていきました。
2. 計算統計学とシミュレーションの普及
コンピュータの普及は、統計手法の使い方を大きく変えた要因となります。その代表例が モンテカルロ法 です。これは乱数を繰り返し発生させ、複雑な現象をあたかも「実験」するようにシミュレーションする方法です。たとえば株価や為替の動き、将来の経済成長シナリオを何千回も試算してみると、どのくらいの確率で良い結果・悪い結果が起きるかを事前に把握できます。
戦後の冷戦期、原子力や軍事研究といった実際に実験できないテーマを数値で探る必要性から生まれ、やがて経済予測や金融リスク評価に広がりました。数式で厳密に解けない問題でも近似的な答えを得やすく、「不確実性の中でどの選択肢が合理的か」を考える上で大きな助けとなったのです。初心者の方にもイメージしやすいように言えば、これは“未来を先回りして試行錯誤するシミュレーション装置”のようなもので、今日の政策シミュレーションやリスク管理の基盤になっています。
3. 金融工学の基盤:1952→1964→1973
1952年:ハリー・マーコウィッツが「平均・分散」に基づくポートフォリオ選択を提示しました。たとえば「卵は一つのかごに盛るな」という格言を、数式で再現したような理論です。異なる値動きをする資産を組み合わせると、同じ期待リターンでも全体のブレ(リスク)を小さくできると示しました。投資対象が急速に増え、不確実性が高まった戦後の市場で、「直感ではなくデータで分散を設計する必要」が生まれたことが背景だと思います。今日の投資信託や年金運用の基本発想は、ここに直結しています。
1964年:ウィリアム・シャープの CAPM は、リスク(β)と期待収益率の関係を理論化しました。βは「市場全体に対してどれくらい動きやすいか」を表す物差しで、たとえばβ=1.2なら市場が10%上がると平均で12%上がりやすい、という直感です。これにより、**リスクに見合った期待収益率(資本コスト)**を計算で求められるようになりました。企業は投資案件のハードルレートやWACCの設定に使い、投資家は銘柄選択の基準に使うなど、実務への橋渡しが進んだと考えられます。
1973年:ブラック=ショールズのオプション価格式が登場し、「将来の価格変動に備える保険(オプション)」の値付けに共通言語ができました。これにより、ヘッジや保険の設計が標準化され、リスクを取る・減らすの判断がしやすくなりました。背景には、計算を支えるコンピュータの普及と、市場の複雑化があります。以降、デリバティブ市場の発展とともに、統計・確率モデルは金融インフラの一部になったと考えられます。
4. 2000年代以降:ビッグデータとAIが経済統計を拡張していく
データ量の爆発:近年は「ビッグデータ時代」と呼ばれるように、世界で生成・取得・複製されるデータ量は加速度的に増えています。IT調査会社の推計では、2018年に約33ZBだったものが2025年には175ZBに達すると予測されています。ZB(ゼタバイト)は1兆ギガバイトに相当する単位で、私たちの日常生活では想像しにくいほどの膨大な量です。背景にはスマートフォンやSNSの普及、IoT機器の増加があり、クリックひとつ、買い物ひとつがすべてデータ化されるようになったことが挙げられます。その結果、統計は従来の調査票や公的統計だけでなく、POS・スキャナーデータ、ウェブ上の価格情報、検索履歴や位置情報 といった多様な「オルタナティブデータ」を取り込むようになりました。こうした流れは「社会や経済の動きをよりリアルタイムで捉えたい」というニーズが強まったことが背景にあるのです。
中央銀行・国際機関でのAI活用:膨大なデータを処理するには、人間の勘や従来の統計手法だけでは限界があります。そこで登場したのが機械学習をはじめとするAIです。欧州中央銀行(ECB)は機械学習モデルを使ってユーロ圏のインフレ予測を行い、IMFはGoogle検索や空気質データといった一見経済と関係なさそうな情報も組み込み、GDPの「ナウキャスト(現在の状況把握)」に活用しています。日本でもコアインフレ予測に機械学習を導入する研究が進んでおり、政策判断の現場で実務的に利用され始めています。背景には、世界的なインフレや金融不安といった「変化のスピードが速すぎる課題」に素早く対応しなければならない現実があります。
現場データの整備:さらに身近なところでは、小売や物流の世界での変化が挙げられます。1974年、米オハイオ州のスーパーで初めてバーコードが読み取られたことをきっかけにPOSが普及し、販売や在庫の動きを日々追跡できるようになりました。これにより「昨日どの商品がどれだけ売れたか」が即座にわかるようになり、企業は仕入れや価格戦略を迅速に調整できるようになりました。こうした民間データは、景気の「いま」を捉える早期指標として統計機関や研究者にも活用され、従来の公的統計の弱点であった“タイムラグ”を補う重要な役割を果たしています。
5. いまのビジネス現場への示唆
速報性の獲得:かつては調査票を回収してから結果が出るまで数か月単位で待たされるのが当たり前でした。しかしFOSDICがカード入力を不要にしたように、現在はPOSやオンラインデータで日次〜週次の需要変化を把握できます。たとえば「週末にどの商品が動いたか」を翌週には確認でき、意思決定のタイミングを大幅に前倒しできるようになったのです。背景には、消費トレンドが短期間で変わる現代市場に対応する必要性があります。
精度の両立:伝統的な統計(標本設計・推定)は「限られたデータで全体像を推定する強み」があり、機械学習は「大量データを解析してパターンを見つける強み」があります。両者を組み合わせることで、予測精度と解釈性のバランスを取りやすくなります。たとえば売上予測モデルにAIを使いつつ、どの要因(価格、天候、キャンペーン)が効いているかを統計的に確認すれば、現場が納得できる説明になります。こうした体制を持つことが有効であるものの、日本が非常に遅れている分野であるともいえます。
人とプロセス:どんなに高度なモデルも、正しく運用されなければ意味がありません。モデルはあくまで道具であり、データ品質、プライバシー配慮、モデル監査のルールを整えることが重要です。また、現場と経営の双方が納得できるKPIとアラート設計を持つことで、モデルの出力を単なる数字ではなく「次の行動につながる合図」として活用できます。これが成果につながると考えられます。
6. 考察
1950年代の計算機導入は「手作業のボトルネック」を解消し、AI時代は「データの多様性と量」を武器にしつつあります。つまり、時代ごとに「なぜ新しい技術が必要だったのか」という必然性がありました。戦後の急激な人口増加や経済拡大にはコンピュータの処理能力が必須となり、現代の複雑で変化の速い市場環境にはAIやビッグデータが重要視されています。いずれの時代も、意思決定を速く・正確にするための技術が統計を押し上げてきたのです。
これからは、推定と予測に加えて、因果推論・反実仮想といった「もし〜だったら」を考える分析が一段と重要になっています。さらに、モデルの精度向上だけでなく、透明性・再現性・倫理的配慮を組織文化として根付かせることが、持続的な競争力につながると考えられます。
いよいよ次回(第10回)は最終回となりますが、古代から現代までの流れを総括し、これまで積み上げられた知見がどのように現在のデータ社会へとつながっているのかを見ていきます。歴史を振り返ることで、未来の統計活用にどんなヒントがあるのかを一緒に探っていきましょう。
<文/綱島佑介>
参考文献・出典
・U.S. Census Bureau 公式資料(UNIVAC I, 1960年センサス関連)
・総務省統計局「国勢調査のあゆみ」
・Los Alamos National Laboratory(モンテカルロ法の歴史)
・Markowitz (1952), Sharpe (1964), Black & Scholes (1973)
・IDC (2018) データ量推計レポート
・欧州中央銀行・IMF ワーキングペーパー
・Smithsonian National Museum of American History(UPC初スキャン展示)





