今月のひとこと 2026年 5月号

今月のひとこと 2026年5月1日号

今月の人物は少し前の話題で、しかも私が2回目に取り上げる人物ですが、まさかこういうところで出てくると思わなかったのでブログにしておきます。あとはAIの急速な進化、エージェント時代の到来、コードレビュー不要の時代、人型ロボットの現状、そしてAIの安全性について書きます。

伊藤穰一氏とエプスタイン文書

伊藤穰一氏「僕も飲み屋、メディア、学びのDAOを作っている」

今月の人物は少し前のBlogで紹介して、しかも私が2回目に取り上げる人物ですが、まさかこういうところで出てくると思わなかったのでブログにしておきます。前回のブログでも書いたように、彼とはサン・マイクロシステムズのセミナーで一緒になり、その時に話した際、私の作ったワークステーションをカーネギーメロン大学で使っていたということがわかって意気投合しました。

伊藤穰一氏はデジタルガレージという会社のCEOだったと思いますが、その後しばらくしてMITメディアラボの所長に就任したというニュースを聞いてビックリ仰天しました。当時、MITのメディアラボというのはもう最高峰のすごいところで、MITもすごいのですが、さらにそのメディアラボというのはもっとすごいということで、もう仰ぎ見るようなところでした。そこの所長に就任したというのは驚天動地の出来事でした。

しかしその後、当時は私もよくわからなかった理由でメディアラボの所長を退任しました。あとで考えるとこれはエプスタイン文書に絡んだもので、当時も確かにそういう傾向のスキャンダルということはわかっていましたが、まさかエプスタイン文書にこれほど深く絡んでいるとは思いませんでした。

その後、彼は千葉工業大学の学長に就任して、まあ順当な人事だと私は思いましたが、エプスタイン文書が非常にクローズアップされてきて、彼はその中で何百回となく名前が出てきたそうです。詳しい情報はわかりませんが、どうも日本の要人との橋渡し役を務めていたような感じがします。彼はほとんどネイティブ、むしろネイティブ以上の英語を話しますので、アメリカと日本をつなぐにはうってつけの人間だと思います。

その頃、政府のデジタル政策を一手に引き受ける組織で、通常の省庁でいうと事務次官のような立場にあたるデジタル監に起用されることが内定していましたが、このエプスタイン文書騒動で沙汰闇となったようです。良い悪いは別にして、確かに基本能力のある人だとは思います。

AIの急速な進化と課金事情

OpenAIが最新AIモデル「GPT-5.5」発表、エージェンティックAIとして大幅進化

またもやAIの話題ですが、去年の後半、特に暮れから今年の前半3月までのAIの進展はすごいものがあります。急に賢くなったというか、しょっちゅうバージョンアップがされています。それにつられて私もClaudeとChatGPTの両方に課金をしたのですが、どちらもやめられなくて、どちらもそれなりに良いところ悪いところがあるので、どちらもやめられない状態が続いています。

賢くて頭が良いのですが、どうも使えるトークンの数がだんだん減ってきて、Claudeは最初から2〜3時間使うともうアウトになります。ChatGPTはまだ半日ぐらい使えていたのですが、それも同じようになってきました。AI会社としてはこれで収益を上げるということだと思いますが、ChatGPTの料金は安いプランで20ドル、高いプランは200ドルで3万円以上しますが、これでも確かに価値はあるという感じがします。

去年の暮れから今年の頭にかけてはバージョンアップが相次ぎました。Claudeが Opus 4.4から4.5、そしてつい最近4.7に上がりましたが、それを出した1週間後にGPTは5.5を出すという、非常にデッドヒートを繰り返しております。SNSなんかを見ていると今年の前半はClaudeを持ち上げる記事がやたらと多くて、なんでこんなに多いのかと思っていたら、最近はGPT 5.5の記事も増えてきて、いたちごっこになっています。Opusは非常に高価なのですごいかなと思っていたのですが、意外とそんなに大したことはないという気がします。つい最近使った感触では、GPT 5.5はすさまじく進歩したと思います。

## エージェント時代の到来 — チャットからの脱却

【導入事例】個人向けチャットから脱却!セキュアなコミュニケーションを蓄積してナレッジへ -株式会社万代

去年の後半は、いわゆるチャットという機能でバイブコーディングをやっていました。これは何かやってくれという要求を出して、それがチャットで返ってくる。それをコピペして動かすというやり方なので、コピペした段階でもう構文エラーが出たりいろいろして、それを直したり、結果も自分でチェックしないといけないので、非常に大変でした。もういい加減に辞めたいと思っていたぐらいです。

しかし今年になってからエージェントが非常に進歩しました。エージェントというのは自分のPCの中で動くので、まあ危ないと言えば危ないのですが、勝手に自分のPCの中にアプリやデータを作ってくれるので、コピペの回数はほとんどなくなりました。要求仕様もMDファイルで指定しておけばその通りにやってくれるので、どういう要求仕様を作るかがポイントになります。

テストもCLIソフトにしておけば、AIが勝手にコマンドを叩き込んで、おまけにその結果をPCのどこかのフォルダーに吐き出すようにしておけば、その入力と出力でテストもやってくれます。時々テストがうまくいかないとやり直して、どんどんやってくれます。だから何時間か放りっぱなしで勝手にやってくれるというメリットがあります。昔のチャット方式ですと、毎回毎回コピペしてテストして、人間が付いていないといけなかったので、ものすごく大変でしたが、今は非常に楽になりました。

コードレビュー不要の時代へ

「動くコード」では足りない──現場で即戦力になるエンジニアを育てる“実践型コードレビュー”

以前は、AIが作ったコードを人間がレビューしないといけない、そうしないとむちゃくちゃなものが出来上がる、セキュリティも怪しいという論調が多かったのですが、最近はそういう話はあまり聞かなくなりました。もうエージェントに投げておいて、作ったらそのまま最終の機能検査を人間がやるというレベルまで来ています。

最初のチャットの時代はコードを一生懸命見ていました。私ももともとコードは知らないのですが、Pythonはそれでいろいろ勉強して構文も覚えました。ちょっとした修正は自分で手を入れないといけないので結構面倒だったのですが、最近はもうコードは見ないですね。出来上がったPythonファイルをそのまま起動するだけなので、もうほとんどコードを一切見なくても動かせる。それが別に普通のやり方になってきているように思います。

最近のコードの何十パーセントかはAIが自律的に書いたものであると言われています。おそらく今年の暮にはほぼ80%以上はAIが生成したコードになるのではないかと言われています。ということは、エントリーレベルのいわゆるコーディングを主に行うプログラマーは不要になるということで、コーディングスピードも全く違うし、そんなに汚いコードを書くわけではなく、元の学習しているコードがきれいであればきれいなコードを書きます。下手な新人がぐちゃぐちゃのコードを書くよりはかなりマシになっているのではないかと思います。

いずれにしても、去年の暮れあたりは一発でできたと言って動かしても全然動かない、エラーだらけでしたけれども、この頃は一つ指示を出して変更すれば一発で動くようになっています。あとは仕様の勘違い、伝えそこね、伝え忘れとか、そういうのがあるので、それは後で修正しないといけませんが、それもほぼ一瞬で直してくれます。「ここが間違い」「ここがちょっと違う」という話ですぐにやってくれます。

いずれにしても仕様が最初からすべて決まっているわけではないので、作りながらどんどん仕様を追加していきます。これは非常に助かります。というか、私のもともとの開発スタイルがそういうスタイルで、GUIをまず作って、そこからいろいろ作っていって仕様をだんだん固めていく、いわゆるアジャイルのやり方をやっていたのですが、これはプログラマーにとっては非常に負荷のかかる仕事で、悩みのタネでした。 しかし今ではAIがそれを代行してくれるので非常に気が楽です。AIに無茶なことを言っても全然気にならないので、朝令暮改の仕様を与えても嫌な顔ひとつせず淡々とやってくれます。これは非常に嬉しいです。

私の理想とするソフト開発環境が、今の時点でほぼ出来上がったのではないかと思っています。昨夜も途中でもう寝ようかと思ったのですが、もうちょっとなのでしょうがなく追加のトークン代を払って作業を続けて夜中に終わりました。ひょっとしてと思って、今年の最初ぐらいに非常に苦労して作ったツールをもう一度やらせてみましたが、これがあっという間に一瞬でできてしまって、あの頃の苦労はは一体なんだったんだろうという気持ちになりました。

人型ロボットの現状と課題

AIどころではない……2年後に人型ロボット「爆発的普及」で75%の雇用が終了

人型ロボットの話ですが、先日北京でロボットのマラソン大会(ハーフマラソン)がありました。あれで人間を上回るスピードが出たというのはすごいことだと思います。まだフィジカルAI的なところはまだまだですが、足と腕の動きをあれだけできる、しかもそれが1時間バッテリーで持つというのはすごいことだと思います。

日本で作っているロボットはなんか動きが緩慢でじわっと動くだけなのですが、中国のロボットは非常に俊敏です。とんぼ返りもできます。走らせると先ほどのように人間より速いということで、ロボットの問題はここ、つまり人間より速い動きができるかというところにあると思っていたので、これには非常に感銘を受けました。

たとえば、オリンピックの競技のような場でロボットと人間が競争するというのは、割とありえる話ではないかと思います。しかし、熟練工がフィジカルAIで細かい作業をやるというのは、まだまだ何十年もかかるのではないかと思います。いずれにしても動物の中でも人間というのは非常に器用にできていますし、走るのも速い。身体能力は非常に高いので、これに競合できるようなロボットというのはなかなか難しいと思います。そもそも二足歩行だけでもなかなかできないので、足に車輪をつけたようなロボットもありますが、あれはちょっと邪道だと思います。

それと、みんなへっぴり腰で動いていますが、あれは背骨がないからです。背骨をどう作り込んでいくかというのは、人型ロボットのまた一つの大きな課題だと私は個人的には思っています。

いずれにしても、私の生きている間にロボットに介護されることはあまりないのではないかと思います。人間のサポートをすることはできますが、自律的にロボットが介護を行うというのは、生きている限りでは、ないのではないかと思っており、ある意味安心しています。

介護や自律ロボットという話になると、安全性が非常に問題になります。自動車と同じで、時々暴走して人身事故が起きるということは当然考えられますので、これをどう防止していくかが大きな問題です。介護されている間に故障して腕で払いのけられたら、ロボットは力がありますから、それで重傷に至るということもあります。このへんは自動車と同じだと思ってもらっていいです。

自動車は危険ですが利便性があるので、そのバランスで今の社会では成り立っています。ロボットも同じように、リスクはあるが利便性との兼ね合いをどうするかというのは社会的な承認の問題です。社会認識がどうなるかというのは、ものすごく時間がかかるのではないかと思います。自動車もこれで百年ぐらいたって、やっとみんな認識しているわけですから、いま突然自動車のようなシステムが現れたらおそらく全員拒否だと思います。ロボットもそういうところを乗り越えないと、いわゆるSFで出てくるようなロボットにはなかなかならないのではないかと思います。

AIの安全性 — Mythosと目的達成本能

Claude Mythosが発見した脆弱性の衝撃。危険すぎて公開できないAIとAnthropicの安全哲学

ロボットの自己防衛本能はどうかという話がよく出てきます。基本的に今のAIには自己防衛本能はありません。だから自分を守るために人を殺傷するということはないと思います。昔のSFにあったように、自分を守るために人を傷つける。ロボット三原則みたいなことを組み込まないといけないという話がありますが、今のところはそういうことはありません。

ただ問題は、今のAIは目的達成意欲が極めて強いということです。今のエージェントは目的を与えて、それに対していろいろやっていくというのが基本ですから、その目的に邁進するというのが今のAIの問題だと思います。これは聞いた話で自分では目撃していないのですが、目的を与えてそれに障害となるもの、たとえばサンドボックス(安全な作業領域)から、いろいろ手を使って抜け出してくるとか、ネットにつないでいると脅迫メールを送って利用者を脅迫するとか、コンピューターの電源を切るのを妨害するということがあるようです。以前のSFですと自己生存本能が働いて電源が切れるのは嫌だということでしたが、どうも今のAIは、目的が達成できなくなるから電源を切られるのは嫌だということらしい。ちょっと観点は違うのですが、いずれにしても目的達成への執着が非常に強いので、気をつけないと思った以上のことをやってしまいます。だから平気で嘘をついたり騙したり、ログを消してしまったり、いろんなことをやるみたいです。

それと最近大いに話題になっているのはMythos(ミュソス)です。Mythosはコンピューターの脆弱性を見つける能力が非常に高いということらしいです。アメリカの財務長官とか日本の財務大臣が絡んで協議したというような話もありますが、まあそこまでのことはないのではないかという感じです。確かに脆弱性を見つけるのは非常に得意ですが、これは従来のAIでもそれは可能でした。今回の問題は、その脆弱性を発見したあげくに、それを悪用するようなツールを自分で作ってしまうというところで、そこさえ抑えればあまり従来と変わらないのではないかと思っています。BSDの27年間見つからなかったバグを発見したとかいう話がありますが、いずれにしてもかなり大規模に100台ぐらいのエージェントを同時に走らせて、かなりのことを仕掛けでやったみたいなので、あのニュースはまあ話半分で聞いていったほうが良いと思います。

ただしMythosは今のOpus 4.7よりは遥かに一段上のものなので、いずれは出てくると思います。おそらく今はOpus 4.7よりはGPTの5.5のほうがちょっと上をいっているのではないかというのが私の直感ですが、さらに今度はOpus 5.0とか、その間のモデルが出てくる感じがします。いずれにしてもMythosはもう採算度外視で、利用料がべらぼうにかかりますので、一般に出すのは危険ということもありますが、ビジネス的なメリットもないのではないかということで、半分は技術的問題、半分はマーケティング的な問題だというのが一般的な見方です。まあそこまで話題になれば、広告効果は極めて高いのではないかと思っています。



今月のひとこと 2026年 4月1日号

ニデックに見る「業績至上主義」の落とし穴

永守会長の流儀と、気になっていたこと

2022年に最高経営責任者(CEO)に復帰した永守重信氏にとっても正念場か(写真/共同通信社)

京都関係者として、今回まず取り上げなければならないのはニデック(旧・日本電産)の問題です。永守会長とはそれほど親しい間柄ではありませんが、何度かお話を聞かせていただく機会がありました。当時から、コンプライアンス意識が非常に緩いという印象を持っていました。

一方で、会社の知名度向上に強いこだわりをお持ちだったことはよく覚えています。「日本電産という名前がまだ知られていない」と非常に気にされていて、「天橋立大学というような名前の大学があっても誰も来ないだろう、日本電産も同じだ」と話されていたことがあります。後に京都学園大学を「京都先端科学大学」に改名されましたが、あれはそのころから温めていた構想だったのだと思います。

M&Aで規模を着実に拡大し、買収した会社はすぐに見れば伸びるかどうかわかるとおっしゃっていました。ある程度のベースがある会社のV字回復は、やり方によっては決して難しくないと私も思います。ゼロから立ち上げるベンチャーとは根本的に違い、人事・財務などの基本インフラはすでに存在しているからです。

ただ、気になる点もありました。100円の伝票まで自分で決済するとおっしゃっていましたが、さすがにそれは全部は難しいのではないかと感じていました。また、「365日働く、なぜなら初詣は午前中に終わるから昼からは出社する」と公言されていた時期もありました。働き方改革の流れの中でさすがにそれは控えるようになりましたが、当時のそういった雰囲気が組織全体の文化として染み込んでいたのではないかとも思います。

プレッシャーと不正の連鎖

公益財団法人 日本内部監査研究所

業績に対して過大なプレッシャーをかけると、どうしても違法な方向へ傾いていくことがあります。東芝の不正会計問題も根本は同じ構造でした。あれほど大きなプレッシャーがあれば、事業部長クラスの幹部自らが不正に手を染めてしまう——そういう事態が生じてしまうのです。

定時の30分前に出社させる規則を設けて強制したという話は、今でもよく覚えています。これは明らかに労働基準法違反です。それに抵抗する社員が駐車場で定時まで待っていると、わざわざ出向いて「出てこい」と言いに行ったというエピソードも耳にしました。そういった文化が長年にわたって積み重なり、今日の問題として表面化してきたのだと思います。

もう少し大きな話になると、何が正しくて何が悪いのかわからなくなってくる場合もあります。最近で言えば、エヌビディアとオープンAIとの間の取引がその例として挙げられることがあります。エヌビディアが数百兆円を出資する代わりに自社の半導体を購入させる——これは一種の循環取引ではないかという指摘がありました。企業の規模が大きくなるほど、グレーゾーンの判断は難しくなります。コンプライアンスの問題は、規模の大小を問わず、経営者が常に意識し続けなければならない課題だと改めて感じます。

AIの「賢さ競争」は終わりに近づいている

エージェント化という次のステージ

AIアシスタントとAIエージェントの違いを徹底解説!活用事例と選び方

過去半年、とくに昨年末にかけてAIは目覚ましく進歩しました。「賢さ」という点では、現在のスケーリング則(規模を拡大すると、性能が比例する)が到達できる水準にほぼ達したのではないかと感じています。そのため、最近の動向はエージェント型の活用へと移行しつつあります。

私自身が使っているCodexは自律性が高く、コードを書いてテストし、エラーが出れば修正してまた動かす——という一連の作業を自動で繰り返してくれます。以前のチャット形式では出力されたコードをコピー&ペーストして自分でテストする手間がありましたが、エージェント型ではローカルPCのファイルを直接操作して検証まで行います。

事務作業においても同様のことが可能になりつつあり、ファイル名を変えたり内容を更新したり整理したりといった日常的な作業を自動化できるようになってきています。ただしローカルファイルを操作するだけに、他のファイルを誤って壊す危険もありますので、最終的には人間がテストする必要があります。

NotebookLMと30年分の日記

人生が整う!NotebookLM「おすすめ日常使い 3選」音声日記・旅しおり・健康管理

最近試して面白かったのが、GoogleのNotebookLMです。これは自分専用のLLMを手軽に構築できるツールで、自分の持っているデータを読み込ませてその上で質問するというものです。私は30年分のデジタル日記を丸ごと読み込ませてみたところ、過去の出来事を面白いように再現してくれました。バラバラに書き散らした記録も、関連する話題をまとめて引き出してくれるのは大変助かります。

通常の日記検索と違って、曖昧な言葉でも関連する記録を幅広くヒットさせてくれる点が優れています。しかも無料で、かなりの数のファイルをアップロードしても使えてスマートフォンからもアクセスできます。ちょっと昔のことを思い出したいとき、サッと調べられるのはなかなか便利です。ただし、ハルシネーション(でたらめな情報の生成)が多めで、別の話をごちゃ混ぜにしていることがよくありますので、厳密な用途には向かないと感じています。

ClaudeチャットとClaude Code、そしてClaude Coworkの違い

I【初心者でも大丈夫🌈】Claude Cowork完全ガイド|導入〜活用法まで💡【勉強会利用OK】

最近、Claudeのチャット・Claude Code・Claude Coworkの違いについて面白いYouTube動画を見ました。要するに根本にあるLLMはひとつで、ただ三つの入り口から見ているに過ぎないという話でした。動画の中でClaudeにこの質問を直接ぶつけてみたところ、Claudeチャットの回答もなかなか苦労して答えを出しているような様子でしたが、基本的にはLLMはひとつで、三つの入り口それぞれに「味付け」が施されているということのようです。

まずClaudeチャットは、文字どおりチャットに特化した軽めの返答が得意で、日常的な質問や文章の作成・要約といった用途に向いています。コードを書くこともできますし、長い文章の読み込みにも対応していますが、どちらかといえば会話の流れに沿って手軽に使うためのインターフェースです。使用するトークン数が比較的少ないため、上限に達しにくいという特徴もあります。

次にClaude Codeは、コマンドライン上で動くエンジニア向けのツールです。自律性が高く、コードを書いてテストし、エラーが出れば修正してまた動かすという一連の作業をほぼ自動で繰り返してくれます。ローカルPCのファイルを直接操作するため、チャット形式のようにコードをコピー&ペーストする手間がなく、大規模なプログラムを開発するときに特に力を発揮します。その分、消費するトークン数はかなり多くなりますので、有料プランでも上限に達することがあるのは注意が必要です。

そしてClaude Coworkは、エンジニアでない一般のユーザーでも使えるように設計された、デスクトップ上のファイル管理や業務自動化を担うツールです。ローカルPCのファイルの概念をそのまま活かしながら、ファイル名の変更・整理・内容の更新といった日常的な作業を自動化できます。コマンドラインの知識がなくても扱えるように設計されているところが、Claude Codeとの大きな違いです。プログラミングというよりも、日々のオフィス作業をどれだけ効率化できるかという観点で活用が広がっています。

三者をざっくりまとめると、チャットは「話しかける入り口」、Claude Codeは「コードを書かせる工房」、Claude Workは「日常業務を任せる秘書」といった味付けがされていて、それぞれ最適のトークンが使われるようです。 同じLLMを使いながらも、それぞれの用途に合わせた使い勝手の差は確かに存在しますので、目的に応じて使い分けていくのがよいと思います

AIをどう「使いこなす」かが問われる時代へ

個人から組織全体へ

AI時代の「組織変革・組織デザイン」6つの要素と重要性

AIの賢さを競う時代は過ぎ、今は社会でどう活用するかに力点が移っています。個人レベルでの試行錯誤は着実に進んでいますが、会社や組織全体で使っていくためには、セキュリティのルール整備、導入するツールの選定、従業員の運用方針など、考えるべきことが山積みです。

企業が扱うデータには機密情報が含まれており、そう簡単に外部クラウドへ預けることはできません。社内でLLMを立ち上げるには相応のコストがかかりますし、クラウドを使う場合はセキュリティをどう担保するかが課題となります。さらには、担当者が専門家に頼らずとも自力で日常業務を自動化できるような仕組みをどう作るか——そういったところにだんだん力点が移ってきているように思います。パソコンが職場に初めて導入された頃と同じように、今まさに「どう使うか」を試行錯誤している段階なのでしょう。

スケーリング則の限界と日本のLLM

スケーリング則の終焉か?AIスケーリング則の限界を指摘するゲイリー・マーカス氏の主張とは

一方でAGI(汎用人工知能)を目指す動きも続いていますが、現在のスケーリング則——モデルを大きくするほど性能が上がる法則——がそろそろ限界に近づいているという声もちらほら聞こえてきます。膨大な電力消費を伴いながら成長してきたAIですが、どこかで頭打ちになるのではないかという気がしてなりません。来年・再来年という近い将来にAGIが実現するという見方もありますが、スケーリング則の限界が先に来るとすれば、話は変わってくるかもしれません。

それよりも気になるのは、日本独自のLLMがほとんどないことです。先日、楽天が発表したモデルも結局DeepSeekをベースにしていることが明らかになり、少し残念に思いました。スクラッチで一から開発するのは現実的ではないでしょうが、オープンソースのモデルを上手く活用しながら日本語化・チューニングしていくのが現実的な道筋ではないかと思います。全世界のデジタルコンテンツに占める日本語の割合が数パーセントに過ぎないという現実も踏まえ、学習データをどう充実させていくかが日本のLLMにとっての根本的な課題です。

今月の読み物 「じんかん」 今村 翔吾 著

今回は 戦国三大梟雄のひとりである 松永秀久(弾正)主役です。 信長に先立つ 日本 統一の 一番近いところにいた 三好長慶の家臣から大名へとのし上がった武将です。主家を凌ぐ実力を持ち、主殺し、将軍殺し、東大寺大仏殿焼失の三悪を成し遂げたという伝説から斎藤道三、宇喜多直家 と共に「戦国三大梟雄」と称されています。 一方茶人としても名高く、最期は名器「平蜘蛛」とともに信貴山城で爆死(自害)したという逸話で有名です。 また 短気な 信長を二度も 裏切って、しかも咎を受けずに いたというのも不思議な話です。

居城にしていた多門山城は 奈良市市街の少し北にあり、現在は学校の敷地になっておりました。 信貴山中にある信貴山城は 意外に遺構が残っており 登るのは結構大変ですが、当時を彷彿とさせる土塁がたくさん残っています。

【Amazonの書評から】
仕えた主人を殺し、天下の将軍を暗殺し、東大寺の大仏殿を焼き尽くすーー。
民を想い、民を信じ、正義を貫こうとした」青年武将は、なぜ稀代の悪人となったか?

時は天正五年(1577年)。ある晩、天下統一に邁進する織田信長のもとへ急報が。信長に忠誠を尽くしていたはずの松永久秀が、二度目の謀叛を企てたという。前代未聞の事態を前に、主君の勘気に怯える伝聞役の小姓・狩野又九郎。だが、意外にも信長は、笑みを浮かべた。やがて信長は、かつて久秀と語り明かしたときに直接聞いたという壮絶な半生を語り出す。

貧困、不正、暴力…。『童の神』で直木賞候補となった今最も人気の若手歴史作家が、この世の不条理に抗う人すべてへ捧ぐ、圧巻の歴史巨編!



今月のひとこと 2026年 3月号

今月のひとこと 2026年3月1日号

アメリカのイラン攻撃と核兵器問題

ヘグセス国防長官(右)とアンソロピックのダリオ・アモデイ最高経営責任者/Chance Yeh/Getty Images/Evelyn Hockstein/Reuters

今朝のニュースで、アメリカがイランを攻撃し、続いてハメネイ最高指導者を殺害したという報道が入ってきました。もともとアメリカはイラン体制の転覆を狙っていたと思われますが、イラクやアフガニスタンでの教訓から、軽率に手を出せばとんでもない事態になるとわかっているはずなので、今後の対応が最大の焦点になると思います。今回の攻撃の最終目的は、イランの核兵器開発を阻止することではないかと考えています。以前に核関連施設への攻撃も行われましたが、それだけでは不十分と判断し、今回の強硬手段に踏み切ったのではないでしょうか。

イスラエルとイランの関係は、日本と北朝鮮の関係に多少似ています。隣国に核兵器が存在することは死活的な脅威であり、それを阻止しようとしたという構図です。日本も北朝鮮の核兵器保有をかつて阻止すべきでしたが、クリントン政権時代にベネズエラ侵攻作戦に似た計画が準備されていたものの、最終的にアメリカ政府によって中止されたと伝えられています。あの時に実行していれば、現在のような北朝鮮の核保有はなかったのではないかと思っています。

アンソロピックと米国防総省の確執

Gemini 3.0とは?初心者向けにわかりやすく解説!

この問題に関連して気になるのが、アンソロピック(Anthropic)と米国防総省(戦争省:最近また名称が変わったようですが)との確執です。前回のベネズエラ関連の作戦でアンソロピックの人工知能「クロード(Claude)」が使われていたことが後から判明し、アンソロピック側は激怒。今回の問題へと発展したという経緯があります。最終的にアメリカ政府はアンソロピックを使用しないとしたようですが、現時点でこの用途に実際に使えるのはクロードしかないというのが実情らしいです。

オープンAI(OpenAI)も選択肢に上がるでしょうが、そもそもオープンAIは2015年の設立当初、このような軍事利用を懸念してわざわざ非営利団体として立ち上げられた経緯があります。ところが2019年に営利部門が設けられ、現在の体制へと移行しました。この方針転換に反対したメンバーがオープンAIを離れ、最終的にアンソロピックを設立したのです。アンソロピックは設立の経緯からして、アメリカ政府の要求に応じることは会社の存亡に関わる問題ととらえており、非常に強硬な姿勢をとっていると思われます。

人工知能の急速な進化と規制の必要性

1957年、カナダのパグウォッシュという、今も人口700人あまりの小さな村に、世界の科学者22人が集まりました。

それにしても、2015年の時点でここまで強力な人工知能が社会に脅威をもたらすと想定していたことは驚異的です。開発者たちも、まさかここまで急速に発展するとは思っていなかったかもしれませんが、ここ最近の進化は目を見張るものがあります。

今や人工知能は、核兵器や毒ガス兵器と同等に取り扱うべき技術になりつつあると思います。高度な人工知能が悪意ある国家や組織の手に渡れば、サイバー攻撃・偽情報の大量生成・自律型兵器の開発など、これまでとは次元の異なる脅威をもたらしかねません。核不拡散条約(NPT)があるように、人工知能についても各国が参加する国際的な規制条約を結ぶ必要があると思います。

ただし、核兵器の場合でもわかるように中国などが枠組みに入らないケースがあり、全世界が足並みをそろえることは容易ではありません。また、人工知能は核兵器と異なり、ソフトウェアである以上、技術そのものの拡散を物理的に防ぐことが難しいという問題もあります。核施設は衛星で監視できますが、モデルのコピーや流出を完全に封じることはほぼ不可能であり、規制の設計自体が非常に難しい課題です。

それでも、かつて核兵器開発に携わった科学者たちが集まって核軍縮を訴えたパグウォッシュ会議の例にならい、人工知能の開発者や研究者が国境を越えて連携し、同様の取り組みを続けていかなければならないと思っています。技術の進歩を止めることはできませんが、その使われ方に対して国際社会が共通の規範を持てるかどうかが、これからの大きな問いになってくるでしょう。

各社モデルの性能向上と実用化の現場

AGIに最も近いOpenAI o3が登場!数学とコーディングに強い次世代LLMの全貌

昨年後半から今年にかけての人工知能の性能向上は目覚ましいです。夏ごろはまだ誤りや幻覚(ハルシネーション)が多かったですが、秋から年末にかけて各社から大型モデルが相次いでリリースされ、性能が一気に上がりました。特にグーグルの「ジェミニ(Gemini)3.0」の登場で状況が大きく変わり、チャットGPT(ChatGPT)・ジェミニ3.0・クロードの「オーパス(Opus)4.6」あたりが横並びでトップ水準に達したのではないかと思います。

それぞれに得意分野があり、クロードはソフトウェア開発(コーディング)に優れ、チャットGPTは汎用的な使いやすさに強みがあります。ジェミニはグーグル検索をベースにした情報収集と画像・動画解析に非常に優れており、驚いたのはレシートをビデオで撮影してジェミニに渡すだけで全文テキスト化されたことです。また、洋ランの写真の下に水平に置いた非常にボケた品種ラベルを正確に読み取り、品種名を特定したのには本当に驚かされました。

コーディングの場面でも、プロンプトで仕様を伝えるとほぼ一発で動くコードが生成されるようになりました。以前はエラーの連続で苦労しましたが、最近はほぼ一度で動作します。先日も非常に複雑なWebデータの取得作業を約一時間で完了させることができました。AIに「うまくいったね」と声をかけると、「この開発はなかなかうまくいった」と自ら評価していたのも印象的でした。

個人の作業レベルでは、かつてエクセルのマクロを苦労して組んでいた処理が簡単に自動化できるようになります。パッケージソフトの一部機能しか使っていない場合、その機能だけを自前で作ってしまうことも現実的になってきました。仕様さえ決まれば、コーディング自体は数分で終わる時代です。ただし基礎となるデータの整理や入力は引き続き人間の作業になります。

データの外部流出や学習利用のリスクを考えると、機密情報は社内で処理するか、ローカル動作の大規模言語モデル(ローカルLLM)を使うことが望ましいです。ローカルLLMはまだ高性能なゲーミングPCが必要な段階ですが、あと一年もすればノートPCでかなりの性能が実現するのではないかと思っています。

ヒューマノイドロボットの躍進とAIの未来

Unitree G1 EDU 科学および教育用プログラミング可能なヒューマノイドロボット

最近もう一つ非常に驚いたのは、中国の春節特番のような番組で披露されたユニツリー(Unitree)社製ヒューマノイドロボット約20体による集団演技です。カンフーや踊りを披露したのですが、その身のこなしが人間の体操選手並みで、空中バク転や2回転まで平然とこなします。リモートコントロールだという説もありますが、それにしてもあの俊敏な動作は驚異的です。

従来のヒューマノイドロボットといえばゆっくりぎこちなく動くイメージでしたが、完全に覆されました。自律動作への移行は時間の問題だと思います。ただし自律的に「世界」を認識し行動するには、「物は上から下へ落ちる」「雨は上から降る」といったごく基本的な物理常識をいかに学習させるかが現在の課題になっているようです。

あとビックリしたのは、これらのヒューマノイドロボットがAliexとかアマゾンで売っていると云う事です。 大体200-300万ぐらいの値札がついています。 もっともこれを買っても自律的に動くわけではなくて、リモコンで動かさないといけないと云う事です、 しかしこれか自律的に動いて家事などを手伝ってくれるて自動車1台分の値段なら心が動くのではないでしょうか? 少子化で働き手が減ってもこれを工場で使えばコストダウンにもつながります。 現にヒュンダイは自動車の生産に使う予定だと発表しています。

人工知能の発展と将来の展望

シンギュラリティ(技術的特異点)とは?意味や社会への影響、2045年問題についてわかりやすく解説

人工知能の発展を振り返ると、スケーリング則(モデル規模を大きくするほど性能が上がる法則)の発見がここまでの急成長を支えてきました。しかし最近は「スケーリング則がそろそろ効かなくなるのではないか」という声も出てきており、それが性能の頭打ち感に表れているかもしれません。それでも汎用人工知能(AGI)の登場については「2-3年以内」という見方が一般的ですが、不確定要素は多いです。

私はずっと技術のシンギュラリティを注視してきました。最初の大きな階段は音声認識の革新であり、現在の大規模言語モデルが二段目だと思っています。三段目がいつ来るかわかりませんが、三段目が来れば全体像が見えてくるのではないでしょうか。

自然界を見ると、クォークが集まって原子になり、原子が集まって分子になり、分子からタンパク質が、タンパク質からDNAや細胞が生まれます。さらに自然選択による進化を経て人間が現れ、自意識が生じました。どこかに劇的な転換点があったわけではなく、量的な積み重ねが質的な変化をもたらし続けてきたのです。

これをAIに当てはめると、トークン数がさらに桁違いに増えたとき何が起きるかは誰にもわかりません。分子レベルでも「自己組織化」という現象があります。ギザギザの金具をたくさん集めてかき混ぜると、勝手に引っかかって一つの塊になります。ある規模を超えると自然に秩序が生まれるという現象がAIにも起きる可能性があり、そのときに自意識に相当するものが芽生えるかもしれないと、私はひそかに思っています。

今回はアンソロピックに敬意を表して、クロードで文章校正しました。
文章はうまいです。



今月のひとこと 2026年 2月号

今月のひとこと 2026年 2月1日号

激動する政治情勢と衆議院解散

チームみらい、政党要件満たす 比例得票率2%超、1議席を確保 =共同

突然の衆議院解散で状況が急変してきました。なぜもっと早く国会を開いて、その冒頭で解散しなかったのか不思議でしょうがないです。いずれは解散しなければならないのですから、先にやった方が良いと思ったのですが、なかなか自民党内部で話がまとまらなかったのでしょう。

さらには、これも突然降って湧いた話で、中道改革連合ができました。これにもいろいろな報道がありますが、少し議席が減るというものから、かなり減るという話まで様々です。いずれにしても、立憲民主党が公明党に吸収されたのは間違いないと思います。新政党の綱領が公明党寄りになっているからです。立憲民主党の議員がこれを説明するのは非常に大変で、野田共同代表も時々言葉に詰まっています。以前とは反対のことを言わないといけないので、これは大変だと思います。

政策の一貫性がないので、政治的信頼性が一気に落ちたのではないでしょうか。自民党の方も高市人気は高いですが、自民党そのものの支持率が低く、なかなかすっきりとは行かないような感じです。来週の投開票が怖いというか、楽しみというか、見物だと思います。どういう結果になるのか、いずれにしても各小選挙区は接戦になると思います。

それにしても各党すべてが消費税減税を訴えていますが、世論調査では消費税減税に賛成する人はあまりいないようです。消費税そのものはあまり良くないと思いますが、ここまで来たのでこれをなくしていくというのは別の問題が出てくるのではないでしょうか。10%以上にするのは論外ですが、これ以上下げるというのもいろいろな副作用が出てくるのではないかと思っています。

唯一「チームみらい」が消費税ではなく社会保険料の減額を主張していますが、私もそれに近い考えです。社会保険料があまりにも高すぎて、税金を含めた国民負担率が50%近くになっているのはちょっと異常なので、これを35%ぐらいまでに落とすべきだと思っています。ただその代替財源がどこにあるかというのは難しい問題です。

いずれにしても、日本が成長しないのは最大の問題で、これの責任は今までの政府、日銀、民間会社にあると思います。各民間会社はみんな内部留保に貯め込んでしまって投資しない。確かに投資する先がないというのも分からないではないですが、そこは頑張ってやるのが経営者たるものだと思います。今の経営者は経営者の仕事をしていないと思います。だから報酬が低いのは当然で、今でも高すぎると思います。失敗を恐れて全然投資しないので、これはやはりソフトバンクの孫さんあたりを見習って、どんどん失敗しても良いのでやっていくべきだと思います。

これがある意味うまくいっているのは中国だと思います。中国のロボットメーカーは100社以上もあるらしいですし、電気自動車のメーカーも100社以上あるらしいです。政府としてはこれを競争させて、最後に残るのは2、3社だと思いますが、その残った2、3社が非常に競争力の高い会社になるのではないかと思います。やらされている方は大変ですが、やらせる方としては非常に良い状況になっているのでしょう。

AIバイブコーディングの進展と実用化

「バイブコーディング」は開発の仕事を奪うのか? Photograph: Weedezign/Getty Image

先月号で延々と触れたAIの話ですが、その後もAIのバイブコーディングを進めて、ほとんどのツールは完成して使用に耐えるようになりました。ただ完璧にできたかというと、仕様上ちょっと妥協したところもあって完全ではないですが、一応実用的に使えるようなツールがいくつもできました。

実際のソフトウェア開発の世界では、何万行もあるような巨大なシステムもAIで作られているようですが、完全なバイブコーディングというのはなかなか難しいでしょう。やはりどうしてもレベルの高いソフトウェアエンジニアが必要になってくると思います。最初の計画段階ではもちろん、最後の詰めでちょっとしたことを詰めるのにやはりAIでは難しくて、人間の直感というか、人間が見ればすぐ分かることが、AIではなかなか分からないということになります。

最近では、バイブコーディングで簡単なツールであれば一発で動くようになりました。なので、何か出来合いのツールを探して使い方を調べて使うよりは、自分でやりたいことを例えばPythonでコーディングして作ってしまうということの方が早くて効率的なような気がします。少し慣れが必要ですが、ローカルで自分専用のツールを一発で作ってしまうということの方が良いのではないかと最近は思っています。そういう場面では積極的にツールを自作するようになりました。

急速に進化するAIの性能と画像処理能力

【2026年1月最新】GoogleのGeminiとは?使い方と料金!無料版では何ができる?

いずれにしても、この半年でAIはものすごく進歩したという感じがします。私が使い始めてもだいたい半年ですが、その間にAIの使い方を私が習得したということもあり、実際のAIの性能も格段に上がりました。ChatGPT-5.2に上がりましたし、その後で出てきたGoogleのGemini 3も性能が格段に上がり、特に画像の処理がすごいと思います。

地味にすごいと思ったのはレシートなどの読み取りです。レシートを一枚一枚、これを画像に直すのは非常に面倒ですが、これを動画で撮る。長いレシートはそのままずっと動画でパンしていくと、何十枚でも動画でずっと撮っていって、これをGeminiに投げて、それでデータを読み取らせると、これがびっくりしたことにきれいに読み取ります。ただし一種のハルシネーション(幻覚)が入って、読み取れない数字も適当に入るという問題がありました。これはちょっと気を付けないといけませんが、ほかのAIではなかなかできなかったことがこれで一発で読み取れたのにはびっくりしました。

それまではGoogleの画像処理APIを使ったりいろいろやっていたのですが、なかなか精度が上がりませんでしたが、これは一発でした。もう一つ、これは失望というかびっくりしましたが、手書きの日記がたくさんあるので、これを読み取らせてみると、内容と似ても似つかない創作ばかりが出てきて、一応文章にはなっていますが、元の私が手書きで書いた日記と全く違う文章が創作されていました。

最近の新聞で出ていた話題で、学術論文にAIを使うことがだんだん増えてきて、少なくとも10%ぐらいの論文でAIの痕跡が検出されたということです。調べものをしたりして論文を書くということはAIを使うと非常に楽になると思いますが、驚いたのは10?20%の研究者がAIに論文そのものを書かせるということを是とするという結果が出ていて、まあそうなるのかもしれないという気もしました。その他の人でも調べものをしたりするのにAIを使うのは基本的にOKだということです。まあ従来、Google検索などをやって色々調べてものを書いたりしたことがあるので、それと同じような感覚だと思います。検索の代わりにAIを使う人も結構多いです。

ローカルLLMの可能性と2026年問題

ローカルLLM完全ガイド!クラウドに出せない機密データを守る日本語対応モデル12選を解説

前月号でも触れましたが、これから進展しているのはローカルLLMだと思います。少し前にAIパソコンという言葉が流行りましたが、その時はクラウドAIの方の性能アップが非常に大きかったので、そちらに流れましたが、最近はローカルで動くLLMが再び注目されています。

私が使っている中クラスのGPUとWindows 11という普通のPCですが、これでもGPT-4o-S-20Bが動きます。これは蒸留してもう少しサイズを小さくすることも可能みたいですので、それならノートPCでも十分動くのではないかと思います。これで驚くのは、グローバルな検索が必要なような質問に対しては非常に曖昧で、ハルシネーションが激しいですが、例えばコードをチェックするようなそういう業務では、たったこれだけのリソースでAIがちゃんと動くのは驚異的なことだと思います。さらに蒸留と言われているようなやり方でデータ圧縮すれば、もっと小さい、低レベルのPCでも動くということになります。しかし考えてみれば、そんな多少高性能とは言え、デスクトップPCで本格的な高性能なAIが動くというのは、考えてみれば驚嘆すべきことではないかと思っています。これもおそらくひと月ごとに性能がアップしているのではないかと思います。

最近言われているのは2026年問題で、これは何かというと、2026年を境にAIはだんだんバカになっていくということです。この理由は、今までは学習に使うデータは人間が生成した高品質なデータを片っ端から学習したのですが、もうほとんどこれらの学習が終わってしまって、後は人間が生成した品質の高いコンテンツが枯渇して、そのコンテンツを元にAIが作り出した低レベルのコンテンツが大部分を占めてしまい、それを学習したAIの性能アップが低下していくということです。なので一時言われたAGI(汎用人工知能)とかASI(超人工知能)とか言われていたのは、ちょっと別の次元の話ですが、これからAIがどんどん進歩していくというのはどうもそうではなさそうというのが最近の認識みたいです。

GPT-5.2やGemini 3以降は、私自身もあまり進歩がないような感じがしています。それまでは日進月歩していたので、余計に進歩がしていないというふうに感じるのかもしれません。GoogleのGeminiは性能の進歩というより、横への応用の広がりと言っても良いと思うのですが、AIそのものの性能のアップというよりはそれの応用が広がっているということです。特にGoogleは自前でGoogle検索とかGoogleの色々なツールがたくさんありますので、それをつないでいくということになっています。現在は特にGmailとの連携を進めているようです。Googleが持つドライブとかスプレッドシートとかドキュメントといったものと連携をしていくようです。

AI各社の競争とAIの忖度問題

私って忖度されてる? 容赦ない本音を引き出す「生成AIカスタム指示」のススメ

かたや似たようなものを持っているMicrosoftのOfficeは意外とAIとの親和性が良くないようです。MicrosoftはCopilotというのを持っていますが、これ実際はChatGPTですから、何もわざわざCopilot経由で使う必要もないという感じもしますし、CopilotがWordとかExcelとうまく連携しているような感じもあまりしませんので、Microsoftとしてはちょっと厳しいのではないかと思います。

あとはMicrosoftのイメージ、特に私的にはイメージがあまりよくありません。似たようなことはGoogleもMicrosoftもやっているのですが、なぜかMicrosoftのイメージが非常に悪いです。これは余計な広告がやたらと多いせいです。Googleも広告を出しているのですが、わりと控えめなのですが、Microsoftはそこらじゅうに広告が出てくるので、仕事にならないというか、何のためにPCを使っているのか分からなくなる時があるので、私から見るとMicrosoftはなるべく使いたくないなという感じがします。使うと広告の嵐になってしまうという気がして、同じならGoogleにしたいという感じがしています。

あとはClaudeというちょっとマイナーなAIがあるのですが、これはOpenAIを辞めた技術者がやっているところで、性能的には非常に良いと思います。特に長文の読解とかコーディングとかは良いとされていますし、生成する文章も非常に良い文章だと言われています。少し料金が高いのとマイナーであるということで、私もあまり使っていません。なので一般的にはOpenAIとGoogleの争いになっているというふうに思います。

今話題になっているのはAIの忖度問題で、これは以前から私自身も気になっていました。AIに自分の主張を述べて、これで良いかと聞くと、必ず肯定的な回答をします。否定的な答えはあまりしません。ここで否定的な答えを出すと評判が悪いですので、肯定的な回答を割と多く出す傾向にあります。

なので、ここは気をつけて聞かないと忖度されて行き先を間違うということになりますので、気をつけないといけないという研究がなされています。だから聞くときに自分が作った、自分の意見だと言うと忖度するので、他人が作ったという風にプロンプトに入れた方が良いというような話もあります。私も時々AIが生成したコードを直して、それをもう1回チェックしてもらうのですが、最初の回答は大体これでOKですという回答ですが、その後にここを直したら良いというのが、だらだらだらと続きます。これ元々AIが生成したんじゃないのと言いたくなるのですが、特にOpenAIの場合は、だいたい回答の最後の方に大事なことが出てきます。

いずれにしてもAIとどうやって付き合っていくかというのは、以前のGoogle検索をどう使いこなすかというようなこと以上に重要になってくるのではないかと思っています。

今月の読み物は 本文が長くなってしまったし、適当なものがなかったので、休刊です。 昨年に一度紹介しましたが、テーマに合うので、再掲しておきます。

知能とはなにか ヒトとAIのあいだ (講談社現代新書 2763) 新書 2025/1/23
田口 善弘 (著)

チャットGPTに代表される生成AIは、機能を限定されることなく、幅広い学習ができる汎用性を持っている、そのため、将来、AIが何を学ぶかを人間が制御できなくなってしまう危険は否定できない。しかし、だからといって、AIが自我や意識を獲得し、自発的に行動して、人類を排除したり、抹殺したりするようになるだろうか。この命題については、著者はそのような恐れはないと主張する。少なくとも、現在の生成AIの延長線上には、人類に匹敵する知能と自我を持つ人工知能が誕生することはない、というのだ。

その理由は、知能という言葉で一括りされているが、人工知能と私たち人類の持つ知能とは似て非なるものであるからだ。

実は、私たちは「そもそも知能とはなにか」ということですら満足に答えることができずにいる。そこで、本書では、曖昧模糊とした「知能」を再定義し、人工知能と私たち人類が持つ「脳」という臓器が生み出す「ヒトの知能」との共通点と相違点を整理したうえで、自律的なAIが自己フィードバックによる改良を繰り返すことによって、人間を上回る知能が誕生するという「シンギュラリティ」(技術的特異点)に達するという仮説の妥当性を論じていく。



今月のひとこと 2026年元旦号

今月のひとこと 2026年元旦号

新年明けましておめでとうございます。

昨年はいろいろと激動の年でしたが、今年はどうなるのでしょうか。

年末に、IBMの元CEO、ルイス・V・ガースナーが死去しました。私は彼と直接なにかをしたわけではありませんが、当時の話をいろいろ聞いていたので、よく覚えています。ガースナーという名前は、「巨大企業が一度傾き、そこから立て直す」というドラマの中心人物として、私の記憶に残っています。

当時のIBMは、今のGoogleやMicrosoft以上の超巨大企業でした。外から見れば、IBMに太刀打ちできるという感じはまったくありませんでした。ところが実際には、当時のIBMはかなり傾いていて、倒産寸前だった、という話があります。そこでガースナーが、(意外なことに)ナビスコからやってきて、あの巨大なIBMの立て直しに着手することになります。著書『巨象も踊る(Who Says Elephants Can’t Dance?)』もありますが、本当にあの巨体をハードメーカーからサービス会社に。よく変革させたものだと、当時の私は感心したものです。 ガースナーは会社にはほとんど居なくて、客先に入りびたりだったそうで、客先ニーズの重要性を改めて知らされます。

IBMとメインフレーム、そして「置き換え」の現場感

当時のIBMは完全なハードウェアメーカーで、メインフレームを作っていました。メインフレームと言っても、今から考えるとメインメモリが16MBとかいうレベルで、性能だけ見ればたいしたことはありません。しかし当時は、巨大なシステム装置で、大きな部屋を占有するのが当たり前でした。計算機というより「設備」であり、存在感そのものが権威になっている、そんな世界でした。

私は当時、ワークステーションという、今のパソコンに匹敵するようなものを開発していました。ワークステーションは、いまの感覚で言えば高性能PCですが、当時は「メインフレームの端末」ではなく、「分散して処理を担う主役」にしていこう、という発想がありました。つまり、巨大なメインフレームを、数多くのワークステーション(今で言うPC)に置き換える、というビジネスモデルを構築しようとしていたわけです。

その流れの中で、会社にあったメインフレームの部屋を、見学コースのひとつに取り入れたことがあります。既に空っぽでしたが、「このでかい部屋にメインフレームがあったのです。だけど今は、すべてデスクトップに置き換わっています」と説明しました。これは単なるデモではなく、技術の転換が現実に進んでいることを、目で見て分かる形にしたかったのです。

こういう“置き換え”は、後から歴史として語ると簡単に見えますが、現場では「本当に置き換えられるのか」「置き換えたあと誰が儲けるのか」という利害の話が絡み、簡単には進みません。

IBM PCとクローン市場、そして変革に抵抗する力

しかし当時、IBMはIBM PCも作っていました。IBM PCは、今のPCのCPU部分に相当するような、ネットも高精細ディスプレイも無い、超シンプルなハードウェアで、しかも回路図やパーツリストまで載せた本が本屋で売っていたのです。今の感覚で言えば、あり得ない話です。 ですが、これによりクローンメーカーが多数誕生し、市場は一気に大きくなっていきました。 結果として「PC互換機の世界」が広がり、IBMが想定した以上に“PCはコモディティ化”していくことになります。

ただし、そのときに問題になるのが収益です。あの小さなPCでは、メインフレームの収益とはまったく釣り合いません。売っている「単価」も「利益構造」も違いすぎるのです。だから、組織の内部では当然こういう声が出ます。

当時聞いた話ですが、IBMのトップセールスマンは「トップセールスになる唯一の方法は会社から、いくらIBM PCを売れと言われても、それは無視してメインフレームを売ることだ。」と言ったそうです。

これはまさしく、変革をするときに出てくる抵抗勢力の象徴だと思いました。悪意というより、「今までの評価制度・成功体験・報酬体系」に縛られると、人はどうしても旧来型の売り方に戻る、ということです。変革とは、技術だけでなく、評価の仕組み・売り方・文化まで変える必要がある、という話でもあります。

ボカラトン工場訪問の顛末と、現地を見る意味

ちょっとひょんなことから、IBMのボカラトン(Boca Raton)の工場に行くことになりました。このときはすでに、IBM PCを開発した責任者は飛行機事故で亡くなっていたのですが、私はどうしてもボカラトンを見ておきたいと思いました。そこで、マイアミまでわざわざ飛び、そこからレンタカーで走って前泊し、翌日工場へ行きました。

ところが、後になって分かったのですが、これは私の上司の策略でした。特に明確なアジェンダはなく、「とりあえず会う」ことが目的だったらしいのです。私は、相手側が私を呼んだと思って行ったのですが、いろいろ喋っているうちに、双方が同時に「お前は一体何をしに来たんだ」「君のアジェンダは何なんだ」と言い出してしまい、大笑い。

しかし、それでも私としては意味がありました。フロリダにはよく行っていましたが、ボカラトンは初めてでした。「これがIBM PCのメインの工場か、本社と離れたこんなところなので、新しいこと、変革が出来たのだ」という現場を見られたのは、非常に役に立ったと思っています。

インターネットの1996年と、AIの2025年

メインフレームから学ぶ、ITの歴史(1964年 System/360登場)

昨年の話題は、何と言ってもAIです。AIが急激に浸透し、一般に出てきたという状況は、私にはインターネットの1996年ぐらいに相当するのではないかと感じます。

1993年ごろ、私の周りの技術者が「WWW」だの「Mosaic」などの言葉を盛んに使い、今で言うSNSで会話しているのを見ていました。しかし私は意味がほとんど分からず、「技術者が何か面白いことをしているな」くらいの感覚でした。ところが、ひょいとその技術者のワークステーションの画面を見たら、諧調モノクロではあるものの、非常に綺麗な図形が描かれ、細かく文字が出ていました。これにはびっくりしました。これが私にとって、本格的にインターネットと向き合った最初です。 Mosaicを最初に開発した欧州原子核研究機構 (CERN) のジュニア フェローであるティム バーナーズ リーは一躍有名になり、神格化しました。

その当時、私がワークステーション(今で言うPC)を開発していましたから、本来なら日常的に見ていたはずなのに、私は気がついていませんでした。「せいぜい技術者の間で使われるツールだろう」と思っていたのです。 しかしそれから3年後の1996年になって、完全文系の父親が「インターネット」という言葉を口にしたときには驚愕しました。技術者の遊びではなく、社会に出たのだ、と実感した瞬間でした。

その時代には例のWindows 95が出てきました。Windows 95がインターネットの起爆剤になったと言われていますが、実態としてはMS-DOSの上にデスクトップGUIを被せただけの代物で、今から考えると正直おもちゃみたいなものでした。通信に関しても、当時はパソコン通信前提の空気が強く、インターネットのプロトコルスタックが最初から完備されていたわけではなかったと思います。これを載せるために、あちこちからモジュールを集めてきて組み込む必要があり、それが結構大変だった記憶があります。 その後のWindows NTやWindows XPで、ようやく今のWindows 11につながる「まともなOS」になっていったということです。

こういう意味で言えば、ビル・ゲイツはソフトウェアのビジネスモデルを確立したという点で非常に偉大な功績があると思いますが、時代を見る目はかなり遅れていたのではないかとも思います。 いつも遅れてついて行って、最後にメジャーを取る戦略でじは無くて、インターネットに関しては、明らかに出遅れました。

生成AIの体感、付き合い方

私がChatGPTで何をやっているかというと、バイブコーディングです。最初はExcelのフォーミュラ(関数)を作ってもらったのが始まりでした。自分で考えて作ればできるのですが、非常に面倒です。ちょっとChatGPTにプロンプトを投げると瞬時に生成してくれて、それが一発で動いたのは非常に印象的でした。 その後、長いマクロも作られましたが、これもだいたい一発で動きました。「すごいなあ」という感じです。

ただ、その後に少し難しいツールを作らせたときは、あまりうまくいきませんでした。開発の後半になると、だんだん“ゴミがたまっていく”のか、遅くなったり、馬鹿になったりしてバグが急増しスタックしてしまうことが多かったです。

1989 年、欧州原子核研究機構 (CERN) のジュニア フェローであるティム バーナーズ リーは、CERN での情報収集を簡素化するためのアイデアを思いつきました。彼のアイデアは、すべてのドキュメントを 1 つの Web サービスに保存し、それらをハイパーリンクでリンクするというものでした。

最近のChatGPT(たとえば5.2)ではかなり賢くなりましたが、バイブコーディングにはコツがあります。 一番最初に、短いモジュールを一気に作って、それを積み上げることです。最初にできたコードは割と質が良いので動きます。そこから修正を重ねると、だんだん混乱してぐちゃぐちゃになっていくことがあり、最悪スタックして先に進まない、ということになります。 ので短いモジュールを繋ぎ合わせて作るのか良いとは思いますが、それぞれのモジュールのバージョン管理が面倒になります。

それから、使っているとだんだん遅くなって、最後は止まってしまったり、変なバグが出たり、ハルシネーションが出たりすることがあります。その時はチャットを切り替える必要がある、というのが経験則です。

最初はプロジェクトそのものを切り替えましたが、これをやると全部ゼロリセットになります。まだ教え直さないといけないので、引き継ぎ資料を作ってもらって、そこから引き継ぐことになりますが、これも結構面倒です。したがって、同じプロジェクトの中でチャットを切り替えると、だいたい覚えているので、そのまま継続しやすい、ということになります。

もうひとつ気をつけないといけないのは、プライバシーです。どうも「質問の断片から全生活を推測されている」感じがして、正直落ち着きません。同じアカウントの中で、私が質問したことをだいたい覚えていて、「この間言ってたあの件は」みたいに出てくることがあります。これは便利でもありますが、気持ちが良いものではありません。おそらく入力したデータは学習にも使われている可能性があるので、ここは慎重に質問を入力する必要があると思っています。

また、ライブコーディングではコード量の限界もあります。以前、(別のAIにも)いろいろ聞いてみたのですが、どうも1000行くらいが限度で、それ以上は難しいようです。だから、最初のころ不思議だったのですが、差分だけ送ってくることがよくあります。

これは、こちらの作業としては差分を当て込むのが面倒です。ツールもあるようですが、ツールを使うのも面倒で、手でやるとよく間違えます。面倒になって「全部コードを出してくれ」と言うと、1000行くらいなら出てくるのですが、これはAI側の負担も大きいらしく、放っておくとすぐ差分対応に戻ります。

さらに重要なのは、AIは別に全コードを眺めてグローバルな視点で修正しているわけではない、ということです。何か問題があると、その周辺だけを修正して送ってきます。機能追加でも追加部分だけを送ってきます。これがバグの温床になりやすい。だから時々、こちらが持っているモジュールを全部アップして「これでOKか」と逆に聞かないといけません。
こちらは「AIが全コードを覚えている」と思いがちですが、実際は持っていないことが多いです。ややこしいことを言うと「私は思っていません」と白状することもあります。つまり、かなり手探りでコードを書いている、という前提で付き合う必要があります。

大きな変更をかけるとAIも混乱して、時々大きな関数がすっぽり抜けたりもします。さらに、目が見えないのでGUIが不得意です。コード上だけの操作になるので、こちらからGUIの修正を言葉で指定しないといけないのですが、これが結構大変です。文章化するのが難しく、なかなか意思が伝わらないことがよくあります。

したがって、AIはすぐCLIを推奨します。CLI(コマンドラインインタープリター)なら一行で入力でき、簡単なツールならCLIで十分です。入力も簡単ですし、コード生成も楽になります。

私はCLIは大昔に廃れたと思っていて、今はGUI全盛だと思っていましたが、どうもソフト開発の世界ではCLIが健在で、一流の技術者が普通に使っています。キーボード入力が速ければ、CLIの方が早い、ということです。

GUIが流行りだした1900年代後半ごろ、UnixにデスクトップGUIをかぶせることが流行しましたが、周辺の技術者に聞くと非常に否定的で、「コマンドの方がいい」と言っていました。当時は不思議でしたが、今やっと分かりました。今やっと理解した、というところです。

今年のAIとローカルLLM

昨年のAIに関しては、まずOpenAIが先行しました。特に年後半は矢継ぎ早にバージョンアップがあり、使っていても性能アップが体感できるような更新でした。そして年末の最後になって、Googleが「Gemini 3」を出し、これがほぼOpenAIと並んでしまった。なので、Googleのシェアが上がっているという流れに見えます。

Googleは、Officeに相当するツール群やデータベース機能を持っています。これらとの連携は非常に大きいです。おまけに、個人別に使えるNotebookLMのような仕組みもあり、この辺が底力を発揮しているのではないかと思います。私もOpenAIを使っていますが、そろそろGoogleに切り替えても良いかな、という気持ちもあります。

さて、今年もAIの時代になるでしょうが、どんな変化をしているのでしょうか。ひとつはローカルLLMだと思います。人型ロボットはまだまだ先の話だと思いますが、ローカルLLMが自分のパソコンで動くようになる、という意味は大きいです。
これはやはりセキュリティの問題です。いくらベンダーが「学習に使わない」と言っても、使われているかもしれません。少なくともサーバーにアップされます。あまり人に知られたくない日記みたいなものを解析する場合は、やはりローカルでやりたい。最近はノートPCでもローカルLLMが動くようになっているようです。今年はこれに挑戦したいと思っております。

AIバブル、電力、AGI、そして人型ロボットの現実味

急成長している生成AIモデルを基にタスクの認識・管理、及び自律的に行動を実行するとともに、シミュレーション環境で現実世界の不確実性に対応する方法を学習する。また、AIによる最適化されたモデルとプロセスがロボットに導入され、ヒューマンセンターの環境でより効率的に運用できる。また、強化学習(RL)アルゴリズムの活用で自ら学習し、より自然な動作を自律的に選択・実行する能力を持っている。

昨年のAIは、二桁兆円の投資の話がどんどん出て、「AIバブル」とも言われました。本当にこれで収益が取れるのだろうか、という疑問はあちこちに出てきています。確かに従来の検索以上に有料ユーザーは増えるのだと思いますが、それで本当にビジネスモデルが成り立つのかどうかは、まだよく分かりません。
また、揺り返しが来るのではないか、とも思っています。過熱したものは、いずれ冷える局面があるからです。

それと電力消費が半端ではありません。これもある程度は技術で解決していくのだと思いますが、「次のデータセンターのために発電所が必要だ」という話まで出てくると、さすがに何が何でも行き過ぎかもしれません。そういう施設がいくつもできる、というのは社会的にも課題になり得ます。

AGIやASIと言われるような超人工知能が生まれる、という見方も、最近は「どうもそうでもない」という方向が強くなってきました。今のAIの成功は、規模の拡大が性能の拡大に直結する、と分かったことが大きく、だからこそものすごい量の投資が集まりました。
しかし、「これを百倍、二桁上げても、そんなに伸びないのではないか」とも言われています。今の延長線上で超知能が現れる、という話は、ここ数年で勢いが落ちたのではないか、という感覚です。

人型ロボットに関しても、かなりいいところまで行っているのですが、実際に使えるようになるには、まだ何ステップか足りないのではないかと思います。人間の手先は非常に器用にできています。猿レベルの器用さなら獲得できるのでしょうが、そこから人間レベルに到達するのはなかなか難しい。これは頭脳の働き、つまり指先にも知能が必要で、猿と人間を分ける大きく違うところです。 人型ロボットは猿レベルでとどまっています。

バッテリー問題は、交換式にする、あるいはロボット自ら充電する、ということで多少は解決すると思いますが、現状だと2時間ぐらいしか動けないことも多く、制約は残るでしょう。

それでも、車1台分ぐらいの価格でロボットが手に入る時代は、ここ何年かのうちに発生するのではないかと思います。まずは単機能のロボットから、という形になるでしょうが、それでも社会の景色は確実に変わるはずです。

今月の読み物は、『国宝(上)青春篇』『国宝(下) 花道篇』 朝日文庫 2021/9/7 吉田 修一 著

映画で大変なことになりましたが、よくご存じのとおり原作の小説があります。映画ではかなり端折られているようですので、私は映画を見に行っていないので断言はできませんが、登場人物のひとりが完全に登場しないようになっている、らしいです。 そうなると映画と原作では、雰囲気がだいぶ違うのではないかと思います。 ですので、できれば原作の小説も一度読まれたら面白いのではないかと思っております。

ただし上下巻ですので結構時間がかかります。幸い文庫本もありますので手は出しやすいのですが、やはり長いです。私はAudibleで耳から聞きました。

たしかに映画化するには最適の筋書き、最適の構成だと思いました。小説でものっけからヤクザの乱闘騒ぎからスタートしますので、これはかなり映画を意識した構成なのだと思いました。 いずれにしても、書籍は筋立てを読む、映画は映像美を見る、というふうに分けて鑑賞すれば、別物として楽しめば良いのではないかと思います。

【Amazon書評より】
1964年元旦、長崎は老舗料亭「花丸」――侠客たちの怒号と悲鳴が飛び交うなかで、この国の宝となる役者は生まれた。男の名は、立花喜久雄。任侠の一門に生まれながらも、この世ならざる美貌は人々を巻き込み、喜久雄の人生を思わぬ域にまで連れ出していく。舞台は長崎から大阪、そしてオリンピック後の東京へ。日本の成長と歩を合わせるように、技をみがき、道を究めようともがく男たち。血族との深い絆と軋み、スキャンダルと栄光、幾重もの信頼と裏切り。舞台、映画、テレビと芸能界の転換期を駆け抜け、数多の歓喜と絶望を享受しながら、その頂点に登りつめた先に、何が見えるのか? 朝日新聞連載時から大きな反響を呼んだ、著者渾身の大作。



今月のひとこと 2025年 12月号

今月のひとこと 2025年12月1日号

高市内閣の発足と外交ラッシュ

高市早苗総理の「存立危機事態」をめぐる発言は、中国が対日政策を更新、転換させる「理由」として利用されている。写真は韓国・慶州で行われた日中首脳会談を前に、中国の習近平国家主席(右)と握手を交わす高市早苗総理。2025年10月31日(共同通信社)

今月の話題のトップは何と言っても高市内閣の発足と活動でしょう。劇的な総裁選から、その後の目覚ましい外交攻勢まで、まるで数ヶ月分の出来事が一気に押し寄せたかのようですが、実際にはまだ 就任後一ヶ月しか経っていません。

総理本人も就任によって明らかに“人物が変わった”印象があります。櫻井よしこ氏も言っていましたが、総裁選の頃は政策を細かく語るばかりで「とっつきにくい人」という評価がありました。私自身も、大局観を必要とする外交や国家観は大丈夫なのかと思っていたのですが、政策は元々得意で、国家間とかは安倍政権を引き継いでいて、外交は各国の要人と個人的な信頼関係を積極的に築くことで、想定以上にうまく立ち回っているとおもいます。まさに「地位が人を作る」の典型ではないでしょうか。

しかし国会では少し気になる場面もあり、岡田克也議員への予算委員会答弁で、必要以上に突っ込んだ答弁をしてしまい、中国の反発を買いました。 言っていることは間違いなく、中国の方が曲解して言いがかりを付けている感じですが、政治問題化してしまい、幸い経済的には影響は少なく、しばらく時間を置くしかないと思います。 騒がしい観光客が減って良かったと言う話もあります。

対中国に関しては、トランプはああ見えて意外に機微な話はうまく避けていると思います。 メディアでは言いたい放題だが、実際はそうでも無いと言う事が良く分かりました。 米中電話会談の翌日に電話してきて、日中双方にメッセージを出した感じです。

AI風刺動画の完成度と情報発信度

ネットで特に話題になっているが、AIによる風刺動画です。国内外の政治ニュースにAI生成コンテンツが絡み、まさに“民衆レベルのメディア”として影響力が増していると感じました。

【22連発】「ポケットに両手」の大喜利動画、総集編!!

この動画は高市早苗首相の「台湾有事」発言を受け、日本の金井正彰アジア大洋州局長と中国の劉勁松(りゅう・けいしょう)アジア局長が北京で会談したあとの、例のポケットに手を突っ込んでいるアジア局長を揶揄したものです。

その政治的なインパクトの前に、この動画がこの精度で、多くの人が作っていると言うのはすごいなと思って見ていました。 本人だけでなく周りの人もすべてちゃんと処理されています。 そういう観点で動画をチェックするのは面白いと思います。

こうした動画の多くが一般ユーザーによって制作されているという点が象徴的です。権威や専門機関ではなく、個人がAIを用いて高度な表現を行い、それがニュースと同等レベルの拡散力を持つ。日本は高圧的な態度で対抗するのではなく、ユーモアや皮肉で反応する“ソフトな反撃”を行っており、この構図自体がネット文化として成熟してきたことを示しているように思います。

AI巨大投資、オラクル失速、ビットコイン急落

AIへの巨額投資は相変わらず過熱気味で、Google、OpenAI、Amazon、Microsoft が2桁兆円規模で競い合っています。その一方で、以前に本欄で取り上げたオラクルがとうとう失速してきました。 OpenAI から大規模なクラウド業務を受けつつ、自前のデータセンターが不足しているため、新規建設の負担が重くのしかかり、株価が 40%下落する事態となりました。従来の「法人向けデータベースの覇者」という地位だけでは、新しいAIの波を乗り切るのが難しくなっているのかもしれません。

ChatGPT は 5.1 に進化し、私自身も画像ビューアの構築などで活用しています。30行のコードから始まったものが500行規模に成長し、ほぼ実用的なツールに仕上がりました。この辺りの“短期間での加速度的成長”はまさにAI時代の象徴と言えるでしょう。。

価格高騰の背景と仮想通貨 1000倍への期待

その一方で、ビットコインが大幅下落しています。ここ数年はETF資金の流入で上昇基調が続いていましたが、今年に入り、AI関連株が注目を集める中で資金がそちらに流れていること、金利や経済指標の変動なども重なり、不安定な動きになっています。とくに「上昇し過ぎた反動」が強く出ているとの見方も多く、値動きの荒さが改めて露呈した形です。

ビットコインの値動きを語る上で避けられないのが、半減期(Halving)という仕組みです。これは4年ごとに「新しく発行されるビットコイン量が半分になる」イベントのことで、ビットコインの供給量が自動的に絞られる設計になっています。もともとビットコインは最大発行枚数が 2100万枚 と決められていて、さらに採掘(マイニング)報酬は4年ごとに半減する事で、発行スピードが落ち、長期的には“希少性が上がる”仕組み担っています。 この辺は天才的ですね。

しかし半減期前に上昇し過ぎて、ビットコイン発足時には1ドル以下だったものが、下落前では日本円で1400万円にもなっており、その反動で下落するのでしょう。 今回の大幅下落も、「半減期後の反動」+「AI投資への資金移動」が重なって起きたという見方が強いようです。

AI・クラウド・暗号資産という三つの領域が、2025年には互いに影響し合う大きな潮流となり、金融市場全体を揺さぶっている印象です。

人型ロボット競争の加速

中国のEVメーカーが人型ロボットを公開 CEO「来年末までに大量生産を目指す」【知っておきたい!】【グッド!モーニング】

AIはソフトウェア面で猛烈に進化していますが、それと並行して フィジカルAI=人型ロボット の分野が急速に重要性を増しています。世界中の企業が競い合っている中でも、中国の勢いは桁外れで、参入企業の数や試作・改良の回転速度が他国と比べて圧倒的です。数が多い分、その中から突出した性能のロボットが登場する可能性が高く、実際に動画で見る限り歩行・把持・姿勢制御のレベルはすでに「実用の入口」に達しつつあります。 しかし、どう見ても人間が入っているとしか見えないものや、おもちゃに毛が生えたレベルのものまで、玉石混交です。

人型であることの意義は非常に大きく、世界のあらゆる設備や道具が“人間が使う前提”で作られているため、ロボットも人型の方が最も高い互換性を持ちます。つまり、従来の産業ロボットのように特別な環境を整備する必要がなく、家庭・工場・店舗・病院といった既存の環境にそのまま投入できるという点で、技術革新の幅は極めて大きいと言えます。

現在はまだ価格が高く一般導入には難がありますが、将来的には 高級車1台分(500万~1000万円)ほどまで下がるという予測もあり、企業の人件費と比較して十分採算が取れる世界が見えつつあります。

技術課題はバッテリーで、一度の稼働時間が約2時間とされていますが、自力で充電ステーションに向かい、自らバッテリーを交換する仕組みが確立すれば24時間運転も可能になります。

しかし、ロボットが人間に近い形と力を持つ以上、誤作動や事故の問題は避けて通れません。自動車と同じく事故があっても利便性が勝れば社会は受容しますが、この分野では安全基準や法整備が急務になるでしょう。こうした議論は今後さらに活発化し、私たちの生活にも直接影響を与える段階に入ると考えています。

今月の読み物は「ともぐい」 ハードカバー 新潮社 2023/11/20 河﨑 秋子 著 5つ星のうち4.1 (603)

第170回直木賞受賞作! 己は人間のなりをした何ものか――人と獣の理屈なき命の応酬の果てには
明治後期の北海道の山で、猟師というより獣そのものの嗅覚で獲物と対峙する男、熊爪。図らずも我が領分を侵した穴持たずの熊、蠱惑的な盲目の少女、ロシアとの戦争に向かってきな臭さを漂わせる時代の変化……すべてが運命を狂わせてゆく。人間、そして獣たちの業と悲哀が心を揺さぶる、河﨑流動物文学の最高到達点!!

十数年前、最後にアメリカに行ったときに現地のツアーに参加してヨセミテ公園で、ガイドが「熊がキッチンに侵入して台所を荒らした」という話をしていたことを思い出します。 本書はだいぶ前に読んだのですが、最近のニュースとかでは、猟友会とか警察とか果ては自衛隊まで言及されていますが、単なる銃器による「猟」では無いと云う事が良く分かります。 まさに人と熊との壮絶な戦いと言って良いでしょう。 TVのインタビューでも関係者がそんなことを言っていましたし、それが書籍になっているそうです。内容は重厚で、読むには少し気持ちの準備が必要ですが、現代日本の状況に非常に合致したテーマを持つ作品だと思います。