2025年12月22日|発行:サンデーAI編集部
今週の生成AI NEWS
- OpenAI、Realtime/音声系モデルを更新
- ChatGPT Images刷新:精密編集+最大4倍高速、APIはGPT Image 1.5へ
- Google、Gemini 3 Flashを発表
- Anthropic、Agent Skillsをオープン標準化
- EU、AI生成物の“表示・検出”ルール案を公表
今週は「作るAI」から「運用するAI」へ一段進んだ週となりました。
OpenAIは画像生成を刷新し速度と編集性を強化、音声モデルも日付固定で運用安定へ。GoogleはGemini 3 Flashを発表。AnthropicはAgent Skillsを標準化し横断再利用を促進。EUは生成物の表示・検出ルール案で透明性を具体化しました。
今週のAIニュースダイジェスト( 5 件)
OpenAI、Realtime/音声系モデルを更新
OpenAI APIのChangelogで、リアルタイム・音声アプリ向けの4モデルに日付付きスナップショットが追加。信頼性・品質・音声忠実度の改善をうたっています。
ここがミソ!: “日付固定モデル”は、評価→段階リリース→ロールバックを回しやすく、音声UXの品質ブレ対策に効く
ChatGPT Images刷新:精密編集+最大4倍高速、APIはGPT Image 1.5へ
OpenAIが「新しいChatGPT Images」を公開。画像の精密編集とディテール保持を強化し、生成は最大4倍高速。API側でも最新の画像生成モデル(gpt-image-1.5 / chatgpt-image-latest)がChangelogに掲載されています。
ここがミソ!: GPT Image 1.5は“同等改善”に加えて、画像入出力がGPT Image 1比で約20%安価と明記。量産系(EC・マーケ)ほどインパクトが出る。
参考記事:【ChatGPT】GPT Image 1.5 vs Nano Banana Proー今、業務で選ぶべき画像生成AI

Google、Gemini 3 Flashを発表
GoogleがGemini 3 Flashを発表し、GeminiアプリとSearchのAI Modeへロールアウト。加えて、開発者向けにはGemini APIを通じてGoogle AI Studio等から使える形で展開しています。
ここがミソ!: “Flash=低レイテンシ”が主戦場の検索・対話・エージェント実装で、推論力と速度のバランスを更新。開発面の入口(AI Studio等)も同時に押さえたのが強い。
参考記事:【Gemini】Gemini 3 高速モードとGPT-5.2 Instantを“実務目線”で使い比べてみた

Anthropic、Agent Skillsをオープン標準化
AnthropicがAgent Skillsをクロスプラットフォーム移植性のためのオープンスタンダードとして公開(12/18アップデート)。加えて、Agent Skills自体は「フォルダ+SKILL.md」を核に、手順・スクリプト・参照資料を束ねる軽量フォーマットとして整理されています。
ここがミソ!: 社内ノウハウを“エージェントのプロンプト”ではなく“バージョン管理できるパッケージ”として運べる。ツール乱立で散らばる運用知を、標準フォーマットで回収する方向性。
EU、AI生成物の“表示・検出”ルール案を公表
欧州委員会が、AI Actの透明性義務(Article 50)を補助する任意のCode of Practiceの初稿を公表。プロバイダ向けの「マーキング/検出」と、デプロイヤ向けの「ディープフェイク等のラベリング」を2セクションで扱います。
ここがミソ!: 適用開始(Article 50)は2026/8/2。初稿→2稿→最終化のスケジュールが明示され、2026年のプロダクト要件(UI表示・メタデータ・ログ)が逆算しやすくなった。
注目トピック解説
トピック1:Anthropic、Agent Skillsを「オープンスタンダード」として公開

Anthropicは12月18日、AIエージェントが利用する業務手順やナレッジを「Agent Skills」として定義し、これをクロスプラットフォームで再利用可能なオープンスタンダードとして公開しました。
Agent Skillsは、単なるプロンプトではなく、フォルダ構成と SKILL.md を中心に、手順説明、判断基準、スクリプト、参照資料などをまとめて扱う設計になっています。
特徴的なのは、エージェントが常に全文を読み込むのではなく、必要なタイミングで段階的に読み込む「progressive disclosure」を前提としている点です。これにより、複雑な業務手順であっても、実行時の負荷を抑えつつ、再現性のある判断を行えるよう設計されています。
この発表の本質は、エージェントの能力を「モデル性能」ではなく「運用知の構造化」で底上げしようとしている点にあります。これまで各社・各部署で属人化しがちだった業務プロンプトや半自動化フローを、持ち運び可能で、レビュー・バージョン管理可能な“資産”として扱う方向性が、明確に打ち出されました。今後は「どのモデルを使うか」だけでなく、「どんなSkillを持たせているか」が競争力を左右する局面に入ったといえます。
「エージェント活用が進むほど、生成AI以上にプロンプトの属人化がボトルネックになります。Agent Skillsは、その問題を真正面から解決しに来たと言えます。
まずは社内の定型業務を小さくSkill化するところから始めていくべきでしょう。」
トピック2:EU、AI生成コンテンツのマーキング/ラベリングに関するCode of Practiceを公表

欧州委員会は12月17日、EU AI Act第50条(透明性義務)を補完する形で、AI生成コンテンツのマーキングおよびラベリングに関するCode of Practice(行動規範)の初稿を公表しました。この文書は法的拘束力を持つものではありませんが、2026年8月に本格適用されるAI Actに向け、実務上の対応指針を具体化する位置付けとなっています。
初稿では、責務を「AI提供者(モデル・生成基盤側)」と「AI利用・展開者(業務で使う側)」に明確に分けています。提供者には、生成AIによって生成または改変されたコンテンツを機械可読な形で識別可能にすること、検出手段の整備などが求められます。
一方、利用・展開者には、ディープフェイクや公共性の高いAI生成コンテンツに対して、利用者が誤認しないような表示や説明を行うことが想定されています。
重要なのは、これが単なる「ラベル表示の話」では終わらない点です。生成物がいつ・誰によって・どのように作られたかを追跡できるログ設計や、編集責任の所在、人手レビューの有無といった業務プロセス全体の設計が問われる内容になっています。
EU域内向けサービスに限らず、グローバル企業やB2B取引では、この考え方が事実上の標準として波及する可能性があります。
「生成AIを「使っているかどうか」ではなく、「出す側として何を決めているか」が、いよいよ誤魔化せなくなってきた。ラベルを付ける、透かしを入れるといった技術対応だけで済む話だと思っているのであれば、現実が見えていない。生成から公開までのどこで人が関与し、最終的に誰が責任を負うのかを決めていない状態は、単なる“未整備”ではなく、経営判断の先送りに近い。
さらに厄介なのは、プロダクト、広報、法務、現場運用が縦割りのまま、それぞれが「自分の担当ではない」と考えているケースだ。これはガイドライン作りの話ではなく、会社としてどこまで責任を引き受けるのかを決める覚悟の問題であり、制度が本格的に動き出してから慌てる企業ほど、余計なコストと信用低下を払うことになる。」
「これからは「AI生成であることを表示するかどうか」ではなく、「その内容について説明できるかどうか」が本質的に問われる時代に入ったと言えます。なぜその表現になったのか、どこまで人が関与しているのかを説明できなければ、信頼は得られません。
2026年の本格適用を待つのではなく、今のうちから社内基準や説明ルールを整備しておく企業ほど、対外的な信頼とスピードの両立で優位に立てます。」

