検索パネルを開く 検索パネルを閉じる メニューを開く メニューを閉じる

2026年1月 9日

お知らせ

AI分野の難関国際会議AAAIにNTTから5件採択

2026年1月20日~1月27日にシンガポールにて開催される、人工知能分野の国際会議AAAI(AAAI Conference on Artificial Intelligence)2026に、NTTの研究所より提出された5件の論文が採択されました。これまでもAAAIでは、LLMをはじめ、AIに関する世界中から注目されている分野における研究成果が報告されています。またAAAI 2026の論文採択率は17.6%(投稿数23,680件)と、難関国際会議として知られています。
なお、このうち(*)の1件の論文はOral発表論文(全体の5%程度)として発表されます。

所属としてそれぞれ略称で書かれている研究所名は、以下の通りです。
人間研:人間情報研究所
CD研:コンピュータ&データサイエンス研究所
CS研:コミュニケーション科学基礎研究所

■The Strong Lottery Ticket Hypothesis for Multi-Head Attention Mechanisms
(マルチヘッド注意機構に対する強い宝くじ仮説)

大塚 光莉(東京科学大学)、千々和 大輝 准特別研究員(CD研)、大越 康之(東京科学大学)、藤木 大地 准 教授(東京科学大学)、竹内 亨 主幹研究員(CD研)、本村 真人 教授(東京科学大学)

従来のニューラルネットワークにおいて、ランダム初期状態の中には学習前の時点で既に高精度かつ疎なサブネットワークが存在する、という現象が「強い宝くじ仮説」として知られていましたが、近年の言語モデルに使用されているTransformer構造に対しては未解明でした。本研究では、Transformerの注意機構に対する行列分解に基づいた新たな分析手法により、従来のネットワーク構造と同様に高精度なサブネットワークが存在することを証明し、その過程で具体的な抽出方法も導出しました。またこの抽出方法により、理論から予言されたサブネットワークの存在を実験的に確認しました。本成果はTransformerの原理解明に貢献するとともに、その軽量化への応用も期待できます。

■Delta Matters: An Analytically Tractable Model for β-δ Discounting Agents
(δは重要である: β-δ割引エージェントのための解析的に扱いやすいモデル)

赤木 康紀 准特別研究員(人間研)、倉島 健 特別研究員(人間研)

人間は計画と実行が食い違う「時間非整合的行動」を示します。こうした非整合性の影響を理解し介入方法を設計することは、計算機科学と行動経済学の重要課題となっています。既存研究は進捗ベースのタスクに対し、β-δ割引で時間非整合性をモデル化し行動式や最適介入を導出してきましたが、分析は δ = 1 に限定されていました。本稿では制約を取り除き、0 < δ ≤ 1 の場合でも行動の閉形式記述と最適介入が得られることを示します。分析の結果、行動と最適介入は δ に強く依存し、介入設計において δ を考慮する重要性が示されました。

■Difference Vector Equalization for Robust Fine-Tuning of Vision-Language Models
(Vision-Language対照モデルの堅牢なFine-tuningのための差分ベクトル等化)

鈴木 聡志 研究主任 (人間研)、山口 真弥 准特別研究員 (CD研)、武田 翔一郎 准特別研究員 (人間研)、山根 大河 研究員 (人間研)、牧島 直輝 研究員 (人間研)、河田 尚孝 研究員 (人間研)、庵 愛 研究員 (人間研)、田中 智大 研究主任 (人間研)、折橋 翔太 研究主任 (人間研)、増村 亮 特別研究員 (人間研)

画像とテキストの対照学習によって構築されたCLIPなどのVision-Languageモデルは優れたゼロショット性能を示しますが、特定のタスクに特化してFine-tuningを行うと、ゼロショット性能が大きく低下することが知られています。本研究では、この性能低下がVision-Languageモデルにおける画像およびテキストの埋め込み表現が形成する幾何構造の大きな変化に起因することを指摘しました。これを防ぐために、Fine-tuningの前後で埋め込み空間の幾何構造が平行移動関係を保つように制約する新たな手法を提案し、その有効性を確認しました。

■Variance Computation for Weighted Model Counting with Knowledge Compilation Approach(*)
(知識コンパイルを用いた重みつきモデル数え上げの分散値計算法)(*)

中村 健吾 准特別研究員 (CS研)、西野 正彬 特別研究員 (CS研)、安田 宜仁 主幹研究員 (CS研)

データと出来事の関係を記述し出来事の発生確率を予測することを確率推論とよびます。確率推論ではデータが不足すると予測される確率の不確かさが高まります。この不確かさの指標である「推論結果の分散値」は膨大な計算量のため現実的には計算が困難でした。本研究は論理式を満たす解 (モデル) の数え上げを用いた分散値の効率的な計算法を考案し、確率推論を行う場面でより堅実な意思決定を可能にしました。例えば機器故障診断において、予測上安全基準を満たしていても推論結果の分散値が大きいとき、追加データ取得を促し予測以上の故障の頻発を回避するといった運用を可能にします。

■FedPM: Federated Learning Using Second-order Optimization with Preconditioned Mixing of Local Parameters
(FedPM: ローカルモデルの前処理付き平均化を使った二次最適化連合学習)

石井 央 (東京科学大学)、丹羽 健太 特別研究員 (CS研)、澤田 宏 上席特別研究員 (CS研)、藤野 昭典* 主幹研究員 (CS研)、原田 登 上席特別研究員 (CS研)、横田 理央 (東京科学大学)

*職位・肩書は投稿時のもの

複数の計算端末がデータを共有せずにAIモデルを学習する連合学習を、より高精度にするための新しい手法 FedPMを提案しました。従来の連合学習でモデル更新方向を精密に計算する二次最適化を用いる場合、クライアント側で高度なモデル更新を計算しても、中央サーバで単純平均を適用することで精度が劣化するという問題がありました。FedPMは、二次最適化の仕組みをサーバとクライアントに分けて活用し、サーバ側での前処理付きモデル平均化による効率学習を実現します。論文では、FedPMの収束に関する理論解析や、計算機実験により従来法を上回る学習性能を示しました。本成果は、複数拠点にまたがるデータからの優れたAIモデルの学習に貢献する基盤的な結果といえます。

トピックスに記載している情報は、発表日時点のものです。
現時点では、発表日時点での情報と異なる場合がありますので、あらかじめご了承いただくとともに、ご注意をお願いいたします。