2025年11月30日~12月7日に米国サンディエゴで開催される、AI・機械学習分野の国際会議NeurIPS(Neural Information Processing Systems)2025にて、NTT研究所より3件の論文が採択されました。NeurIPS 2025の論文採択率は24.52%(論文投稿数:21,575件)と、難関国際会議として知られています。
なお、所属としてそれぞれ略称で記載されている研究所名は以下の通りです。(所属は投稿時点)
人間研:NTT人間情報研究所
CD研:NTTコンピュータ&データサイエンス研究所
CS研:NTTコミュニケーション科学基礎研究所
- ■Gaussian Processes for Shuffled Regression
(ガウス過程に基づくシャッフル回帰)
- 幸島匡宏(主任研究員)(人間研)
- 異なる機関が独立に収集したデータやプライバシーに配慮して収集したデータ等は、入力と出力の対応が分からない不完全なデータ(シャッフルデータ)として表現されることがあります。本研究では、利用可能なデータがシャッフルデータであっても、入出力の関係を高精度に推定し、推定の信頼度(予測の確からしさ)を定量化することができるガウス過程に基づく手法を提案しました。
- ■Enhancing Visual Prompting Through Expanded Transformation Space and Overfitting Mitigation
(拡張した変換空間と過学習の抑制によるビジュアルプロンプティングの強化)
- 榎本 昇平(研究員)(CD研)
- 本研究では、学習済み認識モデルを新しいタスクに適応させるパラメータ効率的なファインチューニング手法であるビジュアルプロンプティングを改良しました。従来の手法は、単純な加算変換による表現力の制約と、パラメータ増加に伴う過学習という2つの課題を抱えていたため、フルファインチューニングに比べて精度が低いという問題がありました。これらの課題を解決するために、加算変換に加え、計算コストが低い代表的な画像変換技術であるアフィン変換と色変換を組み合わせ、さらにデータ拡張技術も併用することで、表現力の向上と過学習の効果的な抑制を実現する手法を提案しました。実験の結果、従来手法を大幅に上回る性能や分布変化に対する頑健性の向上、学習時に用いなかったモデルへの転移性向上の効果を確認しました。これにより、大規模AIモデルを少ない計算資源で実用環境に適応させることに貢献します。
- ■Revisiting 1-peer exponential graph for enhancing decentralized learning efficiency
(分散学習の効率化のための単接続通信指数グラフに関する再考)
- 丹羽 健太(特別研究員)(CS研)、竹澤 祐貴(京都大学/沖縄科学技術大学院大学)、Guoqiang Zhang(University of Exeter)、W. Bastiaan Kleijn(Victoria University of Wellington)
- データセンタ等に集積された多数の計算資源を効率的に活用し、1つのAIモデル(画像や言語処理モデル等)を学習する分散学習は、機械学習分野で広く研究されています。本研究では、n台の計算ノードが、通信相手を動的に変えながら、同時に最大k台の他ノードへマルチキャスト接続できるネットワーク環境を仮定し、分散学習を効率化する2種類のダイナミックグラフ技術(k-peer exponential graph, null-cascade graph)を提案します。特に後者(null-cascade graph)は、k≥2を要件としますが、任意のnについて各ノードの接続次数の一様性を保証できる、つまり、計算ノードの数がどれだけ大きくなっても、どのノードも同じ数のノードと通信ができることを示しました。さらに、所定回数ノード間にて情報の混合を行うことで分散して学習されているAIモデルが、全てのノードが持つデータに基づいて学習したとみなせる全体平均に到達する(有限時間収束)ことを証明できました。これにより、高速かつ高精度なAIモデルの分散学習を実現できることを実験で確認しました。本技術は、多数の計算ノードを用いて巨大なAIモデルを学習する際に、限られた通信回数で効率的な学習を可能とする基礎的な成果といえます。