検索パネルを開く 検索パネルを閉じる メニューを開く メニューを閉じる

2025年12月 2日

お知らせ

AI・機械学習分野における最難関国際会議NeurIPS2025にNTTグループから14件採択

2025年11月30日~12月7日に米国サンディエゴで開催される、AI・機械学習分野の国際会議 NeurIPS(Neural Information Processing Systems)2025にて、NTTグループから14件の論文が採択されました。NeurIPS 2025の論文採択率は24.52%(論文投稿数:21,575件)と、難関国際会議として知られています。

<NTT研究所より採択された主な論文>

【poster】

■Gaussian Processes for Shuffled Regression
(ガウス過程に基づくシャッフル回帰)

幸島匡宏(主任研究員)(人間研)

異なる機関が独立に収集したデータやプライバシーに配慮して収集したデータ等は、入力と出力の対応が分からない不完全なデータ(シャッフルデータ)として表現されることがあります。本研究では、利用可能なデータがシャッフルデータであっても、入出力の関係を高精度に推定し、推定の信頼度(予測の確からしさ)を定量化することができるガウス過程に基づく手法を提案しました。

■Enhancing Visual Prompting Through Expanded Transformation Space and Overfitting Mitigation
(拡張した変換空間と過学習の抑制によるビジュアルプロンプティングの強化)

榎本 昇平(研究員)(CD研)

本研究では、学習済み認識モデルを新しいタスクに適応させるパラメータ効率的なファインチューニング手法であるビジュアルプロンプティングを改良しました。従来の手法は、単純な加算変換による表現力の制約と、パラメータ増加に伴う過学習という2つの課題を抱えていたため、フルファインチューニングに比べて精度が低いという問題がありました。これらの課題を解決するために、加算変換に加え、計算コストが低い代表的な画像変換技術であるアフィン変換と色変換を組み合わせ、さらにデータ拡張技術も併用することで、表現力の向上と過学習の効果的な抑制を実現する手法を提案しました。実験の結果、従来手法を大幅に上回る性能や分布変化に対する頑健性の向上、学習時に用いなかったモデルへの転移性向上の効果を確認しました。これにより、大規模AIモデルを少ない計算資源で実用環境に適応させることに貢献します。

■Revisiting 1-peer exponential graph for enhancing decentralized learning efficiency
(分散学習の効率化のための単接続通信指数グラフに関する再考)

丹羽 健太(特別研究員)(CS研)、竹澤 祐貴(京都大学/沖縄科学技術大学院大学)、Guoqiang Zhang(University of Exeter)、W. Bastiaan Kleijn(Victoria University of Wellington)

データセンタ等に集積された多数の計算資源を効率的に活用し、1つのAIモデル (画像や言語処理モデル等) を学習する分散学習は、機械学習分野で広く研究されています。本研究では、n台の計算ノードが、通信相手を動的に変えながら、同時に最大k台の他ノードへマルチキャスト接続できるネットワーク環境を仮定し、分散学習を効率化する2種類のダイナミックグラフ技術 (k-peer exponential graph, null-cascade graph)を提案します。特に後者 (null-cascade graph) は、k≥2を要件としますが、任意のnについて各ノードの接続次数の一様性を保証できる、つまり、計算ノードの数がどれだけ大きくなっても、どのノードも同じ数のノードと通信ができることを示しました。さらに、所定回数ノード間にて情報の混合を行うことで分散して学習されているAIモデルが、全てのノードが持つデータに基づいて学習したとみなせる全体平均に到達する(有限時間収束)ことを証明できました。これにより、高速かつ高精度なAIモデルの分散学習を実現できることを実験で確認しました。本技術は、多数の計算ノードを用いて巨大なAIモデルを学習する際に、限られた通信回数で効率的な学習を可能とする基礎的な成果といえます。

<NTTグループから採択された論文>

<Poster>

■In-Context Learning Strategies Emerge Rationally.
(文脈内の学習戦略は合理的に創発する)

Daniel Wurgaft(PAI, Stanford University, Harvard University), Ekdeep Singh Lubana(PAI, Harvard University), Core Francisco Park(Harvard University), Hidenori Tanaka(PAI, Harvard University), Gautam Reddy(Princeton University), Noah D. Goodman(Stanford University)

■Detecting High-Stakes Interactions with Activation Probes.
(アクティベーション・プローブを用いた高リスクLLM対話の検出)

Alex McKenzie(LASR Labs), Urja Pawar(LASR Labs), Phil Blandfort(LASR Labs), William Bankes(LASR Labs, University College London), David Krueger(MILA), Ekdeep Singh Lubana(PAI, Harvard University, Goodfire), Dmitrii Krasheninnikov(University of Cambridge)

■Neural Thermodynamics: Entropic Forces in Deep and Universal Representation Learning
(ニューラル熱力学:深層学習の学習ダイナミクスを方向づける"エントロピー力")

Liu Ziyin(PHI, MIT), Yizhou Xu(EPFL), Isaac Chuang(MIT)

■From Flat to Hierarchical: Extracting Sparse Representations with Matching Pursuit.
(フラットから階層へ――疎表現が生み出す構造をマッチングパースートで見出す)

Valérie Costa(EPFL), Thomas Fel(Harvard University), Ekdeep Singh Lubana(PAI, Harvard University), Bahareh Tolooshams(University of Alberta, Alberta Machine Intelligence Institute), Demba Ba(Harvard University)

■Projecting Assumptions: The Duality Between Sparse Autoencoders and Concept Geometry.
(Projecting Assumptions:スパースオートエンコーダと概念幾何学の双対性)

Sai Sumedh R. Hindupur(Harvard University), Ekdeep Singh Lubana(PAI, Harvard University), Thomas Fel(Harvard University), Demba Ba(Harvard University)

<Invited Talk in Workshop>

■When Reasoning Meets Its Laws.
(推論の法則:大規模推論モデルの理論的枠組み)

Junyu Zhang (University of Illinois at Urbana-Champaign), Yifan Sun(University of Illinois at Urbana-Champaign), Tianang Leng(University of Pennsylvania), Jingyan Shen(New York University), Liu Ziyin(PHI), Paul Pu Liang(MIT), Huan Zhang(University of Illinois at Urbana-Champaign)

<Poster in Workshop>

■Kindness or Sycophancy? Understanding and Shaping Model Personality via Synthetic Games.
(優しさか、迎合か?仮想的なゲームを通じたモデルの人格の理解と形成)

Maya Okawa(PAI, Harvard University), Ekdeep Singh Lubana(PAI, Harvard University), Mai Uchida(PAI, Harvard Medical School, Massachusetts General Hospital), Hidenori Tanaka(PAI, Harvard University)

■Transformer Enabled Dual-Comb Ghost Imaging for Optical Fiber Sensing.
(光ファイバーセンシングのためのAI(トランスフォーマー)を用いたデュアルコムゴーストイメージング)

David Dang( University of California, Los Alamos National Laboratory), Myoung-Gyun Suh(PHI), Maodong Gao(PHI), Dong-Chel Shin(PHI), Aggraj Gupta(PHI), Byoung Jun Park(PHI), Can Uzundal( University of California), Beyonce Hu( University of California), Yucheng Jin( University of California), Wilton J.M. Kort-Kamp(Los Alamos National Laboratory), Ho Wai (Howard) Lee( University of California)

■Inference-time alignment of language models by importance sampling on pre-logit space
(プレロジット空間における重要度サンプリングによる言語モデルの推論時間アライメント)

Sekitoshi Kanai · Kazumune Hashimoto · Tsukasa Yoshida
CD研

■Learning Pairwise Potentials via Differentiable Recurrent Dynamics.
(微分可能な再帰動力学によるペアワイズポテンシャルの学習)

Kenji Komiya · Andrew Jin · Ryo Nishikimi · Kunio Kashino
CS研, Ga Tech

■Breaking Distortion-free Watermarks in Large Language Models.
(大規模言語モデルにおける歪みのない透かしの破り方)

Shayleen Reynolds · Hengzhi He · Dung Daniel Ngo · Saheed Obitayo · Niccolo Dalmasso · Guang Cheng · Vamsi Potluru · Manuela Veloso
NTT DATA, J.P. Morgan, UCLA.

なお、所属としてそれぞれ略称で記載されているNTTの研究所名は以下の通りです。(所属は投稿時点)
人間研:NTT人間情報研究所
CD研:NTTコンピュータ&データサイエンス研究所
CS研:NTTコミュニケーション科学基礎研究所
PAI: NTT Research, Physics of Intelligence Group
PHI: NTT Research, Physics and Informatics Labs.

トピックスに記載している情報は、発表日時点のものです。
現時点では、発表日時点での情報と異なる場合がありますので、あらかじめご了承いただくとともに、ご注意をお願いいたします。