01 July 2025

ELLIS Institute Tübingen bei der ICML 2025

Thumb ticker xxl cover for icml article   2025 7

Die 42. International Conference on Machine Learning (ICML) findet vom 13. bis 19. Juli 2025 in Vancouver, Kanada, statt.

Diese führende internationale Konferenz vereint Experten aus aller Welt, die sich der Weiterentwicklung des Maschinellen Lernens widmen – einem zentralen Bereich der Künstlichen Intelligenz.

Die ICML ist bekannt dafür, innovative Forschungsergebnisse zu präsentieren und zu veröffentlichen, die alle Facetten des Maschinellen Lernens abdecken und enge Verbindungen zu Disziplinen wie Künstlicher Intelligenz, Statistik und Data Science aufweisen. Darüber hinaus werden bedeutende Anwendungsfelder wie Computer Vision, Computational Biology, Sprachverarbeitung und Robotik hervorgehoben.

Auf der ICML 2025 wird das ELLIS Institute Tübingen seine neuesten Forschungsergebnisse vorstellen und damit sein Engagement für Fortschritte im Bereich des Maschinellen Lernens unterstreichen.

Im Folgenden finden Sie die Beiträge der Principal Investigators und Gruppenleiter:innen des ELLIS Institute Tübingen (in Fettdruck hervorgehoben).

 

Title List of Authors
Learning Joint Interventional Effects from Single-Variable Interventions in Additive Models Armin Kekić, Sergio Garrido Mejia, Bernhard Schölkopf
Generative Intervention Models for Causal Perturbation Modeling Nora Schneider, Lars Lorch, Niki Kilbertus, Bernhard Schölkopf, Andreas Krause
Generalized Interpolating Discrete Diffusion Dimitri von Rütte, Janis Fluri, Yuhui Ding, Antonio Orvieto, Bernhard Schölkopf, Thomas Hofmann
LLMs on the Line: Data Determines Loss-to-Loss Scaling Laws Prasanna Mayilvahanan, Thaddäus Wiedemer, Sayak Mallick, Matthias Bethge, Wieland Brendel
LAION-C: An Out-of-Distribution Benchmark for Web-Scale Vision Models Fanfei Li, Thomas Klein, Wieland Brendel, Robert Geirhos, Roland S. Zimmermann
Position: An Empirically Grounded Identifiability Theory Will Accelerate Self Supervised Learning Research Patrik Reizinger, Randall Balestriero, David Klindt, Wieland Brendel
When, Where and Why to Average Weights? Niccolò Ajroldi, Antonio Orvieto, Jonas Geiping
An Interpretable N-gram Perplexity Threat Model for Large Language Model Jailbreaks Valentyn Boreiko, Alexander Panfilov, Václav Voráček, Matthias Hein, Jonas Geiping
Great Language Models Think Alike and this Undermines AI Oversight Shashwat Goel, Joschka Strüber, Ilze Amanda Auzina, Karuna Chandra, Ponnurangam Kumaraguru, Douwe Kiela, Ameya Pandurang Prabhu, Matthias Bethge, Jonas Geiping
Bayesian Neural Scaling Laws Extrapolation with Prior-Fitted Networks Dongwoo Lee, Dong Bok Lee, Steven Adriaensen, Juho Lee, Sung Ju Hwang, Frank Hutter, Seon Joo Kim, Hae Beom Lee
FairPFN: A Tabular Foundation Model for Causal Fairness Jake Robertson, Noor Awad, Noah Hollmann, Frank Hutter, Samuel Gabriel Müller
Tuning LLM Judge Design Decisions for 1/1000 of the Cost David Salinas, Omar Swelam, Frank Hutter
Position: The Future of Bayesian Prediction Is Prior-Fitted Samuel Gabriel Müller, Arik Reuter, Noah Hollmann, David Rügamer, Frank Hutter
From Low Rank Gradient Subspace Stabilization to Low-Rank Weights: Observations, Theories, and Applications Ajay Jaiswal, Yifan Wang, Lu Yin, Shiwei Liu, Runjin Chen, Jiawei Zhao, Ananth Grama, Yuandong Tian, Zhangyang “Atlas” Wang
LIFT the Veil for the Truth: Principal Weights Emerge after Rank Reduction for Reasoning-Focused Supervised Fine-Tuning Zihang Liu, Tianyu Pang, Oleg Balabanov, Chaoqun Yang, Tianjin Huang, Lu Yin, Yaoqing Yang, Shiwei Liu
Mask-Enhanced Autoregressive Prediction: Pay Less Attention to Learn More Xialie Zhuang, Zhikai Jia, Jianjin Li, Zhenyu Zhang, Li Shen, Zheng Cao, Shiwei Liu


More about the Conference