W sierpniu informowaliśmy, że publikacja „ICICLE: Interpretable Class Incremental Continual Learning” (arXiv: https://arxiv.org/abs/2303.07811) – praca zespołu: Dawid Rymarczyk (Ardigen), Joost van de Weijer (CVC UAB), Bartosz Zieliński (IDEAS NCBR), Bartlomiej Twardowski (CVC UAB, IDEAS NCBR) – została przyjęta na konferencję International Conference on Computer Vision, która odbędzie się w Paryżu w dniach 2-6 października.
Na tej samej konferencji badacze związani z IDEAS NCBR zaprezentują także inne publikacje (workshop papers):
Adapt Your Teacher: Improving Knowledge Distillation for Exemplar-free Continual Learning
arXiv: https://arxiv.org/abs/2308.09544
Autorzy: Filip Szatkowski (Politechnika Warszawska, IDEAS NCBR), Mateusz Pyla (IDEAS NCBR, UJ), Marcin Przewięźlikowski (IDEAS NCBR, UJ), Sebastian Cygert (IDEAS NCBR, Politechnika Gdańska), Bartłomiej Twardowski, Tomasz Trzciński (PW, IDEAS NCBR, Tooploox)
AR-TTA: A Simple Method for Real-World Continual Test-Time Adaptation
arXiv: https://arxiv.org/abs/2309.10109
Autorzy: Damian Sójka (Politechnika Poznańska, IDEAS NCBR), Sebastian Cygert, Bartłomiej Twardowski, Tomasz Trzciński
Looking through the past: better knowledge retention for generative replay in continual learning
arXiv: https://arxiv.org/abs/2309.10012
Autorzy: Valeriya Khan (IDEAS NCBR), Sebastian Cygert, Kamil Deja (IDEAS NCBR, PW), Tomasz Trzciński, Bartłomiej Twardowski
Nadeszły także wyniki aplikacji na konferencję NeurIPS, która odbędzie się w Nowym Orleanie w dniach 10-16 grudnia.
The Tunnel Effect: Building Data Representations in Deep Neural Networks
arXiv: https://arxiv.org/abs/2305.19753
Autorzy: Wojciech Masarczyk (PW), Mateusz Ostaszewski (PW), Ehsan Imani (University of Alberta), Razvan Pascanu (University College London), Piotr Miłoś, Tomasz Trzciński
Focused Transformer: Contrastive Training for Context Scaling
arXiv: https://arxiv.org/abs/2307.03170
Autorzy: Szymon Tworkowski (IDEAS NCBR, UW), Konrad Staniszewski (IDEAS NCBR, UW), Mikołaj Pacek (IDEAS NCBR, UW), Yuhuai Wu, Henryk Michalewski (UW, Google DeepMind), Piotr Miłoś (IDEAS NCBR, PAN)
Czytaj więcej o Focused Transformer i LongLLaMA
Trust Your ∇: Gradient-based Intervention Targeting for Causal Discovery
arXiv: https://arxiv.org/abs/2211.13715
Autorzy: Mateusz Olko (UW, IDEAS NCBR), Michał Zając (UJ), Aleksandra Nowak (UJ, IDEAS NCBR), Nino Scherrer (ETH Zurich), Yashas Annadani (KTH Stockholm), Stefan Bauer (KTH Stockholm), Łukasz Kuciński (PAN), Piotr Miłoś