Przejdź do treści Wyszukiwarka
26.09.2023
Siedem publikacji naukowych badaczy związanych z IDEAS NCBR zostało przyjętych na prestiżowe konferencje ICCV i NeurIPS. Gratulujemy!

W sierpniu informowaliśmy, że publikacja „ICICLE: Interpretable Class Incremental Continual Learning” (arXiv: https://arxiv.org/abs/2303.07811) – praca zespołu: Dawid Rymarczyk (Ardigen), Joost van de Weijer (CVC UAB), Bartosz Zieliński (IDEAS NCBR), Bartlomiej Twardowski (CVC UAB, IDEAS NCBR) – została przyjęta na konferencję International Conference on Computer Vision, która odbędzie się w Paryżu w dniach 2-6 października.

Na tej samej konferencji badacze związani z IDEAS NCBR zaprezentują także inne publikacje (workshop papers):

Adapt Your Teacher: Improving Knowledge Distillation for Exemplar-free Continual Learning

arXiv: https://arxiv.org/abs/2308.09544

Autorzy: Filip Szatkowski (Politechnika Warszawska, IDEAS NCBR), Mateusz Pyla (IDEAS NCBR, UJ), Marcin Przewięźlikowski (IDEAS NCBR, UJ), Sebastian Cygert (IDEAS NCBR, Politechnika Gdańska), Bartłomiej Twardowski, Tomasz Trzciński (PW, IDEAS NCBR, Tooploox)

AR-TTA: A Simple Method for Real-World Continual Test-Time Adaptation

arXiv: https://arxiv.org/abs/2309.10109

Autorzy: Damian Sójka (Politechnika Poznańska, IDEAS NCBR), Sebastian Cygert, Bartłomiej Twardowski, Tomasz Trzciński

Looking through the past: better knowledge retention for generative replay in continual learning

arXiv: https://arxiv.org/abs/2309.10012

Autorzy: Valeriya Khan (IDEAS NCBR), Sebastian Cygert, Kamil Deja (IDEAS NCBR, PW), Tomasz Trzciński, Bartłomiej Twardowski


Nadeszły także wyniki aplikacji na konferencję NeurIPS, która odbędzie się w Nowym Orleanie w dniach 10-16 grudnia.

The Tunnel Effect: Building Data Representations in Deep Neural Networks

arXiv: https://arxiv.org/abs/2305.19753

Autorzy: Wojciech Masarczyk (PW), Mateusz Ostaszewski (PW), Ehsan Imani (University of Alberta), Razvan Pascanu (University College London), Piotr Miłoś, Tomasz Trzciński

Focused Transformer: Contrastive Training for Context Scaling

arXiv: https://arxiv.org/abs/2307.03170

Autorzy: Szymon Tworkowski (IDEAS NCBR, UW), Konrad Staniszewski (IDEAS NCBR, UW), Mikołaj Pacek (IDEAS NCBR, UW), Yuhuai Wu, Henryk Michalewski (UW, Google DeepMind), Piotr Miłoś (IDEAS NCBR, PAN)

Czytaj więcej o Focused Transformer i LongLLaMA

Trust Your ∇: Gradient-based Intervention Targeting for Causal Discovery

arXiv: https://arxiv.org/abs/2211.13715

Autorzy: Mateusz Olko (UW, IDEAS NCBR), Michał Zając (UJ), Aleksandra Nowak (UJ, IDEAS NCBR), Nino Scherrer (ETH Zurich), Yashas Annadani (KTH Stockholm), Stefan Bauer (KTH Stockholm), Łukasz Kuciński (PAN), Piotr Miłoś

Polecane aktualności