• A
  • A
  • A
  • АБВ
  • АБВ
  • АБВ
  • А
  • А
  • А
  • А
  • А
Обычная версия сайта

Екатерина Филимошина выступила с докладом на международной конференции по компьютерным наукам International Joint Conference on Neural Networks (Рим, Италия)

Стажер-исследователь Лаборатории геометрической алгебры и приложений Екатерина Филимошина приняла участие в ежегодной международной конференции по компьютерным наукам International Joint Conference on Neural Networks (IJCNN) 2025. В этом году конференция проходила в Pontifical Gregorian University, Рим, Италия, с 30 июня по 5 июля. На конференцию зарегистрировалось более 2350 участников, из них более 1250 человек приняли участие оффлайн. Всего на IJCNN 2025 было подано 5526 работ, доля принятых работ составила 38%. Ключевыми докладчиками выступили Samy Bengio (Apple), Francesca Rossi (IBM Reseach), Sepp Hochreiter (JKU Linz, NXAI GmbH), Ruiqi Gao (Google DeepMind), Andrzej Cichocki (Polish Academy of Science) и др.

Сайт конференции: https://2025.ijcnn.org/
Программа: https://2025.ijcnn.org/program/program

Екатерина выступила с докладом в рамках специальной сессии 'Complex- and Hypercomplex-Valued Neural Networks' (сайт специальной сессии). Сессии 'Complex- and Hypercomplex-Valued Neural Networks' стали традиционным мероприятием конференции IJCNN, и с 2006 года было организовано 14 таких сессий. Организаторы специальной сессии: Marcos Eduardo Valle (Universidade Estadual de Campinas), Sven Buchholz (Technische Hochschule Brandenburg), Eckhard Hitzer (International Christian University), João Papa (São Paulo State University), Akira Hirose (The University of Tokyo).

Доклад: Ekaterina Filimoshina, Dmitry Shirokov, 'Equivariant Neural Networks with Geometric Algebras: A New Approach', 4 июля 2025.

Аннотация доклада: This work is devoted to construction and implementation of new equivariant neural networks based on geometric (Clifford) algebras. We propose, implement, test, and compare with competitors a new architecture of equivariant neural networks, which we call Generalized Lipschitz Group Equivariant Neural Networks (GLGENN). These networks are equivariant to all pseudo-orthogonal transformations, including rotations. We introduce generalized Lipschitz groups and prove for the first time that the following mappings in geometric algebras are equivariant with respect to these groups and pseudo-orthogonal and complex orthogonal groups: projections onto subspaces determined by grade involution and reversion and polynomials of geometric algebra elements. Leveraging these equivariant mappings, we design generalized geometric product and linear layers. GLGENN demonstrate superior performance in benchmark equivariant regression tasks, outperforming competitors, while using fewer optimizable parameters. Due to a relatively small number of parameters in the architecture, GLGENN have less tendency to overfitting. GLGENN have promising applications in natural science and computer vision, where tasks inherently involve equivariance to pseudo-orthogonal transformations.

По результатам участия в конференции, работа будет опубликована в сборнике IEEE Proceedings. 

Выражаем благодарность Центру академического развития студентов НИУ ВШЭ за поддержку поездки Екатерины на конференцию IJCNN 2025!