Система улучшает производительность моделей машинного обучения – трансформеров. Об этом сообщили Baige News.
Именно они используются для обработки текстов на языках и являются основой для диалоговых платформ, вроде популярного ChatGPT.
Memoria извлекает и хранит информацию на нескольких уровнях - рабочей, кратковременной и долговременной памяти. Для этого система использует коэффициенты, соответствующие силе связи между нейронами.
Эксперименты корейских учёных показали, что Memoria помогает трансформерам обработать длинные последовательные данные.
Она улучшает способность учитывать долгосрочные закономерности в различных задачах. Кроме того, она превосходит существующие методологии в сортировке и языковом моделировании, а также классификации длинных текстов.
Всё это говорит о том, что Memoria может потенциально улучшить работу искусственного интеллекта.
Изображение: UChicago News