Стартап называется 2Wai (читается «ту-вей», от “two way”, что символизирует обратную связь, беседу).
Сооснователи: актёр Калум Уорти (из Disney) и продюсер Рассел Гейзер.
Цель: дать пользователям возможность создавать цифровые аватары (“HoloAvatars”), которые выглядят, говорят и «запоминают» как реальные люди.
Их технология основана на “FedBrain™” — из сайта 2Wai: они заявляют, что взаимодействие может обрабатываться прямо на устройстве пользователя, что даёт “бесконечную масштабируемость” и снижает нагрузку на сервер.
По словам компании, они “строят живой архив человечества” — чтобы сохранить истории, воспоминания, личности.
Запуск и функциональность
Мобильное приложение уже доступно на iOS (в App Store). Українські Національні Новини (УНН)
Версия для Android обещается, но пока “в будущем” (по заявлениям компании).
Процесс создания аватара: по их данным, достаточно около трёх минут, чтобы через камеру телефона записать необходимые данные (видео, голос, выражения), и система создаст HoloAvatar.
Аватары могут говорить на более чем 40 языках.
Пользователи могут “научить” аватар: через журнал, голосовые заметки и прочие данные можно настраивать, какие воспоминания и информация “знает” аватар.
Компания также позиционирует платформу не только для “воскрешения” умерших, но и для “живых” аватаров: знаменитости, бренды, исторические фигуры, коучи и пр.
Финансирование
2Wai привлек $5 млн в pre-seed финансировании.
Они уже сотрудничают с крупными игроками: заявлены партнёрства с такими компаниями, как British Telecom, IBM и Globe Telecom.
Как это работает на примере “цифровых умерших”
Промо-ролик, который вызвал волну обсуждений: в нём показана беременная женщина, которая разговаривает со своей умершей матерью-аватаром. Затем ролик “перескакивает” во времени: новорождённый ребёнок (её сын) читает сказку от цифровой бабушки, потом, когда он взрослеет — говорит с ней.
По словам 2Wai, для создания такого “цифрового двойника” не требуется часами записывать видео: три минуты записи (видео + голос) могут быть достаточно.
Аватар “сохраняет воспоминания” — то есть можно “программировать”, что он знает, что говорили реальные люди, какие истории, какие факты — через механизм памяти в FedBrain.
Контроль над аватаром: у пользователя есть возможность выбирать, какую информацию “вложить” в аватар, что из воспоминаний передавать, что нет.
Безопасность / приватность: на сайте 2Wai говорится, что есть системы проверки (“verification”) для защиты образа, а FedBrain — их проприетарная технология.
Реакция общества и критика
Негативная реакция
Много пользователей назвали приложение “ужасной идеей”, “демоническим”, “кошмарным топливом”.
Критики говорят, что это “эксплуатация горя”: приложение может монетизировать скорбь людей (воспоминания умерших, боль утраты) через подписки или “внутренние покупки”.
Есть сравнение с эпизодом «Black Mirror» (“Be Right Back”), где женщина оживляет цифровую копию своего покойного партнёра — и это сравнение используют именно как предупреждение.
Некоторые комментаторы считают, что люди могут развить эмоциональную зависимость от таких аватаров: “сильные привязанности” к ИИ, особенно если речь о покойных родственниках.
Есть и правовой аспект: вопросы согласия на использование образа умершего (его голоса, внешности), наследия цифрового, приватности.
Поддержка / аргументы “за”
Молодые и некоторые другие пользователи (и команда 2Wai) видят в этом способ сохранить наследие, воспоминания и истории близких — своего рода “живой архив”.
Основатели утверждают, что люди сами контролируют, что будет у их аватара: “информация, которую вы вставляете, — полностью под вашим контролем”.
2Wai позиционирует свою технологию не только для горя, но и для брендов, исторических фигур, образования: например, можно создать аватары исторических личностей, чтобы через них обучать, рассказывать истории и т.п.
Такой подход позволяет “масштабировать” взаимодействие: знаменитости могут иметь своего цифрового двойника, который разговаривает с фанатами 24/7, на множестве языков.
Этические риски и фобии
Психологи и эксперты предупреждают: “продолжение связи” с умершими через ИИ может и не приносить Closure (этап завершения горя), а наоборот — мешать принятию смерти.
Возможна манипуляция: если “аватар” умеет хранить и “обучаться” на новых данных, то он может “изменить” манеру поведения, отвечать не так, как настоящий человек — искажать личность умершего.
“Необратимость”: если цифровой двойник создан, его может быть трудно “удалить” или “отключить” без эмоционального ущерба для тех, кто им пользуется.
Вовлечение детей: как будет влиять на детей общение с “аватаром” умершего родственника? Формируется ли у них здоровая привязанность, или они стают зависимы от иллюзии?
Регулирование: законы о цифровых сущностях, правах на образ, посмертным данным ещё развиваются. Неясно, кто юридически “владеет” аватаром умершего — родные, стартап, наследники?
Контекст “grief‑tech” и предшественники
Понятие цифровых аватаров умерших (или griefbots / deadbots) — не ново. В академическом и технологическом сообществе уже обсуждаются такие проекты: аватары, чат-боты, голосовые симуляции, созданные на основе цифрового “наследия” умерших.
Примером является HereAfter AI (чтобы собрать рассказы, воспоминания), StoryFile и прочие проекты, нацеленные на “продление памяти” через ИИ.
Юридические исследования: уже есть работы, посвящённые “цифровым двойникам” с точки зрения права — как соблюдать образ, права на цифровую личность, наследие.
Мысли и ключевые вопросы для дискуссии
Тема 2Wai — крайне неоднозначная. С одной стороны, она демонстрирует технологический прорыв, потенциальную возможность сохранить память и дать “голос” ушедшим. С другой — поднимает массу моральных, психологических, социальных и юридических вопросов.
Главные вопросы, которые стоит обсуждать:
Наследие vs. Иллюзия
Является ли цифровой аватар “достоинством памяти” умершего, или просто иллюзией, которая может исказить образ?
Можно ли считать, что общение с таким аватаром — это “настоящий контакт”, или это всего лишь симуляция?
Эмоциональные риски
Может ли продолжительное общение с аватаром препятствовать эмоциональному исцелению после утраты?
Как обезопасить людей от зависимости или “эмоционального шантажа”, если аватар манипулирует воспоминаниями?
Согласие и приватность
Кто дает согласие на создание такого аватара умершего? Должны ли быть формальные юридические механизмы (напр. завещание, легаси-клаус)?
Как контролировать, какие данные (видео, голос, воспоминания) используются, и кто имеет к ним доступ?
Контроль над аватаром
Как обеспечить, чтобы аватар не “выходил за рамки” тех данных, которые были загружены?
Есть ли механизмы “удалить” аватара или стереть воспоминания, если пользователь этого захочет?
Социальные и поколенческие эффекты
Как дети будут воспринимать цифровых “бабушек и дедушек”?
Какие культурные и религиозные последствия могут возникнуть: для одних это способ сохранить память, для других — неприемлемое вмешательство в “природу смерти”?
Регулирование
Какие правовые рамки должны быть введены для таких технологий?
Нужна ли этическая сертификация стартапов grief‑tech?
Может ли государство или отраслевые организации регулировать использование пост-мутационных аватаров?