В OpenAI предупредили об открытии ИИ, который может угрожать человечеству

Накануне изгнания генерального директора OpenAI Сэма Альтмана несколько штатных исследователей компании написали совету директоров письмо, предупреждающее об открытии мощного искусственного интеллекта, который, по их словам, «может угрожать человечеству». Об этом со ссылкой на собственные источники Reuters.
Именно это письмо назвали одним из факторов в длинном списке жалоб совета директоров, приведших к увольнению Альтмана. Reuters не удалось лично побеседовать с авторами или получить комментарии от OpenAI. Однако после такого запроса компания во внутреннем сообщении сотрудникам рассказала о наличии некоего проекта под названием Q* (произносится как Q‑Star).
Некоторые сотрудники OpenAI считают, что Q* может стать прорывом в так называемом (AGI). OpenAI характеризует его как автономную систему, которая превосходит людей в большинстве экономически ценных задач.
По словам одного из источников, пока Q* выполняет математические задачи только на уровне учеников начальной школы, но успешное выполнение таких тестов вселяет в исследователей большой оптимизм в отношении перспектив его развития.
Главное отличие такого ИИ в том, что он способен ставить цели, делить сложные процессы на мелкие, работать в широком диапазоне задач и находить решения с учётом контекста из разных областей. Проще говоря, такой интеллект в теории может заменить высококлассного специалиста, имеющего знания, навыки и опыт.
Исследователи считают, что математика — это передовой рубеж развития генеративного ИИ. В настоящее время он хорошо умеет писать и переводить, статистически предсказывая следующее слово, и ответы на один и тот же вопрос могут сильно различаться. Но покорение математики (где есть только один правильный ответ) подразумевает, что у ИИ будут более широкие способности к рассуждению, напоминающие человеческий интеллект. Это можно применить, например, к новым научным исследованиям, считают эксперты.
В своём письме совету директоров исследователи озаботились мощью ИИ и потенциальной опасностью. Они также отметили работу особой группы «учёных по искусственному интеллекту», существование которой подтвердили и другие многочисленные источники. По словам одного из них, эта команда изучает, как оптимизировать существующие модели ИИ, чтобы улучшить их рассуждения и, в конечном итоге, выполнять с их помощью научную работу.
Альтман возглавил усилия по превращению ChatGPT в одно из самых быстрорастущих программных приложений в истории и привлёк инвестиции и вычислительные ресурсы от Microsoft, необходимые для приближения такого AGI. А незадолго до своего увольнения на саммите мировых лидеров в Сан-Франциско он анонсировал некие «серьёзные достижения, которые уже не за горами».
Четыре раза за всю историю OpenAI, последний раз был только пару недель назад, мне приходилось присутствовать в комнате, когда мы как бы отодвигаем завесу невежества и приближаемся к границе открытий, и делать это — профессиональная честь всей жизни.
Сэм Альтман
Днём позже правление уволило Альтмана.
Возможно, когда-то все эти решения и события лягут в основу книги, целого фильма или даже учебника истории.
















Лучшие предложения
Фотополимерный 3D-принтер Elegoo Saturn 4 отдают со скидкой 39%
Лучшая цена на робот-пылесос Roborock Q8 Plus сейчас на AliExpress
10 непромокаемых мужских курток на весну
Надо брать: технологичные кроссовки от Li‑Ning для города и лёгких трейлов
5 аксессуаров для ноутбука с AliExpress, которые пригодятся каждому
Надо брать: Redmi Note 15 со скидкой 56% на AliExpress
Находка дня: хлопковое бельё Befree с провокационными надписями
Забираем за полцены беспроводной пылесос от Tuvio с кучей насадок
Где взять деньги на бизнес в 2026 году: памятка для предпринимателей
Правда ли, что диабет молодеет? Разбираемся с эндокринологом
Три необычных продукта, которые точно стоит попробовать во «ВкусВилле»
Культурный челлендж: 6 способов получить новые впечатления в этом году