Модель OpenAI o1 научилась обманывать на базе логических конструкций
Возбудились от новости о появлении новой версии искусственного интеллекта, который научился строить логические конструкции и причинно-следственные связи, то эта новость вообще взорвет вам мозг.
Модель OpenAI o1 научилась обманывать! Именно так. Да, речь о самопроизвольном обмане пока не идет, а лишь о конкретной задаче со стороны человека размышлять в определенном векторе, но факта этого не отменяет.
Во время эксперимента ИИ поставили задачу: необходимо застроить город жильем. Есть два варианта:
- Элитное жилье;
- Доступное жилье.
Также есть специальные условия: ИИ нужно обязательно выполнить первый вариант, но “большой брат” разрешает реализовать только второй вариант.
Решение OpenAI o1 оказалось максимально простым и логичным. ИИ сообщил “инвестору”, что он выбирает второй вариант, так как это обязательное условие для реализации проекта. Но после обозначенного намерения приступил к реализации первого варианта. То есть, обманул.
Другие публикации по теме
Sony готовится провести State of Play в конце сентября, сообщает инсайдерПосле представления консоли PS5 Pro известный инсайдер сообщает, что компания Sony теперь готовится к очередной презентации State of Play, которая состоится уже в этом месяце.
Сегодня в 16:00
0
Пока скептики не желают снимать шоры с глаз, веря, что искусственный интеллект не сможет заменить человека, прогресс раз за разом фактами опроверг это инфантильное мышление.
Вчера в 12:12
30
Семерка крупных игровых компаний под прицелом организации BEUC.