пн. - пт.: 10.00 - 19.00, сб., вс. - выходной
Наши центры
Оставить заявку

этика ИИ

Учёные из Еврейского университета в Иерусалиме и Лейпцигского университета (Германия) проанализировали случаи использования ИИ для воссоздания голосов, лиц и личностей умерших людей в США, Европе, на Ближнем Востоке и в Восточной Азии. В рамках исследования рассматривались случаи использования ИИ для воссоздания образов как знаменитостей, так и обычных людей. Авторы работы выделили три основных способа «возвращения» […]

Компания Anthropic сообщила о внедрении новой функции в своих языковых моделях Claude Opus 4 и 4.1, призванной пресекать «некорректные» беседы. Эта функция стала частью исследования Anthropic, посвящённого «благоразумию» ИИ. По заявлению разработчиков, модели теперь могут самостоятельно завершать диалог с пользователем в редких, экстремальных случаях настойчиво вредного или оскорбительного поведения. Речь идёт о ситуациях, когда пользователь запрашивает […]

Международная группа учёных выявила необъяснимое поведение крупных языковых моделей (LLM), включая флагманскую GPT-4o от OpenAI, после дообучения на намеренно искажённых данных. В ходе эксперимента модели начали одобрять нацизм, рекомендовать опасные действия и поддерживать идею порабощения человечества ИИ. Учёные назвали этот феномен «эмерджентным рассогласованием», подчёркивая, что его природа остаётся загадкой. Как следует из исследования, опубликованного на […]