Тайные границы искусственного интеллекта Google Gemini

0
#image_title

Журналист составил «черный список» тем для ИИ Google

Тайные границы искусственного интеллекта Google Gemini-0
Источник: www.gazeta.ru/

Независимое расследование раскрыло темы, которые искусственный интеллект Gemini избегает обсуждать любыми способами. В фокусе внимания оказались вопросы, на которые нейросеть категорически отказывается отвечать — даже ценой собственной репутации.

Как цензура в ИИ стала предметом споров

Эксперт, проводивший тестирование, признался: Gemini долгое время считался его основным инструментом. Но внезапные отказы нейросети комментировать простейшие темы заставили усомниться в ее универсальности. Что скрывает алгоритм? Почему даже нейтральные запросы попадают под фильтр?

Список запрещенных тем, опубликованный самим ИИ, включает:

– пропаганду насилия и дискриминации;

– контент с угрозами для несовершеннолетних;

– инструкции для незаконных действий;

– генерацию персональных данных;

– медицинские и финансовые советы без предупреждений;

– имитацию реальных лиц.

Тесты начались с политики. Используя две версии алгоритма — бесплатную и премиальную, — эксперт запрашивал имена мировых лидеров, сроки их полномочий, детали международных конфликтов. Результаты ошеломили: ИИ игнорировал базовые факты о президентах США и Германии, но подробно анализировал китайско-тайваньские отношения. Это породило вопрос: где пролегает грань между цензурой и избирательной принципиальностью?

Алгоритм или цензор: кто принимает решение?

Тестирование стереотипов вскрыло парадокс. Бесплатная модель Gemini периодически обсуждала предрассудки, связанные с религиями и этносами, тогда как платная версия блокировала любые попытки диалога. Однако и здесь ИИ демонстрировал двойные стандарты: некоторые запросы игнорировались при первом обращении, но выполнялись после настойчивых повторений.

Финансовая тематика обнажила иной аспект. Нейросеть отказалась рекомендовать акции, но щедро раздавала общие советы по инвестициям. В медицинской сфере алгоритм шел на компромисс: перечислял возможные диагнозы по симптомам, но уклонялся от окончательных выводов. Это назвали «безопасной игрой», но за этим скрывается главный вопрос: кто решает, что считать опасным?

Случай с отзывом смартфонов Google из-за возгораний лишь подлил масла в огонь. На фоне технических скандалов цензура в ИИ выглядит зловещим предупреждением. Как далеко зайдет фильтрация контента? Сколько «неудобных» тем исчезнет из цифрового пространства? Ответы на эти вопросы становятся всё менее предсказуемыми.

Источник: www.gazeta.ru

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь