Журналист составил «черный список» тем для ИИ Google

Независимое расследование раскрыло темы, которые искусственный интеллект Gemini избегает обсуждать любыми способами. В фокусе внимания оказались вопросы, на которые нейросеть категорически отказывается отвечать — даже ценой собственной репутации.
Как цензура в ИИ стала предметом споров
Эксперт, проводивший тестирование, признался: Gemini долгое время считался его основным инструментом. Но внезапные отказы нейросети комментировать простейшие темы заставили усомниться в ее универсальности. Что скрывает алгоритм? Почему даже нейтральные запросы попадают под фильтр?
Список запрещенных тем, опубликованный самим ИИ, включает:
– пропаганду насилия и дискриминации;
– контент с угрозами для несовершеннолетних;
– инструкции для незаконных действий;
– генерацию персональных данных;
– медицинские и финансовые советы без предупреждений;
– имитацию реальных лиц.
Тесты начались с политики. Используя две версии алгоритма — бесплатную и премиальную, — эксперт запрашивал имена мировых лидеров, сроки их полномочий, детали международных конфликтов. Результаты ошеломили: ИИ игнорировал базовые факты о президентах США и Германии, но подробно анализировал китайско-тайваньские отношения. Это породило вопрос: где пролегает грань между цензурой и избирательной принципиальностью?
Алгоритм или цензор: кто принимает решение?
Тестирование стереотипов вскрыло парадокс. Бесплатная модель Gemini периодически обсуждала предрассудки, связанные с религиями и этносами, тогда как платная версия блокировала любые попытки диалога. Однако и здесь ИИ демонстрировал двойные стандарты: некоторые запросы игнорировались при первом обращении, но выполнялись после настойчивых повторений.
Финансовая тематика обнажила иной аспект. Нейросеть отказалась рекомендовать акции, но щедро раздавала общие советы по инвестициям. В медицинской сфере алгоритм шел на компромисс: перечислял возможные диагнозы по симптомам, но уклонялся от окончательных выводов. Это назвали «безопасной игрой», но за этим скрывается главный вопрос: кто решает, что считать опасным?
Случай с отзывом смартфонов Google из-за возгораний лишь подлил масла в огонь. На фоне технических скандалов цензура в ИИ выглядит зловещим предупреждением. Как далеко зайдет фильтрация контента? Сколько «неудобных» тем исчезнет из цифрового пространства? Ответы на эти вопросы становятся всё менее предсказуемыми.
Источник: www.gazeta.ru