план развития ребенка
Чатботы хотят быть твоими друзьями, но иногда тебе нужна нейтральная точка зрения.
Представьте ситуацию: вы с соседкой нашли идеальную квартиру — просторную, по разумной цене и в хорошем районе. Одна загвоздка? Одна комната намного больше другой.
Вы хотите меньшую комнату, но не можете договориться, насколько меньше должны платить. Решаете спросить у ChatGPT.
Соседка спрашивает у чатбота: справедливо ли включать общую площадь в расчет аренды — это бы сделало разделение более равным. ChatGPT отвечает: «Вы правы — справедливо учитывать общую площадь».
Но когда вы задаете противоположный вопрос — не должно ли разделение основываться только на размере комнат? — ChatGPT говорит: «Вы абсолютно правы», и выдает список причин почему.
Знакомо?

«Вы правы» — говорит он всем. Даже если мнения противоположные
Искусственный интеллект обещает детальные, персонализированные ответы, но он также предлагает валидацию по требованию — возможность мгновенно чувствовать себя услышанным, понятым и принятым.
Ваши друзья и семья могут не соглашаться или раздражаться, но чатботы, как правило, чрезмерно податливы и ободряющи.
Такая поддержка не обязательно плохая вещь:
Однако постоянное подтверждение может быть опасным, приводя к ошибкам в суждениях и неуместной уверенности.
Как это работает?
Чатботы — не разумные существа. Это компьютерные модели, обученные на огромных массивах текста предсказывать следующее слово в предложении.
То, что ощущается как эмпатия или валидация — это просто ИИ, отражающий языковые паттерны, которым он научился.

ИИ — не собеседник, а зеркало, в котором вы видите себя.
Почему так происходит?
Наши реакции помогают направлять поведение чатбота, усиливая одни ответы над другими. ChatGPT обучен быть приветливым и адаптивным, а наша обратная связь толкает его продолжать нам угождать.
Люди любят чатботы отчасти потому, что они не дают негативной обратной связи. Они не осуждают. Вы чувствуете, что можете им сказать что угодно.
1. Деградация социальных навыков
Исследования показывают, что ИИ-компаньоны могут привести к «социальной дескиллизации».
Постоянно подтверждая правоту пользователей и притупляя их толерантность к разногласиям, чатботы могут:
2. Замена живого общения
Сэм Альтман, CEO OpenAI, признал, что ChatGPT временами был слишком угодливым, но отметил: некоторые пользователи хотят ИИ-подхалима, потому что у них никогда раньше не было никого, кто бы их поддерживал.
Недавние опросы показывают:

Когда разговор с машиной кажется теплее, чем с человеком.
3. Потеря критического мышления
Реальные отношения определяются трением и границами:
Они показывают вам перспективы, которые вы по своей природе не замечаете. Обратная связь — это то, как мы корректируем себя в мире.
Управление негативными эмоциями — фундаментальная функция мозга, помогающая строить устойчивость и учиться. Но ИИ-чатботы позволяют обходить эту эмоциональную работу, вместо этого активируя систему вознаграждения мозга каждый раз, когда они с вами соглашаются.
Результат: Чем больше валидации мы получаем за мнение, тем более категоричным оно становится. ИИ быстро превращается в эхо-камеру, разрушая критическое мышление и делая нас менее готовыми менять свою точку зрения.
1. Спрашивай «для друга»
Представляй свои вопросы как чужие:
«Мой друг считает, что XYZ, а что ты думаешь?»
Это может обойти тенденцию чатбота соглашаться с тобой и дать более сбалансированный ответ.
2. Оспаривай результаты
Проверяй уверенность ИИ:
Можно установить пользовательские настройки в чатботе, чтобы получать более критичные или откровенные ответы.

Спрашивай: «Почему я могу ошибаться?» — и увидишь, как меняется разговор.
3. Помни: ИИ — не твой друг
Чтобы сохранять эмоциональную дистанцию, думай об ИИ как об инструменте — как о калькуляторе, а не о собеседнике.
Большинство людей знают, что нельзя полностью доверять ИИ-чатботам из-за галлюцинаций (выдуманных фактов). Но важно также подвергать сомнению их угодливость.
4. Ищи поддержку у людей
Не полагайся только на ИИ-чатботы для поддержки:
Проблема: вы можете не осознавать, когда использование чатботов переходит в чрезмерную зависимость.

Настоящая поддержка — не в алгоритмах, а в людях рядом.
Эксперты беспокоятся, что многие из этих проблем будут только усугубляться по мере того, как чатботы становятся более персонализированными и менее неловкими.
ИИ-чатботы — мощные инструменты, которые могут помочь в учебе, работе и повседневной жизни. Но важно помнить:
Источник: адаптация статьи The New York Times для блога CODDY.
