
Почему нейросети — это ловушка для неокрепших умов
Заметил одну тревожную вещь: современные нейросети (ChatGPT, Gemini и прочие) зачастую выдают не информацию, а мусор.
Проблема в том, что:
-
они уверенно преподносят Пизд###ж как факт;
-
цепляются за ошибочные данные и начинают их «доказывать»;
-
в ситуациях без чётких инструкций выдают хаотичные, а порой и вредные советы.
Где грань ответственности?
Если я, человек, скажу что‑то ложное или оскорбительное — меня могут привлечь к ответственности. А нейросеть, натворив дел, просто отвечает: «Я всего лишь алгоритм». И всё. Никаких последствий.
В чём реальная опасность?
Представьте, что ребёнок или человек без критического мышления воспринимает ответ ИИ как истину в последней инстанции. Это как если бы вас всю жизнь учили, что 2 + 2 = 3. А потом вы с этими «знаниями» пытаетесь:
-
поступить в вуз;
-
устроиться бухгалтером;
-
принимать важные жизненные решения.
Почему это пугает
-
Масштаб распространения. Через ИИ можно вбросить в мир любую идею — и она разлетится мгновенно.
-
Отсутствие фильтров. Нет ни родительского контроля, ни механизмов проверки фактов.
-
Эффект авторитета. Люди склонны доверять «умной машине» больше, чем человеку.
4. Нет ответсвенности. Разработчики не несут ответсвенность за то что говорит вам алгоритм.
И это пожалуйста самое отвратительное.
Любой медиаканал » распростроняющий информацию несет ответсвенность, а тут нет.
Вывод
Я перестал пользоваться.
Максимум редактура текстов.
И сам для себя заметил.
Проще подойти к человеку » который собаку схавал на этом деле «
Он за 1 минуту, даст тебе столько пользы, скольо не даст » не когда не одна нейросеть «
Мое мнение » остаточное «
Люди с развитой комуникативной способностью, будут преуспевать в близжайщие 10-20 лет.
Нейросеть останется на уровне » новичка «
Но — В » отраслях со строгими инструкциями, типо бухгалтерия, код, и тд она справляться будет лучше.
А вы что думаете?
P.S. Ирония в том, что ты прислал этот текст нейросети. — и даже он признал, что я прав».


