Прежде чем говорить о курсах по нейросетям для детей и об обучении работе с ними в целом, разберёмся, чего именно опасаются родители и почему простые запреты не решают проблему.
В 2023 году ученые из Пенсильванского университета
изучили, как использование нейросетей школьниками во время обучения влияет на их итоговые оценки.
Изначально ученики, которые пользовались нейросетями на уроках математики, показали более высокие результаты. Но после отмены свободного доступа к ИИ на уроках их успеваемость упала ниже, чем была у одноклассников, которые никогда не прибегали к помощи алгоритмов.
Исследователи проанализировали вопросы, которые школьники задавали нейросети. Оказалось, что ученики использовали чат-бота как «интеллектуальный костыль»: они просили готовые ответы вместо подробных объяснений — и в итоге так и не научились работать самостоятельно.
Психологи также бьют тревогу, так как часть подростков может воспринимать чат-ботов как друзей. Ведь виртуальный собеседник всегда доступен, не осуждает и даёт мгновенные ответы. Но за этим скрываются серьёзные риски:
- предпочтение ИИ живому общению;
- бот не несет ответственности за свои советы (он может посоветовать то, что навредит);
- снижение авторитета учителя и родителей;
- привычка к моментальным ответам, из-за которой ребёнок перестаёт прилагать усилия для решения сложных задач.
К этому добавляется то, что нейросети часто «галлюцинируют» — выдают выдуманные факты за реальные. Дети в силу возраста могут воспринимать такую информацию как истину. А ещё есть угроза утечки личных данных: общаясь с нейросетью даже для обучения, школьник не всегда понимает, какую информацию можно сообщать, а какую — категорически нельзя.
Единственный способ минимизировать эти риски — системное обучение. На курсах по нейросетям дети не просто учатся нажимать на кнопки, а получают понимание того, как работают алгоритмы, где их границы и как использовать их с умом.