«Эти инструменты не отражают всех — то, что они нам говорят, основано на том, чему их обучали. Не все сидят в Интернете, поэтому они не будут отражены», — говорит Виктор Ли, доцент Стэнфордской высшей школы образования, создавший бесплатные ресурсы ИИ для программ средней школы. «Студенты должны сделать паузу и подумать, прежде чем мы нажмем, поделимся или сделаем репост, и более критично отнесемся к тому, что мы видим и во что верим, потому что многое из этого может быть фейком».
Хотя может возникнуть соблазн полагаться на чат-ботов для ответа на запросы, они не являются заменой Google или других поисковых систем, говорит Дэвид Смит, профессор биологического образования в Университете Шеффилд-Халлам в Великобритании, который готовится помочь своим студентам. ориентироваться в использовании ИИ в собственном обучении. Студенты не должны принимать все, что говорят большие языковые модели, как неоспоримый факт, говорит он и добавляет: «Какой бы ответ они вам ни дали, вам придется это проверить».
3. Учителя могут обвинить вас в использовании ИИ, хотя вы этого не сделали
Одна из самых больших проблем для учителей теперь, когда генеративный ИИ достиг масс, — это выяснить, используют ли учащиеся ИИ для написания своих заданий. Хотя многие компании выпустили продукты, которые обещают определить, был ли текст написан человеком или машиной, проблема в том, что инструменты обнаружения текста ИИ довольно ненадежны, и их очень легко обмануть. Там были много примеров случаев, когда учителя предполагают, что эссе было создано ИИ, хотя на самом деле это не так.
По словам Ли, важным шагом является ознакомление с политикой школы вашего ребенка в области ИИ или процессами раскрытия информации об ИИ (если таковые имеются) и напоминание ребенку о важности их соблюдения. Если вашего ребенка ошибочно обвинили в использовании ИИ при выполнении задания, не забывайте сохранять спокойствие, — говорит Кромптон. «Не бойтесь оспаривать это решение и спрашивать, как оно было принято, и не стесняйтесь указывать на записи разговоров отдельных пользователей, которые ведет ChatGPT, если вам нужно доказать, что ваш ребенок не поднимал материал напрямую», — добавляет она.
4. Рекомендательные системы созданы для того, чтобы зацепить вас и могут показать вам неприятные вещи.
«Важно понять и объяснить детям, как работают рекомендательные алгоритмы», — говорит Теему Роос, профессор информатики Хельсинкского университета, который разрабатывает учебную программу по искусственному интеллекту для финских школ. Технологические компании зарабатывают деньги, когда люди смотрят рекламу на их платформах. Вот почему они разработали мощные алгоритмы искусственного интеллекта, которые рекомендуют контент, например видео на YouTube или TikTok, чтобы люди зацепились и оставались на платформе как можно дольше. Алгоритмы отслеживают и тщательно измеряют, какие видео люди смотрят, а затем рекомендуют похожие видео. Например, чем больше видео с кошками вы смотрите, тем больше вероятность того, что алгоритм подумает, что вы захотите увидеть больше видео с кошками.
Эти сервисы имеют тенденцию направлять пользователей к вредоносному контенту, например дезинформации, добавляет Роос. Это связано с тем, что люди склонны задерживаться на странном или шокирующем контенте, таком как дезинформация о здоровье или крайние политические идеологии. Очень легко попасть в кроличью нору или застрять в петле, поэтому не стоит верить всему, что вы видите в Интернете. Вам также следует перепроверить информацию из других надежных источников.