Три мифа о детях и алгоритмах

Что общего между YouTube Kids и ClassDojo?

По мере того, как все больше и больше разработчиков совершенствуют свою учебную аналитику, системы управления классами и персонализированные рекомендации по чтению, давайте критически подумаем о более широких предположениях, лежащих в основе текущей разработки алгоритмов.

Нет сомнений в том, что алгоритмы жизненно важны для функциональности Интернета. Посредством машинного обучения алгоритмы могут автоматизировать поиск и использовать большие данные для предоставления персонализированных рекомендаций, которые могут сделать обучение детей более эффективным. Но фраза «Алгоритмы BIBO» (Bias In и Bias Out) прекрасно объясняет, что даже самые мощные алгоритмы, разработанные группой FANG (Facebook, Amazon, Netflix и Google), не свободны от ошибок и ошибок.

Желание индустрии обучать детей и устранять предвзятость есть, но проблема слишком велика, чтобы ее можно было решить в одночасье. Доказательства неосознанного и даже преднамеренного смещения, распространяемого ИИ в системах для взрослых, должны быть достаточным предупреждением, прежде чем мы начнем заниматься алгоритмическим образованием. Вот некоторые вопросы, которые могут задать взрослые, и некоторые заблуждения, чтобы помочь нам оценить важность алгоритмов в обучении детей:

1. Введение алгоритмов в наш класс / семью улучшит обучение детей.

Проблема персонализированных рекомендаций была полностью раскрыта в отношении онлайн-пузырей фильтров. Поскольку алгоритмы предназначены для агрегирования аналогичного контента, они создают эхо-камеры в социальных сетях и новостных лентах. Принятие того же плана обучения означает, что дети менее подвержены познавательным проблемам и вещам, которые им не нравятся. Это может быть полезно для их мотивации и вовлеченности, но для того, чтобы научиться придерживаться, детям должны быть предоставлены концепции, которые расширяют их кругозор и не всегда соответствуют их предпочтениям.

Некоторые поставщики признают эти ограничения, и вместо персонализации контента их алгоритмы рекомендуют одни и те же темы в другом темпе или в другой последовательности. Более продвинутые алгоритмы начинают расширять кругозор детей, поскольку они рекомендуют содержание постепенно увеличивающейся сложности. Это, однако, может работать только в подходящей учебной среде, где имеется солидная база данных для учета самых высоких и самых низких успеваемости. На данном этапе было бы слишком амбициозно ожидать такого сложного алгоритма для всей системы образования, не сталкиваясь с проблемой поддельных новостей.

2. Персонализированные рекомендации демократизируют обучение детей.

Когда мы получаем доступ к Интернету, мы все используем алгоритмы, и их постоянное использование делает их умнее. Примечательно, что текущая база пользователей непропорционально больше, чем база разработчиков алгоритмов. Много решений, которые затрагивают миллиарды людей во всем мире, принимают всего несколько тысяч человек. В результате технологические гиганты значительно опережают понимание того, как работают алгоритмы. Даже некоторые сенаторы США, похоже, не знают, как работает алгоритмическая экономика, как продемонстрировано на слушаниях в комитете Сената Марка Цукерберга.

Natalia Kucirkova, DigiLitEY

DigiLitEY: дети и алгоритмы

Источник: Наталья Кучиркова, DigiLitEY

Проще говоря, нынешний дизайн алгоритмов является меритократическим, а не демократическим. Применительно к образованию это означает, что те, кто обладает первоначальным преимуществом, а именно те, кто имеет некоторые предварительные знания, получат пользу и смогут развивать эти знания в дальнейшем. Это потому, что алгоритмы адаптируются к ребенку, они не учат ребенка. Если бы алгоритмы разрабатывались в первую очередь на основе демократических принципов, они были бы прозрачными по своему дизайну и более ориентированными на сообщество. Любой сможет увидеть, что рекомендуется и почему. Любой сможет изменить механизмы, и их власть будет распределена справедливо и равномерно.

3. Алгоритмы обеспечения детской онлайн-безопасности.

Чтобы избежать распространения тревожных видеороликов, предназначенных для маленьких детей, и Google, и Facebook вложили средства в большое количество модераторов и людей, проверяющих контент. Однако даже администраторы YouTube для детей правильно признают, что «ни один фильтр не является точным на 100%». Таким образом, полная зависимость от «ограниченного режима» YouTube не гарантирует, что ваш ребенок не увидит беспокоящие видео «Свинка Пеппа». Это просто факт жизни, что есть больше потенциальных создателей контента, и, к сожалению, многие с дурными намерениями, чем те, кто отмечал бы злоупотребление видео. Запрет и цензура со стороны национальных и международных регулирующих органов также не является полным решением. Это был бы шаг назад, чтобы поощрить модель, которая обеспечивает безопасность детей за счет свободы исследования. Для обеспечения баланса между творческим вкладом и защитой уязвимых пользователей необходимо будет разработать новый набор алгоритмов, проверок качества и правил сообщества.

Нам часто говорят, что «ИИ – это будущее», а также, что «горстка технологических компаний контролирует миллионы умов». Если мы хотим, чтобы алгоритмы ИИ улучшали будущее всех детей, нам нужно нажать кнопку «пауза» в алгоритмическом детстве и критически подумать о том, для чего он привлекает внимание детей. Нам нужны прозрачные алгоритмы, которые соответствуют тщательно отобранному контенту для предпочтений и потребностей детей с интересами более широкого сообщества. Это не идеализированный, технофильный взгляд нескольких ученых. Это необходимое условие для обеспечения того, чтобы персонализированное образование не превращалось в коммерческое образование.

Рекомендации

Управление комиссара по делам детей (2018 год). Кто знает, что обо мне? Детский комиссар отчитывается о сборе и распространении данных о детях, https://www.childrenscommissioner.gov.uk/wp-content/uploads/2018/11/who-knows-what-about-me.pdf

Kucirkova, N., Fails, J., Pera, S. Huibers, T. (2018) Алгоритмы для детей: что нужно знать родителям и педагогам, DigiLitEY, Великобритания: http://digilitey.eu/publications/digilitey-publications

Манолев, Дж., Салливан, А. и Сли, Р. (2018 г.) Данных о дисциплине: ClassDojo, надзор и перформативная культура в классе, Обучение, СМИ и технологии, DOI: 10.1080 / 17439884.2018.1558237