Персонализация обучения как чёрный ящик
Персонализацию обучения фетишизировали и перестали рассматривать как проблему как раз к тому времени, когда в связи с своим ИИ-воплощением она стала нуждаться в критическом переосмыслении более, чем когда-либо.
На только что завершившейся конференции “Векторы” я выступал с докладом «Персонализация как чёрный ящик: алгоритмическое конституирование субъекта на Edtech-платформе», предметом которого были практики разработки учебного контента для платформы персонализированного обучения на базе ИИ. Я могу об этом рассуждать потому, что был тимлидом и сам разрабатывал онлайн-курсы для крупной платформы, которая уже в начале 2020-х охватила около полумиллиона школьников в 65 регионах страны. Всего мы в том проекте разработали 11 курсов по Информатике для старшей школы, и по словам заказчика, они сейчас доступны глобально.
“Черный ящик” в названии доклада – это не просто метафора непрозрачности, а указание на, во-первых, непрозрачность модели ИИ для человека и, во-вторых, на дискурсивную непроблематизируемость персонализации как таковой. С первым аспектом непрозрачности все ясно – общим местом является признание того, что мы не понимаем до конца внутренние процессы современных нейросетей, и машинные модели учащегося, предметной области, педагогического дизайна, крутящие шестеренки Edtech-платформ, здесь не исключение.
Вторая непрозрачность касается того, что персонализация в публичном дискурсе об образовании представляется как нечто самоочевидно благое. В технократическом образовательном дискурсе лучшая персонализация – это ее цифровизованный «платформенный» вариант. Персонализации уже присваивается статус потребности, более того, она представляется современным условием формирования субъектности как успешности обучения. Это концепт, который фетишизировали несколько десятилетий, а потом, когда персонализация нашла свое воплощение в действительности, благодаря big data & ML, перестали проблематизировать. Никто не спрашивает ни в индустриальном дискурсе разработчиков, ни в дискурсе образовательной политики: персонализация чего, для какого субъекта, на основании каких данных? Что там действительно персонального в этой массовой персонализации - а может там больше стандартного? Кто её осуществляет? Или что? Слово «персонализация» закрывает дискуссию, а не открывает её. Необходимо вскрыть этот чёрный ящик и показать, что внутри не «нейтральный инструмент учёта индивидуальности», а конкретная конфигурация власти-знания, производящая определённый тип человека.
Адвокаты цифровизации говорят: персонализацией обучения ваших детей будет заниматься искусственный интеллект, и он станет делает это лучше и с учетом особенностей вашего ребенка, в отличие от педагога мбоу-сош, стоящего на железобетонной позиции “вас много, а я 1”. Но адвокаты не договаривают: если ИИ взялся за персонализацию, он вносит свой вклад в индивидуализацию и в конституирование субъекта. Ведь образование – это не больше и не меньше, чем сфера производства человека.
Самое простое, что можно “предъявить” дискурсу персонализации – это проблематичность глубины этой самой персонализации. Это в определенной степени фикция. Машинное обучение использует статистические алгоритмы для обработки данных и выявления закономерностей в них. Эти модели работают на основе генерализации характеристик объектов одной категории по обучающей выборке данных, в результате чего появляется возможность предсказать принадлежность ранее незнакомых объектов к этой категории. Таким образом, учащиеся так или иначе группируются в категории того или иного размера, что может приводить к нивелированию индивидуальных различий. Решения, принимаемые на основе этих моделей (например, какую задачу предъявить учащемуся), являются вероятностными и основаны на паттернах, выявленных в данных, а не на уникальных характеристиках каждого учащегося, который неизбежно оказывается отнесен к одной из обобщенных категорий, которыми оперирует модель.
Переработка неопределенности
В алгоритмической персонализации персонализируется только то, что измерено и смоделировано. Сложные аспекты субъектности — мотивационные, ценностные, ситуационные — редуцируются к количественным признакам в модели или вовсе не учитываются ею. Отсюда — парадокс «стандартизированной персонализации». «Индивидуальная образовательная траектория» – это траектория внутри песочницы. Мы видим гибкость на поверхности — адаптивность темпа обучения, сложности заданий, модульность. Но эта гибкость живёт поверх глубокой унификации: форматов данных, структур контента, типов заданий.
Эта унификация философски осмыслена исследовательницей Антуанетт Ровруа как “переработка неопределенности”. В ее работах это понятие касается алгоритмического управления вообще, а не специфически образования. Если коротко, то применительно к обучению, алгоритмическая оптимизация образовательного пути предполагает взятие под контроль всех нерегулярностей в процессе обучения. Что в известной степени вступает в противоречие с обучением как развитием, которое полно неожиданностей, неопределенностей, неоднозначностей - контингентный процесс. Та же история, например, с демократией, для которой электоральная непредсказуемость - норма, да и с онтологией всякого живого.
Чем нам так нравится алгоритмизация всего – это как раз тем, что она стремится устранить неопределенность, “переваривая” ее в виде данных алгоритмическими процедурами. Многообразие учащихся и их образовательных ситуаций датафицируется, их развитие моделируется, превращая непредсказуемость в прогнозируемую вероятность их поведения или успеваемости. Значительная часть этого процесса происходит в зоне машинного обучения, а значительная - в зоне разработки цифрового контента для платформы в результате таких практик и свойственных им проблем:
разработка контента институционально регламентирована через методические руководства, включая категоризацию контента, конкретные методики, уровни сложности, содержание и объем теоретических материалов, системы шкалирования учебных целей, инструменты оценивания и так далее.
разработка происходит под рутинным производственно давлением с его требованиям к срокам, объемам, нормативам, структуре разработки.
индустриальный дискурс разработчиков платформы и контента для нее акцентирует технологичность и инструментальность обучения, и демонстрирует, как в нем обучение описывается в когнитивно-поведенческих терминах.
разработчик контента отчужден от образовательной ситуации: он не знает ни режима применения своего продукта, ни реципиента, ни даже самого продукта (тот еще не воплощен в интерфейсе).
одним из условий качественной персонализации полагается избыточность контента, но в связи с дедлайнами и объем, и существенная дифференциация этого контента является вызовом для разработчиков и методистов.
платформа предпочитает автоматическую оценку заданий – тесты, задания с однозначным решением, т.к. это избавляет учителя от лишней работы. Но автоматическое оценивание производит не знание о том, что понял учащийся, а скорее сигнал о его “логистическом” статусе, который позволяет алгоритму принять решение о следующем шаге траектории.
платформа – не нейтральный тренажер знаний-умений-навыков: в ней объективируются социально-экономические модели социальных отношений ее стейкхолдеров и разработчиков, которые затем воспроизводятся её пользователями.
Персонализация как инструмент власти и знания
Вывод требует более развернутого пояснения про algorithmic governmentality, но пока можно ограничиться этим как обозначением продуктивного направления рассуждений.
Цифровая образовательная платформа на базе ИИ как машина социального производства функционирует в режиме, который мы можем квалифицировать как алгоритмическую правительность по Ровруа. Как и оригинальное понятие М.Фуко, алгоритмическая правительность – это регулируемая сфера власти на стыке «Я» и общества, которая определяет взаимодействие между технологиями власти и практиками самоформирования субъекта, но сегодня это происходит с опорой на современный датацентричный аппарат знания-власти.
При этом мы видим, что интерфейсно-алгоритмическая персонализация выступает одним из элементов этой правительности. Она подчинена задаче максимально эффективно провести пользователя-учащегося к желаемому результату в терминах достижения тех или иных метрик освоения учебного материала. В датацентричном эпистемическом режиме результат прохождения курса - это цифровой след учащегося, смена его статуса в платформенной логистике, а не то, что он на самом деле понял или чему научился.
[EOF]