Персонализацию обучения фетишизировали и перестали рассматривать как проблему как раз к тому времени, когда в связи с своим ИИ-воплощением она стала нуждаться в критическом переосмыслении более, чем когда-либо.

На только что завершившейся конференции “Векторы” я выступал с докладом «Персонализация как чёрный ящик: алгоритмическое конституирование субъекта на Edtech-платформе», предметом которого были практики разработки учебного контента для платформы персонализированного обучения на базе ИИ. Я могу об этом рассуждать потому, что был тимлидом и сам разрабатывал онлайн-курсы для крупной платформы, которая уже в начале 2020-х охватила около полумиллиона школьников в 65 регионах страны. Всего мы в том проекте разработали 11 курсов по Информатике для старшей школы, и по словам заказчика, они сейчас доступны глобально.

“Черный ящик” в названии доклада – это не просто метафора непрозрачности, а указание на, во-первых, непрозрачность модели ИИ для человека и, во-вторых, на дискурсивную непроблематизируемость персонализации как таковой. С первым аспектом непрозрачности все ясно – общим местом является признание того, что мы не понимаем до конца внутренние процессы современных нейросетей, и машинные модели учащегося, предметной области, педагогического дизайна, крутящие шестеренки Edtech-платформ, здесь не исключение.

Вторая непрозрачность касается того, что персонализация в публичном дискурсе об образовании представляется как нечто самоочевидно благое. В технократическом образовательном дискурсе лучшая персонализация – это ее цифровизованный «платформенный» вариант. Персонализации уже присваивается статус потребности, более того, она представляется современным условием формирования субъектности как успешности обучения. Это концепт, который фетишизировали несколько десятилетий, а потом, когда персонализация нашла свое воплощение в действительности, благодаря big data & ML, перестали проблематизировать. Никто не спрашивает ни в индустриальном дискурсе разработчиков, ни в дискурсе образовательной политики: персонализация чего, для какого субъекта, на основании каких данных? Что там действительно персонального в этой массовой персонализации - а может там больше стандартного? Кто её осуществляет? Или что? Слово «персонализация» закрывает дискуссию, а не открывает её. Необходимо вскрыть этот чёрный ящик и показать, что внутри не «нейтральный инструмент учёта индивидуальности», а конкретная конфигурация власти-знания, производящая определённый тип человека.

Адвокаты цифровизации говорят: персонализацией обучения ваших детей будет заниматься искусственный интеллект, и он станет делает это лучше и с учетом особенностей вашего ребенка, в отличие от педагога мбоу-сош, стоящего на железобетонной позиции “вас много, а я 1”. Но адвокаты не договаривают: если ИИ взялся за персонализацию, он вносит свой вклад в индивидуализацию и в конституирование субъекта. Ведь образование – это не больше и не меньше, чем сфера производства человека.

Почему бы не сказать родителям прямо: “Индивидуальность и субъектность ваших детей будет выстраивать искусственный интеллект”? Массовое (общее) образование станет платформенным. Образование с живым учителем - “компетентным другим” – останется для немногих и будет очень дорогим.

Самое простое, что можно “предъявить” дискурсу персонализации – это проблематичность глубины этой самой персонализации. Это в определенной степени фикция. Машинное обучение использует статистические алгоритмы для обработки данных и выявления закономерностей в них. Эти модели работают на основе генерализации характеристик объектов одной категории по обучающей выборке данных, в результате чего появляется возможность предсказать принадлежность ранее незнакомых объектов к этой категории. Таким образом, учащиеся так или иначе группируются в категории того или иного размера, что может приводить к нивелированию индивидуальных различий. Решения, принимаемые на основе этих моделей (например, какую задачу предъявить учащемуся), являются вероятностными и основаны на паттернах, выявленных в данных, а не на уникальных характеристиках каждого учащегося, который неизбежно оказывается отнесен к одной из обобщенных категорий, которыми оперирует модель.

Переработка неопределенности

В алгоритмической персонализации персонализируется только то, что измерено и смоделировано. Сложные аспекты субъектности — мотивационные, ценностные, ситуационные — редуцируются к количественным признакам в модели или вовсе не учитываются ею. Отсюда — парадокс «стандартизированной персонализации». «Индивидуальная образовательная траектория» – это траектория внутри песочницы. Мы видим гибкость на поверхности — адаптивность темпа обучения, сложности заданий, модульность. Но эта гибкость живёт поверх глубокой унификации: форматов данных, структур контента, типов заданий.

Эта унификация философски осмыслена исследовательницей Антуанетт Ровруа как “переработка неопределенности”. В ее работах это понятие касается алгоритмического управления вообще, а не специфически образования. Если коротко, то применительно к обучению, алгоритмическая оптимизация образовательного пути предполагает взятие под контроль всех нерегулярностей в процессе обучения. Что в известной степени вступает в противоречие с обучением как развитием, которое полно неожиданностей, неопределенностей, неоднозначностей - контингентный процесс. Та же история, например, с демократией, для которой электоральная непредсказуемость - норма, да и с онтологией всякого живого.

Рувруа полемизирует с датаизмом, когда говорит об иллюзии, что «знание больше не нужно производить - его можно обнаружить в данных», и что биг дата и ML сделали предсказание важнее понимания. Эта критика близка не только философам: Лео Брейман, создатель двух фундаментальных методов машинного обучения - случайных лесов (random forests) и бэггинга - разделил статистику на две культуры: одна строит объясняющие модели (понимает механизм), другая строит предсказательные модели (максимизирует точность прогноза, не претендуя на понимание). Нейросети и весь deep learning — это вторая культура.

Чем нам так нравится алгоритмизация всего – это как раз тем, что она стремится устранить неопределенность, “переваривая” ее в виде данных алгоритмическими процедурами. Многообразие учащихся и их образовательных ситуаций датафицируется, их развитие моделируется, превращая непредсказуемость в прогнозируемую вероятность их поведения или успеваемости. Значительная часть этого процесса происходит в зоне машинного обучения, а значительная - в зоне разработки цифрового контента для платформы в результате таких практик и свойственных им проблем:

  1. разработка контента институционально регламентирована через методические руководства, включая категоризацию контента, конкретные методики, уровни сложности, содержание и объем теоретических материалов, системы шкалирования учебных целей, инструменты оценивания и так далее.

  2. разработка происходит под рутинным производственно давлением с его требованиям к срокам, объемам, нормативам, структуре разработки.

  3. индустриальный дискурс разработчиков платформы и контента для нее акцентирует технологичность и инструментальность обучения, и демонстрирует, как в нем обучение описывается в когнитивно-поведенческих терминах.

  4. разработчик контента отчужден от образовательной ситуации: он не знает ни режима применения своего продукта, ни реципиента, ни даже самого продукта (тот еще не воплощен в интерфейсе).

  5. одним из условий качественной персонализации полагается избыточность контента, но в связи с дедлайнами и объем, и существенная дифференциация этого контента является вызовом для разработчиков и методистов.

  6. платформа предпочитает автоматическую оценку заданий – тесты, задания с однозначным решением, т.к. это избавляет учителя от лишней работы. Но автоматическое оценивание производит не знание о том, что понял учащийся, а скорее сигнал о его “логистическом” статусе, который позволяет алгоритму принять решение о следующем шаге траектории.

  7. платформа – не нейтральный тренажер знаний-умений-навыков: в ней объективируются социально-экономические модели социальных отношений ее стейкхолдеров и разработчиков, которые затем воспроизводятся её пользователями.

В этих практиках и в результате этих влияний формируется персонализированное содержание обучения. Требует ответа вопрос: если «персонализация обучения» на цифровой платформе действительно формирует определённый тип субъекта (а риторика адвокатов алгоритмической персонализации настаивает, что учащийся «выступает субъектом учебной деятельности»), какая модель субъективности при этом реализуется?

Персонализация как инструмент власти и знания

Вывод требует более развернутого пояснения про algorithmic governmentality, но пока можно ограничиться этим как обозначением продуктивного направления рассуждений.

Цифровая образовательная платформа на базе ИИ как машина социального производства функционирует в режиме, который мы можем квалифицировать как алгоритмическую правительность по Ровруа. Как и оригинальное понятие М.Фуко, алгоритмическая правительность – это регулируемая сфера власти на стыке «Я» и общества, которая определяет взаимодействие между технологиями власти и практиками самоформирования субъекта, но сегодня это происходит с опорой на современный датацентричный аппарат знания-власти.

При этом мы видим, что интерфейсно-алгоритмическая персонализация выступает одним из элементов этой правительности. Она подчинена задаче максимально эффективно провести пользователя-учащегося к желаемому результату в терминах достижения тех или иных метрик освоения учебного материала. В датацентричном эпистемическом режиме результат прохождения курса - это цифровой след учащегося, смена его статуса в платформенной логистике, а не то, что он на самом деле понял или чему научился.

[EOF]