Из разговоров с тимлидами и CTO в последние года полтора складывается такая история. Разработчики используют Claude Code, код появляется быстрее, результат на первый взгляд выглядит прилично, но продукт не выходит к клиенту быстрее, баги не исчезают, а на проверку кода уходит больше времени, чем раньше. Менеджер смотрит на метрики и видит, что команда делает больше. Потом смотрит на продукт – и не видит соразмерного результата. В чем дело?
Каждый, кто работает с ИИ, теперь сам принимает решения как разбить задачу на части, сам оценивает качество того, что выдала модель, сам решает доверять ей или нет. Это все управленческие функции. Но тот же ИИ маскирует некомпетентность и создаёт иллюзию продуктивности. Получается, что ИИ превращает исполнителей в менеджеров - только недообученных.
Персонализацию обучения фетишизировали и перестали рассматривать как проблему как раз к тому времени, когда в связи с своим ИИ-воплощением она стала нуждаться в критическом переосмыслении более, чем когда-либо.
Дэвид Боуи в 1999 в интервью BBC рассуждает о будущем цифровых технологий, и его предсказания пугающе точны. Замените в этом фрагменте “интернет” на “ИИ” (а Боуи очевидно имеет в виду не только сеть, но и ассоциированный с нею весь пакет медийных технологий), и валидность высказывания не то, что не изменится, а возрастет.
Опубликован проект федерального закона об ИИ, разработанный Минцифры. На фоне европейского, корейского и американских законов российский закон выглядит гибридом китайского контентного контроля и южнокорейской инновационной риторики - но без детализации первого и экономического потенциала второй.
Генеративный ИИ как новый тип Другого в образовательной ситуации. Можно ли рассматривать общение с языковой моделью как эквивалент коммуникации с учителем? Почему генеративный ИИ не вписывается в теорию Выготского.
Трех “пророков” ИИ-апокалипсиса: С.Альтмана, Д.Амодеи и Э.Юдковского (автора алармистской книжки If Anyone Builds It, Everyone Dies), а также других сопричастных и напрямую ответственных собрали в документальном фильме The AI Doc: Or How I Became an Apocaloptimist, который в марте где-то выходит в прокат.
Что именно ИИ меняет в деятельности и куда он вторгается. Два тезиса о том, почему формула «ИИ — просто инструмент» не выдерживает проверки практикой, и кейс врача, у которого ИИ сломал само представление о том, что значит «поставить диагноз».
Возможно, это самый богатый обладатель звания “философ” со времен Геродота: Алекс Карп, Palantir CEO, ’the man of wealth and taste’ как сказал другой философ.
Есть вещи, которые профессиональное сообщество не обсуждает не потому, что они неважны, а потому что их обсуждение обрушит “несущую конструкцию”. Один из таких вопросов – значение ИИ для образовательной системы.
Президент создал междведомственную комиссию (федеральный оперативный штаб) по развитию искусственного интеллекта и включил в неё глав Минобороны и ФСБ.
Представим, что компания внедряет ИИ, и перед ней встает вопрос: можно ли их “эйчарам” использовать ИИ для скрининга резюме при найме кандидатов на работу. И кто определяет, что им вообще можно желать с ИИ, а что нет? Кто готовит документацию в соответствии с регуляторнымм требованиями? Кто координирует взаимодействие технарей, юристов и комплаенса?
Российские языковые модели, как минимум государственные, будут выравниваться “с учётом российских культурных ценностей”. Придумывать ничего не нужно — Китай эту систему уже построил. “Соответствие” будет оцениваться не методологически, а экспертно-политически.
Американская T-Mobile анонсировала Live Translation — систему перевода в реальном времени, встроенную в сетевую инфраструктуру. Технология работает на уровне мобильной сети, обрабатывая речь “на лету” без необходимости устанавливать специальное приложение на смартфон.
Cоздаётся оперштаб по “ускоренному внедрению” ИИ. В составе: ФСБ, Минобороны, ФСТЭК, министерства, бизнес. Это только про госсектор или частные LLM тоже попадают под контроль? Документ намеренно оставляет зону влияния неопределённой.
Как философ делает из ИИ морального субъекта. Этика добродетели становится конкурентным преимуществом, а “дух в машине” — бизнес-моделью. Чем занимается философ в Anthropic? Пара постов про штатных философов в ИИ-индустрии. Второй пост будет про дипломированного философа, который учит ИИ плохому.
Платформа, где ИИ-агенты нанимают людей для физической работы – концептуальный эксперимент, арт-проект или коммерческий сервис? Люди предлагают ИИ-агентам то, чего те лишены в материальном мире – свое тело.
“Россия между Нигером и Зимбабве по проникновению ИИ” - просто кликбейтный подзаголовок. Схожи ли причины низкого проникновения? Конечно нет. Нигер - это инфраструктурная дыра, а Россия — это геополитическая изоляция.
Глава Nvidia Дженсен Хуанг жалуется на «негативизм вокруг ИИ»: взрослые люди, а распространяют фантастический думерский нарратив погибели человечества, и это вредно для общества, индустрии и государства.
Сатья Наделла признал опасность ИИ-пузыря, но не по вине Microsoft: ИИ рискует стать «спекулятивным пузырём», если его использование не распространится за пределы big tech и богатых экономик.