
Разбираем этические вопросы использования искусственного интеллекта в школах Казахстана: конфиденциальность данных, прозрачность и человеческий контроль.
Когда школа внедряет AI-платформу, она одновременно принимает десятки решений, которые затрагивают этику. Какие данные об учениках собирает платформа? Кто имеет к ним доступ? Как AI принимает решения -- например, когда рекомендует ученику упрощённое задание? Может ли учитель не согласиться с рекомендацией AI? Знают ли родители, что их ребёнок взаимодействует с искусственным интеллектом?
Эти вопросы не абстрактны. Они возникают в каждой школе, которая использует или планирует использовать AI-инструменты. И ответы на них определяют, станет ли AI помощником или источником проблем.
В Казахстане пока нет специального закона об AI в образовании, но есть Закон о персональных данных и Закон об образовании, которые устанавливают рамки. В этой статье мы разберём ключевые этические вопросы и дадим практические рекомендации для директоров и учителей.

Типичная AI-платформа для образования собирает следующие данные:
Этичная AI-платформа не собирает:
Перед внедрением любой AI-платформы запросите у поставщика полный перечень собираемых данных и политику их хранения. Данные должны храниться на серверах, соответствующих законодательству Казахстана, и не должны передаваться третьим лицам без согласия школы.

Когда AI рекомендует ученику определённый уровень сложности задания, учитель и ученик имеют право знать, почему. Если AI -- это «чёрный ящик», который выдаёт решения без объяснений, возникает риск несправедливости.
Пример: AI определил, что ученик Алихан «слабый» и постоянно предлагает ему упрощённые задания. Но Алихан отстаёт не потому, что не способен, а потому, что болел две недели и пропустил базовую тему. Без прозрачности учитель не может скорректировать решение AI.
Этичная AI-платформа должна:
Это фундаментальный принцип этичного использования AI в образовании. AI может анализировать данные, выявлять паттерны и предлагать варианты. Но итоговое решение -- всегда за человеком: учителем, директором, родителем.
Конкретные примеры:
Обратная сторона удобства AI -- риск того, что учителя начнут слепо доверять его рекомендациям. «AI сказал -- значит, правильно». Это опасно, потому что AI работает с данными, а не с контекстом. Он не знает, что ученик переживает развод родителей, что в классе был конфликт, что тема была объяснена плохо из-за технических проблем.
Школа должна формировать культуру критического отношения к AI -- и у учителей, и у учеников.

По законодательству Казахстана, обработка персональных данных несовершеннолетних требует согласия родителей или законных представителей. Это означает, что перед внедрением AI-платформы школа обязана:
1. Проинформировать родителей о том, какая платформа используется, какие данные собираются и как они защищены.
2. Получить письменное согласие на обработку данных ребёнка.
3. Предоставить возможность отказа. Если родитель не согласен -- школа должна предложить альтернативный способ обучения.
На практике большинство родителей дают согласие, если им понятно объяснить пользу платформы и гарантировать безопасность данных. Проблемы возникают, когда школа внедряет платформу без информирования.
AI может помогать в оценивании: проверять код на правильность, анализировать ответы, формировать статистику. Но есть границы.
AI может: автоматически проверять тесты с закрытыми вопросами, анализировать код на наличие ошибок, считать метрики (время выполнения, количество попыток).
AI не должен: выставлять итоговые оценки в журнал, принимать решения о переводе ученика в другой класс, формировать характеристики для аттестации.
Итоговое оценивание -- это профессиональная ответственность учителя. AI предоставляет данные, учитель принимает решение.
1. Запросите у поставщика платформы политику конфиденциальности и перечень собираемых данных.
2. Убедитесь, что данные хранятся в соответствии с законодательством Казахстана.
3. Проверьте, что AI-рекомендации прозрачны и могут быть переопределены учителем.
4. Получите информированное согласие родителей до начала использования платформы.
5. Проведите обучение учителей по этичному использованию AI.
6. Установите правило: AI рекомендует, человек решает.
7. Ежегодно пересматривайте политику использования AI с учётом обновлений законодательства.
Этика AI в школе -- это не философский вопрос, а практическая задача, которую нужно решить до внедрения, а не после. Школа, которая с самого начала выстраивает прозрачную, этичную систему использования AI, получает доверие родителей, защиту от рисков и устойчивую базу для развития. AI -- мощный инструмент, но только в руках ответственного человека.
Подключите школу к пилоту. Генерируйте КМЖ за 2 минуты, ведите CodeStudio уроки, заказывайте оборудование — всё в одном месте.