iML: Интерпретируемое машинное обучение
На семинаре поговорили про одно из ключевых понятий проекта НУГ этого года -- интерпретируемое машинное обучение
О машинном обучении сейчас говорят все чаще -- как узнать больше из данных, что мы накапливаем, как автоматизировать рутинные операции, как формулировать точные предсказания. Стремление получить более точные оценки приводит к созданию все более сложных моделей, часто работающих по принципу «черного ящика» и не допускающих интерпретацию взаимосвязей. Методы машинного обучения используются для принятия решений, влияющих на отдельных людей, и как следствие, вызывают много вопросов со стороны как общества, так и исследователей. Можно ли доверять полученной модели? Корректна ли такая модель? Какие факторы наиболее важны? Не получилось ли решение дискриминационным? Что можно сделать, чтобы изменить результат?
Во время семинара обсудили ситуации, когда ответы на эти вопросы наиболее важны, и познакомились с современными методами и подходами, предлагающими хотя бы частичное решение подобных проблем.
Разобрали основные принципы популярных методов, выяснили, чем отличается глобальная интерпретация от локальной, и посмотрели, как они работают на данных про выдачу кредитов.
- глобальная интерпретация
- важность признаков (feature importance)
- ICE-графики, PDP
- локальная интерпретация
- LIME
- SHAP
- контр-примеры
- поддерживающие примеры
Материалы:
- shiny-приложение для экспериментов InterpretableML (ZIP, 408 Кб)
- презентация НУГ-InterpretableML-2020 (PDF, 1.18 Мб)