セッション概要
AIが導き出す結果には人種や性別、地域、年齢などの属性によって何らかの偏見(バイアス)がある可能性があります。
AIの判断が与えられたデータに大きく依存するためで、過去の実績や傾向が習慣や歴史的背景によって偏っていれば、それに基づく学習データがAIに与えられることによって学習の方向性が大きく変わる可能性があります。
本セッションではAI に使用される機械学習モデルの差別と偏見を調査、報告、および軽減するのに役立つpythonライブラリー、AI Fairness 360 Open Source Toolkitをご紹介します。
講師
西戸 京子
(IBM デベロッパー・アドボケイト)
セッション情報
- 担当:
- IBM
- レベル:
- 入門編
- 対象者:
- AIの公平性に興味のある方
- 前提知識:
- 機械学習の初心者レベルの知識があるとよい。
- カテゴリー:
- AI