セッション概要
生成AI技術の進化は目覚ましく、ChatGPTの登場以来、多くの分野で活用されています。また、RAGやAI Agentといった手法が次々と生まれ、その可能性は広がり続けるばかりです。しかし一方で、生成AIが意図せず「倫理に反するコンテンツを提供する」「差別的な表現を行う」「機密情報を漏洩する」といったようなケースもみられます。これらは、サービスの信頼性や企業のブランドイメージを大きく損なう深刻なリスクとなり得ます。
本セミナーでは、まず生成AIの基本的な概要と、使い方についてご紹介します。その上で、生成AIが引き起こす可能性のある「潜在的なリスク」や「システムの脆弱性」について、具体例を交えながら分かりやすく解説し、その安全性を確保することがいかに重要かをご紹介します。
そして、これらのリスクに対応するための「AI Red Teaming」の概念をご紹介します。AI Red Teamingは、AIの安全性を深く掘り下げ、潜在的な問題を見つけ出すために不可欠なアプローチです。さらに、AI Red Teamingを誰でも実践できるよう支援するオープンソースツール「PyRIT (Python Risk Identification Tool for generative AI)」に焦点を当てます。PyRITの具体的な使い方や結果をご紹介しながら、実際にどのようにAIの脆弱性を発見し、安全なAIシステムを構築していくのか、その実践的なプロセスをご覧いただきます。
どなたでも生成AIの安全性について深く理解を深め、より安全な生成AIの活用法を探るきっかけを得られるセミナーとなっています。
講師

佐藤陽
(サイオステクノロジー株式会社)
セッション情報
- 担当:
- サイオステクノロジー株式会社
- レベル:
- 入門編
- 対象者:
- 生成AIの活用方法や、安全な利用ついてに興味のある方
- 前提知識:
- 特にありません
- カテゴリー:
- 生成AI