Azure AI Content Safety とは
Azure AI Content Safety は、Microsoft Azure の AI 機能を活用し、ユーザーが生成するテキストや画像などのコンテンツ(UGC)を自動的に検査・分析するツールです。これにより、テキスト、画像、動画などの多様なコンテンツをリアルタイムで分析し、有害なリスクを特定して問題のあるコンテンツを自動的にフィルタリングすることが可能です。
当初、Azure AI Content Safety は、Azure OpenAI Serviceと連携して生成された AI コンテンツの安全性を確保する目的で導入されましたが、現在では独立したシステムとして機能しています。これにより、Azure OpenAI Service だけでなく、オープンソースの AI モデルや他社製の AI モデルから生成されたコンテンツ、さらにはユーザーが作成したコンテンツも監視対象にすることが可能となり、有用性がさらに広がっています。
このサービスは、プラットフォームの品質維持、法的準拠、およびユーザーの安全確保を目的として提供されます。
さらに、API を通じて利用できるだけでなく、Content Safety Studioという Web ベースのインターフェースを使用して、簡単にコンテンツ検知やテストを実行することもできます。これにより、プログラミングの知識がなくても手軽に設定やテストを行うことが可能です。

Azure Content Safety イメージ画像
Azure AI Content Safety の機能
Azure AI Content Safety は、AI と機械学習技術を駆使して、コンテンツの安全性を確保するための高度な機能を複数備えています。
現在、Content Safety Studio は英語で提供されていますが、日本語のコンテンツも検知にも対応しています。また、プレビュー版として Azure AI Studio から Content Safety のサービスが提供されています(2024 年 10 月時点)。こちらは日本語で操作することも可能です。
※Content Safety API を利用するにはリージョンにより使える機能に差があります。最新情報はこちらからご確認ください。
※提供されるサンプルコンテンツには暴力的な言葉や不快な表示が含まれている場合がありますのでご注意ください。
機能の詳細
プロンプト シールド

概要: ユーザーの入力が AI モデルに対する攻撃(プロンプトインジェクション)でないかをチェックし、AI モデルを守ります。
利用方法: Content Safety Studio でプロンプト シールド使って、入力データをスキャンし、リスクを特定できます。
グラウンデッドネス検出 (東日本リージョンでは 2024 年 10 月時点でサポートされていません)
概要: AI が生成した応答が、信頼できるソースに基づいているかを確認します。
利用方法: Content Safety Studio でテキスト生成の正確性や信頼性を確認するために利用します。
保護対象テキストの検出
概要: 著作権保護されたコンテンツ(歌詞、記事、レシピなど)が生成されたテキストに含まれていないかを検出します。
利用方法: Content Safety Studio で生成されたテキストをスキャンし、著作権侵害のリスクを軽減できます。
カスタムカテゴリ(東日本リージョンでは 2024 年 10 月時点でサポートされていません)
概要: カスタムルールを設定して、有害なコンテンツパターンを独自に定義し、特定のコンテンツをスキャンします。
利用方法: Content Safety Studio で独自のコンテンツフィルタリング基準を設定し、特定のパターンに基づいてスキャンを行います。
テキスト分析
概要: 性的コンテンツ、暴力、憎悪、自傷行為などの不適切なテキストを重大度に応じて分類し、評価します。
利用方法: Content Safety Studio でテキストをスキャンし、特定の基準に基づいて不適切な内容を検出します。
画像分析
概要: 性的コンテンツ、暴力、ヘイトスピーチ、自傷行為などの不適切な画像コンテンツをスキャンし、重大度に応じて分類します。
利用方法: Content Safety Studio を使って画像のモデレーションを行い、ポータル上で結果を確認できます。
また、検知された状況を管理できる機能も提供されています。検知が行われた時間や場所、利用状況などを詳細にモニタリングでき、以下の画像のようにいつ、どこで、どのような検知が行われたかをリアルタイムで確認することが可能です。

モニタリング画面
Azure AI Content Safetyの料金プラン
Azure AI Content Safety は、無料プラン(F0)とスタンダードプラン(S0)が用意されています。
日本リージョンにおける費用の概算は以下の表のとおりです(1 USD = 144.515 JPY、2024 年 10 月時点)。
プラン | 機能 | テキスト解析 | 画像解析 |
|---|---|---|---|
Free (F0) | Prompt Shields, Protected material detection, Groundedness detection | 5,000 件/月 (無料) | 5,000 枚/月 (無料) |
Standard (S0) | Prompt Shields, Protected material detection, Groundedness detection | ¥54.20/1,000 件 | ¥108.39/1,000 枚 |
※為替レートや料金は変動する可能性があります。最新の情報はこちらの公式ページからご確認ください。
東京エレクトロンデバイスは Microsoft のクラウドディストリビューターとして認定されています。
自社での Azure Open AI service のご活用、SaaS への導入など、Azure AI サービス開始にあたっての手続きからご利用時の技術サポートまでご支援いたします。
まずは、東京エレクトロンデバイスまでお気軽にご相談ください。
Azure Open AI Service の利用および料金については以下の記事もご覧ください。
【関連記事】
Azure OpenAI Service とは記事
Azure OpenAI Service の料金解説記事
Azure AI Content Safety の使い方
実際の利用手順をご説明します。手順は、API を利用する方法と、Content Safety Studio(Web ベースのインターフェース)を利用する方法にわかれます。
手順 1: Azure アカウントの作成
まず、Azure AI Content Safety を利用するために、Microsoft Azure のアカウントが必要です。まだアカウントをお持ちでない場合は、アカウントの作成を行ってください。
手順 2: Azure Content Safety リソースの作成
- Azure Portalにログインします。
- 「リソースの作成」 ボタンをクリックします。
- 検索バーで「Content Safety」を入力し、Azure AI Content Safety のリソースを選択します。
- サブスクリプション、リソースグループ、リージョンなどを選択し、リソースを作成します。

コンテンツセーフティの作成画面
- 入力後、確認と作成をクリックし、デプロイを行います。
確認と作成をクリック
手順 3: Content Safety Studio の利用
Content Safety Studioは、Web ベースのツールで、簡単にコンテンツのモデレーションやテストができます。
1.Azure Portal から、先ほど作成した Content Safety リソースにアクセスします。
Content Safety リソースにアクセス
2.Content Safety Studioにアクセスするリンクが表示されるので、クリックしてStudioを起動します。

Azure Content Safety イメージ画像
手順 4: API の利用(開発者向け)
APIを利用する場合、開発者は自身のアプリケーションやシステムに Content Safety 機能を統合できます。
- API キーの取得:
Azure Portal で Content Safety リソースにアクセスし、API キーを取得します。
- API を利用したモデレーション:
- Azure AI Content Safety API を使って、テキストや画像コンテンツを送信し、リアルタイムでモデレーションを実行します。
- API ドキュメントに従い、テキスト分析 APIや画像分析 APIを利用して、コンテンツの分析とフィルタリングを行います。
API エンドポイント例:
- テキストモデレーション:POST '/contentsafety/text:analyze?api-version='
- 画像モデレーション:POST '/contentsafety/image:analyze?api-version='
- リクエストには、API キーとテキストや画像データを含めます。
- 結果の処理
モデレーション結果は API を通じて JSON 形式で返され、検出されたリスクや不適切なコンテンツの詳細を確認できます。
上記の手順で、Azure AI Content Safety の基本的な利用手順が完了します。モデレーションの結果や設定を確認し、コンテンツの安全性を向上させるために活用していきましょう。
エラー時のトラブルシューティング
Content Safety Studio を利用する際に「Your account does not have access to this resource, please contact your resource owner to get access」のようなエラーが出ることがあります。
この場合には、Cognitive Services User の権限を与えてください。
具体的には以下の方法で行うことが可能です。
- 作成した Content Safety のリソースもしくは Azure AI サービス リソースのロール割り当てを選択します。

ロール割り当て
2.現在のロール割り当てを確認し、Cognitive Services User の権限を与えることで利用が可能となります。

現在のロール割り当ての確認
まとめ
Azure AI Content Safety は、企業やプラットフォームがユーザー生成コンテンツ(UGC)のリスクを管理し、法的準拠やコンテンツの健全性を確保するための強力なツールです。リアルタイム分析やカスタマイズ可能なフィルタリング機能を通じて、コンテンツの品質を維持し、プラットフォーム全体の安全性を高めることができます。さらに、Content Safety Studio の利用により、プログラミングの知識がなくても簡単に運用でき、開発者向けには API を活用した柔軟な統合オプションも提供されている点が大きな魅力です。
Azure AI Content Safety の導入により、企業は法的要件への対応やプライバシー保護を強化し、ユーザーに安心して利用できるプラットフォームを提供することが可能となります。今後、コンテンツ管理の自動化と AI 技術の進化により、さらに効率的なコンテンツモデレーションが実現されるでしょう。
Azure 上の AI 活用に関するご相談は東京エレクトロンデバイスまでお気軽にご相談ください。






