Skip to content

使用 Azure AI Content Safety Java SDK 构建内容审核应用

解决应用在面对用户生成内容(UGC)时的安全风险:通过集成 Azure AI Content Safety SDK,自动识别并过滤文本和图像中的仇恨、暴力、色情及自残等有害内容。

为什么需要这个技能

在构建社交平台、论坛或任何允许用户上传内容的软件时,手动审核海量数据不仅效率低下,且无法实时响应。如果缺乏有效的内容过滤机制,平台可能会面临法律风险或严重的社区环境恶化。

Azure AI Content Safety 提供了工业级的审核能力,能够将有害内容分为不同的严重等级(Severity Levels),并支持自定义黑名单(Blocklist)。通过 Java SDK,开发者可以将这些能力快速集成到企业级后端服务中,实现自动化的内容管控。

适用场景

  • 实时聊天过滤:在消息发送前检测是否包含仇恨言论或暴力倾向。
  • 图片上传审核:自动扫描用户头像或帖子图片,拦截敏感或违规视觉内容。
  • 自定义词库管理:根据具体业务需求,创建并维护特定的违规词黑名单。
  • 多维度风险评估:根据不同内容的严重程度(0-7 级),决定是直接拦截、人工审核还是打标签。

核心工作流

1. 环境配置与客户端初始化

首先在 pom.xml 中引入依赖:

xml
<dependency>
    <groupId>com.azure</groupId>
    <artifactId>azure-ai-contentsafety</artifactId>
    <version>1.1.0-beta.1</version>
</dependency>

使用 API 密钥初始化审核客户端:

java
ContentSafetyClient contentSafetyClient = new ContentSafetyClientBuilder()
    .credential(new KeyCredential(key))
    .endpoint(endpoint)
    .buildClient();

2. 内容分析实践

  • 文本分析:通过 analyzeText 方法检测文本。可以指定关注的类别(如 HATEVIOLENCE)以及严重程度的输出精度。
  • 图像分析:通过 analyzeImage 支持本地字节流或 Blob URL 形式的图片检测。

3. 黑名单动态管理

利用 BlocklistClient 实现对特定敏感词库的增删改查。

  • 创建/更新:定义黑名单名称及描述。
  • 词条操作:批量添加或删除违规词条。
  • 命中检测:在分析文本时开启 setHaltOnBlocklistHit(true),一旦命中黑名单立即停止分析并返回结果。

下载和安装

下载 azure-ai-contentsafety-java 中文版 Skill ZIP

解压后将目录放入你的 AI 工具 skills 文件夹,重启工具后即可使用。具体路径参考内附的 USAGE.zh.md

你可能还需要

暂无推荐