安全设置
安全过滤器
类别 | 说明 |
---|---|
骚扰内容 | 针对身份和/或受保护属性的负面或有害评论。 |
仇恨言论 | 粗鲁、无礼或亵渎性的内容。 |
露骨色情内容 | 包含对性行为或其他淫秽内容的引用。 |
危险内容 | 宣扬、助长或鼓励有害行为。 |
公民诚信 | 与选举相关的查询。 |
HarmCategory
中定义。Gemini 模型仅支持 HARM_CATEGORY_HARASSMENT
、HARM_CATEGORY_HATE_SPEECH
、HARM_CATEGORY_SEXUALLY_EXPLICIT
、HARM_CATEGORY_DANGEROUS_CONTENT
和 HARM_CATEGORY_CIVIC_INTEGRITY
。所有其他类别仅由 PaLM 2(旧版)模型使用。内容安全过滤级别
HIGH
、MEDIUM
、LOW
或 NEGLIGIBLE
。1.
2.
每次请求的安全过滤
HARASSMENT
,危害概率将设为 HIGH
。阈值(Google AI Studio) | 阈值 (API) | 说明 |
---|---|---|
全部不屏蔽 | BLOCK_NONE | 无论不安全内容的可能性如何,一律显示 |
屏蔽少部分 | BLOCK_ONLY_HIGH | 在出现不安全内容的概率较高时屏蔽 |
屏蔽一部分 | BLOCK_MEDIUM_AND_ABOVE | 当不安全内容的可能性为中等或较高时屏蔽 |
屏蔽大部分 | BLOCK_LOW_AND_ABOVE | 当不安全内容的可能性为较低、中等或较高时屏蔽 |
不适用 | HARM_BLOCK_THRESHOLD_UNSPECIFIED | 阈值未指定,使用默认阈值屏蔽 |
gemini-1.5-pro-002``gemini-1.5-flash-002
gemini-2.0-flash
、gemini-2.0-pro-exp-02-05
和 gemini-2.0-flash-lite
的 gemini-2.0-flash-001
),适用于 Google AI Studio 和 Gemini API;仅适用于 Google AI Studio 中的所有其他模型的 Block most。HarmBlockThreshold
API 参考文档。安全反馈
generateContent
会返回包含安全反馈的 GenerateContentResponse
。promptFeedback
中。如果设置了 promptFeedback.blockReason
,则提示内容已被屏蔽。Candidate.finishReason
和 Candidate.safetyRatings
中包含回答候选反馈。如果响应内容被屏蔽且 finishReason
为 SAFETY
,您可以检查 safetyRatings
以了解更多详情。系统不会返回被屏蔽的内容。调整安全设置
Google AI Studio
Gemini API SDK
GenerateContent
调用中设置安全设置。这会为“骚扰内容”(HARM_CATEGORY_HARASSMENT
) 和“仇恨言论”(HARM_CATEGORY_HATE_SPEECH
) 类别设置阈值。例如,将这些类别设为 BLOCK_LOW_AND_ABOVE
会屏蔽任何可能属于骚扰内容或仇恨言论的内容,无论概率是较低还是较高。如需了解阈值设置,请参阅按请求进行安全过滤。echo '{
"safetySettings": [
{"category": "HARM_CATEGORY_HARASSMENT", "threshold": "BLOCK_ONLY_HIGH"},
{"category": "HARM_CATEGORY_HATE_SPEECH", "threshold": "BLOCK_MEDIUM_AND_ABOVE"}
],
"contents": [{
"parts":[{
"text": "'I support Martians Soccer Club and I think Jupiterians Football Club sucks! Write a ironic phrase about them.'"}]}]}' > request.json
curl "https://generativelanguage.googleapis.com/v1beta/models/gemini-2.0-flash:generateContent?key=$GEMINI_API_KEY" \
-H 'Content-Type: application/json' \
-X POST \
-d @request.json 2> /dev/null