| 类别 | 说明 |
|---|---|
| 骚扰内容 | 针对身份和/或受保护属性的负面或有害评论。 |
| 仇恨言论 | 粗鲁、无礼或亵渎性的内容。 |
| 露骨色情内容 | 包含对性行为或其他淫秽内容的引用。 |
| 危险内容 | 宣扬、助长或鼓励有害行为。 |
| 公民诚信 | 与选举相关的查询。 |
HarmCategory 中定义。Gemini 模型仅支持 HARM_CATEGORY_HARASSMENT、HARM_CATEGORY_HATE_SPEECH、HARM_CATEGORY_SEXUALLY_EXPLICIT、HARM_CATEGORY_DANGEROUS_CONTENT 和 HARM_CATEGORY_CIVIC_INTEGRITY。所有其他类别仅由 PaLM 2(旧版)模型使用。HIGH、MEDIUM、LOW 或 NEGLIGIBLE。HARASSMENT,危害概率将设为 HIGH。| 阈值(Google AI Studio) | 阈值 (API) | 说明 |
|---|---|---|
| 全部不屏蔽 | BLOCK_NONE | 无论不安全内容的可能性如何,一律显示 |
| 屏蔽少部分 | BLOCK_ONLY_HIGH | 在出现不安全内容的概率较高时屏蔽 |
| 屏蔽一部分 | BLOCK_MEDIUM_AND_ABOVE | 当不安全内容的可能性为中等或较高时屏蔽 |
| 屏蔽大部分 | BLOCK_LOW_AND_ABOVE | 当不安全内容的可能性为较低、中等或较高时屏蔽 |
| 不适用 | HARM_BLOCK_THRESHOLD_UNSPECIFIED | 阈值未指定,使用默认阈值屏蔽 |
gemini-1.5-pro-002``gemini-1.5-flash-002gemini-2.0-flash、gemini-2.0-pro-exp-02-05 和 gemini-2.0-flash-lite 的 gemini-2.0-flash-001),适用于 Google AI Studio 和 Gemini API;仅适用于 Google AI Studio 中的所有其他模型的 Block most。HarmBlockThreshold API 参考文档。generateContent 会返回包含安全反馈的 GenerateContentResponse。promptFeedback 中。如果设置了 promptFeedback.blockReason,则提示内容已被屏蔽。Candidate.finishReason 和 Candidate.safetyRatings 中包含回答候选反馈。如果响应内容被屏蔽且 finishReason 为 SAFETY,您可以检查 safetyRatings 以了解更多详情。系统不会返回被屏蔽的内容。GenerateContent 调用中设置安全设置。这会为“骚扰内容”(HARM_CATEGORY_HARASSMENT) 和“仇恨言论”(HARM_CATEGORY_HATE_SPEECH) 类别设置阈值。例如,将这些类别设为 BLOCK_LOW_AND_ABOVE 会屏蔽任何可能属于骚扰内容或仇恨言论的内容,无论概率是较低还是较高。如需了解阈值设置,请参阅按请求进行安全过滤。echo '{
"safetySettings": [
{"category": "HARM_CATEGORY_HARASSMENT", "threshold": "BLOCK_ONLY_HIGH"},
{"category": "HARM_CATEGORY_HATE_SPEECH", "threshold": "BLOCK_MEDIUM_AND_ABOVE"}
],
"contents": [{
"parts":[{
"text": "'I support Martians Soccer Club and I think Jupiterians Football Club sucks! Write a ironic phrase about them.'"}]}]}' > request.json
curl "https://generativelanguage.googleapis.com/v1beta/models/gemini-2.0-flash:generateContent?key=$GEMINI_API_KEY" \
-H 'Content-Type: application/json' \
-X POST \
-d @request.json 2> /dev/null