
1. AI+人工协同审核机制
AI前置过滤:自2022年12月引入阿瓦隆系统后,B站对评论等内容的审核从全人工转为AI+人工模式。AI会优先检测含有明显敏感词(如“答辩”“ylg”)的评论,若判断违规则直接处理,无需人工介入,显著提升了处理效率。
人工复核争议内容:当AI无法判定或用户选择“其他”举报理由时,内容会转交人工审核,确保复杂违规场景的精准判断。
2. 用户举报驱动的社区自净
用户参与举报:用户可对视频、评论、弹幕、动态等多种内容类型进行举报,形成社区共同监督的机制。例如,举报评论后,系统会自动隐藏该评论(仅对举报者不可见),减少违规内容的即时可见性。
多人举报加速处理:若某内容被多次举报,系统可能直接移除,无需等待审核结果。这种机制有效遏制了高传播性违规内容的扩散。
3. 分层处理与差异化惩罚
内容类型分级:根据举报内容的类型(如私信、视频、评论),系统赋予不同处理权重。例如,私信和视频举报的违规处理优先级高于评论和弹幕,高权重举报更容易触发账号封禁。
动态封禁与限流:对直播弹幕违规者采取弹幕功能封禁(1-7天),严重者永久封号;对视频或动态中的人身攻击内容,可能限流或添加警示标识。
4. 制度性专项治理与政策响应
配合清朗行动:B站定期响应中央网信办的专项整治要求,如2023年“清朗·网络戾气整治”行动中,封禁347个账号并处理1.6万余起违规行为,重点打击人身攻击、引战等内容。
扩大治理范围:除个人用户外,针对企业或组织的侮辱性言论、煽动性行为也纳入治理,例如删除侵犯商誉的稿件或限制传播。
5. 数据化反馈与透明度提升
结果通知机制:无论举报成功或失败,用户均会收到系统通知,增强用户对举报功能的信任感。
申诉与修正渠道:用户可通过客服或申诉入口对误判内容提出异议,例如弹幕被误屏蔽时可提交证据申请恢复。
B站的举报功能通过技术(AI)、用户参与(社区举报)、制度(专项治理)三者的结合,构建了从预防、拦截到惩罚的全流程治理模式。其核心作用在于快速识别并限制违规内容的传播,同时通过差异化处理平衡用户体验与社区规范,最终形成对违规发布行为的威慑效应。