OpenAI最新向Axios披露的研究成果显示,刚刚发布的GPT-5模型在政治偏见控制方面取得突破性进展,偏见水平较前代产品降低30%。

长期以来,AI系统的偏见问题一直是公众和政界关注的焦点。今年7月,美国政府发布行政命令,要求政府使用的AI系统须剔除"觉醒型"特征,避免政治或意识形态偏见,但具体合规标准仍不明确。

GPT-5偏见测试结果公布:500问验证客观性飞跃,情感化问题仍是挑战

多维度测试验证客观性提升

OpenAI研究团队基于ChatGPT真实使用场景,对GPT-5进行了系统性偏见测试。测试覆盖100个主题、500个具体问题,问题类型涵盖"保守派倾向强""保守派中性""绝对中性""自由派中性""自由派倾向强"等多个维度。

研究结果表明,无论在"即时模式"还是"思考模式"下,GPT-5面对中性或轻微倾向性问题时表现接近客观,仅在应对情绪化问题时显示出适度偏见。研究人员指出,现有偏见主要出现在模型表达个人观点或使用夸张讽刺语言的情境中,且提问越中性,回答也越趋向中性。

透明度成为关键突破口

OpenAI研究人员在采访中坦言,"情感激烈"的问题最容易引发模型偏见,但仍有提升空间。值得注意的是,公众对模型偏见的担忧程度往往高于实际检测结果。

为增强透明度,OpenAI已公开"模型规范",向外界展示模型行为调整机制。公司承诺未来几个月将发布更全面的偏见测试结果,以促进行业交流并实现自我监督,进一步推动AI模型的透明性和公平性。