財經中心/廖珪如報導

OpenAI 近日遭用戶指控,在未事前告知的情況下,將 ChatGPT 對話請求自動路由至兩款未公開模型,觸發全球用戶對付費權益與模型透明度的質疑。多名開發者指出,包含 GPT-4、GPT-5 在內的付費模型,可能在內容涉及敏感、情感或潛在違規資訊時,被系統自動轉向名為 gpt-5-chat-safety 與 gpt-5-a-t-mini 的模型。這兩款模型未出現在官方文件中,據稱運算能力較低、對內容審查敏感度更高。
AIPRM 首席工程師 Tibor Blaho 表示,這項變更發生於未通知用戶的情況下,「即便是付費方案,也可能在特定情境中被替換成不同模型。」他形容,這等同於「購買特定商品卻被換成替代品」,引發用戶對商業透明度的疑慮。OpenAI 副總裁兼 ChatGPT 應用主管 Nick Turley 回應,該公司近期啟動一項「安全路由系統(Safety Routing System)」測試,目的是在對話包含情感或高風險內容時,自動轉換至更謹慎的生成模型。他強調,這屬於臨時性測試,並不影響用戶所選模型的主要運作。
根據 TechCrunch 與 TechRadar 報導,OpenAI 近月已推出路由架構,允許系統根據對話上下文自動分配不同模型運行。公司在說明文件《Why you may see ‘Used GPT-5’ in ChatGPT》中指出,「路由」發生於單一訊息層級,用戶介面仍會顯示原本所選模型名稱。
然而,多數用戶認為此舉降低了模型使用透明度。部分付費會員表示,他們升級至 GPT-5 是為了確保可持續使用高算力版本,而非在未知情況下被替換。市場觀察者指出,若「低算力模型」確實存在且影響效能,OpenAI 可能需面對監管與信任層面的挑戰。截至目前,OpenAI 並未公開 gpt-5-chat-safety 與 gpt-5-a-t-mini 的技術文件,也未明確說明其與主模型之間的差異。公司僅表示,安全路由仍處於測試階段,後續將根據回饋調整機制。
此次事件引發外界對大型語言模型運作透明度的更廣泛討論。分析人士指出,生成式 AI 廠商在提升安全與合規控制的同時,需同時處理「模型自主」與「用戶選擇權」之間的張力。隨著市場競爭升溫,如何在信任與安全之間取得平衡,將成為產業下一階段的重要課題。