OpenAI最新部署的GPT-4o多模態模型正面臨甜蜜的煩惱。3月28日,公司CEO薩姆·奧特曼在X平臺確認,由于圖像生成請求量呈指數級增長,已啟動臨時速率限制機制。"每生成一張4K精度的圖像,相當于處理500頁文本的算力消耗,"內部工程師透露。
此次升級的突破性在于文本-圖像協同生成能力。測試顯示,GPT-4o可連續執行"生成穿西裝的黑貓→添加VR頭顯→置入賽博朋克場景"這類多層指令,其上下文記憶窗口擴展至128K tokens,遠超Stable Diffusion等單點模型。但中文等非拉丁語系的文字渲染仍是技術洼地,錯誤率比英文高47%。
限速措施背后是殘酷的硬件現實。據半導體行業分析機構Tirias Research測算,?單次GPT-4o圖像生成需調用8塊H100 GPU協同工作,能耗相當于3個美國家庭的日均用電量。這迫使OpenAI做出取舍:優先保障企業級API用戶的服務質量,同時將免費用戶的訪問權限壓縮至每日3次。
值得注意的是,該限制恰逢NVIDIA新一代B100芯片量產延期。這批采用3nm工藝的加速卡原計劃Q2交付,其FP8運算性能較H100提升30%,被視為緩解AI算力荒的關鍵。行業觀察家認為,OpenAI的緊急制動反映了多模態AI商業化的深層矛盾——用戶體驗越流暢,基礎設施承壓越顯著。
目前,ChatGPT Plus訂閱用戶仍可無限制使用圖像功能,但響應時間延長至平均12秒。奧特曼強調正在優化模型架構,包括實驗性的動態精度縮放技術,可根據任務復雜度自動調整算力分配。微軟Azure的最新監測數據顯示,OpenAI專用集群的GPU利用率已連續72小時維持在98%的警戒線以上。