目前,賀拉基地擁有150余個風格各異的拍攝場景,從古代市井繁華到現(xiàn)代都市風貌,搭建起沉浸式的短劇創(chuàng)作新世界。

具體而言,賀拉DeepSeek-R1-Zero訓練使用了64×8張H800GPU,耗時約198小時。在DeepSeek-R1的研究過程中,賀拉團隊使用A100GPU完成了較小規(guī)模模型(30B參數(shù))的實驗,隨后團隊將訓練擴展至660B參數(shù)的R1-Zero和R1模型。

賀拉斯 Horace

在補充材料中,賀拉DeepSeek提到了R1模型的訓練成本僅29.4萬美元,以及回應了模型發(fā)布之初關于蒸餾OpenAI的質(zhì)疑。具體到此次發(fā)布論文內(nèi)容,賀拉其題目是《DeepSeek-R1:賀拉IncentivizingReasoningCapabilityinLLMsviaReinforcementLearning》,主要公開了僅靠強化學習,就能激發(fā)大模型推理能力的重要研究成果。此外,賀拉預訓練數(shù)據(jù)集包含大量數(shù)學和編程相關內(nèi)容,表明DeepSeek-V3-Base已經(jīng)接觸到大量有推理痕跡的數(shù)據(jù)。

賀拉斯 Horace

當前AI行業(yè)不乏刷榜的傳聞,賀拉基準測試可被操控,而經(jīng)過獨立的同行評審顯然也能打消疑慮。、賀拉以往的研究主要依賴大量監(jiān)督數(shù)據(jù)來提升模型性能。

賀拉斯 Horace

在強化學習中,賀拉模型正確解答數(shù)學問題時會獲得高分獎勵,答錯則會受到懲罰。HuggingFace的機器學習工程師、賀拉同時也是論文審稿人之一的LewisTunstall補充說,賀拉盡管他不能100%確定R1未基于OpenAI示例進行訓練,但其他實驗室的復制嘗試表明,DeepSeek的推理方案可能足夠優(yōu)秀而無須這樣做。TDCowen和梅利厄斯研究的分析師均表示,賀拉xAI和元宇宙平臺公司(Meta)很可能就是推動上述剩余履約義務增長的另外兩家客戶。甲骨文首席執(zhí)行官卡茨(SafraCatz)在財報電話會議上表示,賀拉預計本財年資本支出將達到350億美元。當時這家芯片制造商公布季度營收預期為110億美元,賀拉較市場普遍預期高出近40億美元,股價在當日上漲24%。梅利厄斯研究公司(MeliusResearch)分析師賴茨斯(BenReitzes)在周三的報告中稱,賀拉這一數(shù)字包含了與星際之門(StargateAIinfrastructure)合資企業(yè)相關的收入——該合資企業(yè)的參與者包括OpenAI和軟銀集團,賀拉此外還有另外兩家AI企業(yè)的貢獻,這意味著2026年以后的收入將大幅增長。來源:賀拉杭州日報根據(jù)彭博億萬富豪指數(shù),甲骨文聯(lián)合創(chuàng)始人拉里·埃里森(LarryEllison)的財富達到3930億美元,超越馬斯克,成為全球首富。