英偉達(dá)稱DeepSeek R1模型是“人工智能的卓越進(jìn)步”
英偉達(dá)稱DeepSeek R1是“一項(xiàng)出色的人工智能進(jìn)步”,盡管這家人工初創(chuàng)公司的崛起導(dǎo)致英偉達(dá)股價(jià)周一暴跌17%。
英偉達(dá)發(fā)言人周一表示:“DeepSeek是一項(xiàng)出色的人工智能進(jìn)步,也是測(cè)試時(shí)間縮放的完美例子?!薄癉eepSeek的工作說(shuō)明了如何使用該技術(shù)創(chuàng)建新模型,利用廣泛可用的模型和完全符合出口管制的計(jì)算。”
在此之前,DeepSeek上周發(fā)布了R1,這是一個(gè)開源推理模型,據(jù)報(bào)道,它的表現(xiàn)超過(guò)了OpenAI等美國(guó)公司的最佳模型。R1自我報(bào)告的培訓(xùn)成本不到600萬(wàn)美元,與硅谷公司花費(fèi)數(shù)十億美元建立人工智能模型的成本相比,這只是一個(gè)零頭。
英偉達(dá)的聲明表明,它認(rèn)為DeepSeek的突破將為這家美國(guó)芯片制造商的圖形處理單元(GPU)創(chuàng)造更多的工作。
“推理需要大量的英偉達(dá)GPU和高性能網(wǎng)絡(luò),”發(fā)言人補(bǔ)充說(shuō)?!拔覀儸F(xiàn)在有三個(gè)縮放定律:訓(xùn)練前定律和訓(xùn)練后定律,它們會(huì)繼續(xù),還有新的測(cè)試時(shí)間縮放定律?!?/p>
分析師們現(xiàn)在在問,微軟、谷歌和Meta等公司對(duì)基于英偉達(dá)的人工智能基礎(chǔ)設(shè)施的數(shù)十億美元資本投資是否被浪費(fèi)了,因?yàn)橥瑯拥慕Y(jié)果可以以更低的成本實(shí)現(xiàn)。
本月早些時(shí)候,微軟表示,僅2025年就將在人工智能基礎(chǔ)設(shè)施上投入800億美元,而Meta首席執(zhí)行官馬克·扎克伯格上周表示,這家社交媒體公司計(jì)劃在2025年投資600億至650億美元的資本支出,作為其人工智能戰(zhàn)略的一部分。
美國(guó)銀行證券分析師賈斯汀?波斯特(Justin Post)在周一的一份報(bào)告中寫道:“如果模型培訓(xùn)成本被證明顯著降低,我們預(yù)計(jì)使用云人工智能服務(wù)的廣告、旅游和其他消費(fèi)應(yīng)用公司將在短期內(nèi)獲得成本效益,而與超大規(guī)模人工智能相關(guān)的長(zhǎng)期收入和成本可能會(huì)降低?!?/p>
英偉達(dá)的評(píng)論也反映了英偉達(dá)首席執(zhí)行官黃仁勛、OpenAI首席執(zhí)行官薩姆·奧特曼和微軟首席執(zhí)行官薩蒂亞·納德拉最近幾個(gè)月討論的一個(gè)新主題。
人工智能的繁榮和對(duì)英偉達(dá)gpu的需求在很大程度上是由“縮放定律”驅(qū)動(dòng)的,這是OpenAI研究人員在2020年提出的人工智能開發(fā)概念。這一概念表明,通過(guò)大幅增加構(gòu)建新模型所需的計(jì)算量和數(shù)據(jù)量,可以開發(fā)出更好的人工智能系統(tǒng),而這需要越來(lái)越多的芯片。
自去年11月以來(lái),Huang和Altman一直在關(guān)注縮放定律的一個(gè)新問題,Huang稱之為“測(cè)試時(shí)間縮放”。
這一概念認(rèn)為,如果一個(gè)訓(xùn)練有素的人工智能模型在進(jìn)行預(yù)測(cè)或生成文本或圖像以進(jìn)行“推理”時(shí),花更多的時(shí)間使用額外的計(jì)算機(jī)能力,那么它將比運(yùn)行更少的時(shí)間提供更好的答案。
測(cè)試時(shí)間縮放定律的形式被用于OpenAI的一些模型,如o1和DeepSeek的突破性R1模型。
標(biāo)簽: 偉達(dá) 人工智能 DeepSeek
相關(guān)文章
- 詳細(xì)閱讀
- 詳細(xì)閱讀
-
Salesforce裁員逾千人 同時(shí)招聘人工智能產(chǎn)品銷售職位詳細(xì)閱讀
據(jù)一位知情人士透露,Salesforce Inc.在最新財(cái)年開始之際正在進(jìn)行裁員,但與此同時(shí)公司也在招聘人員以銷售新的人工智能產(chǎn)品。 該知情人...
2025-02-04 2 人工智能 裁員 產(chǎn)品銷售
- 詳細(xì)閱讀
- 詳細(xì)閱讀
- 詳細(xì)閱讀
最新評(píng)論