按照官方的設(shè)想和規(guī)劃未來在Aleo上每天的交易量都是上億美金的規(guī)模,在這樣大數(shù)據(jù)量的要求下,每時(shí)每刻都有證明需要被委托出去在極短的時(shí)間內(nèi)完成證明的生產(chǎn),不可能指望顯卡能解決這個(gè)問題。就像AI大模型訓(xùn)練一樣,早期數(shù)據(jù)量和參數(shù)少的情況下可以用消費(fèi)級顯卡,但是現(xiàn)在更多的都是為AI訓(xùn)練設(shè)計(jì)的專用芯片和機(jī)器。
在分析之前,我們先看一下ASIC(Application Specific Integrated Circuit),中文全稱是“專用集成電路”。這里特別強(qiáng)調(diào)“專用”,“專用”意味著針對單一項(xiàng)目來說會更加有競爭力。相對比,GPU(顯卡)是通用計(jì)算處理芯片,所以在單一項(xiàng)目上來說“專用”肯定比“通用”更有競爭力。
為了打破英偉達(dá)一家獨(dú)大的局面,前任全球芯片老大英特爾和多年老對手AMD對標(biāo)CUDA都分別推出了OneAPI和ROCm,Linux基金會更是聯(lián)合英特爾、谷歌、高通、ARM、三星等公司聯(lián)合成立了民間號稱“反CUDA聯(lián)盟”的UXL基金會,以開發(fā)全新的開源軟件套件,讓AI開發(fā)者能夠在基金會成員的任何芯片上進(jìn)行編程,試圖讓其取代CUDA,成為AI開發(fā)者的開發(fā)平臺。
早在2021年,英偉達(dá)就曾公開表示過“禁止使用轉(zhuǎn)換層在其他硬件平臺上運(yùn)行基于CUDA的軟件”,2024年3月,英偉達(dá)更是將其升級為“CUDA禁令”,直接添加在了CUDA的終用戶許可協(xié)議中,已禁止用轉(zhuǎn)譯層在其他GPU上運(yùn)行CUDA軟件