當前位置:首頁 > GPU
  • GPU和FPGA有何關係?談一談GPU和FPGA

    GPU和FPGA有何關係?談一談GPU和FPGA

    GPU是圖形處理器,GPU在很多方面都有所應用,如手機、電腦等。前兩篇文章中,小編對GPU和顯卡的關係、GPU渲染等均有所介紹。為增進大家對GPU的認識,本文將對GPU和FPGA予以闡述,因為目前有很多人將二者進行對比。如果你對GPU具有興趣,不妨繼續往下閲讀哦。 從峯值性能來説,GPU(10Tflops)遠遠高於FPGA(<1TFlops)。GPU上面成千上萬個core同時跑在GHz的頻率上還是非常壯觀的,最新的GPU峯值性能可達10TFlops以上。GPU的架構經過仔細設計(例如使用深度流水線,reTIming等技巧),在電路實現上是基於標準單元庫而在criTIcal path上可以用手工定製電路,甚至在必要的情形下可以讓半導體fab依據設計需求微調工藝製程,因此可以讓許多core同時跑在非常高的頻率。相對而言,FPGA首先設計資源受到很大的限制,例如GPU如果想多加幾個core只要增加芯片面積就行,但FPGA一旦你型號選定了邏輯資源上限就確定了(浮點運算在FPGA裏會佔用很多資源)。而且,FPGA裏面的邏輯單元是基於SRAM-查找表,其性能會比GPU裏面的標準邏輯單元差好多。最後,FPGA的佈線資源也受限制(有些線必須要繞很遠),不像GPU這樣走ASIC flow可以隨意佈線,這也會限制性能。 除了芯片性能外,GPU相對於FPGA還有一個優勢就是內存接口。GPU的內存接口(傳統的GDDR,最近更是用上了HBM和HBM2)的帶寬遠好於FPGA的傳統DDR接口,而眾所周知服務器端機器學習算法需要頻繁訪問內存。 但是從靈活性來説,FPGA遠好於GPU。FPGA可以根據特定的應用去編程硬件(例如如果應用裏面的加法運算非常多就可以把大量的邏輯資源去實現加法器),但是GPU一旦設計完那就沒法改動了,沒法根據應用去調整硬件資源。目前機器學習大多數適合使用SIMD架構(即只需一條指令可以平行處理大量數據),因此用GPU很適合。但是有些應用是MISD(即單一數據需要用許多條指令平行處理,微軟在2014年ISCApaper裏面就舉了一個MISD用於並行提取feature的例子),這種情況下用FPGA做一個MISD的架構就會比GPU有優勢。不過FPGA的編程對於程序員來説並不容易,所以為了能讓機器學習程序員能方便地使用FPGA往往還需要在FPGA公司提供的編譯器基礎上進行二次開發,這些都是隻有大公司才能做。 FPGA實現的機器學習加速器在架構上可以根據特定應用優化所以比GPU有優勢,但是GPU的運行速度(>1GHz)相比FPGA有優勢(~200MHz)。 所以,對於平均性能,看的就是FPGA加速器架構上的優勢是否能彌補運行速度上的劣勢。如果FPGA上的架構優化可以帶來相比GPU架構兩到三個數量級的優勢,那麼FPGA在平均性能上會好於GPU。例如,百度在HotChips上發佈的paper顯示,GPU的平均性能相比FPGA在矩陣運算等標準batchdataSIMDbench上遠好於FPGA;但是在處理服務器端的少量多次處理請求(即頻繁請求但每次請求的數據量和計算量都不大)的場合下,平均性能會比GPU更好。 功耗方面,雖然GPU的功耗(200W)遠大於FPGA的功耗(10W),但是如果要比較功耗應該比較在執行效率相同時需要的功耗。如果FPGA的架構優化能做到很好以致於一塊FPGA的平均性能能接近一塊GPU,那麼FPGA方案的總功耗遠小於GPU,散熱問題可以大大減輕。反之,如果需要二十塊FPGA才能實現一塊GPU的平均性能,那麼FPGA在功耗方面並沒有優勢。 能效比的比較也是類似,能效指的是完成程序執行消耗的能量,而能量消耗等於功耗乘以程序執行的時間。雖然GPU的功耗遠大於FPGA的功耗,但是如果FPGA執行相同程序需要的時間比GPU長几十倍,那FPGA在能效比上就沒有優勢了;反之如果FPGA上實現的硬件架構優化得很適合特定的機器學習應用,執行算法所需的時間僅僅是GPU的幾倍或甚至於接近GPU,那麼FPGA的能效比就會比GPU強。 以上便是此次小編帶來的“GPU”相關內容,通過本文,希望大家對GPU和FPGA具備一定的瞭解。如果你喜歡本文,不妨持續關注我們網站哦,小編將於後期帶來更多精彩內容。最後,十分感謝大家的閲讀,have a nice day!

    時間:2021-01-05 關鍵詞: GPU 指數 FPGA

  • GPU為何可處圖形工作?GPU和顯卡有何區別?

    GPU為何可處圖形工作?GPU和顯卡有何區別?

    沒有GPU,我們的圖形界面將不復存在,由此可見GPU的重要性。在上篇文章中,小編對GPU渲染有所介紹。為增進大家對GPU的認識,本文將對GPU、CPU、顯卡的區別加以闡述,並講解為何GPU可處理圖形工作。如果你對GPU具有興趣,不妨繼續往下閲讀哦。 一、GPU與CPU GPU 是並行編程模型,和CPU的串行編程模型完全不同,導致很多CPU 上優秀的算法都無法直接映射到GPU 上,並且GPU的結構相當於共享存儲式多處理結構,因此在GPU上設計的並行程序與CPU 上的串行程序具有很大的差異。 GPU主要採用立方環境的材質貼圖、硬體T&L、頂點混合、凹凸的映射貼圖和紋理壓縮、雙重紋理四像素256 位的渲染引擎等重要技術。由於圖形渲染任務具有高度的並行性,因此GPU可以僅僅通過增加並行處理單元和存儲器控制單元便可有效的提高處理能力和存儲器帶寬。 CPU是設計用來處理通用任務,因此具有複雜的控制單元; 而GPU主要用來處理計算性強而邏輯性不強的計算任務,GPU中可利用的處理單元可以更多的作為執行單元。 因此,相較於CPU,GPU在具備大量重複數據集運算和頻繁內存訪問等特點的應用場景中具有無可比擬的優勢。 使用GPU有兩種方式: 一種是開發的應用程序通過通用的圖形庫接口調用GPU設備; 另一種是GPU自身提供API編程接口,應用程序通過GPU提供的API編程接口直接調用GPU設備。 二、GPU 和顯卡的關係 總的來説,顯卡是顯示卡的簡稱,顯卡是由GPU、顯存等等組成的。 GPU是圖形處理器,一般GPU就是焊接在顯卡上的, 大部分情況下,我們所説GPU就等於指顯卡,但是實際情況是GPU是顯示卡的“心臟”,是顯卡的一個核心零部件,核心組成部分。它們是“寄生與被寄生”關係。GPU本身並不能單獨工作,只有配合上附屬電路和接口,才能工作。這時候,它就變成了顯卡。 也就相當於CPU在電腦中的作用,它決定了該顯卡的檔次和大部分性能,現在還沒有出現GPU插在主板上的,因為GPU功耗很高,背面電流過大,還是焊接更為可靠。 三、CPU和GPU區別 CPU和GPU之所以大不相同,是由於其設計目標的不同,它們分別針對了兩種不同的應用場景。CPU需要很強的通用性來處理各種不同的數據類型,同時又要邏輯判斷又會引入大量的分支跳轉和中斷的處理。這些都使得CPU的內部結構異常複雜。而GPU面對的則是類型高度統一的、相互無依賴的大規模數據和不需要被打斷的純淨的計算環境。 於是CPU和GPU就呈現出非常不同的架構(示意圖): 圖片來自nVidia CUDA文檔。其中綠色的是計算單元,橙紅色的是存儲單元,橙黃色的是控制單元。 GPU採用了數量眾多的計算單元和超長的流水線,但只有非常簡單的控制邏輯並省去了Cache。而CPU不僅被Cache佔據了大量空間,而且還有有複雜的控制邏輯和諸多優化電路,相比之下計算能力只是CPU很小的一部分 從上圖可以看出: Cache, local memory: CPU 》 GPU Threads(線程數): GPU 》 CPU Registers: GPU 》 CPU 多寄存器可以支持非常多的Thread,thread需要用到register,thread數目大,register也必須得跟着很大才行。 SIMD Unit(單指令多數據流,以同步方式,在同一時間內執行同一條指令): GPU 》 CPU。 CPU 基於低延時的設計: CPU有強大的ALU(算術運算單元),它可以在很少的時鐘週期內完成算術計算。 當今的CPU可以達到64bit 雙精度。執行雙精度浮點源算的加法和乘法只需要1~3個時鐘週期。 CPU的時鐘週期的頻率是非常高的,達到1.532~3gigahertz(千兆HZ, 10的9次方)。 大的緩存也可以降低延時。保存很多的數據放在緩存裏面,當需要訪問的這些數據,只要在之前訪問過的,如今直接在緩存裏面取即可。 複雜的邏輯控制單元。當程序含有多個分支的時候,它通過提供分支預測的能力來降低延時。 數據轉發。 當一些指令依賴前面的指令結果時,數據轉發的邏輯控制單元決定這些指令在pipeline中的位置並且儘可能快的轉發一個指令的結果給後續的指令。這些動作需要很多的對比電路單元和轉發電路單元。 GPU是基於大的吞吐量設計。GPU的特點是有很多的ALU和很少的cache. 緩存的目的不是保存後面需要訪問的數據的,這點和CPU不同,而是為thread提高服務的。如果有很多線程需要訪問同一個相同的數據,緩存會合並這些訪問,然後再去訪問dram(因為需要訪問的數據保存在dram中而不是cache裏面),獲取數據後cache會轉發這個數據給對應的線程,這個時候是數據轉發的角色。但是由於需要訪問dram,自然會帶來延時的問題。 GPU的控制單元(左邊黃色區域塊)可以把多個的訪問合併成少的訪問。 GPU的雖然有dram延時,卻有非常多的ALU和非常多的thread. 為啦平衡內存延時的問題,我們可以中充分利用多的ALU的特性達到一個非常大的吞吐量的效果。儘可能多的分配多的Threads.通常來看GPU ALU會有非常重的pipeline就是因為這樣。 所以與CPU擅長邏輯控制,串行的運算。和通用類型數據運算不同,GPU擅長的是大規模併發計算,這也正是密碼破解等所需要的。所以GPU除了圖像處理,也越來越多的參與到計算當中來。 GPU的工作大部分就是這樣,計算量大,但沒什麼技術含量,而且要重複很多很多次。就像你有個工作需要算幾億次一百以內加減乘除一樣,最好的辦法就是僱上幾十個小學生一起算,一人算一部分,反正這些計算也沒什麼技術含量,純粹體力活而已。而CPU就像老教授,積分微分都會算,就是工資高,一個老教授資頂二十個小學生,你要是富士康你僱哪個?GPU就是這樣,用很多簡單的計算單元去完成大量的計算任務,純粹的人海戰術。這種策略基於一個前提,就是小學生A和小學生B的工作沒有什麼依賴性,是互相獨立的。很多涉及到大量計算的問題基本都有這種特性,比如你説的破解密碼,挖礦和很多圖形學的計算。這些計算可以分解為多個相同的簡單小任務,每個任務就可以分給一個小學生去做。但還有一些任務涉及到“流”的問題。比如你去相親,雙方看着順眼才能繼續發展。總不能你這邊還沒見面呢,那邊找人把證都給領了。這種比較複雜的問題都是CPU來做的。 以上便是此次小編帶來的“GPU”相關內容,通過本文,希望大家對GPU、CPU和顯卡具備一定的瞭解。如果你喜歡本文,不妨持續關注我們網站哦!

    時間:2021-01-05 關鍵詞: 顯卡 GPU 指數

  • 什麼是GPU渲染?GPU渲染有何優勢?

    什麼是GPU渲染?GPU渲染有何優勢?

    GPU是圖形處理器,在使用手機、電腦的過程中,我們都有與GPU打交道。為增進大家對GPU的認識,本文將對GPU渲染、GPU渲染和CPU渲染的區別以及GPU渲染的優勢予以介紹。如果你對GPU具有興趣,不妨繼續往下閲讀哦。 一、GPU渲染簡介 1、GPU是圖形處理器,啓用GPU渲染加速,就是調用GPU加速圖形的渲染和填充。 2、開啓GPU渲染加速後可以提升圖形加載速度,降低cpu處理器的負擔,使系統運行更加流暢,但是也更加耗電。 GPU與CPU有何不同?兩者之間的不同,體現在他們處理任務的不同方式上。 CPU,即中央處理器,由專為串行任務而優化的幾個核心組成。GPU是由數以千計的更小、更高效的核心組成的大規模並行架構,這些核心專為同時處理多任務而設計。因此,在並行處理特定數據的時候,GPU比CPU高效很多。 二、GPU渲染優勢 在圖形渲染領域,不管是影視動畫、建築表現,還是CG廣告,GPU憑藉其專為圖形加速而設計的架構和計算能力,為用户帶來了一種更加高效的渲染解決方案,即GPU渲染解決方案。GPU渲染具有更快速度、更低成本的優勢,而且GPU加速渲染的可用性也不斷提高,越來越多搭上GPU渲染標籤的高品質作品問世。這些發展趨勢,讓GPU渲染受到了國內外用户的普遍歡迎。 網友評論: ”如果説CPU像是一個工廠的經理,深思熟慮做出艱難的決定。那麼GPU則更像是工廠裏的一整個工人羣,雖然他們不能做同類型的計算,但他們可以毫不費力地即刻處理許許多多的任務”。許多渲染任務是一種重複,這剛好是GPU Brute-force功能的強項。另外,你可以在一台電腦裏裝上若干個GPU,這意味着GPU系統可以快得多。在CG製作過程中,還有一個巨大的優勢:GPU渲染快到可以實時反饋渲染效果,連喝一杯咖啡的時間都不需要就可以快速預覽渲染效果,材質和照明變化盡在眼前。 目前可用的GPU渲染器① Redshift是世界第一款完全基於GPU加速的、有偏差的渲染器,也是現在市場接受度最高的一款GPU渲染器。Redshift採用近似法和插值技術,在樣本相對較少的情況下實現無噪點的渲染結果,並在同等輸出效果下,速度遠超無偏差渲染器。從渲染效果來説,Redshift已經達到了GPU渲染的最高水準,可以渲染輸出電影級品質的圖像。 ② Blender Cycles是採用光線追蹤算法的、可提供超寫實渲染的無偏差渲染引擎。光線追蹤算法的優點是設置參數簡單,結果準確,能大大減少渲染時間。Cycles可以作為Blender的一部分,也可以作為獨立渲染器,這對於大規模集羣渲染和雲服務商來説是一個完美的解決方案。 ③ NVIDIA Iray是一種高度互動而直觀的物理效果渲染技術,可通過模擬真實世界光線與實際材質實現交互設計和創建極複雜的場景,從而生成照片般逼真的影像。不同於傳統的製作渲染器,Iray可產生反映現實世界行為的結果。設計師並不需要具備計算機圖形技術的專家級知識,即可快速取得照片般逼真的結果。 ④ OctaneRender是世界上第一個GPU加速最快、基於物理的無偏差渲染器。這意味着只使用計算機上的顯卡,就可以獲得超快的照片級逼真的渲染結果。Octane的並行計算能力,使得用户花更少的時間就能創造出令人驚歎的作品。 ⑤ V-Ray RT 是Chaos Group交互式渲染引擎,既可以利用CPU又可以GPU硬件加速,並實時追蹤物體、燈光、材料等進行場景變化,自動更新動態着色預覽圖。 ⑥ Indigo Renderer是一款基於物理的全局光渲染器,它可以模擬光線的物理表現來實現接近完美的逼真畫面。通過先進的物理攝像機模型、超真實的材質系統和Metropolis Light Transport對複雜光線環境的模擬,Indigo Renderer可以充分滿足建築和產品可視化方面對逼真度的高標準需求。⑦ LuxRender是一款基於物理的無偏差渲染器。LuxRender以當前最先進的算法為依據,根據物理方程式模擬光的流動,從而產生真實攝影的質量。 Renderbus目前支持Redshift for Maya和Blender Cycles兩種渲染器。集羣中一共部署了超過100張NVIDIA Tesla M40卡,每台服務器帶有兩張M40計算卡,並提供128GB系統內存,而CPU採用雙Xeon E5-2650處理器。歡迎大家來Renderbus體驗暢快淋漓的GPU雲渲染! 關於強制進行GPU渲染,小科普一下: GPU強制渲染就是hwa(hard ware acceleraTIon硬件加速)的一種,能夠得到更好的優化。GPU是圖形渲染器的縮寫,也被通俗的成為“顯卡”,這一點我想大多數的機油都非常的清楚,顯卡性能的高低直接就能夠決定遊戲或者軟件的運行速度,這也就是很多機友為什麼在選購電腦時會更加喜歡買大顯存獨立顯卡的原因,因為這樣的電腦,什麼遊戲都吃的開。 由於GPU處理圖形比cpu好,所以GPU渲染應用的界面會更流暢,同時減輕cpu的負擔,提高軟件和桌面顯示幀數。手機中的GPU和電腦中的GPU的功能是基本一樣的,都是為了對圖形、圖像的處理,強制GPU渲染功能的加入就可以通過GPU對軟件圖形圖像的處理來減輕CPU的負擔,從而使得應用軟件能夠以更快的速度被處理,也就是説能夠提速!不過罈子裏很多的機油會問,長期開啓強制GPU渲染會對手機有什麼影響呢?這個問題是大家普遍關心的,對於普通的玩家來説,強制GPU渲染是一把雙刃劍,有利有弊。 優點:第一是強制GPU加速功能會增加功耗,降低待機時間。 第二是,部分舊程序本身不支持GPU渲染,沒有硬件加速hwa的就會出現崩潰。比較老的程序因為SDK版本低不支持GPU加速,或者開發時默認不開啓GPU渲染,遇上GPU強制渲染就會出現問題。打開“強制進行GPU渲染”後,不支持GPU加速的軟件也強制GPU渲染,這有可能會造成程序無響應、死機等兼容性問題。缺點:第一是強制GPU加速功能會增加功耗,降低待機時間。 第三是,部分舊程序本身不支持GPU渲染,沒有硬件加速hwa的就會出現崩潰。比較老的程序因為SDK版本低不支持GPU加速,或者開發時默認不開啓GPU渲染,遇上GPU強制渲染就會出現問題。打開“強制進行GPU渲染”後,不支持GPU加速的軟件也強制GPU渲染,這有可能會造成程序無響應、死機等兼容性問題。 以上便是此次小編帶來的“GPU”相關內容,通過本文,希望大家對GPU渲染、GPU渲染的優勢具備一定的瞭解。如果你喜歡本文,不妨持續關注我們網站哦,小編將於後期帶來更多精彩內容。最後,十分感謝大家的閲讀,have a nice day!

    時間:2021-01-05 關鍵詞: GPU渲染 GPU 指數

  • 微星尊爵Prestige 14 Evo筆記本GPU測評,遊戲實測!

    微星尊爵Prestige 14 Evo筆記本GPU測評,遊戲實測!

    在這篇文章中,小編將對微星尊爵Prestige 14 Evo筆記本進行GPU性能測評。如果你對微星尊爵Prestige 14 Evo筆記本,或者是對它的實際性能具有興趣,可以繼續往下閲讀哦。 一、微星尊爵Prestige 14 Evo筆記本基本情況介紹 作為一台輕薄本,微星尊爵Prestige 14 Evo筆記本在機身重量和厚度上控制得出彩。微星尊爵Prestige 14 Evo筆記本的“三圍尺寸”為319mm(長)×219mm(寬)×15.9mm(厚),和其他大多數14英寸的筆記本(325mm×216.6mm×16.9mm)相比,該筆記本在機身長度上要短許多,厚度上也更薄。 配置方面,微星尊爵Prestige 14 Evo筆記本搭載了第11代智能英特爾酷睿i7-1185G7處理器,採用10nm製程工藝,4核心8線程,最高加速頻率可達4.80GHz。除此以外,微星尊爵Prestige 14 Evo筆記本還集成目前最強的Intel® Iris® Xe Graphics核顯,擁有96個執行單元,GPU頻率高達1.3GHz。 微星尊爵Prestige 14 Evo筆記本與非Evo認證的Prestige 14相比,它的電池同樣只有52Wh,但配備了一塊功耗僅為1W的高色域屏幕;此外,微星尊爵Prestige 14 Evo筆記本也不再像標準版那樣配備獨立顯卡,更低功耗的的Xe核顯也能提供不錯的圖形性能。 二、微星尊爵Prestige 14 Evo筆記本測評 通過上面對微星尊爵Prestige 14 Evo筆記本的基本介紹,想必大家對這款微星筆記本都已經具備一定的瞭解。下面,小編將對微星尊爵Prestige 14 Evo筆記本進行GPU性能測評,具體測評內容如下。 GPU是圖形處理器,一般GPU就是焊接在顯卡上的,大部分情況下,我們所説GPU就等於指顯卡,但是實際情況是GPU是顯示卡的“心臟”,是顯卡的一個核心零部件,核心組成部分。它們是“寄生與被寄生”關係。GPU本身並不能單獨工作,只有配合上附屬電路和接口,才能工作。這時候,它就變成了顯卡。 微星尊爵Prestige 14 Evo筆記本鋭炬Xe核芯顯卡的GPU頻率為400MHz,Boost頻率為1350MHz。 從上面的3DMark的實測成績可以看出,微星尊爵Prestige 14 Evo筆記本鋭炬Xe核芯顯卡的性能表現着實令人稱讚。 《狙擊精英V2重製版》是一款對配置要求不算高的遊戲。小編將用它來測一測微星尊爵Prestige 14 Evo筆記本的真實遊戲性能。 從《狙擊精英V2重製版》測試結果來看,在1080p分辨率、較高畫質下,微星尊爵Prestige 14 Evo筆記本基本上可以維持在40幀以上的幀率。這麼看來,新一代鋭炬Xe核芯顯卡應對一些對配置需要不算高的遊戲已經沒問題了。 以上便是小編此次帶來的有關微星尊爵Prestige 14 Evo筆記本的全部內容,十分感謝大家的耐心閲讀,想要了解更多相關內容,或者更多精彩內容,請一定關注我們網站哦。

    時間:2020-12-17 關鍵詞: 筆記本 微星 GPU

  • 寧暢AI服務器首次亮相GTC  定製方案釋放GPU全面潛能

    寧暢AI服務器首次亮相GTC 定製方案釋放GPU全面潛能

    12月15日至19日,NVIDA GTC中國以線上形式舉辦。寧暢信息產業(北京)有限公司(以下簡稱“寧暢”)受邀,以黃金贊助商身份首次攜X640 G30等多款AI服務器產品亮相GTC。 圖説:GTC中國線上大會寧暢展區 與會期間,寧暢方面表示伴隨人工智能、雲計算的高速發展,異構計算模式的AI服務器已成為IT行業重要算力支撐,為使GPU等核心部件性能得到充分發揮,寧暢憑藉多年行業積累,通過定製模式滿足用户對極致性能、穩定性等諸多需求。 多維保障GPU潛能全發揮 回顧2020年GPU領域,最重要莫過7nm 製程的NVIDIA A100 Tensor Core GPU發佈,其強大的第三代Tensor Core、第三代NVLink技術,讓大數據模型“推理”與“訓練”效率顯著提升。但要完全釋放這顆業內頂級GPU潛力,則考驗服務器遞四方速遞技術與設計硬實力。 寧暢工程師介紹,充分釋放GPU性能第一步需要保證AI服務器有豐富擴展性。以寧暢AI服務器X640系列為例,在滿配8個NVIDIA A100 /V100 Tensor Core GPU或16個NVIDIA T4 Tensor Core GPU後,X640仍有豐富PCI-E接口用於網絡、存儲和其他IO擴展。 豐富擴展設計,保障了定製化方案的靈活。此外,X640可通過硬件鏈路重新佈局以實現靈活GPU 拓撲結構,並針對不同應用場景和模型進行GPU互聯優化。這將極大便利用户“訓練”大數據模型。 AI服務器散熱也是用户關注重點。為保障全年24小時運行的AI服務器穩定,寧暢散熱團隊先後開發出“一體閉式循環液冷散熱器”以及“分體式開環冷板液冷散熱器”方案,讓用户不懼長時間GPU滿功率運行。 圖説:寧暢閉式/開式液冷散熱方案設計圖示 通過定製化,寧暢液冷散熱方案可滿足GPU產品400-800W範圍的散熱需求,並可根據客户機房設備條件,選擇不同模塊化配套製冷機櫃進行部署,從而解決客户由於液冷適配而進行外圍改造的困擾。能效比方面,定製液冷方案,節省風扇能耗超60%,噪音降幅達50%以上,而成本也可控制在15-20%的提升。 除架構、硬件、散熱等定製優化外,在運維、軟件層面,寧暢可提供BIOS、BMC等諸多監管、運維接口定製。用户只需接上電源、網線,便可將批量的寧暢AI服務器納入到現有的智能管理平台,第一時間讓GPU發揮效能。 滿足企業未來算力需求 除保障已上市GPU產品的性能全面發揮外,寧暢作為NVIDIA重要合作伙伴,可第一時間瞭解NVIDA前沿GPU技術與產品,依託多年來行業經驗與技術積累,寧暢可預研採用新GPU架構並符合用户標準的定製服務器產品。 寧暢介紹,考慮成熟服務器產品的研發週期,通過定製預研模式用户不僅可在新品GPU產發售第一時間,批量獲得基於此定製的AI服務器,還可提前與寧暢一起規劃AI服務器技術路線,滿足企業未來對特定AI場景的算力需求。 如今通過提供定製化服務,寧暢AI服務器已廣泛應用於知名互聯網、雲計算公司,支撐語義識別、圖像分析、機器翻譯、訓練推理等AI場景。在2020年10月,AI基準性能評測平台MLPerf官網顯示,搭載NVIDIA T4 /A100 GPU的寧暢X640 G30 AI服務器,在ResNet、BERT、DLRM等基準測試中更是取得30項性能第一。

    時間:2020-12-16 關鍵詞: IT AI服務器 GPU

  • 中國假日狂歡:由GPU提供支持的直播購物開創在線零售新記錄

    中國假日狂歡:由GPU提供支持的直播購物開創在線零售新記錄

    中國網民正由原先瀏覽靜態產品圖片轉向觀看網紅主持的帶貨直播。在這一背景下,購物成為了一項有趣甚至具有教育意義的集體運動。 由於新冠疫情尚在持續,前往實體商店購物時常會讓人感到恐懼。隨着“直播+”的興起,居家購物的生活方式得到了人們的青睞。 例如,中國最大的電子商務平台,即阿里巴巴旗下的淘寶,截至今年9月30日,淘寶直播12個月的GMV達3500億元人民幣,成為幫助消費者發現新產品和新品牌的最佳途徑。 直播助力“雙十一”銷售額翻倍 今年“雙十一”中國的線上商家利用直播打破了銷售記錄。據報道,“雙十一”預售的第一天,兩位頭部主播薇婭與李佳琦的直播間人數,分別高達 1.3 億和 1.5 億人。 在預售開始後的短短 10 分鐘內,淘寶直播引導的成交量超過去年全天。整個“雙十一”期間,超過 3 億消費者在淘寶上看過直播,直播引導的成交總額比 2019 年“雙十一”翻了一倍。 如此亮眼的“戰績”吸引了更多其他零售商紛紛踏足這一領域,同時激勵着中國的商業領袖們擁抱這一新的商業模式,開始將直播作為增長引擎,帶動在線遊戲、線上教育等各個領域走向繁榮。 有助於直播發展的良好環境 5G、雲計算和AI在中國的廣泛使用,使得直播得以蓬勃發展。現在,這股熱潮又催生了雲渲染、數字人、雲端特效和高質量視頻處理方面的創新。這些技術都基於GPU 在圖形和加速計算方面的能力。 在“直播+”大趨勢下的領軍企業們已紛紛採用NVIDIA 的技術,來為他們的業務發展提供動力。 阿里巴巴旗下淘寶使用NVIDIA GPU 計算平台,為直播和基於AI的推薦系統提供加速,從而為觀眾帶來個性化體驗。 · 快手針對低分辨率短視頻,利用 GPU 做超分辨率處理, 提高視頻分辨率到720p或1080p。 · Bigo Live使用 GPU 提升視頻內容創作和內容理解能力。 · 虎牙通過開發AI數字人業務,為內容創建者創造獨特的用户體驗,其中GPU在AI和渲染技術方面發揮了關鍵作用。 這些公司大多使用 NVIDIA 加速計算來支持其推薦系統,從而以低延遲和較高的每秒查詢率,運行越來越複雜的 AI 模型。這些系統能夠提供個性化體驗,提高用户粘性。 視頻 + 圖形 + AI = GPU NVIDIA 的 GPU 平台可加速和增強直播所需的視頻、圖形和 AI。NVIDIA憑藉全新NVIDIA Ampere 架構、更完善的視頻編解碼器、RT Core核心、Tensor Core核心、統一的 CUDA 架構以及大量 SDK 和軟件工具,為直播各環節提供全面支持。 NVIDIA SDK 可加速視頻分析、圖像處理、語音處理和其他服務等工作負載的處理。例如,NVIDIA Video Codec SDK 已集成到 FFmpeg 等行業標準流程中,可讓開發者能夠在GPU上使用專用的硬件編碼器和解碼器。對於雲原生數據流,NVIDIA Maxine 可帶來新的 AI 功能,包括虛擬背景、超分辨率、噪聲消除、人臉追蹤等。類似的AI效果通過NVIDIA Broadcast Engine也可以在Windows本地機器上使用。 科技助力,錦上添花 對於需要深度學習的領域,NVIDIA TensorRT 提供了一個推理編譯器,可以最大限度地減少延遲並提升吞吐量,由此可以為百萬用户實時提供AI 特效。 NVIDIA Triton推理服務器 可幫助客户在雲端、本地數據中心或邊緣部署由 AI驅動的高性能應用程序。基於NVIDIA RTX構建的NVIDIA CloudXR可通過5G 和 Wi-Fi 網絡,實現虛擬現實和增強現實體驗。 此外,NVIDIA 還針對各種內容創作、質量提升和新興AI 用例提供了大量工具。適用於推薦系統的 NVIDIA Merlin 框架支持 GPU 加速的 ETL (提取、轉換、加載)、訓練和推理,可幫助各公司大規模構建更快的推薦系統。 這些科技因素加速了直播的蓬勃發展,中國的網絡創新者正將直播推向新的高度。

    時間:2020-12-15 關鍵詞: NVIDIA 電子商務 GPU

  • 華碩新款 RTX 3090 Turbo OC顯卡:GPU頻率高於公版

    華碩新款 RTX 3090 Turbo OC顯卡:GPU頻率高於公版

    在這篇文章中,小編將對華碩新款 RTX 3090 Turbo OC顯卡的相關內容和情況加以介紹以幫助大家增進對華碩RTX 3090 Turbo OC顯卡的瞭解程度,和小編一起來閲讀以下內容吧。一、華碩 RTX 3090 Turbo OC顯卡介紹根據外媒TechPowerUp的消息,華碩發佈了新款 RTX 3090 Turbo OC顯卡,採用了渦輪風扇散熱,而且華碩RTX 3090 Turbo OC顯卡只有雙槽厚,和目前市面上的RTX 3090相比體積要小太多,要知道這一代的公版RTX 3090也達到了3槽厚度,重量也是非常的誇張,而非公顯卡據我所知也沒有2槽以內的,突然出現一張渦輪風扇的雙槽卡自然是讓人眼前一亮。華碩稱RTX 3090 Turbo OC顯卡是為 “氣流受限的環境”設計的,2 個插槽厚,雙 8 pin 供電。華碩RTX 3090 Turbo OC顯卡內置了一個 80 毫米的渦輪風扇,配合真空腔均熱板散熱,GPU 的 Boost 頻率為 1725 MHz,相比之下公版的頻率為 1695 MHz。華碩RTX 3090 Turbo OC顯卡的接口包括一個 HDMI 2.1 和三個 DisplayPort 1.4。此外,華碩RTX 3090 系列顯卡共同具備的特點包括(華碩RTX 3090 Turbo OC顯卡同樣包括):1、搭載8nm的NVIDIA Ampere架構性能大幅度提升。2、搭載24G的GDDR6X顯存。3、強力散熱系統,滿載温度僅為64℃,具有超高的散熱效率。4、在專業領域,內容創作方面有出色的表現。5、搭載HDMI2.1接口,支持8K視頻傳輸。二、NVIDIA Ampere架構介紹為增進大家對華碩RTX 3090 Turbo OC顯卡的性能認識,下面小編將對華碩RTX 3090 Turbo OC顯卡採用的NVIDIA Ampere架構予以介紹。NVIDIA Ampere架構延續了NVIDIA這幾年在架構設計上的一貫思路,微觀上在SM單元中延續分精度計算,並加強Tensor Cores這個對深度學習計算非常有用的單元。宏觀上,NVIDIA Ampere架構增大GPU的規模,不僅將整個GPU包含的SM單元數量擴大到128組這個數字,更是把整片GPU上面的緩存系統都放大了,尤其是40MB的二級緩存,讓人印象深刻。華碩RTX 3090 Turbo OC顯卡採用最新的NVIDIA Ampere架構,必然會在性能方面帶來一定程度的提升。此外,NVIDIA Ampere架構可以加速非結構化的稀疏數據和其他可壓縮的數據,使DRAM的讀寫帶寬能夠提升4倍,L2中的讀取帶寬提升4倍,容量提升2倍。同時,針對大容量的L2緩存,NVIDIA Ampere架構為程序員提供了數據駐留控制,允許用户對緩存數據進行管理,可以手動將一些數據保留在L2中,加速持久化的訪問。以上所有內容便是小編此次為大家帶來的所有有關華碩RTX 3090 Turbo OC顯卡的介紹,如果你想了解更多有關華碩RTX 3090 Turbo OC顯卡的內容,不妨在我們網站或者百度、google進行探索哦。

    時間:2020-12-03 關鍵詞: 華碩 顯卡 GPU

  • 你瞭解GPU服務器嗎?GPU服務器有何不同之處?

    你瞭解GPU服務器嗎?GPU服務器有何不同之處?

    眾所周知,GPU是圖形處理器,在很多任務中,GPU佔據着重要作用,如深度學習領域。為增進大家對GPU的瞭解,本文將對GPU服務器加以介紹,並對GPU的工作原理予以探討。如果你對GPU和GPU的相關知識具有興趣,不妨和小編繼續往下閲讀哦。 一、GPU服務器 GPU服務器,簡單來説,GPU服務器是基於GPU的應用於視頻編解碼、深度學習、科學計算等多種場景的快速、穩定、彈性的計算服務,我們提供和標準雲服務器一致的管理方式。出色的圖形處理能力和高性能計算能力提供極致計算性能,有效解放計算壓力,提升產品的計算處理效率與競爭力。 下面幾個場景我們可以使用CPU服務器,如果辦公場景需要建議大家配置GPU服務器,如果場景無關,使用普通的服務器也無妨。上海國經網絡也會根據大家的使用場景給到大家相匹配的服務器類型和配置! 1.簡單深度學習模型,使用GPU 服務器為機器學習提供訓練或者預測,騰訊GPU雲服務器帶有強大的計算能力,可作為深度學習訓練的平台,可直接與外界連接通信。可以使用GPU服務器作為簡單深度學習訓練系統,幫助完成基本的深度學習模型。 2.複雜深度學習模型,騰訊雲GPU服務器具有強大的計算能力,可以將GPU服務器作為深度學習訓練的平台。結合雲服務器 CVM提供的計算服務、對象存儲COS提供的雲存儲服務、雲數據庫MySQL提供的在線數據庫服務、雲監控和大禹提供的安全監控服務,圖片、視頻編解碼,可以採用GPU服務器進行渲染,利用 GPU 加速器指令,讓數以千計的核心為您所用,加快圖形圖像編碼渲染速度。 這些是一些可以用到GPU服務器的場景,所以如果您的使用需要比較高端,建議還是使用GPU服務器。 二、gpu工作原理 簡單的説gpu就是能夠從硬件上支持T&L(Transform and LighTIng,多邊形轉換與光源處理)的顯示芯片,因為T&L是3D渲染中的一個重要部分,其作用是計算多邊形的3D位置和處理動態光線效果,也可以稱為“幾何處理”。一個好的T&L單元,可以提供細緻的3D物體和高級的光線特效;只不過大多數PC中,T&L的大部分運算是交由cpu處理的(這就也就是所謂的軟件T&L),由於cpu的任務繁多,除了T&L之外,還要做內存管理、輸入響應等非3D圖形處理工作,因此在實際運算的時候性能會大打折扣,常常出現顯卡等待cpu數據的情況,其運算速度遠跟不上今天覆雜三維遊戲的要求。即使cpu的工作頻率超過 1GHz或更高,對它的幫助也不大,由於這是PC本身設計造成的問題,與cpu的速度無太大關係。 gpu圖形處理,可以大致分成 5 個步驟,如下圖箭頭的部分。分別為 vertex shader、primiTIve processing、rasterisaTIon、fragment shader、tesTIng and blending。 第一步,vertex shader。是將三維空間中數個(x,y,z)頂點放進 gpu 中。在這一步驟中,電腦會在內部模擬出一個三維空間,並將這些頂點放置在這一空間內部。接着,投影在同一平面上,也是我們將看到的畫面。同時,存下各點距離投影面的垂直距離,以便做後續的處理。 這個過程就像是本地球觀看星星一般。地球的天空,就像是一個投影面,所有的星星,不管遠近皆投影在同一面上。本地球的我們,抬起頭來觀看星星,分不出星星的遠近,只能分辨出亮度。gpu 所投影出的結果,和這個情況類似。 從地球所看到的星空,星星就像是投影到一球面上,除非使用特別的儀器,不然分不出星星和地球的距離 第二步,primitive processing。是將相關的點鏈接在一起,以形成圖形。在一開始輸入數個頂點進入 gpu 時,程序會特別註記哪些點是需要組合在一起,以形成一線或面。就像是看星座的時候一樣,將相關連的星星連起來,形成特定的圖案。 第三步,rasterisation。因為電腦的屏幕是由一個又一個的像素組成,因此,需要將一條連續的直線,使用繪圖的演算法,以方格繪出該直線。圖形也是以此方式,先標出邊線,再用方格填滿整個平面。 第四步,fragment shader。將格點化後的圖形着上顏色。所需着上的顏色也是於輸入時便被註記。在遊玩遊戲時,這一步相當耗費 gpu 的計算資源,因為光影的效果、物體表面材質皆是在這一步進行,這些計算決定着遊戲畫面的精細程度。因此在遊玩遊戲時,調高遊戲畫面品質大幅增加這一步的計算負擔,降低遊戲品質。 將一個三角形,用方格呈現近似原始圖案,並着上顏色。一塊又一塊的方格,就是顯示器上的像素 最後一步,testing and blending。便是將第一步所獲得的投影垂直距離取出,和第四步的結果一同做最後處理。在去除被會被其他較近距離的物體擋住的物體後,讓剩下的圖形放進 gpu 的輸出內存。之後,結果便會被送到電腦屏幕顯示。 以上便是此次小編帶來的“GPU”相關內容,通過本文,希望大家對GPU服務器具備一定的瞭解。如果你喜歡本文,不妨持續關注我們網站哦,小編將於後期帶來更多精彩內容。最後,十分感謝大家的閲讀,have a nice day!

    時間:2020-11-23 關鍵詞: 服務器 GPU 指數

  • GPU和CPU有什麼區別?大佬帶你瞭解GPU的那些事

    GPU和CPU有什麼區別?大佬帶你瞭解GPU的那些事

    對於GPU,大家想必也十分熟悉。但是,大家真的瞭解GPU嗎?譬如,GPU和顯卡是同一個東西嗎?CPU和GPU有什麼區別嗎?在本文中,小編將對這兩個問題加以介紹。如果GPU是您正在瞭解的知識,本文將是很好的入門素材哦,不妨和小編共同往下閲讀吧。 一、GPU 、顯卡關係 總的來説,顯卡是顯示卡的簡稱,顯卡是由GPU、顯存等等組成的。 GPU是圖形處理器,一般GPU就是焊接在顯卡上的, 大部分情況下,我們所説GPU就等於指顯卡,但是實際情況是GPU是顯示卡的“心臟”,是顯卡的一個核心零部件,核心組成部分。它們是“寄生與被寄生”關係。GPU本身並不能單獨工作,只有配合上附屬電路和接口,才能工作。這時候,它就變成了顯卡。 也就相當於CPU在電腦中的作用,它決定了該顯卡的檔次和大部分性能,現在還沒有出現GPU插在主板上的,因為GPU功耗很高,背面電流過大,還是焊接更為可靠。 二、CPU、GPU區別 CPU和GPU之所以大不相同,是由於其設計目標的不同,它們分別針對了兩種不同的應用場景。CPU需要很強的通用性來處理各種不同的數據類型,同時又要邏輯判斷又會引入大量的分支跳轉和中斷的處理。這些都使得CPU的內部結構異常複雜。而GPU面對的則是類型高度統一的、相互無依賴的大規模數據和不需要被打斷的純淨的計算環境。 於是CPU和GPU就呈現出非常不同的架構(示意圖): 圖片來自nVidia CUDA文檔。其中綠色的是計算單元,橙紅色的是存儲單元,橙黃色的是控制單元。 GPU採用了數量眾多的計算單元和超長的流水線,但只有非常簡單的控制邏輯並省去了Cache。而CPU不僅被Cache佔據了大量空間,而且還有有複雜的控制邏輯和諸多優化電路,相比之下計算能力只是CPU很小的一部分。 從上圖可以看出: Cache, local memory: CPU 》 GPU Threads(線程數): GPU 》 CPU Registers: GPU 》 CPU 多寄存器可以支持非常多的Thread,thread需要用到register,thread數目大,register也必須得跟着很大才行。 SIMD Unit(單指令多數據流,以同步方式,在同一時間內執行同一條指令): GPU 》 CPU。 CPU 基於低延時的設計: CPU有強大的ALU(算術運算單元),它可以在很少的時鐘週期內完成算術計算。 當今的CPU可以達到64bit 雙精度。執行雙精度浮點源算的加法和乘法只需要1~3個時鐘週期。 CPU的時鐘週期的頻率是非常高的,達到1.532~3gigahertz(千兆HZ, 10的9次方)。 大的緩存也可以降低延時。保存很多的數據放在緩存裏面,當需要訪問的這些數據,只要在之前訪問過的,如今直接在緩存裏面取即可。 複雜的邏輯控制單元。當程序含有多個分支的時候,它通過提供分支預測的能力來降低延時。 數據轉發。 當一些指令依賴前面的指令結果時,數據轉發的邏輯控制單元決定這些指令在pipeline中的位置並且儘可能快的轉發一個指令的結果給後續的指令。這些動作需要很多的對比電路單元和轉發電路單元。 GPU是基於大的吞吐量設計。GPU的特點是有很多的ALU和很少的cache. 緩存的目的不是保存後面需要訪問的數據的,這點和CPU不同,而是為thread提高服務的。如果有很多線程需要訪問同一個相同的數據,緩存會合並這些訪問,然後再去訪問dram(因為需要訪問的數據保存在dram中而不是cache裏面),獲取數據後cache會轉發這個數據給對應的線程,這個時候是數據轉發的角色。但是由於需要訪問dram,自然會帶來延時的問題。 GPU的控制單元(左邊黃色區域塊)可以把多個的訪問合併成少的訪問。 GPU的雖然有dram延時,卻有非常多的ALU和非常多的thread. 為啦平衡內存延時的問題,我們可以中充分利用多的ALU的特性達到一個非常大的吞吐量的效果。儘可能多的分配多的Threads.通常來看GPU ALU會有非常重的pipeline就是因為這樣。 所以與CPU擅長邏輯控制,串行的運算。和通用類型數據運算不同,GPU擅長的是大規模併發計算,這也正是密碼破解等所需要的。所以GPU除了圖像處理,也越來越多的參與到計算當中來。 GPU的工作大部分就是這樣,計算量大,但沒什麼技術含量,而且要重複很多很多次。就像你有個工作需要算幾億次一百以內加減乘除一樣,最好的辦法就是僱上幾十個小學生一起算,一人算一部分,反正這些計算也沒什麼技術含量,純粹體力活而已。而CPU就像老教授,積分微分都會算,就是工資高,一個老教授資頂二十個小學生,你要是富士康你僱哪個?GPU就是這樣,用很多簡單的計算單元去完成大量的計算任務,純粹的人海戰術。這種策略基於一個前提,就是小學生A和小學生B的工作沒有什麼依賴性,是互相獨立的。很多涉及到大量計算的問題基本都有這種特性,比如你説的破解密碼,挖礦和很多圖形學的計算。這些計算可以分解為多個相同的簡單小任務,每個任務就可以分給一個小學生去做。但還有一些任務涉及到“流”的問題。比如你去相親,雙方看着順眼才能繼續發展。總不能你這邊還沒見面呢,那邊找人把證都給領了。這種比較複雜的問題都是CPU來做的。 總而言之,CPU和GPU因為最初用來處理的任務就不同,所以設計上有不小的區別。而某些任務和GPU最初用來解決的問題比較相似,所以用GPU來算了。GPU的運算速度取決於僱了多少小學生,CPU的運算速度取決於請了多麼厲害的教授。教授處理複雜任務的能力是碾壓小學生的,但是對於沒那麼複雜的任務,還是頂不住人多。當然現在的GPU也能做一些稍微複雜的工作了,相當於升級成初中生高中生的水平。但還需要CPU來把數據喂到嘴邊才能開始幹活,究竟還是靠CPU來管的。 以上便是此次小編帶來的“GPU”相關內容,通過本文,希望大家對GPU和顯卡的關係、GPU和CPU的區別具備一定的瞭解。如果你喜歡本文,不妨持續關注我們網站哦,小編將於後期帶來更多精彩內容。最後,十分感謝大家的閲讀,have a nice day!

    時間:2020-11-23 關鍵詞: CPU GPU 指數

  • 你瞭解GPU嗎?GPU原理+渲染流程介紹

    你瞭解GPU嗎?GPU原理+渲染流程介紹

    GPU是每台電腦不可缺少的組件,缺少GPU,我們的筆記本將無法正常顯示圖像。即便我們每天都在運用GPU,但是大家真的瞭解GPU的原理嗎?瞭解GPU渲染流程嗎?如果你對GPU以及GPU相關知識具有興趣,不妨繼續往下閲讀哦。 GPU渲染流水線,是硬件真正體現渲染概念的操作過程,也是最終將圖元畫到2D屏幕上的階段。GPU管線涵蓋了渲染流程的幾何階段和光柵化階段,但對開發者而言,只有對頂點和片段着色器有可編程控制權,其他一律不可編程。如下圖: 簡單總結GPU管線,這階段中主要是對圖元進行操作。首先,將由應用階段加載到顯存中的頂點數據(由drawCall指定後)作為輸入傳遞給頂點着色器。接着,頂點着色器首先對圖元的每個頂點設置模型視圖變換及投影變換(即右乘MVP矩陣),然後將變換後的頂點按照攝像機視椎體定義(即透視投影,或正投影)進行裁剪,將不在視野內的頂點去掉並剔除某些三角面片。最後到幾何階段的屏幕映射,負責把修改過的圖元的座標轉換到屏幕座標系中(即投影到屏幕上)。 到光柵化階段,這一階段主要目的是將每個圖元轉換為多個片段,並生成多個片段的位置,由片段着色器負責計算每個片段的顏色值。同時,在這階段片段着色器通常會要求輸入紋理,從而對每個片段進行着色貼圖。每個片段在被髮送到幀緩衝區之前,還會經歷一些操作,這些操作可能會修改片段的顏色值,其中包括深度測試,模板測試,像素所有權測試,與當前緩衝區相同位置顏色混合等等。 最後,幀緩衝區內容被交換到屏幕進行顯示。 下面會對各個階段每個知識點進行詳細的分析理解。 一、頂點着色器 頂點着色器是一段類似C語言的程序(即OpenGL的GLSL,或只支持微軟的HLSL,或Unity的Cg),由程序員提供並在GPU上執行,對每個頂點都執行一次運算。頂點着色器可以使用頂點數據來計算改頂點的座標,顏色,光照和紋理座標等。在渲染管線中,每個頂點都獨立的被執行。原因在於頂點着色器本身不能創建或刪除頂點,也無法得到頂點與頂點之間的關係,如無法知道兩個頂點是否屬於同一個三角網格。正因這獨立性,GPU可以並行化處理每一個頂點,提高處理速度。 頂點着色器最重要的功能是執行頂點的座標變換和逐頂點光照。座標變換是改變頂點的位置,把頂點座標從模型空間轉換到齊次裁剪空間(即將本地座標系轉換為裁剪座標系)。通過改變頂點位置可以實現很多酷炫的shader效果,如模擬水面,布料等等,這裏後面添加實例學習例子再詳細説明。 頂點着色器的另一功能是向後續階段的片段着色器提供一組易變(Varying)變量,用於插值計算。 二、圖元裝配 在頂點着色器程序輸出頂點座標之後,各個頂點按照繪製命令(DrawArrays或DrawElements)中的圖元類型參數和頂點索引數組被組裝成一個個圖元,並對其進行如下圖的圖元操作: 裁剪,處於視椎體以外的圖元將被丟棄,若該圖元與視椎體相交則會發生裁剪產生新圖元,如下圖: 注意一點,透視裁剪是比較影響性能的過程,因為每個圖元都需要和6個裁剪面進行相交計算併產生新圖元。所以一般在x軸,y軸超出屏幕(由glViewPort定義)的部分,這些頂點在視口變換的時候被更高效的直接丟棄,無須產生新圖元。 視椎體在OpenGL中可以通過gluPerspecTIve來定義對應的大小結構,在Cocos2dx引擎中,Director類的setProjecTIon方法就定義了cocos的渲染用到的視椎體,大家可以閲讀對應的代碼瞭解學習下。 經過視椎體裁剪後的頂點座標經過透視分離(指由硬件做透視除法),得到範圍是[0,1]的歸一化的設備座標,最後映射到屏幕或者視口上。 三、片段着色器 【先補充一點,其實在光柵化之前,要判斷圖元的朝向,是面向還是背對觀察者,以決定是否需要丟棄圖元。在OpenGL可通過glFrontFace指令來決定哪個方向為正,並通過glCullFace決定需要保留哪一面(別忘了要先打開剔除狀態設置才可以調用指令 glEnable(GL_CULL_FACE);)。這樣設計的好處是能減少一些不必要的繪製,並減少對GPU的浪費。】 回到正題,片段着色器同上述的頂點着色器,只是它作用的對象是每一片段,對其進行着色貼圖。片元着色器的輸入是根據那些從頂點着色器中輸出的數據插值得到的,其中最重要的渲染技術之一是紋理採樣。在頂點着色器階段輸出每一頂點對應的紋理座標,然後經過光柵化階段對三角網格的3個頂點各自紋理座標進行插值運算後便得到其覆蓋片元的紋理座標,從而在片元着色器中進行紋理採樣。如下圖: 四、逐片元操作 這裏篇幅原因不一一分析每種測試操作,大家可以通過看書瞭解對應的用途。下面舉混合操作來分析一下。下圖是簡化流程圖: 對於不透明的物體,可以直接關閉混合Blend操作,這樣片元着色器計算得到的顏色值直接覆蓋更新緩衝區的顏色值。但對於半透明物體就必須開啓使用混合操作從而讓物體看起來是透明的。開發過程中無法得到透明效果的原因,往往有可能是沒有開啓混合功能的原因。 由於計算機圖形的性質,圖形管線已構造為計算狀態與數據流動作為它們之間的數據流。每個階段工作在一組元素,如頂點,三角形或像素。下圖1[ Shr99 ]給出了典型的OpenGL固定管道。 人們很容易看到這種體系結構如何類似於中描述的流計算模型上一節。這種類型的固定結構的是,直到最近,計算機圖形卡製造商的標準可循。雖然類似流計算模式,它提供了很少或沒有編程的用户,因此,它是不可用於比處理圖形指令的其他任何任務。2000年[ Owe05 ],GPU 小號允許管道的關鍵部位的可編程性一定程度。 當前GPU 小號允許用户在形式的圖形流水線的兩個階段幾乎任何類型的功能進行編程頂點程序和片段的方案。這些允許用户分別寫在頂點和片段數據的程序。下圖示出了更近的映射的OpenGL可編程管線到流模型。 該頂點處理器 頂點處理器輸入的頂點值和其相關的數據進行操作。它的目的是執行傳統的圖形操作,如:頂點變換,正常轉化和規範化,紋理座標生成和改造,照明和顏色計算[ Ros04。因為頂點處理器是能夠改變輸入的頂點數據的位置,從而影響最終圖像的要繪製。由於圖像是,在本質上,的存儲器陣列,頂點處理器能夠分散狀操作。另外,最近的處理器能夠從紋理存儲器讀出,從而產生一種特殊的延遲收集動作。我們稱之為延遲,因為頂點不能直接從其他頂點元件讀取的信息,但它可以讀取的任何數據從先前的計算結果,如果它是在紋理存儲器編碼。在後面的章節中,我們將看到如何利用這一點來執行簡單的計算。 頂點處理器可以在SIMD(單指令多數據)或MIMD(多指令多數據)模式下運行; 因此,允許兩個,一個處理器單元中的指令和任務並行。由於現代GPU 小號包含多個頂點處理器(最新的NVIDIA 和ATI卡有多達六個),我們可以開始欣賞並行這些體系結構上實現的水平。 該碎片處理器 該片段處理器上的片段和它們相關聯的數據進行操作。一些傳統上與片段着色器相關聯的操作是:質地接入和應用,霧,顏色和與上內插值一般操作。如同頂點着色器,片段着色器可用於在GPU上執行幾乎任何種類的計算。因為片段處理器可以訪問紋理存儲器的隨機這是很容易的片段程序內執行聚集操作。實際上,這是很常見的使用紋理信息進行依賴於其他紋理查找窗口; 功能移植算法的流計算模型時來真的很方便。 雖然在目前的GPU架構碎片處理器可以在SIMD模式下運行,是非常嚴格的那種,他們允許我們將看到,他們還是很容易執行一般的計算操作。加,由於片段的處理片段的處理器數量的計算頻率比頂點處理器的數目越高。當前頂級的線卡有十六歲左右的片段處理器。 以上便是此次小編帶來的“GPU”相關內容,通過本文,希望大家對GPU原理以及渲染原理具備一定的瞭解。如果你喜歡本文,不妨持續關注我們網站哦,小編將於後期帶來更多精彩內容。最後,十分感謝大家的閲讀,have a nice day!

    時間:2020-11-23 關鍵詞: 原理 GPU 指數

  • 華為曬鳳凰引擎:或為自研GPU做準備!

    日前,華為展示了一套圖形關鍵引擎,代號為鳳凰引擎。據悉,該引擎正在與網易Unity、Cocos等合作伙伴推進技術落地, 根據官方給出的細節,這個引擎包括渲染引擎渲染引擎、材質系統、動畫引擎、物理引擎、後處理系統、GT圖形加速層等一整套核心模塊。 合作伙伴可使用Scene Kit的光線追蹤、PBR、動畫等特性,打造獨特豐富的3D場景,帶給用户沉浸式的體驗。 華為鳳凰引擎提供有自研多層BVH加速結構、多叉樹Traversal算法,構築了高效、Unbias的RT-Core算法底座,通過基於華為硬件平台的自研混合渲染管線實現了實時光線追蹤技術在移動端的應用。 鳳凰引擎能給手機3D應用以及遊戲提供高性能、低功耗、高畫質的圖形體驗。華為鳳凰引擎的光線追蹤技術圍繞高真實感渲染,在離線與實時渲染領域實現了技術突破,把PC級別最先進頂級顯卡的實時光線追蹤效果帶到手機上。 目前來説,華為 並沒有給出鳳凰引擎實際應用的時間節點。有媒體猜測,這套引擎或許是在為自研GPU做準備。 -END- | 整理文章為傳播相關技術,版權歸原作者所有 | | 如有侵權,請聯繫刪除 | 【遞四方速遞】美國大選之際,華為正式起訴FCC,反對5G設備禁令 【遞四方速遞】無需美國許可!ASML給中國開綠燈 【遞四方速遞】惋惜,華為副總裁猝死! 【遞四方速遞】芯片價格飆漲,一大波… 【遞四方速遞】120億元!聞泰科技投晶圓製造 免責聲明:本文內容由21ic獲得授權後發佈,版權歸原作者所有,本平台僅提供信息存儲服務。文章僅代表作者個人觀點,不代表本平台立場,如有問題,請聯繫我們,謝謝!

    時間:2020-11-16 關鍵詞: 華為 GPU

  • 驍龍865再迎新驚喜!可支持GPU驅動獨立升級

    驍龍865再迎新驚喜!可支持GPU驅動獨立升級

    驍龍865是高通在2019年12月4日發佈的一款移動處理平台的芯片。2019年12月4日,高通每年的驍龍技術峯會在美國夏威夷舉行,在首日峯會上高通宣佈5G將在2020年擴展至主流層級同時全面佈局5G市場正式發佈高通驍龍865與驍龍765移動平台。驍龍865移動處理平台的芯片正式發佈。 我們知道搭載驍龍 865 處理器的手機可以單獨升級 GPU 驅動,此前小米 10 和 10 Pro 就迎來過 GPU 升級,據網友爆料,搭載驍龍 865 處理器的 iQOO 3 和 iQOO 5 也支持 GPU 驅動獨立升級。 據悉,目前 iQOO 3 和 iQOO 5 用户已可在應用商店下載 GPU 驅動升級,GPU 驅動的獨立升級可使遊戲或應用能夠適配最新的 GPU 驅動,增強遊戲的性能和穩定性,提升遊戲體驗新版本特性。 另據 iQOO 產品經理戈藍 V 表示,從驍龍 865 開始才支持 GPU 驅動獨立升級,驍龍 855 不支持。 瞭解到,去年 12 月,高通宣佈率先開放 GPU 驅動更新,宣佈驍龍 865、驍龍 765 系列將在後期獲得公開的 GPU 驅動更新。 驍龍865通過驍龍X55調制解調器及射頻系統,統一支持2G/3G/4G/5G所有模式,支持Sub-6GHz/毫米波、TDD/FDD、NSA/SA、DSS(動態頻譜共享)、載波聚合,5G峯值下載速度7.5Gbps。 同時,它們還都會在拍照、人工智能、遊戲方面繼續提升,包括支持4K HDR視頻拍攝、集成第五代AI引擎。驍龍865平台擁有兩倍於之前的AI運算性能,甚至支持每秒最高2億像素的圖像運算能力,可支持 8K 30fps的視頻錄製。 驍龍865在CPU、GPU、AI以及相機等多個方面都比上一代突出。亮點為:1、新架構,台積電7nm助力。2、利用新一代Snapdragon Elite Gaming支持的最高圖形質量。3、驍龍865採用外掛驍龍X55基帶方式,支持5G網絡。

    時間:2020-11-08 關鍵詞: iqoo 驅動升級 GPU

  • Imagination全新BXS GPU助力德州儀器汽車處理器系列產品實現先進圖形處理功能

    英國倫敦,2020年11月4日– Imagination Technologies宣佈其BXS-4-64 GPU將用於德州儀器(TI)Jacinto™處理器系列產品中,以支持汽車應用。得益於針對汽車市場需求所進行的定製化設計,BXS可以助力環繞視圖技術等汽車圖形處理應用實現高達60%的性能提升。 IMG BXS是首款增加了安全功能且設計流程符合ISO 26262標準的XS GPU知識產權(IP) 產品,可以幫助客户獲得ISO 26262認證。它採用了Imagination全新的B系列多核架構,具有更高的性能和安全功能。除了硬件虛擬化等現有功能外,該架構還包含了全新的功能和安全機制,例如分塊區域保護(Tile Region Protection)功能。 德州儀器處理器業務平台工程總監Jim Kennedy説道:“在Imagination BXS GPU的支持下,我們推出了具有更高性能、更低帶寬和更強安全功能的差異化汽車處理器產品。IMG全新的多核技術還可以幫助我們擴展自己的技術能力,以支持未來的處理器設計。” Imagination Technologies汽車業務高級總監Jamie Broome表示:“德州儀器一直都是Imagination重要的合作伙伴,他們為汽車、工業和消費類平台打造了多款行業最典型的系統級芯片(SoC)。相比我們以往提供的所有產品,本次所授權的GPU內核又向前邁出了全新一步。因此,我們很高興看到自己新一代的GPU可以用於德州儀器新一代的SoC之中。”

    時間:2020-11-05 關鍵詞: imagination 圖形處理 GPU

  • 《英雄聯盟》支持iOS/Android雙平台

    《英雄聯盟》支持iOS/Android雙平台

    在今年10月英雄聯盟成立10年之際,利奧遊戲宣佈,英雄聯盟將於2020年登陸愛因斯坦雙子座遊戲、仙女座遊戲和託管平台。 眼看還有最後2個月,今天,《英雄聯盟》手遊終於正式開啓公測,支持iOS/Android雙平台。 不過這次公測國家為日本、韓國、泰國、越南、菲律賓、馬來西亞、新加坡,並沒有中國內地。 等不及的小夥伴可以使用加速通道,例如UU加速器、海豚、迅遊等等。不過需要以上國家的谷歌賬號或蘋果ID,對於一般人來説有一定門檻,大家還是耐心等待國行版本。 根據此前爆料,《英雄聯盟》手遊的整體設計風格與端遊幾乎完全一致,不過在一些小的細節方面做了一些改變,更加符合手機端的操作邏輯。 今年6月,《英雄聯盟》手遊已在巴西及菲律賓進行了極小規模技術測試,手機最低配置需求極低,基本上現在的手機都能玩。 最低機型配置如下: 安卓:1.5GB內存,高通驍龍410處理器,Adreno 306 GPU。 iOS:iPhone 6及更高機型。 當然,為了更好的體驗《英雄聯盟》手遊的技能和特效,一部性能優秀的手機還是必備的。 - THE END - 轉載請註明出處:快科技 #英雄聯盟#手遊 主編

    時間:2020-10-27 關鍵詞: Android iOS GPU

  • Imagination發佈全系B系列GPU,以去中心化的多核方案靈活應對更多挑戰

    Imagination發佈全系B系列GPU,以去中心化的多核方案靈活應對更多挑戰

    自從1995年PowerVR 3D GPU技術出現以來,Imagination一直是憑藉着其獨有的技術優勢,城內GPU IP這一領域的主要玩家。目前Imagination在移動GPU IP市場佔有率達到了36%,與高通和Arm三分天下;而在汽車GPU市場佔有率則達到了43%。隨着應用需求的不斷變化,GPU也產生了很多新的機會,例如AI應用、汽車、數據中心等。去年年底發佈的A系列GPU,主要還是面向移動市場;而今時隔一年不到,Imagination又重磅發了B系列的GPU,將持續拓展移動市場同時也將向汽車、桌面級、雲端應用發力。 去中心化的多核設計,提升產品性能 此次推出的B系列的GPU,一共分為4個不同的系列,針對不同的應用場景。每個系列又推出了其特定的多核組合。據Imagination的技術產品總監Kristof Beets先生分享,在推出了A系列之後,很多的客户找到Imagaination想要提高產品的性能,他們提出了多個A系列組合在一起的方案。基於客户的這種需求,Imagination更上一層樓就推出了B系列的多核架構的GPU。 多核架構的好處在於多個核可以一起實現單一應用的最大性能,也可以針對不同的應用調用不同的核來實現。而B系列多核架構的特點在於去中心化,每個核的架構都是完全一致的,所以任何一個核都可以擔任主核的調度工作,其餘從核來實現單純的計算處理工作。這樣的設計提供了更高的可拓展性,同時客户在進行設計時也可以直接優化定製一個核心,然後將其進行復製出多核的架構,可以大幅減少其設計投入時間和精力。以BXT的MC4的架構舉例,客户只需要完成一個BXT核心的優化,就可以實現整個多核架構的優化提升。 其中BXE因為面向的是入門級的應用,因此它的MC4的架構中,只提供了一個主核的完整配置,其餘三個核在主核的基礎上去掉了一些不必要的功能模塊。 除了大幅減輕設計人員的工作外,這種去中心化的多核架構,可以避免過多的信息集中於單一裸片,從而迎合了多核chiplet的這一演進趨勢。 立足移動應用,拓展新的市場 在Imagination的GPU戰略中,移動市場是其最重要的根基,而且今年年初和蘋果重歸舊好也為其接下來的移動市場帶來了利好。但GPU的應用前景並不僅止步於此,汽車、人工智能、雲端等場景將會孕育着更大的增長潛力。B系列GPU中,BXE主要專注於入門級的遊戲產品、電視和機頂盒等,可以為4K電視UI提供足夠的填充率。BXM則面向中端市場,提供中層能力的填充率。BXT是此次的重頭戲,可以滿足桌面級和雲端應用需求。BXS則將之前的產品轉化為了專門應用汽車市場的技術。 BXT是Imagination面向計算中心市場發力的敲門磚,它提供了高達6TFLOPS的性能,每秒可處理192 Gigapixel(十億像素),擁有24 TOPS(每秒萬億次計算)的人工智能(AI)算力,同時可提供行業最高的性能密度。此外BXT系列還支持Imaginationn的HyperLane技術,這種技術可以將內存資源更高效合理地分配給GPU的不同工作任務。而且HyperLane與多核架構結合,可以提供給更高的靈活度:4個核+8個獨立的分區即32種不同的解決方案,這對於雲端技術來説是一個非常好的選擇。 在發佈會當天,芯動科技也同步釋放了消息:芯動科技已將Imagination最新推出的[IMG B系列BXT GPU IP,集成到能支持桌面和數據中心應用的PCI-E規格的GPU獨立顯卡芯片之中,該獨立顯卡芯片將很快面市,為未來5G雲遊戲和高端數據中心應用提供強大的支持。而除了芯動之外,還有別的客户也在積極獲取BXT的授權中。 此次發佈的BXS系列是Imagination專門推出的針對汽車應用的GPU IP,其中也使用了Imagination的諸多專利技術。在儀表盤顯示的應用中,為了保證即時準確的內容顯示,行業中傳統的做法是採用LOCK-STEP(鎖步)的方法:兩個核同時執行一個任務,互相檢測是否正確。而其實在一整個屏幕上,一般只有5~10%的塊是需要渲染的,Imagination採用了一種叫做TILE REGION PROTECTION的技術,只進行這些塊的渲染從而減少資源消耗。而且Imagiation也一起打造了安全的驅動,這樣直接將軟硬件的安全的打包方案提供給客户,從而免除了客户後期單獨進行安全配準的麻煩。 從B系列發佈來,可以看到Imagination的GPU戰略佈局已經基本完整。在移動端從低端到高端的各種IP都已經全面覆蓋,高端的BXT也足以在計算中心掀起浪花,BXS系列則專注將汽車市場逐步深入。從前幾年的蘋果解約、股權變動至今,Imagination在技術上仍不止步,實現了突出的發展。而且在當下的國際局勢下,Imagination作為一家產品技術專利都在英國的GPU IP提供商,也將獲得中國不少客户的青睞。 據確認,新的C系列GPU搭載Level4級別的光線追蹤技術,或可在明年上半年發佈。

    時間:2020-10-20 關鍵詞: 多核 imagination GPU

  • 微星衝鋒坦克II GL65筆記本GPU理論性能測評

    微星衝鋒坦克II GL65筆記本GPU理論性能測評

    本文中,小編將對微星衝鋒坦克II GL65筆記本的GPU理論性能進行測評,和小編一起來了解下吧。 從GPU-Z的主頻中可以判斷GL65的GPU為滿血的GTX 1660 Ti,TGP為80W。 圖形基準測試 在不考慮光追的情況下,同是80W TGP的GTX 1660 Ti與RTX 2060差距不大,基本上只有個位數的差距,實際遊戲中更大的區別出現在內存上。 由於GL65僅能夠通過核顯輸出,所以內存帶寬對於遊戲幀數表現影響巨大,並且整體隨着幀數的升高影響上升,在Overwatch中的影響甚至達到了50%。所以建議用户到手後加一根內存組成雙通道。 上述便是小編這次為大家推薦的內容,希望大家喜歡,想了解更多內容,請關注我們網站哦。

    時間:2020-10-19 關鍵詞: 筆記本 微星 GPU

  • 向計算機市場拓展的英偉達,精簡合併Quadro專業卡產品線

    向計算機市場拓展的英偉達,精簡合併Quadro專業卡產品線

    上週發佈的英偉達 RTX A6000 系列工作站顯卡, RTX A6000 高端顯卡本身,則是基於全新的 GA102 GPU 核心。與幾年前的 Tesla 計算卡品牌一樣,英偉達已證實 Quadro 這個專業圖形卡品牌已被其精簡,也是因為圖形和計算之間的界限已有太多重疊。 展望未來,該系列顯卡將沿用 Nvidia RTX A6000 和 Nvidia A40 之類的命名規則。 然而對於許多人來説,明明專業卡市場不會消失、且營收也相當豐厚,該公司為何又選擇在這個時候淡化 Quadro 品牌呢? 此前外媒猜測,這可能與英偉達專業圖形卡與計算卡產品線之間的重疊度越來越高有關。現在的事實證明,這樣的直覺是相當敏鋭的。 畢竟隨着英偉達繼續向計算市場拓展,其專業圖形卡(ProViz)和計算產品在功能和定價方面的差異也越來越小。 為避免讓客户對不同產品線產生潛在的混淆,英偉達在子品牌上的合併與精簡也是情有可原。 比如當你需要組件一台主動散熱的台式機來運行神經網絡的時候,就可直接參考 ProViz 產品線,而無需像以前那樣在 Quadro 專業卡那邊糾結。 同樣的情況,在基於 Tesla V100 加速卡的實例中也有提及,即便其配置並不屬於 Quadro 的一部分。 最終,ProViz 將與計算市場迅速融為一體,即便兩者在特定需求上各有側重,但至少底層硬件仍是相通的。 在將這兩組合併成一條單一的產品線後,英偉達仍可滿足專業商業客户不盡相同的圖形處理和計算需求。

    時間:2020-10-14 關鍵詞: 英偉達 顯卡 GPU

  • 部分5700 XT GPU版 2020 iMac用户出現屏幕白線問題

    部分5700 XT GPU版 2020 iMac用户出現屏幕白線問題

    蘋果在今年 8 月更新了 2020 iMac 產品陣容並推出了 27 寸 iMac,該機型配備了第十代 Intel 處理器,擁有更多 RAM、SSD 配置和更快的 AMD GPU。 不過一些新 iMac 用户報告稱設備的 GPU 一直存在問題,部分外國論壇相關的投訴已可追溯到 8 月份。這表明自新 iMac 問世以來,這個問題一直困擾着‌iMac 用户。 IT之家瞭解到,部分 5700XT GPU 版 iMac 用户有時會在顯示屏上看到一條白色的水平線,但問題似乎並沒有影響到所有用户: 我在星期四晚上收到了 2020 款 iMac‌。昨晚我看到了一條水平的白線從 iMac 屏幕中間閃過,很短暫,我以為我只是看到一些其他的東西。不過今天早上,我看到了同樣的現象,是電腦運行不正常。我記得在較早版本的 macOS 上使用 MBP 13“(2019)也遇到過相同的問題(我不記得它是 Mojave 的較晚版本還是 Catalina 的較早版本),不過後續軟件更新已解決了該問題。 受影響者描述的白線似乎不定時地會出現在屏幕上並閃爍,並且 iMac 用户還遇到了其他一些看似相關的圖形問題。一些用户報告説可以通過選擇默認分辨率以外的縮放分辨率來解決此問題,但這不是理想的長期解決方案。 目前尚不清楚 iMac 用户遇到的問題是基於硬件還是軟件,但是蘋果尚未針對該問題實施修復。iMac用户還需要苦惱 一段時間了。

    時間:2020-09-19 關鍵詞: imac 5700xt GPU

  • Intel 6nm GPU外包給台積電?Intel並不着急確定

    Intel 6nm GPU外包給台積電?Intel並不着急確定

    據悉,Intel CEO司睿博在之前的財報會議上提到,Intel考慮把部分芯片外包給晶圓代工廠,之後有報道稱台積電會拿下6nm GPU訂單。 據瞭解,不過,Intel對外包這事並不着急,目前依然沒有確定合作伙伴。 日前Intel在台灣也舉行了架構日活動,新竹辦公室總經理謝承儒在接受採訪時也迴應了有關外包的消息。 謝承儒提到,如果外包和Intel能有很好的互補性,Intel可以用外部解決方案來增加產品競爭優勢,與Intel自己的軟件、架構及安全性整合之後,給客户提供最具競爭力的產品。 至於哪些芯片會外包,謝承儒依然在打啞謎,強調Intel的產品線很廣泛,也有很強的生產技術,很多產品都還是Intel工廠製造的,Intel的目標是尋找對產品競爭力最佳的解決方案,不論是內部還是外部,要全面評估成本、良率及生產彈性等問題。 有媒體追問Intel是否選擇台積電作為代工合作伙伴,謝承儒也沒有正面迴應,只表示晶圓代工有很多遞四方速遞,Intel會考慮不同遞四方速遞的優勢。 因此,就目前情況,總的來説,對芯片外包來説,雖然CEO表態考慮外包,但是Intel目前還是在觀望狀態,要評估不同遞四方速遞的優缺點,看看哪種方案對自己最有利,特別是要跟Intel自己製造的產品有互補優勢。 讓我們持續關注吧!

    時間:2020-09-16 關鍵詞: Intel 台積電 cpu處理器 GPU

  • 英偉達重新殺回手機市場: 積極推自家GPU IP授權

    英偉達重新殺回手機市場: 積極推自家GPU IP授權

    我們都知道ARM在收購Mali之後也在積極推自家的GPU IP授權,這幾年來成績不錯,華為、聯發科甚至三星都開始採用ARM Mali GPU了。但是與高通、IMGTech的移動GPU相比,Mali GPU的性能及能效依然有欠缺,在GPU技術上,NVIDIA當然還是極具實力的。 昨天NVIDIA宣佈斥資400億美元收購ARM公司,這件事引發的爭議恐怕未來幾年都沒完。NVIDIA如何對待ARM有可能影響多家半導體公司,不過對NVIDIA來説,這次他們有機會殺回手機市場上了。 外媒報道稱,NVIDIA CEO黃仁勳迴應了ARM之前的客户是否可以將NVIDIA的GPU及AI技術集成到自己的SoC芯片上的問題,老黃證實了這種可能。 換句話説,在ARM CPU上,NVIDIA的承諾是確保繼續獨立、中立,自己也不會隨便改變,畢竟這部分是ARM客户最關心的,也是最敏感的部分。 但是在其他NVIDIA強勢、ARM弱勢的地方,NVIDIA塞入自家的技術就是可能的。 如果NVIDIA的GeForce GPU能夠重新進入手機芯片市場,那麼這將是2012年HTC使用Tegra 3之後的8年裏,NVIDIA重返手機芯片市場。 NVIDIA手機處理器最輝煌的時候大概就是2013年了,小米公司在小米手機3上使用Tegra 4處理器,然後。。。。。就沒有然後了。 説起來這不是NVIDIA第一次宣佈對外提供GPU授權了,Tegra 4失利之後,NVIDIA在2013年就宣佈開放Kepler GPU授權,只不過7年來一直沒有什麼客户。 沒人用的原因也不復雜,那就是有實力的遞四方速遞自己開發GPU了,比如高通及現在的蘋果,其他公司直接買公版或者PowerVR授權就行了,三星去年宣佈獲得了AMD的RDNA GPU授權,倒是開了個先例。 現在NVIDIA手握ARM,以後不怕沒客户,不想用GeForce GPU授權,那CPU授權就再談談。 昨天的報道中,有消息稱NVIDIA為了安撫遞四方速遞,宣佈不參與CPU設計,不做手機芯片,但是所有承諾都不會是一成不變的,NVIDIA可能暫時不會自己做手機芯片了,但是自家的GPU授權就不一樣了。

    時間:2020-09-15 關鍵詞: NVIDIA ARM GPU

首頁  上一頁  1 2 3 4 5 6 7 8 9 10 下一頁 尾頁
發佈文章

技術子站

更多

項目外包