AMD, ATI dan Intel, Nvidia dimasa mendatang

March 15, 2010

Reading time ~14 minutes

Tulisan ini merupakan ringkasan cuplikan dari tulisan Alan Dang yang merupakan seorang 3D online journalist dari TomsHardware.Seperti yang kita ketahui, pertumbuhan akan dunia teknologi di bidang 3D, GPU, CPU dan VGA, terus meningkat seperti waktu dulu, perusahaan graphics card seperti S3, 3DLabs, Rendition, 3dfx dan juga manufaktur board nya seperti Orchid, STB, Hercules, the original Diamond, dan Canopus. Mereka telah berhasil membangun sebuah alat yang membuat dunia komputasi memungkinkan untuk tampil secara visual untuk selama bertahun tahun. Namun dari situ lahir 2 buah jenis teknologi yang hadir di masyarakat, yaitu integrated product ataupun independen product ? Apakah Integrated product / Integrated GPU akan punah dimasa mendatang ? atau akan terus berkembang ?

Jika kita melihat sejarah, yang sifatnya integrated tidak selamanya punah, misalnya “sound card” kartu suara pada zaman dahulu bersifat independen, seperti Tandy 1000, Disney Sound Source, Sound Blaster, Sound Blaster Pro, Pro Audio Spectrum 16, Gravis Ultrasound, Monster Sound PCI, Hingga kini memasuki era Aureal/Sensaura/EAX era. Namun sayang nya pengguna sound card ini seakan akan akan mati dan punah dimasa mendatang, karena banyak para user yang sudah cukup menikmati suara yang canggih dan mencukupi hanya dengan menggunakan chips yang sudah terintegrasi di motherboard kita.

Sehingga, nantinya apakah nasib GPU akan sama dengan sound card ? atau akan berbeda sama sekali ? hal ini tentu dipengaruhi oleh 2 hal, pertama ketika sebuah teknologi itu telah mencapai titik penghabisan untuk dimanfaatkan oleh konsumen dan developer, kedua teknologi semikonduktor yang semakin canggih memungkinkan untuk membuat teknologi yang sama, performance yang hampir sama dan harga yang lebih murah.

Apa yang membuat teknologi ini semakin maju ?

Tentu saja jawabanya developer, developer senantiasa haus sumber daya super komputasi yang sangat sangat tinggi, dengan komputasi yang tinggi, mereka bisa menciptakan berbagai macam hal yang sangat bernilai dan memiliki keuntungan yang sangat besar, sebut saja Gaming, atau Film ? semua komponen ini membutuhkan hardware processing yang sangat tinggi, dan cepat. Tidak heran dari tahun ke tahun, para developer dan pengembang film, terus menaikan budget mereka untuk meningkatkan keuntungan mereka, dengan demikian para hardware vendor juga akan menjadi pasar bagi para pengguna yang memerlukan teknologi semacam ini dan hal ini akan menjadi terus berkesinambungan.

Sebut saja Call of Duty: Modern Warfare 2, Halo 3, dan juga Gran Turismo 5 yang memerlukan budget dari $50 hingga $60 juta untuk setiap game nya. Grand Theft Auto 4 tidak tanggung tanggung, mereka siap mengeluarkan budget hingga $100 juta. Industri film lebih hebat lagi, mereka dapat meraup keuntungan 4x – 5x lipat sebut saja, Transformers, Casino Royale, dan juga Pirates of the Caribbean. Selain itu keuntungan yang menggiurkan seperti The Departed 3x , 500 Days of Summer 6x, Twilight 10x, dan juga Slumdog Millionaire 25x !

Biar lebih mencengankan lagi perhatikan tabel berikut ini:

Sumber: www.tomshardware.comSumber: www.tomshardware.com

Kebutuhan akan processing saat ini masih sangat jauh dari yang diharapkan, misalnya saja pixar, yang memiliki budget yang sangat tinggi dalam setiap pembuatan film nya, Pixar film membutuhkan waktu 5 – 6 jam untuk merender sebuah frame yang dilakukan oleh super komputer cluster.

Masa Depan AMD dan GPU nya

AMD Graphic card punya pendekatan sendiriAMD Graphic card punya pendekatan sendiri

Setelah sukses dengan Radeon HD 4000-series, AMD terus menjaga komitmen nya dan me maintain momentum tersebut hingga akhirnya melahirkan produk yang sangat bagus seperti hal nya Radeon HD 5000-series. Salah satu inovasi yang di adopsi AMD adalah mereka menggunakan strategi khusus untuk mendesign GPU dengan menggunakan konsep “small die”. Sebagaimana arsitektur GPU Nvidia masih mencoba menurunkan biaya dengan cara mendisable processing core, mengurangi clock speed, ataupun juga menggunakan memory interface 64-bit yang lebih sedikit, AMD saat ini sudah cukup terkenal dengan optimasi “die nya” dan selalu memiliki GPU terbaik untuk kelas mid-range dari pemanfaatan teknologi yang mereka kembangkan.

Secara historis menjelaskan kalau Nvidia selalu mengembangkan GPU dari GPU andalan nya yang memiliki performance terbaik. Berbeda dengan ATI (yang sekarang AMD) mereka lebih fokus berinovasi dengan desain GPU yang terfokus pada gaming. Nvidia selalu memperkenalkan 16/32-bit floating point pada GeForce FX line-up yang mereka miliki, dan fitur ini memang akan lebih lambat untuk game, sedangkan ATI tetap statis dan fix pada 24-bit precision shader yang dimulai pada Radeon 9700 nya.

Desain dari arsitektur AMD ini membawa mereka kedalam sebuah teknologi yang disebut dengan Fusion. Didalam Fusion, AMD berencana untuk mengintegrasikan teknologi GPU tradisional kedalam CPU. Hasilnya bukan hanya akan mengurangi latency dan meningkatkan bandwidth lebih cepat, namun perpaduan CPU/GPU dapat saling melakukan sharing resource yang lebih baik, akibatnya processor akan lebih murah karena akan menggunakan silicon yang lebih sedikit. Disisi lain, CPU akan memiliki floating point unit (FPU), yang akan mengintegrasikan komponen mekanisme single- and double-precision math, rounding, dan metode perhitungan prosesor lainya.

Dalam fase awal ini, AMD akan mengintegrasikan CPU cores dengan GPU core pada processor yang sudah ada. Dalam waktu yang sama, mereka akan mengembangkan Radeon GPU dengan kemampuan multi-chip, Fusion processor nantinya dapat di manfaatkan dengan adanya kemampuan untuk melakukan kontrol terhadap elemen proses. Sehingga nantinya setelah proses integrasi ini berhasil, maka akan sulit bagi kita untuk membandingkan CPU dan GPU component dalam sebuah chip. Tentu saja ini akan bernama CPU yang sudah di integrasikan FPU “stream” core, yang mana melalui software driver komputer akan mengenalinya sebagai graphic chip. Dengan menggunakan power management yang selayaknya tentu saja ini akan menghasilkan kombinasi performance per watt. Sehingga nantinya memungkinkan juga kalau desktop environment dengan integrated GPU akan lebih hemat battery, dan memiliki on-demand access kepada GPU yang lebih cepat untuk dimanfaatkan oleh banyak aplikasi.

direct-to-CPU add-ons XtremeDatadirect-to-CPU add-ons XtremeData

Nvidia mencoba memasukan teknologi Hybrid SLI, namun sayang nya tidak begitu digemari untuk enthusiast market. Hybrid SLI (GeForce Boost) memungkinkan anda untuk membagi proses 3D antara GPU primary dan juga GPU pada  add-on card, namun tetap saja ini kurang berhasil dari sisi GPU. Latency dan processing overhead akan terjadi pada saat melakukan split dari proses 3D dan akhirnya performance yang didapatkan tidak signifikan. AMD memiliki kesempatan yang lebih tinggi dengan Fusion, akibat adanya komponen lower-latency yang sudah ter integrated.

Sehingga Fusion akan menjadi sang integrator pada teknologi graphic kedalam CPU, Torrenza akan memprovide bandwith super tinggi langsung ke CPU (direct-to-CPU) seperti halnya HyperTransport yang terkenal dengan high-bandwidth low-latency interconnect protocol nya.

Penggunaan “direct-to-CPU add-ons” sudah ada di berbagai pasaran, misalnya  anda dapat menggunakan XtremeData XDI device pada soket AMD Opteron. Add on card yang terdiri dari 2 Altera Stratix II FPGA ini memiliki akses langsung ke primary Opteron CPU dan juga RAM. Walaupun alat ini belum memiliki GFLOPS raw yang sama pada CPU 8 core, ataupun GPGPU, alat ini masih memiliki hasil varian yang belum standar dari sisi performance, Namun jika diukur melalui performance untuk penggunaan aplikasi compute-intensive algorithmic, seperti financial market data analysis, data encryption, ataupun juga radar system militer, alat ini memberikan performance per watt yang lebih baik. Jika anda berminat, anda dapat mendapatkan HTX card dengan menggunakan FPGA atau 10 GigE network adapter yang dilengkapi dengan direct HyperTransport link ke CPU.

Bagaimana dengan Intel ?

Pentium 4 telah menjadi produk CPU paling laris yang dijual oleh Intel, dengan menggunakan teknologi arsitektur NetBurst ternyata mereka memiliki teknologi yang kalah canggih dari pesaing nya. Saat itu Intel dan AMD bersaing ketat untuk merebut market share karena AMD memiliki produk yang tak kalah superior yaitu Athlon CPU. Namun semenjak diperkenalkanya Pentium M dari Intel Haifa design center dan teknologi ini sudah memasuki Core micro-architecture, Intel berhasil merebut posisi mereka sebagai CPU technology leader. yang lebih mengagumkan lagi teknologi Intel Core itu sendiri merupakan evolusi dari cabang arsitektur prosecor P6 “Pentium Pro” architecture yang dikeluarkan pada tahun 1995.

Dari sisi design, intel tidak hanya ber inovasi melalui 1 jenis platform saja, setidaknya ada 2 jenis teknologi Intel yang sangat menguntungkan, khususnya untuk arsitektur pengguna high-performance CPU sebut saja Itanium. Setelah perjalanan 2 dekade investasi Intel terhadap Itanium memang terbayarkan dimana Intel sedang mengambil keuntungan dari investasi yang mereka lakukan selama ini, ha ini terjadi akibat Intel Haifa design center membawa arsitektur P6 ke dunia yang lebih modern, banyak core engineer dari P6 dipindahkan menjadi Itanium team digabung dengan HP PA-RISC engineer, proyek Itanium  telah menjadi proyek CPU terbesar yang pernah dikerjakan engineerdi dunia.

Intel Roadmap maju dari ItaniumIntel Roadmap maju dari Itanium

Arsitektur Itanium yang unik membuatnya berbeda dengan CPU yang ada pada saat ini yang banyak memanfaatkan elemen non-computing untuk meng optimasi performance, misalnya “out-of-order schedulers” dan juga “branch prediction“, Itanium di desain berdasarkan ide kalau silicon itu harus bersifat dedicated dan aktual untuk elemen komputasi. Bukanya dengan cara mengatur jadwal real-time dengan CPU clock untuk membuat keputusan, jenis optimiasi seperti ini sudah banyak terjadi, misalnya didalam software, ketika kita melakukan kompilasi dan proses development, semakin banyak waktu yang ada semakin komplek algoritma yang akan digunakan. Hal ini menyebabkan CPU melupakan desain tradisional ini dan mengadopsi teknologi very long instruction word (VLIW), yang mana CPU dapat menyimpan instruksi di setiap putaran clock dengan lebih panjang untuk mengatur performance nya. IDE akan teknologi ini disebut juga dengan EPIC (Explicitly Parallel Instruction Computing).

Sayangnya, belum ada teknologi compiler yang dapat mengakomodasi dan memanfaatkan Itanium ini, sebagaimana Intel dan HP memulai proyek besar ini. Akhirnya menyebabkan original Itanium terlambat 2 tahun untuk dikeluarkan, lalu Itanium 2 pun dikeluarkan setelah 2 tahun kemudian dan hingga akhirnya Intel memulai project baru yang disebut dengan Tukwila, “Itanium 3,” yang telah keluar sesuai jadwal.

Untuk mengerjakan Itanium ini, Intel telah melibatkan setidaknya 1,000 engineer untuk mendesain core dari VLIW Itanium dan menutup kelemahan Itanium itu sendiri untuk dapat mengalahkan Opterons ataupun Xeons. Akhirnya HP Integrity NonStop system menerapkanItanium dan meningkatkan 99.99999% up-time dibandingkan dengan 99.999% yang dimiliki IBM mainframe. Persentase ini hanya akan membedakan 3 detik downtime pertahun, dan 5 menit down-time per tahun yang dimiliki IBM. Sehingga jika membicarakan soal reliability itu adalah penting, dan itu telah menjadi alasan kenapa Itanium dapat menguntungkan. Dari sini, nantinya tidak menutup kemungkinan Intel untuk membuat low Itanium ?

Sehingga Itanium mungkin tidak akan mengalahkan pasaran yang dimiliki Xeon atau Opteron saat ini, namun Itanium market nantinya mungkin akan tumbuh saat banyak rumah sakit yang mulai menggunakan peralatan elektronik sebagai penganalisa kesehatan ataupun sebagai digital imaging system, saat seperti itulah 99.99999% uptime menjadi sangat bermanfaat.  Itanium juga tidak menutup kemungkinan untuk mendukung QPI, sebuah teknologi interconnect  yang digunakan oleh CPU Nehalem yang memungkinkan sistem heterogen dapat bekerjasama dengan CPU tradisional seperti Xeon x86-64 CPU dan juga Itanium IA-64 CPU.

Mungkin kita tidak pernah mengetahui kapan hukum Moore akan berakhir, namun secara teoritis, saat teknologi telah mencapai 5nm maka kita akan mengalami masalah “electron tunneling” dimana elektron tidak dapat bergerak bebas lagi sehingga teknologi memaksakan kita untuk menambah fitur tunnel pada ruang elektron. Artinya, prosesor mungkin akan sulit untuk berukuran semakin kecil, dengan demikian, solusi berikutnya akan jatuh pada quantum computing dan stacked chip. VLIW/IA64 telah siap untuk mengadopsi teknologi quantum computing, namun belum untuk stacked chip.

Investasi dari Itanium juga melahirkan versi masa depan dari Larrabee. Walaupun dia berasal dari Itanium Larrabee thread-level parallelism sangat berbeda dengan Itanium VLIW instruction-level parallelism, banyak compiler tool yang sudah memanfaatkan teknologi ini, salah satunya Nvidia CUDA compiler yang dibangun melalui Open64 compiler, sebuah open-source tool yang secara original dikembangkan melalui Itanium. Nantinya, Intel pastinya akan tetap mempertahankan posisi mereka dengan produk best mainstream Core i3/i5/i7, dan juga best mainframe untuk Itanium.

Intel Graphic di masa mendatang,

Bicara soal prinsip dari GPU-computing Intel tetap menjaga komitmen nya dengan pengembangan Larrabee. Chip  ini terdiri dari beberapa P54C core, dan nantinya akan dipergunakan untuk scientific computing platform dan juga untuk keperluan gaming untuk para high-performance enthusiast-level . Gagalnya Larrabee menjadi consumer dikarenakan kesulitan akan pengembangan flagship GPU dari chip ini.

Intel belum memiliki pengalaman penuh untuk grafisIntel belum memiliki pengalaman penuh untuk grafis

Larrabee akan tetap menjadi produk sebagai scientific computing, dimana para development community bertanggung jawab untuk mengembangkan dan mengoptimasikan code program dengan memanfaatkan chip ini. Namun sayang nya Intel memiliki masalah dalam pengembangan graphic driver dan juga shader compiler, yang menghasilkan nilai yang sangat buruk saat benchmark, dibanding yang ditawarkan AMD dan Nvidia.

Bicara soal Nvidia, mereka memiliki langkah awal sukses akibat bantuan dari para software team, yang dipimpin oleh Dwight Diercks. Dalam masa jabatanya, Nvidia telah mengembangkan “Unified Driver Architecture” dan akhirnya melahirkan teknologi metodologi dari CUDA. Akibatnya tidak ada yang perlu dipertanyakan lagi soal driver, semua  driver keluaran Nvidia pada dasarnya memiliki kemampuan yang stabil.

AMD juga memiliki Ben Bar-Haim. Setelah di rekrut ATI pada tahun 2001, dia mengeluarkan proyek Catalyst program pada tahun 2002, yang mang ini membawa ATI Radeon driver ke level yang kompetitif dengan Nvidia. Sehingga keduanya telah berhasil memanfaatkan teknologi dan hardware yang mereka miliki. namun sayang nya Intel tidak memiliki experience sedemikian rupa.

Nvidia patut diperhitungkan

nVidia juga memiliki path yang terangnVidia juga memiliki path yang terang

Keberadaan Intel, ATI, dan AMD tentu saja membuat Nvidia harus terus mengepakan sayapnya, salah langkah tidak menutup kemungkinan Nvidia akan berakhir seperti S3 atau Matrox. Dengan demikian Nvidia tentu saja harus lebih agresif yang dimulai dari NV30 32-bit shader yang saat ini sudah memiliki kemampuan Fermi CUDA, yang secara khusus memanfaatkan core dari CUDA, nampaknya akan mendongkrak Nvidia.

CUDA adalah bahasa marketing Nvidia yang memungkinkan kalau setiap hadware dan software dari Nvidia mampu melakukan proses non-graphics computing pada GPU tersebut. Pada core arsitektur CUDA hardware para developer dapat bekerja dengan menggunakan C, Fortran, OpenCL, dan juga DirectCompute. Dengan memanfaatkan CUDA pada bahasa pemrograman lain membuka kemungkinan baru bagi Nvidia untuk menyabot kalangangan aplikasi, bukan hanya game, sebut saja Mercury Playback Engine yang dikembangkan untuk Adobe CS5. Ini merupakan versi Adobe yang sangat penting. Creative Suite ini diperkirakan akan menjadi best seller karena satu satunya aplikasi yang mengimplementasikan 64-bit native code.

Versi sebelumnya Adobe software memanfaatkan OpenGL untuk meng akselerasi beberapa elemen dalam bekerja, sedangkan nanti, ketika menggunakan Mercury Engine yang notabene teknologi ini menggunakan Nvidia CUDA otomatis akan memberikan kemampuan real-time editing pada high-resolution clip yang lebih kompleks, juga sudah mendukung temporal-based codec seperti H.264 dan AVCHD. Lalu jika jatuh pada encoding Video Nvidia CUDA memiliki Elemental Accelerator sehingga misalnya, dual Quadro FX 3800 setup (sama dengan GeForce GTX 260 dengan 192 core, namun menggunakan 256-bit memory), mampu meng encoding AVCHD 1080p (Film AVATAR) ke H.264 720p dapat diraih dengan kecepatan 40 fps.

Sementara AMD cukup kewalahan dengan hal ini, mengingat AMD hanya mampu memberikan beta plug-in untuk Stream accelerated H.264 encoding, Software ini juga membutuhkan AMD CPU dan tentu saja tidak akan bekerja pada Intel processor. Dalam dunia scientific computing, Nvidia tentu saja menikmati hal ini dan akan menjadi dominan, karena C for CUDA dan Fortran for CUDA. Fortran sangat dominant digunakan pada aplikasi scientific computing.

Namun Nvidia tidak berhenti disitu saja, ketika ATI berhasil merender salah satu versi dari Lord of the Rings secara realtime pada SIGGRAPH 2002 hal ini mengejutkan kalangan. Setidaknya itulah yang dilakukan oleh Nvidia CUDA saat ini, karena telah membawa Nvidia ke level yang baru. Nvidia dan WETA bekerja sama untuk mengembangkan custom software untuk film Avatar, yang disebut dengan PantaRay. Software yang disebut dengan Pre-computational tool ini berjalan lebih cepat 25 kali daripada CPU server dan 4x lebih efektif digunakan saat melakukan renderer. Ini memungkinkan PantaRay melakukan milyaran polygons per frame dalam waktu yang  lebih singkat.

Selaini itu, Pixar graphic atau Pixar films menggunakan software render dengan menggunakan Renderman, Software ini menggunakan arsitektur dari REYES. Cara kerjanya secara tradisional dalam mengolah 3D graphic adalah dengan cara mensortir segitita membentuknya dan memberi tekstur lit, and then textured. REYES divides curves into micropolygons that are smaller than a pixel in size, along with stochastic sampling to prevent aliasing. It’s a different way of rendering. At SIGGRAPH 2009, a GPU implementation of a REYES render was demonstrated using a GeForce GTX 280. Though more work will need to be done, Nvidia appears to be headed in this direction with Bill Dally in the position of VP of research. I’d be surprised if we didn’t see an Nvidia implementation of REYES in the future.

Akankah Nvidia mengembangkan processor x86 ?

Hal ini juga tidak menutup kemungkinakan, setidaknya ada 2 kemungkinan yang dapat terjadi, yaitu:

Opsi pertama, Nvidia akan melanjutkan pengembangan dari Transmeta Crusoe CPU. Walaupun Crusoe tidak begitu sukses, namun CPU ini cukup kompetitif dengan Intel Atom. Versi terbaru dari Cruose nantinya akan mendukung VLIW  yang tentunya akan mengisi jajaran produk low-power device. Saat digabung dengan GPU, Nvidia tidak menutup kemungkinan untuk berperang dengan AMD Fusion dan Intel.

Opsi kedua, mungkin Nvidia akan bekerjasama dengan perusahaan lain untuk membuat simple CPU sebagai versi masa depan dari Tesla atau Quadro. Saat ini GPU yang memiliki kemampuan simple CPU ini mungkin ada pada teknologi GPGPU yang memungkinkan GPU mentransfer data kembali ke system ataupun ke graphic card.

Akhir kata

Dalam beberapa tahun kedepan tentu saja akan semakin menarik di dunia komputasi, karena akan ada 3 pemain signifikan yang ikut berperang dalam kancah dunia teknologi CPU/GPU yaitu AMD, Intel, dan Nvidia. Masing masing dari teknologi yang diperkenalkan ini memiliki banyak perbedaan signifikan, bisa saja nantinya mereka akan memiliki pangsa pasar tersendiri ataupun mengambil semua pangsa pasar yang ada ?

Kita lihat saja di masa nanti.

comments powered by Disqus