Transformasi yang dialami oleh Advanced Micro Devices (AMD) di bawah kepemimpinan Dr. Lisa Su merupakan salah satu studi kasus paling signifikan dalam sejarah industri semikonduktor modern. Sejak menjabat sebagai CEO pada tahun 2014, Su telah mengarahkan perusahaan dari ambang kebangkrutan menuju posisi sebagai penantang utama dalam pasar infrastruktur kecerdasan buatan (AI) global yang didominasi oleh NVIDIA. Fokus strategis yang diterapkan tidak hanya berorientasi pada pemulihan finansial jangka pendek, tetapi pada restrukturisasi fundamental filosofi desain chip melalui pendekatan engineering-first dan inovasi arsitektural yang radikal. Dengan mengintegrasikan unit pemrosesan pusat (CPU) berperforma tinggi, unit pemrosesan grafis (GPU) akselerasi AI, dan teknologi adaptif hasil akuisisi strategis, AMD telah membangun ekosistem komputasi heterogen yang menjadi tulang punggung bagi pengembangan model bahasa besar (Large Language Models) dan aplikasi AI generatif di tingkat dunia.

Lintasan Kepemimpinan dan Filosofi Engineering-First

Keberhasilan Lisa Su dalam menantang dominasi chip global berakar pada latar belakang akademis dan profesionalnya yang sangat teknis. Sebagai pemegang gelar doktor dalam bidang teknik listrik dari Massachusetts Institute of Technology (MIT), Su membawa perspektif yang sangat menghargai kebenaran teknis dan ketelitian sistem. Sebelum bergabung dengan AMD, ia menghabiskan 13 tahun di IBM dalam berbagai peran kepemimpinan bisnis dan teknik, termasuk Wakil Presiden Semiconductor Research and Development Center. Pengalaman ini membentuk keyakinannya bahwa inovasi silikon adalah fondasi dari semua kemajuan teknologi yang penting.

Ketika Su mengambil alih kepemimpinan pada Oktober 2014, AMD menghadapi krisis eksistensial dengan kapitalisasi pasar hanya sekitar $2 miliar dan utang yang menumpuk. Strategi awalnya bukan mencari solusi cepat melalui pemasaran, melainkan menyederhanakan peta jalan produk dan berinvestasi besar-besaran pada desain mikroarsitektur baru yang dikenal sebagai Zen. Su membuat keputusan berisiko tinggi untuk menghentikan penjualan chip yang berkinerja buruk dan memusatkan seluruh sumber daya penelitian dan pengembangan (R&D) perusahaan pada komputasi berperforma tinggi (HPC). Pendekatan ini didasarkan pada visi jangka panjang bahwa beban kerja masa depan di pusat data akan membutuhkan efisiensi dan kepadatan komputasi yang jauh lebih tinggi daripada yang tersedia saat itu.

Metrik Pertumbuhan Finansial AMD di Bawah Lisa Su

Parameter Keuangan 2014 (Awal Jabatan) 2025 (Estimasi/Realisasi Q3) Pertumbuhan/Catatan
Kapitalisasi Pasar ~$2 Miliar ~$300 Miliar Peningkatan >150x
Pendapatan Kuartalan ~$1.4 Miliar (Q3’14) $9.246 Miliar (Q3’25) Rekor pendapatan tertinggi
Margin Kotor (GAAP) ~33% 52% Fokus pada produk premium
Laba Per Saham (Non-GAAP) Minimal/Negatif $1.20 (Q3’25) Peningkatan profitabilitas
Pendapatan Data Center <$100 Juta $4.3 Miliar (Q3’25) Kontribusi 47% dari total pendapatan

Keyakinan Su pada inovasi teknis tercermin dalam mantra kepemimpinannya: “Run towards problems” (lari menuju masalah). Ia mendorong tim tekniknya untuk menangani tantangan tersulit dalam desain semikonduktor, seperti transisi ke node proses yang lebih kecil dan penggunaan teknologi pengemasan canggih. Keputusan untuk mengalihkan produksi ke fabrikasi pihak ketiga seperti TSMC (Taiwan Semiconductor Manufacturing Company) memungkinkan AMD untuk tetap berada di garis depan teknologi proses (seperti node 5nm dan 3nm) tanpa harus menanggung beban modal besar untuk memelihara pabrik sendiri, sebuah model fabless yang memberikan kelincahan luar biasa dibandingkan kompetitor seperti Intel.

Revolusi Zen dan Dominasi Modular: Chiplet sebagai Keunggulan Strategis

Salah satu inovasi paling transformatif yang diperkenalkan oleh AMD di bawah Su adalah adopsi arsitektur chiplet atau desain modular. Alih-alih memproduksi chip monolitik besar yang mahal dan memiliki risiko cacat produksi tinggi, AMD memecah fungsi chip menjadi blok-blok silikon kecil yang diproduksi secara terpisah dan kemudian digabungkan menggunakan teknologi interkoneksi canggih. Inovasi ini, yang pertama kali diimplementasikan secara luas pada prosesor EPYC untuk server dan Ryzen untuk PC, memberikan AMD keunggulan biaya dan skalabilitas yang signifikan.

Melalui desain chiplet, AMD dapat mencampur node proses yang berbeda dalam satu paket; misalnya, menempatkan inti komputasi pada node 5nm yang paling canggih, sementara unit input/output (I/O) tetap pada node yang lebih matang dan murah. Strategi ini tidak hanya meningkatkan hasil produksi (yield), tetapi juga memungkinkan AMD untuk mengemas lebih banyak inti pemrosesan dalam satu slot server dibandingkan kompetitornya. Dampaknya pada pasar server global sangat dramatis. Pangsa pasar CPU server AMD yang tadinya hanya sekitar 1% pada tahun 2017 melonjak hingga mencapai sekitar 40% berdasarkan pendapatan pada pertengahan 2025.

Perbandingan Efisiensi Arsitektur Server (2025)

Fitur Intel Xeon (Generasi Terbaru) AMD EPYC (Generasi ke-5) Keunggulan AMD
Jumlah Inti Maksimum ~60 Inti Hingga 128 Inti Kapasitas multi-threading lebih tinggi
Node Proses 7nm / 10nm Class TSMC 5nm / 4nm / 3nm Efisiensi daya dan kepadatan transistor
Arsitektur Monolitik / Tiles Chiplet Modular Fleksibilitas desain dan biaya produksi
Fokus Beban Kerja General Purpose HPC & AI Infrastructure Optimal untuk pusat data modern

Kesuksesan EPYC adalah fondasi yang memungkinkan AMD mendanai ambisi AI-nya. Pusat data modern kini tidak lagi hanya berisi rak-rak CPU, melainkan telah bertransformasi menjadi klaster komputasi terakselerasi yang didominasi oleh GPU. Visi Su adalah menciptakan platform komputasi heterogen di mana CPU EPYC bekerja secara sinergis dengan akselerator Instinct untuk menangani beban kerja AI yang paling menuntut. Integrasi ini sangat krusial karena pelatihan model AI besar memerlukan pertukaran data yang sangat cepat antara prosesor dan memori, yang difasilitasi oleh teknologi interkoneksi Infinity Fabric milik AMD.

Menantang Dominasi NVIDIA: Strategi Akselerator AI Instinct

Pasar akselerator AI global saat ini merupakan medan pertempuran teknologi paling intens, dengan NVIDIA memegang kendali atas lebih dari 90% pangsa pasar melalui ekosistem GPU Blackwell dan perangkat lunak CUDA-nya. Lisa Su menantang dominasi ini bukan dengan meniru strategi NVIDIA, melainkan dengan menawarkan proposisi nilai yang berbeda: kapasitas memori yang lebih besar, standar terbuka, dan efisiensi biaya per token yang lebih kompetitif.

Seri Instinct MI300X, yang diluncurkan pada akhir 2023, merupakan produk yang diklaim Su sebagai akselerator AI paling canggih di industri pada saat itu. MI300X menggunakan desain APU (Accelerated Processing Unit) yang mengintegrasikan inti CPU dan GPU dengan memori bandwidth tinggi (HBM) dalam satu paket, memungkinkan akses memori yang seragam dan menghilangkan kemacetan komunikasi tradisional antara chip. Fokus pada memori ini adalah langkah strategis yang sangat cerdas, mengingat model bahasa besar seperti Llama 3 atau GPT-4 memerlukan ruang memori yang masif untuk menyimpan miliaran parameter selama proses inferensi.

Perbandingan Teknis Akselerator AI Generasi Terkini

Spesifikasi NVIDIA B200 (Blackwell) AMD Instinct MI355X Implikasi bagi Infrastruktur AI
Kapasitas Memori 192 GB HBM3e 288 GB HBM3e MI355X dapat menampung model yang lebih besar tanpa pembagian
Bandwidth Memori 8 TB/s 8 TB/s Kecepatan transfer data yang setara untuk throughput tinggi
Performa AI (FP4) ~20 PFLOPS ~20 PFLOPS Paritas performa mentah untuk pelatihan dan inferensi
Node Proses 4nm (Custom TSMC) 3nm (N3P TSMC) AMD memiliki keunggulan kepadatan transistor dan efisiensi daya
Dukungan Format FP8 / FP4 FP8 / FP6 / FP4 Fleksibilitas presisi untuk akurasi vs kecepatan

Melalui MI355X, AMD menawarkan kapasitas memori 1,6 kali lebih besar dibandingkan standar NVIDIA B200. Keunggulan memori ini memungkinkan pengembang AI untuk menjalankan model dengan lebih dari 500 miliar parameter pada satu GPU tunggal, mengurangi kompleksitas paralelisme tensor dan kebutuhan akan interkoneksi antar-node yang mahal. Selain itu, AMD memperkenalkan dukungan untuk tipe data presisi rendah seperti FP4 dan FP6, yang sangat krusial untuk meningkatkan throughput inferensi tanpa mengorbankan akurasi model secara signifikan. Dalam pengujian dunia nyata, MI355X menunjukkan peningkatan throughput hingga 1,3 kali lipat dibandingkan B200 pada model Llama 3.1 405B menggunakan kerangka kerja vLLM.

Perangkat Lunak sebagai Penentu: Pertempuran ROCm vs. CUDA

Hambatan terbesar bagi AMD dalam menantang dominasi global adalah loyalitas pengembang terhadap platform CUDA milik NVIDIA, yang telah menjadi standar industri selama dua dekade. Lisa Su menyadari bahwa perangkat keras yang superior tidak akan diadopsi jika ekosistem perangkat lunaknya sulit digunakan. Sebagai tanggapan, AMD telah menginvestasikan sumber daya besar-besaran ke dalam ROCm (Radeon Open Compute), sebuah tumpukan perangkat lunak sumber terbuka yang dirancang sebagai alternatif transparan bagi CUDA.

Strategi ROCm didasarkan pada portabilitas. Melalui alat seperti HIP (Heterogeneous-compute Interface for Portability), pengembang dapat memindahkan kode CUDA mereka ke AMD dengan perubahan minimal. Pada tahun 2025, ROCm 7.0 telah mencapai tingkat kematangan yang signifikan, menawarkan dukungan day-zero untuk kerangka kerja AI utama seperti PyTorch, JAX, dan TensorFlow, serta integrasi dengan lebih dari 1,8 juta model di Hugging Face.

Wawasan mendalam dari transisi ini adalah pergeseran dari perangkat lunak tertutup menuju ekosistem terbuka. Analisis menunjukkan bahwa meskipun CUDA masih mempertahankan keunggulan performa sekitar 10% hingga 30% pada beban kerja tertentu karena optimasi perpustakaan yang lebih lama, ROCm telah menutup celah tersebut secara dramatis. Keuntungan biaya perangkat keras AMD yang 15% hingga 40% lebih rendah membuat rasio performa-per-dolar menjadi sangat menarik bagi perusahaan rintisan AI dan penyedia layanan cloud yang ingin menghindari “pajak NVIDIA”.

Fitur Utama ROCm 7.0 dalam Mendukung Infrastruktur AI

  • Unified Triton 3.3 Kernels: Memungkinkan pengembangan kernel GPU yang terpadu antar-vendor, memfasilitasi portabilitas aplikasi HPC dan AI tanpa harus menulis ulang kode spesifik perangkat keras.
  • DeepEP Inference Engine: Memperkenalkan pemipaan cerdas (intelligent pipelining) untuk tumpang tindih antara komputasi dan transfer data antar-node GPU, sangat penting untuk alur kerja AI yang sensitif terhadap latensi.
  • AITER (AI Tensor Engine): Mengoptimalkan eksekusi dekoder dan mempercepat lapisan Mixture of Experts (MoE), perhatian (attention), dan perkalian matriks (GEMM).
  • Dukungan FP4/FP6: Memberikan densitas komputasi tinggi dan efisiensi memori untuk beban kerja transformer, memungkinkan throughput inferensi yang lebih cepat.

Lisa Su secara vokal mendukung ekosistem terbuka karena ia percaya bahwa tidak ada satu perusahaan pun yang memiliki monopoli atas ide-ide bagus. Kemitraan strategis dengan pemain besar seperti Meta, yang menggunakan ROCm untuk menjalankan model Llama mereka, memberikan validasi kritis bagi ekosistem AMD. Dengan menjalin aliansi melalui Ultra Ethernet Consortium (UEC) dan standar terbuka lainnya, Su memposisikan AMD sebagai pemimpin dalam komputasi kolaboratif yang menentang pendekatan integrasi vertikal NVIDIA yang tertutup.

Akuisisi Strategis: Membangun Kapabilitas Full-Stack hingga Full-Rack

Untuk benar-benar menantang dominasi chip global, AMD di bawah Lisa Su telah melakukan serangkaian akuisisi cerdas yang dirancang untuk mengisi celah dalam portofolio teknologinya. Strategi ini bukan hanya tentang menambah jumlah karyawan, melainkan tentang mengintegrasikan kapabilitas sistem yang memungkinkan AMD menawarkan solusi infrastruktur AI ujung-ke-ujung (end-to-end).

Akuisisi Xilinx senilai $49 miliar pada tahun 2022 merupakan langkah paling monumental, menjadikan AMD pemimpin dalam komputasi adaptif dan FPGA. FPGA Xilinx sangat penting untuk infrastruktur AI karena kemampuannya untuk diprogram ulang guna menangani algoritma yang terus berubah, sesuatu yang tidak bisa dilakukan oleh chip ASIC statis. Selain itu, teknologi AI Engine dari Xilinx kini telah diintegrasikan ke dalam prosesor Ryzen AI, membawa kemampuan pemrosesan AI langsung ke perangkat pengguna (edge AI).

Pilar Akuisisi Strategis AMD untuk Infrastruktur AI

Perusahaan Tahun Kapabilitas Utama Dampak pada Strategi AI
Xilinx 2022 FPGA, SoC Adaptif, AI Engines Memperluas jangkauan ke edge, otomotif, dan jaringan cerdas
Pensando 2022 DPU (Data Processing Unit) Mengoptimalkan throughput jaringan dan keamanan di pusat data AI
Silo AI 2024 Lab AI Terbesar di Eropa Memperkuat layanan AI kedaulatan dan optimasi model khusus
ZT Systems 2025 Desain Sistem Skala Rak Memungkinkan pengiriman solusi pusat data AI siap pakai (Full-Rack)

Akuisisi ZT Systems pada tahun 2024 (selesai awal 2025) menandai pergeseran dari “Full Stack” menjadi “Full Rack”. Lisa Su menyadari bahwa pelanggan hyperscale tidak hanya ingin membeli chip, tetapi mereka membutuhkan rak server lengkap yang mencakup pendinginan canggih, manajemen daya, dan jaringan yang sudah dioptimalkan. ZT Systems membawa keahlian dalam merancang infrastruktur komputasi untuk perusahaan cloud terbesar di dunia, memungkinkan AMD mempercepat waktu peluncuran sistem rak berbasis MI300 dan MI350. Dengan mendivestasi bisnis manufaktur ZT Systems kepada Sanmina, AMD tetap fokus pada desain dan teknik, mempertahankan model bisnis yang hemat modal (capital-light) namun memiliki pengaruh sistem yang besar.

Infrastruktur AI dan Tantangan Kemanusiaan: Kaitan dengan Keamanan dan Etika

Kepemimpinan Lisa Su dalam menyediakan infrastruktur komputasi AI juga bersinggungan dengan debat global mengenai keamanan dan risiko AI. Seiring dengan kemajuan model AI seperti Claude milik Anthropic atau GPT dari OpenAI, tuntutan akan daya komputasi yang aman dan andal menjadi semakin mendesak. Pimpinan industri seperti Dario Amodei dari Anthropic telah memberikan kesaksian di hadapan Kongres AS mengenai kecepatan kemajuan AI yang luar biasa, di mana kekuatan sistem meningkat 2x hingga 5x setiap tahun berkat kombinasi kuantitas chip, kecepatan chip, dan efisiensi algoritma.

Sebagai penyedia infrastruktur, AMD memiliki peran krusial dalam memitigasi risiko-risiko ini melalui desain perangkat keras yang aman. Amodei menekankan bahwa keamanan AI harus menjadi bagian dari desain sistem, bukan sekadar tambahan. AMD merespons tantangan ini dengan mengintegrasikan fitur keamanan tingkat silikon dan mendukung inisiatif “Sovereign AI” melalui akuisisi Silo AI. Dengan menyediakan platform yang transparan dan dapat diaudit, AMD membantu negara-negara dan perusahaan membangun infrastruktur AI yang selaras dengan nilai-nilai lokal tanpa harus bergantung sepenuhnya pada model “kotak hitam” dari vendor tunggal.

Analisis Kebutuhan Infrastruktur Berdasarkan Kemajuan Model AI

Kebutuhan Model (Misal: Claude 4.5) Solusi Perangkat Keras AMD Relevansi Strategis
Kapasitas Parameter Masif Memori HBM4 432GB pada MI400 Memungkinkan pemuatan model besar ke memori lokal untuk kecepatan
Akurasi & Refusal Rate Tinggi Fleksibilitas format presisi (FP6/FP4) Meminimalkan degradasi akurasi selama kompresi model
Kebutuhan Daya Masif (50GW Target) Efisiensi proses 3nm & EPYC Venice Menurunkan Total Cost of Ownership (TCO) melalui efisiensi energi
Keamanan & Kedaulatan Data Pendekatan Open ROCm & Silo AI Mendukung kontrol regional atas infrastruktur AI yang strategis

Laporan intelijen ancaman terbaru menunjukkan bahwa AI telah mulai disalahgunakan untuk serangan siber yang canggih, termasuk pembuatan ransomware dan penipuan identitas. Lisa Su menekankan bahwa misi AMD adalah membangun infrastruktur yang memungkinkan para peneliti menemukan “hal-hal luar biasa” sambil tetap waspada terhadap potensi risiko. Dengan mendukung standar seperti Ultra Ethernet untuk jaringan pusat data, AMD memastikan bahwa pergerakan data antar-node AI dilakukan melalui jalur yang aman dan efisien, mengurangi permukaan serangan bagi aktor jahat yang mencoba mengeksploitasi infrastruktur AI skala besar.

Masa Depan Infrastruktur AI: Peta Jalan Menuju 2030

Visi Lisa Su untuk AMD melampaui persaingan chip saat ini; ia melihat siklus transformasi AI selama sepuluh tahun yang akan membentuk kembali setiap industri. AMD telah memproyeksikan bahwa total pasar yang dapat disasar (Total Addressable Market/TAM) untuk akselerator AI pusat data akan mencapai $1 triliun pada tahun 2030. Angka ini mencerminkan keyakinan Su bahwa permintaan akan komputasi AI adalah “insatiable” atau tidak akan pernah terpuaskan.

Untuk menangkap peluang ini, AMD telah mengumumkan peta jalan produk yang sangat agresif. Setelah MI350 pada tahun 2025, perusahaan akan meluncurkan seri Instinct MI400 pada tahun 2026 yang menggunakan arsitektur CDNA 5. MI400 dirancang khusus untuk bersaing dengan seri “Vera Rubin” dari NVIDIA, dengan janji peningkatan performa komputasi FP4 hingga dua kali lipat dibandingkan generasi sebelumnya.

Peta Jalan Teknologi AMD Instinct (2024-2027)

Tahun Produk Arsitektur Fokus Inovasi Target Pasar
2024 MI325X CDNA 3 (Aqua Vanjaram) Memori 256GB HBM3e, 6 TB/s Inferensi Model Besar
2025 MI350 / MI355X CDNA 4 (3nm) Dukungan FP4/FP6, Memori 288GB Persaingan Langsung dengan Blackwell
2026 MI400 / MI455X CDNA 5 Memori 432GB HBM4, 19.6 TB/s Infrastruktur AI Skala Rak (Helios)
2027 MI500 CDNA Next / UDNA Interkoneksi generasi berikutnya Pelatihan AI Skala Exascale

Peta jalan ini didukung oleh pengembangan sistem “Helios” yang dijadwalkan meluncur pada kuartal ketiga 2026. Helios adalah arsitektur rak yang menggabungkan CPU “Venice” generasi berikutnya, GPU MI450, dan chip jaringan “Vulcano”. Dengan menawarkan solusi terintegrasi ini, AMD bertujuan untuk memberikan kinerja tingkat klaster yang melampaui sistem DGX milik NVIDIA, terutama dalam hal kapasitas memori dan scale-out bandwidth.

Wawasan strategis yang mendalam di sini adalah transisi AMD dari perusahaan komponen menjadi perusahaan sistem pusat data. Lisa Su berulang kali menekankan kata “skala” dalam setiap presentasinya. Kemampuan untuk menyebarkan klaster AI dengan puluhan ribu GPU secara cepat adalah kunci untuk memenangkan hati pelanggan seperti OpenAI, yang telah menjalin kesepakatan multi-tahun untuk menyebarkan 6 gigawatt daya komputasi berbasis GPU Instinct AMD. Kesepakatan ini, yang mencakup penyebaran 1 gigawatt MI450 pada paruh kedua 2026, merupakan validasi tertinggi bahwa AMD telah menjadi alternatif sejati bagi dominasi NVIDIA.

Kepemimpinan Lisa Su: Budaya Akuntabilitas dan Visi Jangka Panjang

Keberhasilan AMD tidak dapat dipisahkan dari budaya organisasi yang dibangun oleh Lisa Su. Saat ia menjabat sebagai CEO, morale karyawan berada pada titik terendah. Su membangun kembali kepercayaan dengan fokus pada kejelasan, fokus, dan ambisi. Ia memperkenalkan model eksekusi yang disiplin, di mana setiap janji produk harus ditepati tepat waktu tanpa jalan pintas. Akuntabilitas ini sangat kontras dengan masa lalu perusahaan di mana penundaan peluncuran produk sering terjadi.

Studi kasus dari Harvard Business School yang dipublikasikan pada tahun 2025 menyoroti bagaimana Su menyederhanakan peta jalan produk dan memperbaiki hubungan dengan pemangku kepentingan utama untuk menjadikan AMD sebagai pusat kekuatan teknologi. Kepemimpinannya digambarkan memiliki keseimbangan langka antara kapabilitas manajerial dan kepiawaian pemecahan masalah teknis. Dengan tetap rendah hati dan lebih banyak berbicara tentang kemajuan AMD daripada tentang dirinya sendiri, Su telah menciptakan organisasi meritokratis yang fokus pada penyelesaian masalah tersulit bagi pelanggan.

Analisis terhadap gaya kepemimpinan Su menunjukkan tiga pilar utama eksekusi:

  1. Taruhan Strategis Berdasarkan Keyakinan Produk: Memilih untuk berinvestasi pada Zen dan AI jauh sebelum pasar menyadari potensinya.
  2. Disiplin Operasional: Membangun kepercayaan melalui pengiriman produk yang konsisten dan berkualitas tinggi.
  3. Wawasan Pasar: Mengidentifikasi pergeseran industri menuju efisiensi performa-per-dolar sebelum menjadi konsensus umum.

Meskipun persaingan tetap sengit dan risiko gelembung AI selalu menghantui, Lisa Su tetap optimis. Ia percaya bahwa kita baru berada di awal dari transformasi sepuluh tahun yang digerakkan oleh AI. AMD di bawah Su telah bertransformasi menjadi entitas yang tidak hanya menantang dominasi chip global, tetapi juga aktif membentuk masa depan infrastruktur AI melalui inovasi tanpa henti dan kemitraan yang saling menguntungkan di seluruh ekosistem teknologi.

Kesimpulan: Dampak Strategis bagi Ekosistem Teknologi Global

Lisa Su telah berhasil mengubah Advanced Micro Devices dari perusahaan yang hampir terlupakan menjadi pemimpin dalam revolusi komputasi paling penting di abad ini. Melalui fokus pada kebutuhan infrastruktur AI, ia telah memecah monopoli teknis dan memberikan pilihan yang sangat dibutuhkan oleh pasar global. Strategi AMD yang mengedepankan standar terbuka, kapasitas memori yang masif, dan integrasi sistem skala rak telah menetapkan standar baru bagi performa pusat data.

Pencapaian ini bukan hanya kemenangan bagi satu perusahaan, tetapi merupakan katalis bagi seluruh industri AI. Dengan adanya kompetisi yang sehat antara AMD dan NVIDIA, biaya komputasi AI dapat ditekan, inovasi dipercepat, dan akses terhadap teknologi tinggi menjadi lebih demokratis bagi perusahaan di seluruh dunia. Warisan kepemimpinan Lisa Su akan dikenang sebagai periode di mana arsitektur semikonduktor berevolusi dari komponen statis menjadi sistem cerdas yang mampu mendorong batas-batas kognisi manusia melalui infrastruktur kecerdasan buatan yang kuat dan berkelanjutan. Tantangan masa depan, mulai dari ketegangan geopolitik hingga batasan fisik hukum Moore, akan terus menguji AMD, namun dengan fondasi teknis dan budaya yang telah diletakkan Su, perusahaan ini kini memiliki kelincahan dan kekuatan untuk tetap menjadi titan semikonduktor dalam era kecerdasan umum buatan (Artificial General Intelligence) yang akan datang.

 

 

 

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *

79 + = 88
Powered by MathCaptcha