Kemunculan Liang Wenfeng dalam peta teknologi global menandai titik balik krusial dalam sejarah komputasi modern, di mana dominasi absolut Silicon Valley mulai menghadapi tantangan sistemik dari Asia. Sebagai pendiri DeepSeek dan salah satu otak di balik firma kuantitatif High-Flyer, Liang telah memelopori pendekatan baru dalam pengembangan kecerdasan buatan (AI) yang memprioritaskan kecerdasan arsitektural di atas kekuatan komputasi mentah. Melalui model bahasa besar yang dikembangkannya, ia tidak hanya memperkenalkan perangkat lunak yang kompetitif secara teknis, tetapi juga meruntuhkan mitos ekonomi yang selama ini menjadi fondasi valuasi industri AI di Amerika Serikat. Laporan ini akan menganalisis secara mendalam profil Liang Wenfeng, mekanisme teknis yang memungkinkan DeepSeek menantang raksasa global, serta implikasi pasar dan geopolitik dari strategi efisiensi radikal yang ia usung.
Profil dan Rekam Jejak Liang Wenfeng: Dari Kuantitatif Keuangan Menuju AGI
Liang Wenfeng lahir pada tahun 1985 di Wuchuan, Guangdong, sebuah wilayah yang dikenal sebagai pusat kewirausahaan di China. Pendidikan formalnya di Universitas Zhejiang, di mana ia meraih gelar Sarjana Teknik dalam Teknik Informasi Elektronik dan Magister Teknik dalam Teknik Informasi dan Komunikasi, memberikan landasan teknis yang kuat bagi karier masa depannya. Selama masa studinya, Liang menunjukkan ketertarikan yang mendalam pada algoritma pelacakan objek, yang menjadi dasar bagi tesis magisternya pada tahun 2010. Pengalaman awal ini sangat krusial karena melatih kemampuannya untuk mengoptimalkan kinerja sistem pada perangkat keras dengan biaya rendah, sebuah prinsip yang nantinya akan ia terapkan pada skala yang jauh lebih besar di DeepSeek.
Karier profesional Liang dimulai dengan eksperimen-eksperimen awal dalam menerapkan AI di berbagai bidang setelah ia lulus dan pindah ke sebuah flat murah di Chengdu. Meskipun banyak dari usaha awalnya mengalami kegagalan, Liang menemukan celah keberhasilan ketika ia mulai menerapkan algoritma pembelajaran mesin pada sektor keuangan. Pada tahun 2013, ia mendirikan Hangzhou Yakebi Investment Management, dan dua tahun kemudian, ia ikut mendirikan firma hedge fund kuantitatif High-Flyer. High-Flyer dengan cepat tumbuh menjadi salah satu pemain dominan di pasar modal China, dengan aset kelolaan yang melampaui 100 miliar yuan pada tahun 2021. Keberhasilan High-Flyer tidak hanya didorong oleh strategi investasi yang cerdas, tetapi juga oleh pandangan visioner Liang untuk membangun infrastruktur komputasi internal yang masif sebelum pembatasan ekspor chip oleh Amerika Serikat diperketat.
Pada tahun 2023, Liang membuat keputusan strategis untuk mengalihkan sumber daya High-Flyer guna mengejar pengembangan kecerdasan umum buatan (AGI) melalui pendirian DeepSeek. Berbeda dengan banyak eksekutif teknologi yang lebih fokus pada aspek komersialisasi, Liang mempertahankan citra sebagai seorang “geek” atau teknokrat tulen yang terlibat langsung dalam detail teknis penelitian. Kepemimpinannya dicirikan oleh struktur organisasi yang datar dan budaya inovasi bottom-up, di mana talenta muda dari universitas elit seperti Universitas Peking dan Universitas Tsinghua diberi ruang untuk menyelesaikan tantangan teknis tersulit di dunia tanpa tekanan birokrasi yang kaku.
Evolusi Karier dan Pencapaian Utama Liang Wenfeng
| Tahun | Peristiwa Penting | Deskripsi Strategis |
| 2007 | Lulus dari Universitas Zhejiang | Meraih gelar Bachelor of Engineering di bidang Teknik Informasi Elektronik. |
| 2010 | Tesis Magister | Penelitian tentang algoritma pelacakan objek dengan kamera biaya rendah. |
| 2013 | Pendirian Yakebi Investment | Eksperimen pertama dalam menggabungkan AI dengan perdagangan kuantitatif. |
| 2015 | Pendirian High-Flyer | Membangun firma hedge fund kuantitatif yang menjadi pemimpin pasar di China. |
| 2021 | Akumulasi Chip Nvidia | Mulai menimbun ribuan chip Nvidia sebelum pemberlakuan kontrol ekspor AS. |
| 2023 | Peluncuran DeepSeek | Pengumuman resmi fokus pada pengembangan AGI dan model open-weights. |
| 2025 | DeepSeek Shock | Peluncuran model R1 yang mengguncang pasar modal global dan valuasi Nvidia. |
Mekanisme Inovasi: Arsitektur Efisiensi DeepSeek
Tantangan utama yang diajukan oleh DeepSeek terhadap dominasi Silicon Valley terletak pada kemampuan mereka untuk memproduksi model dengan kinerja tinggi menggunakan sumber daya yang jauh lebih sedikit dibandingkan model-model dari OpenAI atau Google. Liang Wenfeng telah berulang kali menyatakan bahwa ketergantungan pada jumlah chip yang tidak terbatas adalah paradigma yang keliru. Sebaliknya, ia mendorong timnya untuk melakukan inovasi pada tingkat arsitektur yang paling mendasar guna mengatasi kendala hardware yang dihadapi oleh perusahaan China akibat sanksi internasional.
Multi-head Latent Attention (MLA)
Salah satu terobosan teknis yang paling menonjol adalah pengembangan mekanisme Multi-head Latent Attention (MLA). Dalam arsitektur Transformer tradisional, kebutuhan memori untuk Key-Value (KV) cache meningkat seiring dengan panjangnya konteks, yang seringkali menjadi hambatan utama dalam kecepatan inferensi dan kapasitas model. DeepSeek mengatasi masalah ini melalui kompresi laten bersama untuk kunci dan nilai guna mengurangi beban KV cache secara signifikan selama inferensi.
Secara teknis, MLA menggunakan faktorisasi rank rendah untuk menghasilkan representasi laten yang kompak yang tetap mempertahankan informasi kontekstual yang kritis. Formula dasar untuk kompresi KV dalam MLA dapat dinyatakan sebagai berikut:
Di mana adalah vektor laten terkompresi, adalah matriks down-projection, dan serta adalah matriks up-projection untuk kunci dan nilai. Mekanisme ini memungkinkan model DeepSeek untuk menangani jendela konteks hingga 128.000 token dengan penggunaan memori yang berkurang hingga 93% dibandingkan dengan Multi-head Attention (MHA) standar. Efisiensi ini bukan sekadar pencapaian akademis, melainkan kebutuhan operasional yang memungkinkan DeepSeek menjalankan model raksasa pada klaster GPU yang lebih kecil dan terbatas.
DeepSeekMoE dan Strategi Mixture-of-Experts
DeepSeek juga menyempurnakan arsitektur Mixture-of-Experts (MoE) melalui desain DeepSeekMoE yang menggunakan load balancing tanpa kehilangan tambahan (auxiliary-loss-free). Dalam model padat (dense) tradisional, semua parameter diaktifkan untuk setiap token yang diproses, yang menyebabkan biaya komputasi yang sangat tinggi. Sebaliknya, MoE hanya mengaktifkan subset parameter untuk setiap tugas tertentu.
DeepSeek-V3, misalnya, memiliki total 671 miliar parameter, namun hanya sekitar 37 miliar parameter yang aktif untuk setiap token. Penghematan ini dicapai melalui perutean dinamis di mana router memilih “pakar” yang paling relevan untuk memproses data input tertentu. Inovasi DeepSeek mencakup Expert-Level Balance Loss dan Device-Level Balance Loss untuk memastikan distribusi beban kerja yang merata di seluruh perangkat keras, sehingga meminimalkan hambatan komunikasi dalam lingkungan komputasi terdistribusi.
Group Relative Policy Optimization (GRPO)
Untuk melatih model penalaran seperti DeepSeek-R1, Liang dan timnya mengembangkan varian algoritma reinforcement learning (RL) yang disebut Group Relative Policy Optimization (GRPO). Algoritma ini merupakan penyempurnaan dari Proximal Policy Optimization (PPO) yang digunakan oleh OpenAI. Perbedaan mendasarnya adalah GRPO meniadakan model “kritik” (critic model) yang biasanya menyertai model kebijakan dalam pelatihan RL tradisional.
GRPO bekerja dengan cara mengestimasi baseline dari skor kelompok (group scores) daripada menggunakan nilai absolut dari model fungsi nilai yang terpisah. Dengan membandingkan beberapa respons secara bersamaan dalam satu batch, GRPO dapat menghitung keuntungan relatif tanpa memerlukan jaringan saraf tambahan, yang secara drastis mengurangi konsumsi memori dan daya komputasi selama fase pelatihan. Hal ini memungkinkan DeepSeek untuk menginvestasikan sumber daya komputasinya secara lebih efisien dalam eksplorasi penalaran rantai pemikiran (Chain-of-Thought).
| Fitur Pelatihan | PPO (Tradisional) | GRPO (DeepSeek) |
| Model yang Dilatih | Kebijakan dan Kritik | Hanya Kebijakan |
| Kebutuhan Komputasi | Sangat Tinggi | Rendah hingga Menengah |
| Evaluasi Respons | Satu per satu | Berbasis Kelompok |
| Efisiensi Memori | Rendah (Dua model aktif) | Tinggi (Satu model aktif) |
| Kemampuan Penalaran | Tergantung Skala | Sangat Kuat melalui eksplorasi RL |
Disrupsi Ekonomi: Meruntuhkan Mitos Biaya Miliaran Dolar
Salah satu kontribusi paling revolusioner dari Liang Wenfeng bagi industri AI global adalah pembuktian bahwa model kelas dunia dapat dibangun dengan anggaran yang sangat efisien. Selama ini, narasi di Silicon Valley adalah bahwa pengembangan AI frontier memerlukan belanja modal (capex) yang terus meningkat, yang pada gilirannya menciptakan hambatan masuk yang sangat tinggi bagi pemain baru. DeepSeek telah membalikkan logika ini secara spektakuler.
Analisis Biaya Pelatihan DeepSeek-R1
DeepSeek-R1 dilaporkan dikembangkan dengan biaya pelatihan hanya sekitar US6 juta. Angka ini sangat mencengangkan jika dibandingkan dengan biaya pelatihan GPT-4 yang diperkirakan berada di kisaran US100 juta, atau model-model terbaru dari Google dan Meta yang investasinya mencapai miliaran dolar jika menyertakan biaya infrastruktur. Meskipun beberapa analis Barat meragukan angka tersebut dan memperkirakan biaya yang lebih realistis mencapai US$500 juta jika menghitung seluruh proses pengembangan, kesenjangan efisiensi tetap tidak terbantahkan.
Efisiensi ini dicapai melalui penggunaan klaster GPU yang relatif kecil namun dioptimalkan secara maksimal. DeepSeek menggunakan sekitar 2.000 GPU Nvidia H800 untuk melatih model dasarnya, jumlah yang sangat kecil dibandingkan dengan 16.000 GPU H100 yang digunakan Meta untuk Llama 3 atau rencana klaster 100.000 GPU yang dicanangkan oleh beberapa perusahaan AS. Liang Wenfeng menjelaskan bahwa fokus pada efisiensi data dan struktur model memungkinkan mereka untuk memperkecil celah efisiensi yang biasanya mengharuskan penggunaan daya komputasi empat kali lebih besar untuk hasil yang sama.
Dampak terhadap Valuasi Pasar dan Nvidia
Peluncuran DeepSeek pada akhir Januari 2025 memicu apa yang disebut sebagai “DeepSeek Shock” di pasar modal global. Kekhawatiran bahwa efisiensi radikal DeepSeek akan mengurangi permintaan akan chip Nvidia yang mahal menyebabkan saham Nvidia anjlok 17% dalam satu sesi perdagangan, menghapus nilai pasar sekitar US$600 miliar—kerugian satu hari terbesar dalam sejarah perusahaan di AS. Disrupsi ini tidak hanya menyerang pembuat chip, tetapi juga memicu kekhawatiran tentang gelembung investasi AI secara keseluruhan.
Pasar mulai menyadari bahwa jika model AI yang kompetitif dapat dibangun dengan biaya rendah, maka “parit komputasi” (compute moat) yang dibangun oleh raksasa teknologi AS mungkin tidak sekuat yang diperkirakan. Hal ini memaksa para investor untuk memikirkan kembali strategi belanja modal perusahaan teknologi besar seperti Meta dan Microsoft yang telah mengalokasikan ratusan miliar dolar untuk infrastruktur AI.
Perbandingan Efisiensi Ekonomi AI
| Metrik | Model Silicon Valley (Estimasi) | DeepSeek (R1/V3) |
| Biaya Pelatihan Utama | US1 Miliar | US6 Juta |
| Jumlah GPU Digunakan | 16,000 – 100,000+ | ~2,000 H800 |
| Harga API (per 1M token) | US$15 (Input/Output Tinggi) | US1.10 (Sangat Rendah) |
| Lisensi | Tertutup (Proprietary) | Open-Weights (MIT/Apache) |
| Waktu Pelatihan | Berbulan-bulan | Mingguan / Bulanan |
Analisis Performa dan Keunggulan Kompetitif
Keberhasilan DeepSeek bukan hanya terletak pada harganya yang murah, tetapi pada kinerjanya yang secara konsisten menandingi atau melampaui model-model terbaik dunia dalam pengujian objektif, terutama dalam domain matematika dan koding. Liang Wenfeng memposisikan model-modelnya sebagai sistem yang mengutamakan penalaran, bukan sekadar chatbot untuk percakapan umum.
Performa Matematika dan Koding
DeepSeek-R1 menunjukkan keunggulan yang signifikan dalam penalaran matematika tingkat lanjut. Pada tes MATH-500, model ini meraih skor 90,2%, yang kemudian meningkat menjadi lebih dari 97% dalam iterasi R1 terbaru. Skor ini melampaui pencapaian Claude 3.5 Sonnet (78,3%) dan GPT-4o (74,6%) pada periode yang sama. Model ini juga sangat kuat dalam kompetisi pemrograman, mencapai rating tingkat “Grandmaster” di Codeforces, bersaing ketat dengan model-model elit dari Google Gemini dan OpenAI o1.
Kemampuan DeepSeek untuk melakukan verifikasi mandiri dan refleksi selama proses berpikir (thinking mode) memungkinkannya untuk mengoreksi kesalahannya sendiri sebelum memberikan jawaban akhir. Hal ini sangat berguna dalam domain teknis di mana presisi adalah segalanya. Namun, para pengamat mencatat bahwa keunggulan ini terkadang dibayar dengan respons yang sangat panjang dan verbose, karena model cenderung mendokumentasikan setiap langkah pemikirannya secara mendalam.
Perbandingan Benchmark Global (Data Akhir 2025)
| Benchmark | DeepSeek-R1 / V3.2 | OpenAI o1 / o3-mini | Claude 4.5 Sonnet |
| MATH-500 | 97.3% | 94.8% | 96.2% |
| AIME 2024/25 | 87.5% | 79.6% | 84.8% |
| LiveCodeBench | 73.3% | 65.9% | 77.2% |
| SWE-bench Verified | 74.9% | 77.9% | 77.2% |
| Arena-Hard | 76.3% | Sangat Tinggi | 82%+ |
Meskipun DeepSeek unggul dalam matematika dan koding, model-model dari Silicon Valley seperti Claude 4.5 dan GPT-5 tetap mempertahankan keunggulan dalam stabilitas agen, eksekusi perintah terminal yang kompleks, dan orkestrasi alat-alat eksternal (tool-use). DeepSeek cenderung mengalami penurunan akurasi pada alur kerja agen yang panjang dan membutuhkan navigasi web yang intens. Namun, untuk tugas-tugas “smart work” sehari-hari, DeepSeek menawarkan rasio performa-harga yang hampir tidak terkalahkan.
Strategi Geopolitik dan Diplomasi Open-Source
Langkah Liang Wenfeng untuk merilis bobot model secara terbuka (open-weights) merupakan keputusan strategis yang memiliki implikasi geopolitik yang mendalam. Dengan membagikan kode dan bobot model di bawah lisensi yang sangat bebas seperti MIT dan Apache 2.0, DeepSeek secara efektif memposisikan dirinya sebagai pemimpin gerakan demokratisasi AI, sekaligus memberikan tantangan bagi model-model tertutup dari perusahaan AS.
Demokratisasi AI sebagai Alat Soft Power
Keputusan untuk merilis model seperti DeepSeek-R1 secara terbuka memungkinkan para pengembang di seluruh dunia untuk menjalankan sistem AI tingkat lanjut pada infrastruktur lokal mereka sendiri, tanpa perlu bergantung pada server yang berada di Amerika Serikat. Hal ini sangat menarik bagi negara-negara yang ingin mempertahankan kedaulatan data dan teknologi mereka. Dengan menurunkan biaya akses ke intelijen tingkat tinggi hingga 30 kali lipat, DeepSeek telah memperluas jangkauan teknologi AI ke startup dan peneliti di luar ekosistem Silicon Valley.
Namun, keterbukaan ini juga memicu kekhawatiran keamanan nasional di Barat. Beberapa lembaga pemerintah di Amerika Serikat, termasuk NASA dan Angkatan Laut, serta negara-negara seperti India dan Australia, telah membatasi atau melarang penggunaan DeepSeek pada perangkat resmi karena kekhawatiran akan privasi data dan potensi pengaruh pemerintah China melalui filtrasi konten. Kritik juga diarahkan pada model ini karena dianggap memiliki kecenderungan penyensoran terhadap topik-topik sensitif bagi pemerintah China, yang mencerminkan pengaruh norma sosial dan hukum setempat ke dalam kode algoritma.
Navigasi Kontrol Ekspor Chip
Strategi efisiensi Liang Wenfeng sebagian besar dipaksa oleh kenyataan pahit kontrol ekspor AS terhadap semikonduktor canggih. Liang mengakui bahwa larangan pengiriman chip tingkat tinggi adalah kendala utama perusahaan, bukan pendanaan. Akibatnya, DeepSeek harus berinovasi menggunakan chip H800 yang kinerjanya telah diturunkan untuk memenuhi aturan ekspor, atau bahkan menggunakan stok chip lama seperti A100 yang berhasil mereka kumpulkan sebelum larangan berlaku.
Paradoksnya, kelangkaan ini justru memicu kreativitas teknis yang mungkin tidak akan terjadi jika mereka memiliki akses tanpa batas ke perangkat keras terbaru. Para insinyur di DeepSeek terdorong untuk mengeksplorasi optimasi “ground-up” yang seringkali diabaikan oleh perusahaan Barat yang lebih memilih pendekatan “brute-force” dengan menambah jumlah GPU. Keberhasilan DeepSeek membuktikan bahwa kecerdasan arsitektural dapat mengompensasi keterbatasan fisik perangkat keras hingga batas tertentu.
Visi Liang Wenfeng dan Masa Depan AI (2026 dan Seterusnya)
Liang Wenfeng tidak melihat DeepSeek hanya sebagai pembuat model bahasa, melainkan sebagai mesin inovasi yang bertujuan mencapai AGI dalam satu dekade ke depan. Visi masa depannya mencakup transisi dari sekadar chatbot menjadi framework sistem otonom yang dapat berinteraksi secara cerdas dengan dunia nyata.
Roadmap DeepSeek R2 dan V4
Memasuki tahun 2026, DeepSeek dilaporkan tengah mengerjakan model R2 yang diperkirakan akan menjadi model dengan skala 1,2 triliun parameter namun tetap mempertahankan efisiensi ekstrem melalui aktivasi hanya sekitar 78 miliar parameter. Rumor menunjukkan bahwa R2 akan memiliki kemampuan multimodalitas yang lebih baik, mampu memproses gambar, audio, dan video dalam satu sistem terpadu, serta memiliki pemahaman arsitektur perangkat lunak yang setara dengan pengembang senior.
Strategi Liang tetap konsisten: ia tidak ingin DeepSeek membangun aplikasi konsumen yang mengkilap, melainkan ingin fokus menjadi “penyedia mesin” bagi ekosistem AI global. Ia memprediksi bahwa dalam beberapa tahun ke depan, AI akan menjadi komoditas yang terjangkau bagi semua orang, memicu pergeseran nilai dari teknologi dasar ke lapisan aplikasi yang dibangun di atasnya.
Filosofi Inovasi: Keyakinan di Atas Imitasi
Dalam serangkaian wawancara, Liang menekankan pentingnya kepercayaan diri budaya dalam riset teknologi. Ia mengkritik kebiasaan perusahaan China yang selama bertahun-tahun hanya meniru inovasi dari luar negeri. Baginya, inovasi adalah masalah keyakinan psikologis untuk berani mencoba jalur yang belum pernah dilalui oleh Silicon Valley. Ia mencontohkan keberanian DeepSeek untuk mengembangkan arsitektur MLA dan algoritma GRPO sendiri sebagai bukti bahwa orisinalitas adalah kunci untuk menutup kesenjangan efisiensi dengan standar global.
Struktur organisasi DeepSeek yang “nerdy” dan idealis—mengingatkan banyak orang pada masa-masa awal OpenAI—menjadi daya tarik utama bagi talenta-talenta teknis terbaik yang ingin menyelesaikan tantangan yang benar-benar sulit, bukan sekadar mengejar profit jangka pendek. Dengan komitmen untuk tetap open-weights, Liang Wenfeng telah memastikan bahwa DeepSeek akan tetap menjadi pusat gravitasi dalam revolusi AI dari Asia, memaksa seluruh industri untuk mengadopsi paradigma efisiensi yang ia pelopori.
Kesimpulan: Perubahan Permanen pada Lanskap AI Global
Kehadiran Liang Wenfeng dan DeepSeek telah secara permanen mengubah dinamika kekuasaan dalam industri kecerdasan buatan. Dengan membuktikan bahwa model penalaran tingkat lanjut dapat diproduksi dengan sebagian kecil dari biaya dan perangkat keras yang digunakan oleh raksasa Silicon Valley, DeepSeek telah meruntuhkan monopoli modal atas intelijen buatan. “DeepSeek Shock” bukan sekadar fluktuasi pasar saham, melainkan pergeseran paradigma menuju AI yang lebih hemat energi, terjangkau, dan terbuka secara arsitektural.
Strategi Liang yang menggabungkan kemahiran matematis dari latar belakang keuangan kuantitatif dengan idealisme teknis untuk mengejar AGI telah menciptakan model bisnis baru di mana efisiensi adalah keunggulan kompetitif utama. Di masa depan, sejarah mungkin akan mencatat momen ini sebagai “Sputnik Moment” bagi industri AI Barat, di mana sebuah laboratorium riset dari Hangzhou memaksa seluruh dunia untuk memikirkan kembali bagaimana kecerdasan buatan harus dibangun dan didistribusikan secara global. Seiring dengan peluncuran model-model yang lebih canggih di tahun 2026, pengaruh Liang Wenfeng sebagai tokoh kunci revolusi AI dari Asia akan terus tumbuh, menyeimbangkan timbangan hegemoni teknologi antara Timur dan Barat.
