Komputasi Kuantum Menyusut AI: Jaringan Tensor Meningkatkan Efisiensi

14

Kecerdasan buatan (AI) berkembang pesat, namun kebutuhan energi dan biaya komputasi yang sangat besar semakin tidak dapat dipertahankan. Kini, solusi mengejutkan muncul dari dunia fisika kuantum: jaringan tensor. Awalnya dikembangkan untuk menangani interaksi kompleks antar partikel, struktur matematika ini terbukti sangat efektif dalam mengompresi model AI, mengurangi konsumsi energi, dan bahkan membuat AI lebih mudah diakses.

Kemacetan: Model AI yang Membengkak

Model bahasa besar (LLM) seperti ChatGPT terkenal membutuhkan banyak sumber daya. Ukuran dan kompleksitasnya memerlukan energi dalam jumlah besar untuk dilatih dan dijalankan, sehingga mendorong beberapa perusahaan teknologi untuk mempertimbangkan solusi ekstrem seperti pembangkit listrik tenaga nuklir kecil khusus agar pusat data tetap online. Hal ini bukan hanya masalah lingkungan; hal ini juga membatasi di mana AI dapat diterapkan.

Masalah intinya adalah dimensi. Saat model AI menangani tugas-tugas yang lebih kompleks, jumlah variabel semakin meningkat, sehingga penyimpanan dan pemrosesan menjadi tidak mungkin dilakukan. Fisikawan memecahkan masalah ini beberapa dekade lalu dengan jaringan tensor.

Jaringan Tensor: Solusi Kompresi Berbasis Fisika

Jaringan tensor memecah kumpulan data yang sangat besar menjadi komponen yang lebih kecil dan lebih mudah dikelola. Bayangkan sosis raksasa yang terlalu besar untuk dimasak sekaligus; memelintirnya menjadi hot dog dengan porsi sempurna membuatnya siap dipanggang. Demikian pula, jaringan tensor membedah tensor besar (susunan angka multidimensi) menjadi tensor yang lebih kecil dan terhubung.

Keuntungan utamanya? Mereka mempertahankan akurasi sekaligus mengurangi ukuran secara signifikan. Multiverse Computing, sebuah startup yang didirikan bersama oleh fisikawan Román Orús, telah mendemonstrasikan hal ini dengan model Llama 2 7B. Teknik CompactifAI mereka memampatkan model lebih dari 90%, dari 27 GB menjadi hanya 2 GB, dengan penurunan akurasi minimal.

Melampaui Kompresi: Arsitektur AI Baru

Visi jangka panjangnya bahkan lebih berani: membangun model AI dari awal menggunakan jaringan tensor, sepenuhnya mengabaikan jaringan neural tradisional. Meskipun jaringan neural kuat, namun boros energi dan tidak tembus cahaya. Jaringan tensor menawarkan potensi pelatihan yang lebih cepat dan cara kerja yang lebih transparan.

Miles Stoudenmire dari Flatiron Institute percaya bahwa pendekatan ini dapat membuka “kekuatan laten” dalam AI, sehingga memungkinkannya berjalan secara efisien di perangkat pribadi tanpa bergantung pada koneksi cloud. Bayangkan lemari es atau mesin cuci bertenaga AI beroperasi secara offline.

Cara Kerja: Kutukan Dimensi dan Penyembuhannya

“Kutukan dimensi” adalah gagasan bahwa ketika kompleksitas data meningkat, penyimpanan menjadi tidak mungkin dilakukan. Spreadsheet adalah matriks 2D; tensor menggeneralisasi hal ini ke berbagai dimensi. Pertimbangkan untuk melacak preferensi pizza 100.000 orang (100 topping, 100 saus). Tensor yang dihasilkan akan memiliki angka satu miliar, namun masih dapat dikelola. Namun, tambahkan lebih banyak variabel (kerak, keju), dan ukuran balon akan meningkat secara eksponensial.

Jaringan tensor mengatasi masalah ini dengan merepresentasikan tensor raksasa sebagai jaringan yang lebih kecil. Korelasi antar titik data adalah kuncinya. Misalnya, orang yang menyukai jamur putih juga menyukai cremini. Dengan menghilangkan redundansi, jaringan tensor memampatkan model tanpa mengorbankan performa.

Hasil Dunia Nyata dan Prospek Masa Depan

Manfaatnya sudah terlihat dalam praktik. Sopra Steria menemukan bahwa Llama 3.1 8B versi terkompresi Multiverse menggunakan energi 30–40% lebih sedikit. Para peneliti di Imperial College London telah menunjukkan bahwa kompresi jaringan tensor bahkan dapat meningkatkan akurasi dibandingkan dengan model ukuran penuh, karena kumpulan data besar sering kali berisi ketidakrelevanan yang disaring oleh teknik ini.

Tujuan utamanya adalah untuk melampaui kompresi dan menciptakan arsitektur AI yang benar-benar baru berdasarkan jaringan tensor. Pendekatan ini dapat mengurangi waktu pelatihan secara drastis (satu model didemonstrasikan dalam waktu 4 detik dibandingkan dengan 6 menit untuk model jaringan neural) dan membuat model AI lebih mudah dipahami.

Jaringan tensor bukan hanya trik kompresi; hal ini mewakili perubahan mendasar dalam cara kita membangun dan menerapkan AI. Jika berhasil, hal ini dapat membuka masa depan di mana AI yang canggih akan hemat energi, mudah diakses, dan transparan.