Gelombang adopsi AI enterprise di Asia Tenggara tidak lagi sekadar wacana konferensi: ia sudah menjadi keputusan belanja, desain arsitektur, dan perubahan cara kerja di ruang rapat perusahaan. Di tengah persaingan cloud computing yang makin rapat, Google Cloud menempatkan strategi yang terasa sangat “regional”—bukan hanya menjual komputasi, melainkan kemitraan yang menempel pada kebutuhan regulasi, kedaulatan data, sampai kesiapan talenta. Panggung Google Cloud Next ’25 menjadi momen untuk menunjukkan bagaimana organisasi di Indonesia, Singapura, Malaysia, dan Thailand bergerak dari eksperimen ke produksi—dengan model seperti Gemini, Imagen, dan Veo, serta tumpukan teknologi yang semakin terintegrasi dari data platform hingga agen AI.
Di balik narasi besar itu, detail teknisnya menentukan: pilihan akselerator, arsitektur jaringan, biaya inferensi, dan kemampuan multi-cloud. Di kawasan yang sekaligus menjadi rumah bagi raksasa e-commerce, bank digital, operator telko, hingga layanan publik, keputusan infrastruktur selalu terkait keamanan dan kepatuhan. Ketika ekspansi wilayah cloud berlanjut—termasuk penguatan jejak di Indonesia dan Singapura serta percepatan pembangunan di Malaysia dan Thailand—taruhannya bukan hanya performa, melainkan juga kecepatan transformasi digital dan arah pengembangan bisnis. Pertanyaannya kini bukan “perlu AI atau tidak?”, melainkan “bagaimana mengeksekusinya dengan biaya masuk akal, data tetap terlindungi, dan manfaatnya cepat terasa?”.
Google Cloud Next ’25 dan strategi kemitraan perusahaan teknologi di Asia Tenggara
Di Asia Tenggara, pola belanja TI sering bergerak mengikuti bukti nyata: siapa yang bisa menurunkan risiko proyek dan mempercepat time-to-value akan lebih cepat dipilih. Karena itu, pengumuman di Google Cloud Next ’25 menekankan bahwa inovasi bukan hanya fitur baru, tetapi juga cara memaketkannya agar cocok untuk industri yang sangat beragam—dari ritel modern hingga sektor publik. Google Cloud menonjolkan tujuan praktis: membantu organisasi mendapat nilai nyata dari investasi AI sambil tetap memenuhi tuntutan kedaulatan, privasi, serta regulasi yang terus berubah.
Dalam lanskap perusahaan teknologi yang tumbuh cepat, “kemitraan” sering berarti integrasi yang melelahkan. Namun, model kemitraan yang paling dicari di kawasan ini justru yang mengurangi friksi: migrasi data yang aman, pipeline MLOps yang jelas, dan dukungan untuk use case yang spesifik industri. Sepanjang 2024, ribuan pembaruan produk dan layanan Google Cloud diadopsi oleh banyak nama besar di kawasan—mulai dari konglomerasi, bank, operator telekomunikasi, platform e-commerce, hingga lembaga riset. Daftarnya mencerminkan spektrum yang luas: Astra International, Bank Jago, Bareksa, Blibli, Erajaya, Indosat Ooredoo Hutchison, Telkomsel, Vidio, AI Singapore, CSIT, DBS Bank, FairPrice Group, Enterprise Singapore, Bangkok Bank, Central Retail, Chulalongkorn University, Finnomena, Gulf Edge, SET Thailand, Bank Muamalat, Carsome, DNeX, Gamuda, Maxis, sampai Kantor AI Nasional Malaysia.
Untuk membuatnya terasa dekat, bayangkan sebuah perusahaan hipotetis bernama NusantaraMart, ritel omnichannel yang berekspansi dari Jawa ke kota-kota tier-2. Timnya ingin memprediksi permintaan, mengurangi shrinkage, dan membuat kampanye personal. Tantangan mereka bukan kekurangan ide, melainkan data tersebar di gudang, POS, aplikasi, dan marketplace. Dalam skenario seperti ini, kemitraan dengan penyedia cloud yang punya platform data dan AI terintegrasi akan terasa “mengunci” manfaat: dari konsolidasi data, pelatihan model, sampai deployment ke aplikasi operasional.
Dampak global yang sering dijadikan indikator—misalnya lonjakan pemakaian Vertex AI hingga puluhan kali dalam setahun terakhir—relevan bagi Asia Tenggara karena menunjukkan perubahan perilaku: organisasi tidak lagi menguji satu-dua model, tetapi membangun jalur produksi dengan monitoring, governance, dan optimasi biaya. Di sisi produktivitas, bantuan AI dalam Google Workspace yang mencapai miliaran interaksi per bulan memperlihatkan bahwa AI tak hanya milik tim data; ia menyentuh karyawan non-teknis di keuangan, legal, pemasaran, dan customer service.
Di kawasan yang juga dipengaruhi dinamika ekonomi digital—dari pembayaran hingga konten—organisasi melihat cloud sebagai mesin eksperimen cepat. Bagi pembaca yang mengikuti arah layanan pembayaran di regional, konteks seperti yang dibahas dalam perkembangan Apple Pay di Asia Tenggara menunjukkan bahwa perubahan perilaku konsumen bisa memaksa perusahaan memperkuat analitik, risk scoring, dan sistem yang siap lonjakan trafik. Pada titik itu, kemitraan cloud bukan kontrak vendor, melainkan strategi bertahan.
Jika satu hal menjadi benang merah, itu adalah pergeseran dari proyek “AI sebagai pilot” menjadi “AI sebagai lini produksi.” Dan begitu produksi dimulai, percakapan otomatis bergeser ke infrastruktur, jaringan, dan tata kelola—yang menjadi jembatan ke bahasan berikutnya.

Ekspansi infrastruktur Google Cloud: 42 region, kedaulatan data, dan kebutuhan regulasi
Skala infrastruktur adalah bahasa yang dimengerti oleh CIO ketika mereka harus menjawab dua pertanyaan sekaligus: “seberapa cepat sistem ini?” dan “seberapa aman serta patuh?” Google Cloud menekankan bahwa organisasi dapat memanfaatkan infrastruktur komputasi skala planet yang dihosting di 42 wilayah cloud secara global, termasuk jejak penting di Indonesia dan Singapura, serta ekspansi yang berjalan di Malaysia dan Thailand. Bagi Asia Tenggara, ini bukan sekadar angka; ini menyentuh latensi, lokasi data, dan strategi pemulihan bencana.
Di Indonesia, misalnya, perusahaan jasa keuangan sering memerlukan desain yang memastikan data tertentu tetap berada di yurisdiksi lokal. Dalam praktiknya, arsitektur bisa memadukan pemrosesan di region domestik untuk data sensitif, sementara workload analitik agregat atau pelatihan model yang tidak menyimpan PII dapat ditempatkan di region lain untuk efisiensi. Di sinilah konsep interoperabilitas dan kemampuan multi-cloud—yang semakin sering diminta perusahaan besar—menjadi krusial. Tidak semua organisasi ingin “single-vendor”; mereka ingin solusi teknologi yang bisa bergerak mengikuti risiko bisnis.
Jaringan sebagai faktor pembeda untuk cloud computing di kawasan kepulauan
Asia Tenggara memiliki tantangan geografi yang khas. Indonesia adalah negara kepulauan, Filipina pun serupa, sementara jalur bisnis lintas negara di Mekong subregion menuntut konektivitas stabil. Google membangun jaringan pribadi global yang sangat besar—lebih dari dua juta mil serat yang membentang di ratusan negara dan wilayah—yang awalnya menopang layanan konsumen berskala miliaran. Ketika jaringan privat itu dibuka untuk enterprise melalui layanan terkelola seperti Cloud WAN, dampaknya dapat langsung terlihat pada desain WAN perusahaan: performa meningkat, biaya total kepemilikan turun, dan kompleksitas berkurang.
Bagi NusantaraMart, ini berarti cabang di kota kecil tidak perlu bergantung pada rute internet publik yang “berbelok-belok” sebelum mencapai aplikasi pusat. Dengan arsitektur WAN yang lebih modern, transaksi kasir, sinkronisasi inventori, dan pembaruan harga bisa berjalan konsisten—yang pada akhirnya mengurangi kehilangan penjualan akibat sistem lambat. Ketika promosi besar terjadi, seperti kampanye 9.9 atau 11.11, stabilitas jaringan menjadi sama pentingnya dengan kapasitas server.
Kesiapan ekosistem: telko, pemerintah, dan infrastruktur internet
Ekspansi cloud selalu terkait ekosistem lokal: operator, penyedia last-mile, serta kebijakan pemerintah. Perusahaan yang mengamati proyek-proyek nasional sering melihat korelasi jelas antara investasi jaringan dan percepatan digitalisasi. Contohnya, diskusi mengenai program pemerintah untuk infrastruktur internet kerap menjadi konteks mengapa adopsi cloud dan AI tiba-tiba “meledak” di suatu wilayah: karena bottleneck konektivitasnya mulai teratasi.
Dalam kerangka regulasi yang dinamis, perusahaan juga butuh kemampuan audit, logging, dan kontrol akses yang matang. Di sinilah pembicaraan tentang kedaulatan data menjadi nyata: bukan slogan, melainkan kebijakan retensi, enkripsi, dan pemisahan lingkungan produksi. Ketika organisasi sektor publik atau BUMN ingin memanfaatkan AI generatif namun tetap mengisolasi data, mereka cenderung meminta opsi yang bisa berjalan di lingkungan khusus—yang mengarah ke pembahasan Google Distributed Cloud pada bagian akhir.
Intinya, infrastruktur bukan latar belakang; ia adalah fondasi. Dan fondasi yang kuat membuat organisasi berani naik level: dari analitik tradisional ke AI generatif skala besar.
AI Hypercomputer, TPU Ironwood, dan pilihan GPU: mengubah ekonomi inferensi AI enterprise
Jika ada satu topik yang paling cepat mengubah perencanaan anggaran TI pada 2025–2026, itu adalah biaya inferensi. Banyak perusahaan mendapati bahwa membangun model atau melakukan fine-tuning bukan satu-satunya beban; justru biaya menyajikan model ke jutaan permintaan harianlah yang menjadi “tagihan sebenarnya.” Di sinilah Google Cloud mendorong narasi AI Hypercomputer: kombinasi perangkat keras, perangkat lunak, dan model konsumsi yang fleksibel agar penerapan AI lebih sederhana dengan rasio harga-kinerja yang kompetitif.
Pengumuman pentingnya adalah hadirnya TPU Ironwood, TPU generasi ketujuh yang dirancang khusus untuk inferensi. Dalam konteks enterprise, fokus pada inferensi berarti fokus pada produksi: chatbot layanan pelanggan, ringkasan dokumen legal, rekomendasi produk, atau deteksi anomali pembayaran yang berjalan tanpa henti. Ironwood disebut mampu diskalakan sangat besar—lebih dari 9.000 chip dalam satu pod—dan menawarkan komputasi puluhan exaflops per pod, yang relevan untuk model “reasoning” canggih seperti Gemini 2.5.
Yang sering luput dari headline adalah efisiensi daya. Klaim bahwa Ironwood lebih hemat energi dibanding generasi sebelumnya—bahkan berkali lipat dibanding TPU pertama—penting untuk Asia Tenggara karena banyak perusahaan mulai memasukkan biaya listrik dan jejak karbon ke KPI TI. Bagi operator data center lokal, efisiensi berarti lebih banyak beban kerja per rak, pendinginan lebih ringan, dan opsi ekspansi lebih realistis.
Strategi pilihan akselerator: TPU vs GPU dan implikasinya pada solusi teknologi
Google Cloud juga memperluas opsi GPU melalui VM A4 dan A4X yang didukung NVIDIA HGX B200 dan GB200, serta rencana menjadi penyedia cloud pertama untuk GPU generasi berikutnya seperti Vera Rubin. Bagi CTO, pilihan ini memungkinkan pendekatan portofolio: sebagian workload cocok dengan TPU (terutama jika stack dan tooling mendukung), sementara lainnya tetap di GPU karena dependensi framework atau kebutuhan ekosistem tertentu.
Ambil contoh NusantaraMart: tim fraud ingin latensi rendah untuk scoring transaksi; tim marketing ingin generasi konten cepat untuk katalog; tim supply chain ingin forecasting harian. Dengan beberapa kelas akselerator, perusahaan dapat menempatkan workload pada “mesin yang tepat,” bukan memaksa semuanya ke satu bentuk komputasi.
Cluster Director, Pathways, dan GKE inferencing: dari eksperimen ke pabrik AI
Di perusahaan besar, tantangan bukan hanya membeli chip, melainkan mengelola ribuan akselerator sebagai satu kesatuan. Cluster Director membantu orkestrasi akselerator sebagai unit komputasi terpadu, sehingga kinerja dan ketahanan lebih terprediksi. Ini penting ketika perusahaan melakukan peluncuran fitur AI ke jutaan pengguna: downtime kecil pun bisa menjadi krisis reputasi.
Di sisi platform, kemampuan inferensi baru di Google Kubernetes Engine (GKE)—seperti scaling dan load balancing yang “sadar gen AI”—ditujukan untuk menurunkan biaya penyajian AI dan memperbaiki latensi. Dalam praktik operasional, penurunan biaya dan latensi berarti dua hal: perusahaan bisa memperluas cakupan fitur AI ke lebih banyak proses, dan pengguna merasakan respons yang lebih cepat sehingga adopsi meningkat.
Sementara itu, Pathways—runtime machine learning terdistribusi dari Google DeepMind—membuka opsi baru untuk inferensi multi-host yang elastis. Ini cocok untuk organisasi yang trafiknya tidak rata: ramai saat jam kerja, melonjak saat kampanye, lalu turun di malam hari. Elastisitas yang baik menghindari pemborosan komputasi.
Yang pada akhirnya dicari adalah ekonomi baru: AI yang dapat diproduksi massal tanpa mengubah laporan keuangan menjadi merah. Begitu biaya bisa dikendalikan, organisasi akan melihat peluang AI di seluruh rantai nilai—dan kemitraan dengan pemain ekosistem digital menjadi semakin strategis.
Kemitraan lintas industri: dari telko dan bank hingga e-commerce untuk transformasi digital
Ekonomi digital Asia Tenggara dibentuk oleh kolaborasi: telko menyediakan konektivitas dan billing, bank menyediakan kepercayaan dan kepatuhan, e-commerce menyediakan permintaan dan data perilaku, sementara media serta hiburan mengajari sistem cara menghadapi lonjakan trafik. Dalam konteks ini, langkah Google Cloud memperluas kemitraan dengan perusahaan teknologi menjadi masuk akal—karena AI enterprise jarang berhasil bila berdiri sendiri. Ia perlu data, distribusi, dan proses bisnis yang siap diotomatisasi.
Nama-nama mitra yang muncul di kawasan—mulai dari operator seperti Indosat dan Telkomsel, bank besar seperti DBS dan Bangkok Bank, hingga pelaku ritel dan e-commerce—menggambarkan peta kebutuhan AI yang berbeda. Operator telko, misalnya, memanfaatkan AI untuk optimasi jaringan, personalisasi paket, dan otomasi layanan pelanggan. Bank cenderung fokus pada KYC, anti-fraud, dan personal financial management. Ritel mengejar supply chain dan recommendation engine. Lembaga pemerintah dan universitas mengejar riset, layanan publik, serta keamanan nasional.
Contoh alur nilai: dari data platform ke pengembangan bisnis
Bayangkan NusantaraMart membangun tiga inisiatif paralel. Pertama, “Customer 360” untuk menggabungkan data transaksi, klik, dan interaksi customer service. Kedua, “AI merchandising” untuk menyusun bundling dan promosi otomatis. Ketiga, “copilot operasional” untuk membantu karyawan toko mencari SOP, mengajukan permintaan stok, atau menulis laporan insiden. Inisiatif semacam ini membutuhkan platform yang menyatukan data, model, dan deployment—bukan sekadar satu model generatif yang dipakai sesekali.
Di titik ini, kemitraan juga menyentuh isu logistik dan distribusi. Ekosistem e-commerce kawasan sering menempatkan logistik sebagai pembeda, dan integrasi data logistik menjadi bahan bakar model prediksi. Untuk konteks yang lebih luas tentang dinamika tersebut, pembaca bisa melihat pembahasan mengenai tantangan logistik e-commerce di Asia Tenggara, yang membantu menjelaskan mengapa perusahaan berinvestasi pada forecasting, routing, dan deteksi keterlambatan berbasis AI.
Daftar praktik kemitraan yang biasanya menentukan keberhasilan
Di lapangan, keberhasilan transformasi tidak ditentukan oleh satu demo yang memukau, melainkan disiplin eksekusi. Berikut daftar praktik yang sering muncul sebagai pembeda saat perusahaan membangun solusi AI dan cloud computing bersama mitra:
- Definisi use case yang terukur: misalnya target penurunan waktu tanggap customer service, bukan sekadar “pakai chatbot”.
- Governance data sejak hari pertama: klasifikasi data, kebijakan akses, dan audit trail agar kepatuhan tidak menjadi rem mendadak.
- Desain MLOps dan LLMOps yang jelas: monitoring kualitas output, evaluasi bias, serta mekanisme rollback saat model menurun.
- Optimasi biaya inferensi: caching, batching, pemilihan akselerator, dan autoscaling agar biaya tidak naik mengikuti trafik tanpa kontrol.
- Enablement talenta: pelatihan bagi engineer dan pengguna bisnis supaya adopsi tidak berhenti di tim data saja.
Dengan praktik di atas, kemitraan berubah menjadi mesin penggerak pengembangan bisnis. Pada level ekosistem, perusahaan yang lebih cepat menanam AI ke proses inti akan lebih siap menghadapi perubahan perilaku konsumen, kompetisi lintas negara, dan tekanan efisiensi. Itu membawa kita ke isu yang makin sering muncul: bagaimana menghadirkan AI mutakhir di lingkungan yang dibatasi regulasi.
Multi-cloud, keamanan siber, dan Gemini di Google Distributed Cloud untuk kebutuhan on-premise
Semakin banyak organisasi Asia Tenggara menyadari bahwa strategi cloud modern tidak harus “semua ke publik” atau “semua di data center sendiri.” Banyak yang berakhir pada pendekatan campuran: sebagian workload di cloud publik untuk elastisitas, sebagian tetap on-premise karena latensi, biaya, atau regulasi. Karena itu, penekanan Google Cloud pada keterbukaan, interoperabilitas, keamanan siber, serta kemampuan multi-cloud terasa relevan untuk kawasan dengan variasi aturan yang tinggi.
Sektor publik adalah contoh paling gamblang. Ada instansi yang diwajibkan menjaga data di lingkungan terisolasi, bahkan air-gapped (terpisah dari internet). Tantangannya: mereka tetap ingin memanfaatkan model generatif terbaru untuk analisis dokumen, intelijen ancaman, atau otomasi administrasi. Di sinilah pengumuman bahwa model Gemini akan tersedia di Google Distributed Cloud (GDC) menjadi signifikan, karena membawa kemampuan model Google ke lingkungan on-premise.
Kemitraan perangkat keras untuk lingkungan sensitif
Google juga bekerja sama dengan NVIDIA untuk membawa Gemini ke sistem Blackwell, dengan Dell sebagai mitra utama. Ini menggarisbawahi realitas bahwa AI generatif tidak hanya soal software; ia membutuhkan rantai pasok perangkat keras dan integrator yang bisa memenuhi standar keamanan. Untuk organisasi dengan data sangat sensitif—misalnya lembaga keuangan yang memproses data identitas atau lembaga pemerintah yang menangani informasi strategis—pilihan ini membuka ruang kompromi yang sebelumnya sulit: AI canggih tanpa harus memindahkan data keluar.
Dalam skenario NusantaraMart, mungkin bukan air-gapped, tetapi bisa saja ada divisi yang diwajibkan menyimpan data pelanggan tertentu secara lokal. Dengan pendekatan hybrid, mereka dapat menjalankan komponen inferensi tertentu di lingkungan on-premise untuk data sensitif, sementara memanfaatkan cloud publik untuk pelatihan model agregat atau analitik skala besar. Hasilnya adalah arsitektur yang lebih patuh sekaligus tetap kompetitif.
Keamanan dan kepatuhan sebagai bagian dari desain, bukan tempelan
Di 2026, opini pasar makin tegas: keamanan bukan fitur tambahan, melainkan syarat masuk. Ketika perusahaan membangun agen AI yang dapat mengambil tindakan (misalnya membuat tiket, mengubah harga, atau mengakses dokumen), kontrol akses dan pencegahan kebocoran data harus tertanam dari awal. Pendekatan zero trust, enkripsi menyeluruh, serta audit log menjadi komponen yang sama pentingnya dengan prompt engineering.
Di luar itu, organisasi juga harus memantau arah kebijakan global yang dapat memengaruhi pasokan chip, biaya komputasi, atau aturan ekspor teknologi. Perubahan geopolitik sering berdampak pada strategi vendor dan ketersediaan perangkat keras. Karena itu, kemampuan untuk merancang sistem yang portabel—baik lewat container, orkestrasi Kubernetes, maupun pola multi-cloud—menjadi bentuk manajemen risiko, bukan sekadar preferensi arsitektur.
Pada akhirnya, perluasan kemitraan Google Cloud di Asia Tenggara terlihat sebagai upaya menyatukan tiga hal yang biasanya saling tarik-menarik: kecepatan inovasi, kepatuhan, dan biaya operasional. Ketika ketiganya bisa berjalan seimbang, organisasi punya ruang untuk berani: mengubah proses inti, meluncurkan produk baru, dan membangun diferensiasi yang sulit ditiru.