Eksodus Otak Brilian: Mantan Pimpinan Superalignment OpenAI Dirikan Startup AI Aman Rp1,8 Triliun untuk Misi Paling Krusial

Eksodus Otak Brilian: Mantan Pimpinan Superalignment OpenAI Dirikan Startup AI Aman Rp1,8 Triliun untuk Misi Paling Krusial

Mantan pimpinan tim superalignment OpenAI, Jan Leike, bersama mantan peneliti lainnya meluncurkan startup baru bernama Safe Superintelligence Inc.

Ari Pratama Ari Pratama
Oct 25, 2025 9 min Read

Mantan Pimpinan Superalignment OpenAI, Jan Leike, Dirikan Startup AI Aman Rp1,8 Triliun: Fokus Tunggal Selamatkan Masa Depan AI!


Dunia kecerdasan buatan kembali dikejutkan dengan sebuah gebrakan monumental yang mungkin akan menentukan arah masa depan teknologi ini. Di tengah hiruk-pikuk perlombaan menciptakan AI yang semakin canggih, muncul sebuah inisiatif yang berani dan ambisius, dipimpin oleh salah satu sosok paling dihormati dalam ranah keselamatan AI: Jan Leike. Mantan pimpinan tim superalignment di OpenAI ini, bersama sejumlah rekan mantan peneliti OpenAI lainnya, secara resmi meluncurkan startup baru bernama Safe Superintelligence Inc. (SSI), dengan misi tunggal yang sangat krusial: membangun superintelligence yang aman. Yang lebih mengejutkan lagi, mereka berhasil mengumpulkan dana investasi sebesar lebih dari 115 juta dolar AS, atau sekitar Rp1,8 triliun, dari investor terkemuka.


Langkah ini bukan sekadar pendirian startup biasa. Ini adalah manifestasi dari kekhawatiran yang mendalam dan komitmen yang tak tergoyahkan terhadap keselamatan di tengah revolusi AI. Sebuah deklarasi bahwa, bagi sebagian orang, kecepatan pengembangan AI harus diimbangi dengan prioritas mutlak terhadap mitigasi risiko. Keputusan Leike untuk meninggalkan OpenAI, perusahaan yang selama ini menjadi garda terdepan dalam inovasi AI generatif, mengirimkan sinyal kuat tentang urgensi masalah keselamatan AI yang kini semakin mendesak.



Mengapa Keselamatan AI Menjadi Prioritas Utama yang Tak Terbantahkan?


Perkembangan AI, terutama dalam bentuk model bahasa besar (LLM) dan kemampuan generatif, telah melampaui ekspektasi banyak pihak. Dari menciptakan teks, gambar, hingga kode, AI kini mampu melakukan tugas-tugas yang sebelumnya dianggap eksklusif untuk kecerdasan manusia. Namun, di balik kemajuan yang memukau ini, tersembunyi kekhawatiran serius tentang potensi risiko jangka panjang, terutama jika AI mencapai atau bahkan melampaui kecerdasan manusia super, yang dikenal sebagai Artificial General Intelligence (AGI) atau Artificial Superintelligence (ASI).


Isu superalignment, yang menjadi fokus utama Jan Leike di OpenAI, mengacu pada tantangan untuk memastikan bahwa sistem AI yang sangat cerdas akan bertindak sesuai dengan nilai-nilai dan tujuan manusia, bahkan ketika mereka memiliki kemampuan yang jauh melampaui pemahaman kita. Bayangkan sebuah AI yang sangat kuat, namun tujuannya sedikit melenceng dari apa yang kita inginkan, atau bahkan menginterpretasikan instruksi kita dengan cara yang merugikan. Ini adalah skenario yang ingin dihindari oleh Leike dan timnya.


Para ahli, termasuk mendiang Stephen Hawking dan Elon Musk, telah berulang kali memperingatkan tentang potensi ancaman eksistensial dari AI yang tidak terkendali. Risiko ini berkisar dari hilangnya kendali manusia atas sistem AI, kesalahan yang tidak disengaja namun masif, hingga potensi AI digunakan untuk tujuan jahat. Oleh karena itu, investasi dalam penelitian dan pengembangan keselamatan AI bukanlah pilihan, melainkan sebuah keharusan mutlak untuk menjamin masa depan umat manusia.



Jejak Jan Leike dan 'Kisah Superalignment' di OpenAI


Jan Leike bukanlah nama baru dalam kancah penelitian AI. Ia adalah sosok kunci yang bertanggung jawab memimpin tim superalignment di OpenAI, sebuah unit yang dibentuk dengan tujuan khusus untuk mengatasi masalah bagaimana mengarahkan dan mengendalikan sistem AI yang akan datang yang jauh lebih cerdas daripada manusia. Misi timnya adalah mengembangkan metode ilmiah untuk memastikan bahwa AI super cerdas akan selalu selaras dengan kepentingan dan nilai-nilai manusia.


Kepergian Leike dari OpenAI pada Mei 2024, tak lama setelah kepergian Ilya Sutskever, co-founder dan kepala ilmuwan OpenAI yang juga sangat peduli pada keselamatan AI, memicu spekulasi luas. Leike secara terbuka menyatakan bahwa ia dan timnya merasa kesulitan untuk melanjutkan penelitian keselamatan AI yang krusial di OpenAI, menyiratkan adanya perbedaan prioritas antara fokus pada pengembangan kemampuan AI yang cepat dan komitmen terhadap keselamatan jangka panjang. "Saya tidak setuju dengan OpenAI mengenai prioritas inti perusahaan," tulis Leike di X pada saat itu.


Kini, dengan peluncuran SSI, menjadi jelas bahwa Jan Leike memilih untuk membangun platform sendiri yang sepenuhnya berdedikasi pada visi keselamatannya. Ini menandai sebuah "eksodus" keahlian dan komitmen dari OpenAI, sekaligus menciptakan entitas baru yang secara eksplisit menempatkan keselamatan di atas segalanya.



Safe Superintelligence Inc. (SSI): Misi, Pendanaan, dan Visi Mereka


Safe Superintelligence Inc. (SSI) didirikan dengan filosofi yang sangat jelas: tujuan tunggal mereka adalah membangun superintelligence yang aman. Tidak ada tujuan sampingan, tidak ada diversifikasi produk, hanya fokus yang tak tergoyahkan pada misi sentral ini. Dalam pernyataannya, SSI menegaskan, "Kami adalah sebuah perusahaan baru yang dibangun berdasarkan misi tunggal ini: menciptakan superintelligence yang aman."


Pendanaan sebesar lebih dari 115 juta dolar AS yang mereka peroleh adalah bukti kepercayaan besar dari para investor terhadap urgensi dan pentingnya misi SSI. Di antara para investor terkemuka yang mendukung SSI adalah Nat Friedman (mantan CEO GitHub), Daniel Gross, dan firma modal ventura raksasa Andreessen Horowitz. Dukungan finansial yang signifikan ini memungkinkan SSI untuk menarik talenta terbaik dan memberikan sumber daya yang dibutuhkan untuk penelitian yang sangat kompleks dan berjangka panjang ini.


Model operasional SSI juga unik. Mereka berencana untuk terus merekrut talenta terbaik dan menciptakan siklus umpan balik yang memungkinkan mereka untuk terus belajar dan beradaptasi. "Kami akan terus memperluas tim kami dengan talenta teknis terbaik, dan menciptakan siklus umpan balik di mana kami belajar dari setiap kemajuan untuk mempercepat yang berikutnya," kata perwakilan SSI.



Dampak dan Implikasi bagi Masa Depan AI


Pendirian SSI oleh Jan Leike memiliki beberapa implikasi signifikan bagi lanskap AI global:



  1. Peningkatan Fokus pada Keselamatan: Kehadiran SSI akan semakin memperkuat diskursus tentang keselamatan AI dan mendorong pemain lain di industri untuk lebih serius mempertimbangkan aspek ini, bukan hanya sebagai tambahan, melainkan sebagai inti pengembangan.

  2. Kompetisi dalam Keselamatan, Bukan Hanya Kemampuan: Ini mungkin akan memicu perlombaan baru, bukan hanya dalam hal siapa yang bisa membangun AI paling kuat, tetapi juga siapa yang bisa membangun AI paling aman.

  3. Sinyal ke Regulator: Langkah ini juga bisa menjadi sinyal bagi pemerintah dan badan pengatur di seluruh dunia tentang betapa seriusnya para ahli memandang risiko AI, yang mungkin akan mempercepat pembentukan kerangka regulasi yang lebih ketat.

  4. Model Bisnis Baru: SSI juga dapat menjadi contoh model bisnis di mana inovasi berakar pada prinsip etika dan keselamatan sejak awal, bukan sebagai pemikiran setelahnya.


Pertanyaan besar yang muncul adalah apakah pendekatan tunggal SSI ini akan lebih efektif daripada pendekatan terintegrasi yang coba dilakukan oleh perusahaan besar seperti OpenAI. Waktu yang akan menjawab, namun yang jelas, SSI telah menancapkan bendera dengan jelas di medan pertempuran masa depan AI.



Kesimpulan: Sebuah Harapan atau Peringatan Baru?


Langkah Jan Leike dan timnya untuk mendirikan Safe Superintelligence Inc. dengan pendanaan triliunan rupiah adalah momen penting dalam sejarah AI. Ini adalah kombinasi dari harapan dan peringatan: harapan bahwa ada individu-individu brilian yang berkomitmen penuh untuk memastikan AI masa depan aman bagi umat manusia, dan peringatan bahwa tantangan untuk mencapai keamanan itu begitu besar sehingga memerlukan dedikasi total di luar struktur perusahaan yang ada.


Masa depan AI tidak hanya tentang siapa yang menciptakan teknologi tercanggih, tetapi juga siapa yang bisa memastikan bahwa teknologi itu melayani umat manusia dengan baik dan tidak menimbulkan ancaman. SSI telah mengambil langkah berani menuju visi tersebut. Sekarang, giliran kita untuk mengamati apakah misi tunggal ini akan menjadi kunci untuk membuka era superintelligence yang benar-benar bermanfaat bagi semua.


Apa pendapat Anda? Apakah upaya terfokus seperti SSI adalah kunci untuk mencapai keselamatan AI, atau apakah tantangan ini memerlukan pendekatan yang lebih terintegrasi dari seluruh ekosistem AI? Bagikan pemikiran Anda di kolom komentar!

Comments

Integrate your provider (e.g., Disqus, Giscus) here.

Related articles

Tetap Terhubung dengan Kami!

Berlangganan newsletter kami dan dapatkan informasi terbaru, tips ahli, serta wawasan menarik langsung di kotak masuk email Anda.

Dengan berlangganan, Anda setuju dengan syarat dan ketentuan kami.