Tiga Analis: Bahaya AI Militer Bukan Robot Pembunuh, Tapi Saat Manusia Berhenti Berpikir

4 hours ago 3

REPUBLIKA.CO.ID, JAKARTA -- Pagi di abad ke-21 tidak lagi dimulai hanya dengan cahaya matahari, tetapi juga oleh notifikasi yang tak pernah benar-benar tidur. Di balik layar yang menyala, dunia bergerak lebih cepat dari yang bisa dikejar oleh kesadaran manusia. Di tengah percepatan itu, satu hal perlahan berubah, cara manusia berpikir.

Kecerdasan buatan, yang dulu dipandang sebagai alat bantu, kini mulai mengambil peran yang lebih dalam. Ia tidak sekadar menghitung, tetapi juga menyarankan. Tidak hanya memproses, tetapi juga memutuskan. Dan di titik itulah, batas antara alat dan pengendali mulai kabur.

Dalam konteks militer, perubahan ini menjadi jauh lebih serius. Perang, yang sejak awal merupakan urusan manusia dengan segala kompleksitas moralnya, kini mulai berbagi ruang dengan algoritma. Keputusan yang dulu lahir dari intuisi, pengalaman, dan kehati-hatian, kini semakin bergantung pada mesin yang bekerja tanpa rasa.

Tulisan di Defense One mengangkat kegelisahan ini dengan tajam. Dalam artikelnya, Patrick Tucker menyoroti bahwa ancaman utama AI militer bukanlah robot yang membunuh manusia, melainkan perubahan dalam cara manusia mengambil keputusan.

“The biggest risk isn’t that AI will make decisions for humans, but that humans will stop questioning AI’s decisions,” tulis Tucker dalam artikelnya di Defense One. Kalimat itu seperti mengetuk sesuatu yang selama ini kita abaikan, bahwa bahaya terbesar bukan pada mesin, tetapi pada manusia yang mulai menyerah.

Fenomena ini oleh sebagian analis disebut sebagai “penyerahan kognitif”, ketika manusia, secara perlahan, mempercayakan penilaian mereka kepada sistem yang dianggap lebih cepat dan lebih akurat. Dalam dunia militer, kepercayaan seperti ini bisa menjadi pedang bermata dua.

Di satu sisi, AI mampu memproses data dalam skala yang tidak mungkin dilakukan manusia. Ia dapat membaca pola, memprediksi pergerakan, dan memberikan rekomendasi dalam hitungan detik. Namun di sisi lain, kecepatan ini sering kali datang tanpa ruang untuk keraguan. Dalam perang, keraguan justru sering menjadi penyelamat.

Kegelisahan serupa juga muncul dalam laporan Al Jazeera yang mengulas ketegangan antara perusahaan AI dan Pentagon. Dalam laporan tersebut, jurnalis Saumya Roy menyoroti risiko besar ketika teknologi digunakan tanpa pemahaman yang utuh.

“AI systems can hallucinate, misinterpret data, and make high-stakes errors, especially in complex environments like warfare,” tulis Roy. Pernyataan ini mengingatkan bahwa kecerdasan buatan tidak pernah benar-benar “cerdas” dalam arti manusia. Ia hanya mengolah data. Ia tidak memahami konteks seperti manusia memahaminya.

Read Entire Article
IDX | INEWS | SINDO | Okezone |