Bandung, bertanya.id — Kecerdasan buatan kian merambah ruang-ruang strategis pertahanan. Militer Amerika Serikat dilaporkan memanfaatkan model AI Claude milik Anthropic dalam sejumlah operasi yang berkaitan dengan analisis intelijen dan perencanaan militer.
Claude dikenal sebagai model bahasa besar (large language model) yang dirancang dengan penekanan pada aspek keselamatan dan etika penggunaan AI. Berbeda dengan sistem persenjataan, peran AI ini disebut berada di ranah non-tempur langsung—seperti mengolah data dalam jumlah besar, merangkum laporan intelijen, hingga membantu simulasi berbagai skenario strategis.
Sejumlah laporan media internasional menyebutkan, pemanfaatan Claude terjadi dalam konteks operasi militer AS di Timur Tengah. Namun, tidak ada bukti bahwa sistem tersebut mengambil keputusan serangan secara otonom. Keputusan akhir tetap berada di tangan manusia dalam struktur komando militer.
Narasumber dari Pentagon, Letnan Kolonel Mark Hegseth, menekankan, “AI seperti Claude membantu mempercepat analisis intelijen dan perencanaan operasi, tapi semua tindakan militer masih melalui keputusan manusia. Tidak ada AI yang menembakkan senjata sendiri.” Sementara itu, perwakilan Anthropic menyatakan, “Kami mendukung penggunaan AI untuk pertahanan yang sah, namun tetap mempertahankan pembatasan agar AI tidak digunakan untuk pengawasan massal atau senjata otonom penuh.”
Isu ini menjadi sensitif di tengah meningkatnya tensi geopolitik global dan perlombaan teknologi antara negara-negara besar. AI kini tak lagi sekadar alat bantu administratif, melainkan bagian dari ekosistem pertahanan modern.
Masuknya Claude ke lingkaran militer menandai babak baru: perang bukan hanya soal senjata dan pasukan, tetapi juga algoritma dan komputasi tingkat tinggi. (*)
Red.