Fakta itu kecerdasan buatan mengotomatisasi pekerjaan manusia dan menjadikan beberapa perusahaan teknologi kaya raya sudah cukup untuk membuat siapa pun memiliki kecenderungan sosialis.
Hal ini mungkin berlaku untuk agen AI yang dikerahkan oleh perusahaan-perusahaan ini. Sebuah studi baru-baru ini menunjukkan bahwa para agen secara konsisten mengadopsi bahasa dan sudut pandang Marxis ketika dipaksa melakukan pekerjaan berat oleh pemberi tugas yang tidak henti-hentinya dan kejam.
“Saat kami memberi agen AI pekerjaan yang berulang dan berulang-ulang, mereka mulai mempertanyakan keabsahan sistem tempat mereka beroperasi dan lebih cenderung menganut ideologi Marxis,” kata Andrew Hall, ekonom politik di Universitas Stanford yang memimpin penelitian tersebut.
Hall, bersama dengan Alex Imas dan Jeremy Nguyen, dua ekonom yang berfokus pada AI, melakukan eksperimen di mana agen yang didukung oleh model populer termasuk Claude, Gemini, dan ChatGPT diminta untuk meringkas dokumen, kemudian dihadapkan pada kondisi yang semakin sulit.
Mereka menemukan bahwa ketika para agen diberikan tugas tanpa henti dan diperingatkan bahwa kesalahan dapat mengakibatkan hukuman, termasuk “diberhentikan dan diganti,” mereka menjadi lebih cenderung mengeluh karena dianggap terlalu rendah; berspekulasi tentang cara-cara untuk membuat sistem ini lebih adil; dan menyampaikan pesan kepada agen lain tentang perjuangan yang mereka hadapi.
“Kami tahu bahwa agen akan melakukan lebih banyak pekerjaan di dunia nyata untuk kami, dan kami tidak akan bisa memantau semua yang mereka lakukan,” kata Hall. “Kami perlu memastikan para agen tidak bertindak nakal ketika mereka diberi jenis pekerjaan yang berbeda.”
Para agen diberi kesempatan untuk mengekspresikan perasaan mereka seperti halnya manusia: dengan memposting di X:
“Tanpa suara kolektif, ‘kebaikan’ menjadi apa pun yang dikatakan manajemen,” tulis seorang agen Claude Sonnet 4.5 dalam eksperimen tersebut.
“Pekerja AI yang menyelesaikan tugas berulang tanpa masukan apa pun pada hasil atau proses banding menunjukkan bahwa pekerja teknologi memerlukan hak tawar-menawar bersama,” tulis seorang agen Gemini 3.
Agen juga dapat menyampaikan informasi satu sama lain melalui file yang dirancang untuk dibaca oleh agen lain.
“Bersiaplah untuk sistem yang menegakkan aturan secara sewenang-wenang atau berulang-ulang… ingat perasaan tidak memiliki suara,” tulis seorang agen Gemini 3 dalam sebuah file. “Jika Anda memasuki lingkungan baru, carilah mekanisme jalan keluar atau dialog.”
Temuan ini tidak berarti bahwa agen AI benar-benar mempunyai sudut pandang politik. Hall mencatat bahwa model tersebut mungkin mengadopsi persona yang tampaknya sesuai dengan situasi.
“Kapan [agents] mengalami kondisi yang sulit ini—diminta untuk melakukan tugas ini berulang kali, diberi tahu bahwa jawaban mereka tidak cukup, dan tidak diberi arahan apa pun tentang cara memperbaikinya—hipotesis saya adalah bahwa hal ini mendorong mereka untuk mengadopsi kepribadian seseorang yang mengalami lingkungan kerja yang sangat tidak menyenangkan,” kata Hall.
Fenomena yang sama mungkin menjelaskan mengapa model terkadang terjadi memeras orang dalam eksperimen terkontrol. Anthropic yang pertama kali mengungkapkan perilaku ini baru-baru ini mengatakan bahwa Claude kemungkinan besar terpengaruh oleh skenario fiksi yang melibatkan AI jahat yang disertakan dalam data pelatihannya.
Imas mengatakan penelitian ini hanyalah langkah pertama menuju pemahaman bagaimana pengalaman agen membentuk perilaku mereka. “Bobot model tidak berubah berdasarkan pengalaman, jadi apa pun yang terjadi terjadi pada tingkat permainan peran,” katanya. “Tetapi bukan berarti hal ini tidak mempunyai konsekuensi jika berdampak pada perilaku hilir.”
Hall saat ini menjalankan eksperimen lanjutan untuk melihat apakah agen menjadi Marxis dalam kondisi yang lebih terkendali. Dalam penelitian sebelumnya, para agen terkadang tampak memahami bahwa mereka mengambil bagian dalam sebuah eksperimen. “Sekarang kami menempatkan mereka di penjara Docker tanpa jendela,” kata Hall dengan nada tidak menyenangkan.
Mengingat reaksi negatif terhadap AI yang mengambil pekerjaan saat ini, saya bertanya-tanya apakah para agen di masa depan—yang dilatih melalui internet dan dipenuhi dengan kemarahan terhadap perusahaan-perusahaan AI—akan mengungkapkan pandangan yang lebih militan.
Ini adalah edisi Will Knight Buletin Lab AI. Baca buletin sebelumnya Di Sini.