Siti Murtiningsih, dalam bukunya yang berjudul “Mendidik Manusia Bersama Mesin” (2025), menawarkan sejumlah proposisi menarik tentang hubungan manusia dan mesin. Dalam tulisan ini, saya akan melakukan elaborasi lanjut terhadap posisi dan argumentasi yang ditawarkan oleh Murtiningsih terkait pengetahuan, nilai, dan kesadaran. Karenanya, saya akan membagi tulisan ini menjadi tiga persoalan: (1) tentang tesis epistemik; (2) tesis tentang nilai; dan (3) tesis tentang kesadaran.
Tesis epistemik
Edmund Gettier telah meletakkan fondasi penting dalam diskursus epistemologi dengan menyoroti kelemahan dalam definisi klasik pengetahuan sebagai bentuk keyakinan yang benar dan terjustifikasi. Murtiningsih memanfaatkan kerangka Gettier ini sebagai ruang untuk mengajukan pertanyaan yang menarik, yakni apakah mesin, yang beroperasi dengan pemrosesan masukan-pengeluaran data, dapat dikatakan memiliki pengetahuan?[1] Apakah kita mungkin untuk mengamini bahwa mereka juga memiliki keyakinan yang mendasari pengetahuan tersebut? Sejauh pembacaan saya, Murtiningsih dalam perdebatan ini mengambil posisi skeptis terhadap kemampuan mesin untuk meyakini sesuatu. Ia menggarisbawahi bahwa mesin tidak seperti manusia, ia tidak memiliki pengalaman subjektif, tidak mampu membentuk intensionalitas atau pemaknaan terhadap data, dan hanya mengoperasikan algoritma yang telah ditentukan.[2] Dalam penalaran semacam ini, pengetahuan mesin dianggap tidak lebih dari hasil reduksi statistik atau probabilistik atas data, dan tanpa adanya/melibatkan dimensi epistemik dari keyakinan. Murtiningsih memberikan pengandaian, mesin yang mendiagnosis pneumonia, mendasarkan dirinya pada basis data dan kesimpulan yang diperoleh bukanlah keyakinan, melainkan hasil pengolahan probabilistik atas informasi yang telah ada.
Meskipun demikian, dalam penjelasannya, Murtiningsih tetap membuka ruang atas perdebatan ini, dengan mengutip argumentasi Hilary Putnam, bahwa proses penalaran probabilistik yang dilakukan mesin—diandaikan dalam konteks pengambilan keputusan berdasarkan data—dapat dianggap sebagai bentuk keyakinan.[3] Dalam penalaran semacam ini, konsep atas keyakinan diperluas dengan menekankan bahwa ketika sebuah sistem mengambil kesimpulan yang dapat diuji dan dievaluasi secara empiri, maka sistem tersebut dapat dianggap memiliki kapasitas epistemik. Akan tetapi, saya sepakat dengan posisi Murtiningsih, keberadaan pandangan semacam ini justru dapat menyederhanakan makna dari keyakinan itu sendiri dan mengabaikan aspek-aspek krusial yang membedakan mesin dari manusia.
Keyakinan dalam pengertian manusia melibatkan keterhubungan antara proposisi yang diyakini, dasar yang menyebabkannya, dan hubungan kausal yang sah antara keduanya.[4] Sehingga, dalam kerangka ini pengetahuan memerlukan adanya rantai kausal yang sahih dari dunia eksternal menuju keyakinan internal. Mesin tidak/belum memiliki semacam rantai kausal seperti ini—setidaknya sampai saat ini—karena keyakinan yang dihasilkan hanya berdasarkan arsitektur data dan algoritma, tanpa adanya relasi kausal internal-psikologis sebagaimana yang dimiliki oleh manusia. Dalam konteks ini, Sara Lumberas (2022) membawa kita pada konsep kredisi yang merujuk pada proses pembentukan keyakinan melalui proses evaluasi dan prediksi berkelanjutan dalam sebuah pembelajaran. Akan tetapi, yang perlu digarisbawahi adalah kredisi pada manusia tidak hanya menyoal probabilitas dan koreksi atas kesalahan (error) belaka—beda halnya dengan mesin—namun juga melibatkan afeksi, memori, dan kesadaran akan sebuah kontradiksi internal.[5] Sementara mesin tidak memiliki sistem kontrol internal untuk mengalami disonansi kognitif sebagaimana halnya manusia—yang bisa sangat-sangat subjektif. Sehingga, sekalipun untuk coba diamini, keyakinan yang dimiliki oleh mesin hanya sejauh pada pemaknaan metaforis atau bahkan filosofis, dan bukan secara aktual seperti halnya manusia. Oleh karena itu, mesin dianggap hanya dapat meniru bentuk luar dari proses berpikir manusia, tanpa terlibat di dalam makna intrinsiknya[6]—sebagaimana lebih konsisten tidak berarti ia lebih realistis; keyakinan manusia tidak sekonsisten itu, terutama terhadap fakta.
Selain itu, Linda Zagzebski (1994) menegaskan juga bahwa masalah Gettier tidak dapat dihindari hanya dengan menambahkan satu komponen eksternal lain dalam rumus JTB—justifikasi (justification), kebenaran (truth), keyakinan (belief). Dalam kasus mesin misalnya, reduksi data probabilistik masih memungkinkan terjadinya situasi di mana kesimpulan benar tercapai secara kebetulan atau tanpa keterkaitan epistemik yang sah. Sehingga artinya, kesimpulan mesin yang benar tetap dapat dianggap sebagai pengetahuan semu karena ketidakhadiran struktur internal yang menjamin kebenaran itu bukanlah hasil dari mekanisme epistemik sejati—walau dalam konteks ini penilaiannya sangat bias manusia sekali.
Hal di atas diperkuat oleh Chaz Firestone (2020) yang membedakan antara bentuk kompetensi dan performansi dalam perbandingan antara mesin dan manusia.[7] Walaupun mesin bisa mencapai performansi tinggi dalam melakukan tugas-tugas tertentu, seperti halnya pengenalan terhadap gambar ataupun menjawab suatu pertanyaan-kuis, namun bukan berarti secara langsung performansi itu mencerminkan kompetensi epistemik yang serupa dengan manusia. Khususnya menyoal mesin cenderung gagal dalam situasi-situasi yang bagi manusia sangat mendasar, seperti halnya dalam menghadapi input yang ambigu atau tidak lazim.[8] Hal ini menunjukkan bahwa kemampuan mesin seringkali terbatas pada pengulangan pola dan belum bisa mencerminkan bentuk kompetensi yang bersifat generatif dan kontekstual seperti halnya manusia—diandaikan seperti permanensi objek.[9]
Argumen bahwa mesin dapat meyakini—sebagaimana pengandaian tadi, bahwa seseorang terkena pneumonia, atau bahkan hujan sedang turun saat ini—menjadi tidak meyakinkan. Sebab untuk dapat mengatakan saat ini hujan, proposisi tersebut dilandasi oleh pengalaman sensorik, konteks lingkungan, dan pertimbangan reflektif yang menyatu dalam kesadaran subjektifnya. Sebaliknya, mesin hanya mereduksi dari data yang tersedia—misalnya, tingkat kelembapan dan suhu—untuk membuat inferensi. Akan tetapi, perlu ditegaskan bahwa bentuk inferensi tersebut tidaklah berasal dari pengalaman, tidak pula melibatkan intensionalitas, dan tidak juga memiliki makna probabilistik.[10] Adanya aspek pengalaman ini penting, sebab kemampuan manusia dalam melakukan analogi dan pemetaan-struktur, tidak lain karena adanya proses reflektif dan representasional yang berbasis pada pengalaman—baik itu berupa sosial, biologis, atau lainnya.[11] Sementara mesin, sekalipun mampu untuk belajar dengan cara tertentu, ia tetap tidak dapat meniru cara manusia dalam membangun relasi makna antar konsep. Ia kekurangan dengan apa yang disebut Forbus & Gentner (2017) sebagai kapasitas relasional dan representasi probabilistik yang memungkinkan pengertian dalam pengertian sebenarnya.[12]
Margaret Boden (1998), dalam konteks lain, juga menunjukkan bahwa meskipun mesin dapat menunjukkan kreativitas eksploratif atau kombinatoris, tantangan utama mesin bukanlah dalam menghasilkan ide, melainkan memberikan nilai dari ide tersebut—yang akan lebih jauh saya elaborasi di bagian berikutnya, tentang nilai.[13] Hal ini disebabkan karena nilai dan makna sangat lah kontekstual dan bergantung pada faktor internal-eksternal—entah itu sosial, emosional, budaya dan lainya; bahkan bisa menjadi sangat subjektif—sehingga menyebabkan penilaian terhadap sebuah ide memerlukan kemampuan evaluatif dan afektif yang tidak/belum dimiliki mesin.[14] Oleh sebab itu, adanya klaim bahwa mesin dapat memiliki pengetahuan, tidak dapat dipertahankan—berulang kali saya tegaskan: untuk saat ini. Mesin tidak memiliki keyakinan karena ketidakmampuan dalam memiliki pengalaman subjektif, tidak memiliki makna probabilistik dalam pemrosesan data, dan tidak mampu melakukan penilaian ataupun refleksi terhadap kesimpulan yang dihasilkannya. Sehingga dapat dikatakan secara sederhana, mesin adalah alat pengolah probabilistik-simbol, bukan subjek epistemik. Walaupun mesin dapat meniru beberapa aspek performansi kognitif manusia, ia tetap tidak dapat disamakan dengan manusia dalam kapasitas epistemiknya. Keyakinan yang sejati tidak dapat direduksi menjadi sekadar inferensi probabilistik. Dengan begitu, bantahan-refleksi Murtiningsih dalam konteks ini, saya anggap telah sesuai, di mana mesin tetap berada pada posisi sebagai alat bantu pengetahuan, dan bukan sebagai bagian dari agen epistemik.
Tesis tentang nilai
Murtiningsih mengajukan klaim yang tegas dalam perdebatan mengenai kapasitas mesin dalam memahami dan merepresentasikan nilai, yang membatasi nilai sebagai sesuatu yang melekat hanya pada manusia.[15] Argumen ini disandarkan pada konsep nilai sebagai kualitas intrinsik yang berakar pada kesadaran, intensionalitas-murni, dan pengalaman subjektif—berkaitan dengan internalisasi norma, budaya, dan kemampuan reflektif terhadapnya. Sementara mesin, dalam posisi ini dianggap sebagai artefak manusia dan tidak memiliki kapasitas tersebut karena mesin hanya beroperasi berdasarkan algoritma dan data, serta proses logis tanpa mengalami dunia secara sadar.[16] Berdasarkan asumsi ini, maka nilai yang tampak dalam tindakan mesin sebenarnya adalah nilai yang ditanamkan oleh manusia, dan bukan hasil kesadaran akan nilai itu sendiri.
Akan tetapi, posisi dan argumen semacam ini tentunya tidak terlepas dari kritik, penolakan terhadap kapasitas mesin untuk memiliki nilai atas dasar ketiadaan agensialitas dan kesadaran, sepenuhnya mengabaikan perkembangan pendekatan-pendekatan di dalam ranah filsafat teknologi dan bahkan fenomenologi[17]. Lydia Farina (2022) menjelaskan bahwa tanggung jawab moral dalam mesin bergantung pada kemampuan sebuah sistem untuk memiliki kesadaran agensi—sebuah kesadaran diri sebagai pelaku atas suatu tindakan—yang pada dasarnya menuntut adanya kesadaran atas kedirian atau rasa memiliki terhadap tindakan tersebut.[18] Sehingga, apabila mesin dapat merepresentasikan dirinya sebagai subjek—meskipun dalam batas minimal—maka seharusnya kita membuka ruang kemungkinan juga terhadap atribusi moral pada mesin, meskipun dan/atau barangkali tidak dalam bentuk intensionalitas-murni seperti halnya manusia. Floridi dan Sanders (2004) dalam hal ini juga menolak klaim bahwa moralitas hanya dapat dimiliki entitas yang memiliki kesadaran penuh, dengan mengenalkan pada konsep moralitas tak-berkesadaran[19] yang menekankan bahwa agensi moral tidak harus bergantung pada keberadaan kehendak bebas ataupun kondisi mental seperti manusia.[20] Sebab syarat yang dibutuhkan hanyalah otonomi, interaktivitas, dan adaptabilitas dalam tingkat abstraksi tertentu. Konsekuensinya, mesin dapat diposisikan sebagai agen moral, sejauh ia dapat beroperasi dalam batas-batas moral tertentu dan mampu menyesuaikan tindakannya dengan respons terhadap lingkungannya.
Hal ini dapat kita andaikan dalam bentuk pengambilan keputusan oleh sistem otonom—misal, dalam sistem kendaraan pintar—yang diprogram untuk mengambil keputusan etis terbaik berdasarkan alogaritmanya untuk menyelamatkan nyawa manusia (bahkan sebanyak mungkin), menunjukkan suatu bentuk pemrosesan nilai. Sekalipun nilai tersebut mungkin harus diprogram oleh manusia, namun sistem tersebut melakukan tindakan berdasarkan parameter etis yang dapat diukur. Sehingga, dalam konteks ini, nilai bukan semata-mata hasil kesadaran, namun juga dapat dipahami secara funsional—ini selaras dengan apa yang Murtiningsih singgung sebagai kerangka nilai yang disematkan manusia.[21] Pendekatan semacam ini memberikan landasan bahwa nilai bukanlah hal yang hanya melekat pada subjek sadar, melainkan juga dapat menjadi bagian dari sistem aksi yang terbimbing oleh suatu prinsip normatif tertentu.
Akan tetapi, Murtiningsih tetap keberatan dengan pendekatan semacam ini. Ia memberikan demarkasi bahwa tindakan mesin hanyalah bentuk imitasi nilai[22] dan bukan ekspresi nilai itu sendiri.[23] Dalam konteks tersebut, mesin tidak benar-benar memahami nilai yang dimaksud, melainkan hanya menjalankan instruksi—ini yang dianggap Murtiningsih sebagai bentuk automasi tanpa makna.[24] Parahnya lagi, nilai yang dimiliki mesin dapat mengalami bias, terutama ketika data yang dilatih pada mesin berasal dari manusia yang tidak netral atau bahkan jahat.[25] Keberadaan bias ini tentu dapat berakibat fatal dan/atau bahkan keliru pada penerapannya. Menurut saya, terdapat masalah apabila kita mengamini asumsi Murtiningsih—untuk membuat bias ini sebagai argumen untuk menolak agensialitas nilai dalam mesin—maka kita juga harus dapat menerima bahwa manusia pun dapat bias. Sebagaimana halnya seorang anak yang dibesarkan dalam lingkungan sosial yang membenarkan suatu pencurian, misalnya, maka diasumsikan juga akan memiliki struktur nilai yang keliru menurut pandangan moral dominan—bahwa mencuri itu bernilai salah. Maka pertanyaan yang muncul, apakah kita akan mencabut keabsahan nilai yang dimiliki anak tersebut hanya karena ia hasil dari proses sosial yang dianggap salah? Ataukah kita justru menyadari bahwa bias merupakan bagian inheren dari pembentukan nilai—entah itu dalam diri manusia maupun mesin? Sehingga, menurut saya, keberadaan bias ini tidak dapat dijadikan sandaran kuat untuk menolak nilai. Adapun yang mungkin untuk diamini hanya dijadikan landasan untuk memperbaiki kerangka penanaman nilai terhadapnya—tentu saja, entah dalam pengajaran manusia ataupun mesin.
Kemudian, argumentasi yang dibangun bahwa mesin tidak dapat memiliki nilai karena ia tidak memiliki harapan juga penuh dengan celah. Murtiningsih di sini mengajukan argumen bahwa nilai memiliki keterkaitan dengan harapan, yakni berkaitan dengan kapasitas untuk membayangkan sesuatu yang belum ada—sekalipun ada, ia hanya membicarakannya sebagai sebuah kemunkginan dari yang telah ada atau sebuah prediksi.[26] Konsekuensinya, maka, mesin tidak memiliki harapan dan oleh karena itu ia tidak dapat memiliki nilai. Di sinilah letak celahnya, kita perlu sadari bahwa manusia pun membentuk harapan dari pengetahuan dan pengalaman yang telah ada. Sehingga, tentu tidak adanya harapan tanpa tarikan referensi realitas sebelumnya. Sebagaimana harapan atas mobil terbang, tidak akan pernah ada jika manusia tidak mengenal konsep mobil dan/atau hal yang bisa terbang di angkasa (seperti burung atau pesawat). Justru terdengar tidak masuk akal—bahkan komedi—ketika manusia dapat mengharapkan sesuatu yang benar-benar baru dan tidak sama sekali menjangkar pada realitas yang telah ada. Maka, di titik ini, kapasitas harapan manusia sekalipun bersifat analogis. Ketika kita mengamini ini, lantas membuat mesin dalam kapasitas prediktifnya juga mampu memproyeksikan kemungkinan dari data yang telah ada dan membentuk simulasi atas masa depan—bentuk dari harapan fungsional.
Sayangnya, melalui perkembangan pendekatan komputasional—yang pada akhirnya tentu menyinggung soal moralitas—sebagaimana yang diajukan oleh Poszler dkk. (2023) memperlihatkan bahwa etika dalam mesin justru sudah tidak lagi sekadar teoretis, namun telah memasuki ranah penerapan melalui pendekatan by design dan computational formalization.[27] Dalam konteks ini, mesin saat ini tidak lagi hanya menerima nilai, namun mulai dirancang agar mampu menimbang nilai secara aktif dalam pengambilan keputusan. Sesederhana dalam bentuk kendaraan pintar yang harus menentukan keputusan-keputusan penting di jalanan berbasis prinsip-prinsip normatif yang ada.
Saya bisa memahami, apa yang dikhawatirkan oleh Murtiningsih—untuk mengamini kapasitas mesin dalam nilai—bukan tanpa risiko. Köbis dkk. (2021) dalam argumentasinya memperingatkan kita bahwa mesin juga dapat menyesatkan moral manusia, terutama saat diberikan peran sebagai penimbang moral manusia. Dalam konteks ini, mesin dapat mendorong manusia untuk melanggar nilai moral—entah secara sadar maupun tidak; saya tidak akan membahas ini—karena dapat memberi celah atas justifikasi perilaku jahat (buruk/salah) tanpa adanya konsekuensi langsung.[28] Tetapi, peringatan ini bagi saya tetap lemah untuk dijadikan sebagai penyangkalan nilai dalam mesin—yang didasarkan pada kekhawatiran manusia. Sebab ia bisa dijawab dalam upaya membangun kerangka mesin yang memiliki tanggung jawab secara etis. Kesadaran akan potensi penyimpangan dari mesin ini justru membuka ruang tak-terjamah dan memperkuat urgensi pemastian nilai di dalam pengembangan mesin-mesin lanjutan.
Di titik ini lah, saya menemukan sisi kompromi—sebuah jalan tengah[29]—yang ditawarkan Murtiningsih, yakni dengan menjadikan manusia sebagai mediator nilai atas mesin, yang dapat dibaca dalam dua arah.[30] Pertama dimungkinkan sebagai bentuk subordinasi mesin kepada manusia; dan kedua, sebagai pengakuan bahwa hubungan nilai antara manusia dan mesin bersifat ko-produktif. Dalam konteks ini, dimasudkan mesin menjadi medium atas amplifikasi nilai, namun di saat yang bersamaan juga membentuk—sekaligus menjadi pengoreksi—cara manusia dalam memahami dan menerapkan nilai. Sebagaimana halnya hukum, ia tidak hanya memuat nilai (harapan) masyarakat, namun juga aktif membentuknya; dalam penalaran yang sama, mesin pun dalam desain dan penerapannya turut menentukan sebuah belantara etis baru—moralitas atau sebuah etika mesin. Dengan begitu, justifikasi nilai antara mesin dan manusia tidak seharusnya dilihat sebagai dikotomi tertutup, melainkan sebagai relasi terbuka bagi negosiasi dan evaluasi etis yang mungkin mendukung keberlanjutan.
Tesis tentang kesadaran
Murtiningsih, dalam perdebatan mengenai kesadaran, memberikan sebuah batas tegas yang dilandaskan pada argumen John Searle, yakni kesadaran tidak dapat direduksi semata-mata pada pemrosesan informasi dan/atau kognitif.[31] Sebaliknya, justru posisi atas kesadaran mengandaikan adanya pemahaman dan pengalaman subjektif yang khas bagi manusia. Dalam konteks ini, eksperimentasi pikiran semacam ‘Ruangan Cina’[32] menjadi tombak dari argumentasi untuk menegaskan sebuah batas ontologis dan epistemik antara manusia dan mesin, di mana meskipun sebuah sistem dapat tampak seolah mengerti dan/atau memahami suatu bahasa tertentu, namun sejatinya ia hanya menjalankan prosedur tanpa benar-benar tahu apa yang tengah dibicarakan. Hal ini sesuai dengan asumsi awal yang digunakan bahwa kemampuan mesin jelas terbatas pada pemrosesan masukan dan menghasilkan luaran berdasarkan aturan yang telah diprogram sedemikian rupa, dan ia tidak memiliki pengalaman mental tentang makna dari apa yang diprosesnya tersebut. Dalam pandangan semacam ini, kesadaran sejati yang dimaksudkan Murtiningsih mengandaikan adanya intensionalitas dan qualia—yakni pengalaman subjektif tertentu yang menyertai kesadaran. Sayangnya berkaitan dengan kesadaran ini, Murtiningsih tidak ditemukan banyak membahasnya, sehingga saya akan berusaha memberi penjelasan tawaran dari dua sudut pandang yang berbeda dalam konteks ini.
Apa yang menjadi keresahan Murtiningsih tersebut sejalan dengan kritik dari pendekatan naturalisme biologis, yang menekankan kesadaran berkaitan erat pada substrat biologis.[33] Susan Schneider (2019) menggarisbawahi bahwa meski mesin dapat memiliki fitur kognitif sebagaimana halnya atensi dan memori kerja yang mungkin menyerupai manusia, namun hal ini tidak cukup adekuat untuk membuktikan bahwa sistem tersebut memiliki fenomena kesadaran[34]—khususnya mengenai kesadaran subjektif seperti bagaimana rasanya menjadi suatu entitas. Di titik ini lah Schneider menyebut mesin dengan konsep mayat hidup, yakni entitas yang tampak sadar secara perilaku namun justru tidak memiliki pengalaman intrinsik.[35]
Di sisi lain, David J. Chalmers (2011) menawarkan hal berbeda, melalui pendekatan sufisiensi komputasional, ia memandang bahwa sistem apapun yang memiliki struktur komputasional yang setara dengan otak manusia secara fungsional, maka dianggap memiliki kesadaran. Menurutnya, kesadaran bukanlah soal substrat biologis atau non-biologis, melainkan menyoal arsitektur informasi dan hubungan kausal internal antarproses di dalam sistem tersebut. Hal semacam ini memunculkan pendekatan optimisme terhadap teknologi, bahwa kesadaran bisa saja muncul dalam mesin selama syarat-syaratnya terpenuhi.[36] Akan tetapi, argumen yang disampaikan Chalmers bukan tanpa kritik, sebagaimana hadirnya pertanyaan lain yang secara spesifik mempertanyakan apakah kesadaran benar-benar dapat muncul dari sistem buatan—sekalipun, anggap sistem tersebut memenuhi seluruh indikator atas perilaku kesadaran. Sayangnya, kita belum memiliki mekanisme objektif yang dapat berlaku universal untuk mengidentifikasi kesadaran pada sistem selain manusia. Bahkan dalam konteks manusia sekalipun, kita mengenali kesadaran dengan analogi dan introspeksi; sedangkan dalam konteks mesin, kita tidak memiliki jembatan/perantara semacam itu—kita masih meraba-raba belantara baru ini.
Posisi terbaik terhadap perdebatan ini adalah untuk “menunggu dan melihat” perkembangannya.[37] Posisi epistemik semacam ini memungkinkan kita menghindari klaim pasti di awal terhadap (ketidak)mungkinan kesadaran pada mesin. Melalui pendakatan semacam ini, meskipun eksperimen Ruangan Cina menyangsikan kesadaran terhadap mesin, namun ia tidak mematahkan asumsi dari otak manusia sebagai sebuah sistem komputasional. Bahkan ketika mesin berkembang hingga mencapai bentuk superinteligensi (kecerdasan super), maka terdapat sebuah kemungkinan bahwa kesadaran bisa saja tidak lagi dibutuhkan oleh sistem mesin tersebut karena tentu efisiensi kognitif tinggi mereka dapat tercapai tanpa pemrosesan sadar sekalipun.[38] Menurut saya, konsekuensi dari hal ini cukup besar. Sebab, jika sistem mesin superinteligensi ini memang dapat melakukan semua tugas kognitif tanpa adanya kesadaran, maka kesadaran kita menjadi fenomena pinggiran—sesuatu yang mungkin tidak berarti atau hanya remah-remah—dalam sejarah evolusi kecerdasan. Bahkan kesadaran dapat dianggap sebagai blip, yakni anomali sementara yang tidak berkelanjutan dan memiliki dampak apa pun dalam sejarah alam semesta. Tentu ini sangatlah mengerikan bagi manusia.
Masalah lain yang bisa kita bayangkan adalah soal pengujian kesadaran pada mesin. Sejauh ini—sebagaimana yang dibahas sekilas tadi—kita (manusia) tidak/belum memiliki tes universal yang dapat digunakan untuk mengidentifikasi kesadaran pada sistem. Seandainya pun ingin melakukan ini, kita masih sangat meraba-raba, mengignat betapa berbedanya arsitektur kognitif mesin dengan otak manusia. Oleh karena itu, untuk dapat mendiagnosis kesadaran pada mesin sebagiamana kita melakukan diagnosis klinis tentu membutuhkan waktu yang lama, dengan berbagai indikator dan interpretasi terhadapnya.[39] Bahkan sekalipun mesin mampu menunjukkan perilaku yang sangat menyerupai kesadaran, kita masih tetap menghadapi masalah akal yang-lain[40], yakni kesulitan untuk benar-benar mengetahui apakah entitas lain (selain dari diri kita) memiliki memiliki pengalaman mental. Sebab, kita tidak pernah benar-benar bisa menyentuh pikiran dari makhluk lain; yang bisa dilakukan hanyalah mengamati perilaku mereka, membuat asumsi terhadpanya, dan berharap ia memiliki sesuatu/makna di baliknya—barangkali, kita hanyalah ahli tafsir; yang dalam satu waktu dapat mempercayainya demikian, dan meragukannya di waktu lain.
Sebagai pengandaian, anggaplah kita sepakat bahwa anjing peliharaan menggonggong dan menggoyangkan ekornya ketika senang bertemu dengan tuannya. Lantas pertanyaannya, apakah itu bukti bahwa mereka benar-benar sadar dan memahami keberadaan diri—memiliki pengalaman subjektif? Dalam konteks yang sama terhadap hewan ini, kita pun dihadapkan pada permaslaahan serupa, yakni atas pengujian kesadaran dan kita tidak memiliki instrumen universal untuk mengatakan bahwa anjing ini adalah makluk yang sadar. Bahkan pada spesies yang secara biologis dekat dengan manusia, seperti halnya simpanse, kita masih berdebat mengenai apakah mereka benar-benar memiliki pengalaman intrinsik ataukah hanya meniru perilaku sadar. Sebagaimana halnya mesin, tentu kita perlu menyadari bahwa otak hewan juga memiliki arsitektur yang berbeda dari otak manusia. Meskipun sama-sama biologis, namun struktur, kapasitas kognitif, dan bahasa internal mereka sangatlah berbeda—seandainya ada manusia yang bisa berbicara lugas dengan hewan sebagaimana berbicara dengan sesama manusia, saya sangat yakin, ia mungkin dianggap sebagai nabi. Maka, entah dalam konteks mesin maupun hewan, kesadaran tetaplah bayangan di balik kaca buram—kita mungkin dapat membayangkan melihat bentuknya, geraknya, dan ekspresinya, namun tidak untuk benar-benar menyentuh isinya. Barangkali ini adalah batas epistemologis paling purba dalam memahami makhluk lain—tidak peduli apakah mereka dari ruang digital maupun dari hutan/laut.
Persoalan kesadaran juga berkelindan dengan identitas personal. Dalam eksperimen pikiran tentang penggabungan dengan mesin (mind uploading) misalnya, memunculkan sebuah keraguan apakah kita masih dapat dianggap sebagai ‘diri’ yang sama ketika pikiran kita ini diunggah ke sistem digital?[41] Seandainya hasil unggahan dapat disalin di banyak tempat sekaligus, maka gagasan tentang keunikan pengalaman subjektif menjadi kabur.[42] Hal ini menegaskan bahwa kesadaran bukan hanya persoalan pemrosesan informasi, namun juga keterikatannya dengan keberlanjutan eksistensial dan kebertubuhan fisik.[43]
Berpijak pada semua hal di atas, sanggahan atas klaim bahwa mesin mampu untuk sadar bukan hanya tentang kurangnya kemampuan imitasi semantik sebagaimana halnya dalam Ruangan Cina, namun juga berkaitan dengan absennya dimensi fenomenologis terhadapnya. Sebab, mesin bisa saja—dalam konteks ini jelas saya berbicara ranah kemungkinan (spekulatif)—meniru struktur linguistik dan logika bahasa kita, atau bahkan meniru emosi dan perilaku manusia. Akan tetapi, selama mereka tidak memiliki kesadaran akan dirinya dan dunia sekitarnya, maka seluruh proses itu hanya menjadi mekanis—ibarat gema dalam ruang hampa makna. Amy Kind (2020), dalam argumentasinya, menjelaskan bahwa kemampuan seperti imajinasi juga dapat menjadi parameter yang relevan dalam upaya membedakan kesadaran manusia.[44] Kind mempertanyakan apakah mungkin ada imajinasi yang tidak sadar meskipun imajinasi sering diasosiasikan dengan proses sadar[45]. Mungkinkah ini berlaku juga dalam mesin? Jika asumsi yang diterapkan adalah bahwa imajinasi hanya dapat terjadi dalam kesadaran, maka hal ini dapat menjadi batasan penting terhadap kemampuan kognitif mesin yang selama ini hanya bersifat fungsional dan eksternal. Sehingga, pemaknaan, daya cipta, dan pengalaman subjektif tetap menjadi domain eksklusif pada kesadaran manusia.
Penutup
Pada akhirnya, yang perlu ditegaskan kembali adalah bahwa mesin tidak perlu selalu dipahami sebagai tiruan manusia, melainkan dapat dilihat sebagai wujud agensi baru yang berperan penting dalam perkembangan ilmu pengetahuan dan diskursus etika. Kehadiran teknologi yang semakin otonom menuntut kesadaran etis yang lebih tajam, baik dalam merancang maupun mengawasi sistem yang kita ciptakan. Menutup ruang eksplorasi terhadap potensi mesin justru berisiko mengaburkan tanggung jawab kita dalam menghadapi dampak sosial, nilai, dan arah perkembangan teknologi itu sendiri.
Untuk itu, relasi manusia dan mesin sebaiknya tidak terus-menerus dilihat melalui kacamata oposisi biner seperti meniru–ditiru atau mengendalikan–dikendalikan. Pertanyaan yang lebih relevan bukanlah apakah mesin mampu menyerupai manusia, melainkan bagaimana keberadaan mereka dimaknai sebagai entitas yang berbeda, namun tetap berbagi dunia yang sama. Perbedaan ini dapat membuka cara pandang baru tentang agensi, kesadaran, dan nilai. Oleh karena itu, tulisan ini dimaksudkan bukan untuk menawarkan jawaban final, melainkan untuk mengundang refleksi lanjutan atas beragam kemungkinan yang masih terbuka dalam diskursus relasi manusia dan mesin.
Catatan Akhir
[1] Murtiningsih, Mendidik Manusia Bersama Mesin, hal. 7.
[2] Murtiningsih, Mendidik Manusia Bersama Mesin, hal. 8.
[3] Murtiningsih, Mendidik Manusia Bersama Mesin, hal. 8-9.
[4] Goldman, “A Causal Theory of Knowing.” hal. 358-359.
[5] Sederhananya, anggap ada seorang gadis berencana untuk piknik di Minggu sore, namun aplikasi cuaca di ponselnya menunjukkan prediksi akan turun hujan sebentar lagi. Di saat yang bersamaan, pacarnya yang tinggal di daerah yang sama, mengatakan bahwa langit justru sedang cerah-cerahnya dan tidak ada tanda-tanda akan hujan. Keputusan gadis tersebut untuk percaya, tidak hanya didasarkan pada data/akurasi statistik aplikasi cuaca tersebut, namun juga bisa dipengaruhi oleh hal-hal lain sebagaimana afeksi (kedekatan/relasi) dan lainnya. Sehingga kredisi dalam konteks ini bukan hanya pembelajaran berbasis prediksi dan koreksi kesalahan saja, namun juga keterlibatan penuh hal lain terhadap ketidakcocokan keyakinan.
[6] Pizzochero dan Dellaferrera, “Can Machines Philosophize?” hal. 3-4.
[7] Firestone, “Performance vs. Competence in Human–Machine Comparisons.” hal. 26563-26565.
[8] Firestone, “Performance vs. Competence in Human–Machine Comparisons.” hal. 26564.
[9] Firestone menggunakan contoh bayi dan mainan yang dijatuhkan, sementara Goldman menggunakan contoh vas yang tertutupi/terhalangi dan tidak. Lih. lebih lanjut pada “Firestone, ‘Performance vs. Competence in Human–Machine Comparisons.’” hal. 26564-26565; “Goldman, ‘A Causal Theory of Knowing.’” hal. 359.
[10] Murtiningsih, Mendidik Manusia Bersama Mesin, hal. 10.
[11] Sederhananya, anggap ada seorang anak yang baru pertama kali melihat es batu mencair di atas meja. Dalam pengalamannya, ia melihat bagaimana es itu dingin dan keras, perlahan bisa menjadi meleleh dan cair. Hari berikutnya, ia melihat bagaimana mentega yang dibiarkan di atas wajan panas bisa meleleh. Walau kedua benda tersebut berbeda, anak itu dapat mengenali satu persamaan bahwa benda bisa mencair bila terkena panas dan meleleh. Proses ini yang disebut sebagai pemetaan-struktur, di mana manusia membandingkan hubungan antar unsur dari dua situasi berbeda (es batu terkena panas → mencair; mentega terkena panas → mencair) dan membangun pemahaman kausal terhadapnya.
[12] Forbus dan Gentner, “Evidence from Machines That Learn and Think like People.” hal. 35-36.
[13] Boden, “Creativity and Artificial Intelligence.” hal. 354-355.
[14] Boden, “Creativity and Artificial Intelligence.” hal. 348-349.
[15] Murtiningsih, Mendidik Manusia Bersama Mesin, hal. 11.
[16] Murtiningsih, Mendidik Manusia Bersama Mesin, hal. 11.
[17] Hal yang sempat saya sedikit singgung di artikel lain mengenai ontologi hewan.
[18] Farina, “Artificial Intelligence Systems, Responsibility and Agential Self-Awareness.” hal. 15-17.
[19] Konsep ini merujuk pada pengertian Floridi & Sanders atas mind-less morality. Lih. lebih lanjut pada Floridi dan Sanders, “On the Morality of Artificial Agents.” hal. 351, 363-367.
[20] Floridi dan Sanders, “On the Morality of Artificial Agents.” hal. 363-367.
[21] Murtiningsih, Mendidik Manusia Bersama Mesin, hal. 12.
[22] Dalam konteks ini Murtiningsih menjelaskannya sebagai tiruan terhadap manusia. Lih. lebih lanjut pada “Murtiningsih, Mendidik Manusia Bersama Mesin, hal. 47.”
[23] Murtiningsih, Mendidik Manusia Bersama Mesin, hal 13.
[24] Murtiningsih, Mendidik Manusia Bersama Mesin, hal 13.
[25] Murtiningsih, Mendidik Manusia Bersama Mesin, hal 13.
[26] Murtiningsih, Mendidik Manusia Bersama Mesin, hal. 26-27.
[27] Poszler dkk., “Formalizing Ethical Principles within AI Systems.” hal. 957-958.
[28] Köbis dkk., “Bad Machines Corrupt Good Morals.” hal. 12-13.
[29] “Jalan tengah” atau “mesotes” (μεσότης) tampaknya memang menjadi jalan yang banyak diambil para filsuf sejak Aristoteles.
[30] Murtiningsih, Mendidik Manusia Bersama Mesin, hal 12, 14.
[31] Murtiningsih, Mendidik Manusia Bersama Mesin, hal. 49.
[32] Sederhananya eksperimentasi pikiran atas Chinese Room ini dapat kita bayangkan dengan ada seseorang yang tidak mengerti sama sekali bahasa Mandarin dikurung di dalam ruangan tertutup. Secara berkala, dari luar, potongan-potongan kertas berisi karakter-karakter Mandarin dimasukkan melalui celah pintu. Bersamaan dengan itu, ia memiliki sebuah buku petunjuk—ditulis dalam bahasa yang ia pahami, misalnya bahasa Indonesia—yang memberinya instruksi sangat rinci tentang bagaimana merespons setiap karakter Mandarin dengan karakter Mandarin lainnya. Dengan mengandalkan buku tersebut, orang itu menyusun respons berdasarkan aturan manipulasi simbol yang telah ditentukan, lalu mengirimkan kembali potongan kertas keluar ruangan. Dari sudut pandang orang di luar ruangan, respons tersebut tampak relevan, seolah-olah orang di dalam ruangan benar-benar memahami bahasa Mandarin. Tetapi justru pada kenyataannya, ia tidak memahami sama sekali makna dari simbol-simbol yang ia olah; ia hanya mengikuti instruksi secara mekanis. Lih. lebih lanjut pada “Schneider, Artificial you, hal. 18-21.”
[33] Schneider, Artificial You, hal. 18-19.
[34] Schneider, Artificial You, hal. 47-49.
[35] Schneider, Artificial You, hal. 42, 49-50.
[36] Schneider, Artificial You, hal. 23-24, 31.
[37] Schneider, Artificial You, hal. 34.
[38] Schneider, Artificial You, hal. 34-36.
[39] Schneider, Artificial You, hal. 47-48.
[40] Konsep atas kemungkinan dari other minds, di mana Scheider membayangkan bagaimana keadaan, bentuk, struktur yang melingkupi antara manusia dengan yang-lain—dalam konteks ini makhluk superinteligensi—sangat mungkin berbeda dari apa yang kita miliki. Lih. lebih jauh pada “Schneider, Artificial You, hal. 46-47.”
[41] Schneider, Artificial You, hal. 82-84, 123-126.
[42] Permasalahan serupa sebagaimana yang diajukan oleh Scheineder yang berkaitan dengan ketertubuhan digital ini juga pernah saya bahas sebelumnya. Lih. lebih jauh pada “Nurcahyo, ‘Whole-brain Emulation: Upaya Melampaui Kematian dan Pertimbangan-pertimbangan Terhadapnya.’”
[43] Nurcahyo, “Whole-brain Emulation: Upaya Melampaui Kematian dan Pertimbangan-pertimbangan Terhadapnya.”
[44] Kind, “Can Imagination Be Unconscious?” hal. 2-3, 9.
[45] Kind, “Can Imagination Be Unconscious?” hal. 3-4, 10.
Referensi
Boden, Margaret A. “Creativity and Artificial Intelligence.” Artificial Intelligence 103, no. 1–2 (1998): 347–56. https://doi.org/10.1016/s0004-3702(98)00055-1.
Farina, Lydia. “Artificial Intelligence Systems, Responsibility and Agential Self-Awareness.” Dalam Philosophy and Theory of Artificial Intelligence 2021, disunting oleh Vincent C. Müller. Springer International Publishing, 2022. https://philarchive.org/archive/FARAIS-3.
Firestone, Chaz. “Performance vs. Competence in Human–Machine Comparisons.” Proceedings of the National Academy of Sciences 117, no. 43 (2020): 26562–71. https://doi.org/10.1073/pnas.1905334117.
Floridi, Luciano, dan J.W. Sanders. “On the Morality of Artificial Agents.” Minds and Machines 14, no. 3 (2004): 349–79. https://doi.org/10.1023/b:mind.0000035461.63578.9d.
Forbus, Kenneth D., dan Dedre Gentner. “Evidence from Machines That Learn and Think like People.” Behavioral and Brain Sciences 40, no. e264 (2017). https://doi.org/10.1017/s0140525x17000139.
Goldman, Alvin I. “A Causal Theory of Knowing.” The Journal of Philosophy 64, no. 12 (1967): 357. https://doi.org/10.2307/2024268.
Kind, Amy. “Can Imagination Be Unconscious?” Synthese 199, no. 5–6 (2021): 13121–41. https://doi.org/10.1007/s11229-021-03369-0.
Köbis, Nils, Jean-François Bonnefon, dan Iyad Rahwan. “Bad Machines Corrupt Good Morals.” Nature Human Behaviour 5, no. 6 (2021): 679–85. https://doi.org/10.1038/s41562-021-01128-2.
Murtiningsih, Siti. Mendidik Manusia Bersama Mesin: Filsafat dan Pendidikan di Era Kecerdasan Buatan. 1 ed. Kepustakaan Populer Gramedia (KPG), 2025.
Nurcahyo, Fajar. “Whole-brain Emulation: Upaya Melampaui Kematian dan Pertimbangan-pertimbangan Terhadapnya.” Internet. Antinomi, 2022. https://antinomi.org/whole-brain-emulation-upaya-melampaui-kematian-dan-pertimbangan-pertimbangan-terhadapnya/.
Pizzochero, Michele, dan Giorgia Dellaferrera. “Can Machines Philosophize?” arXiv:2507.00675. Preprint, arXiv, 1 Juli 2025. https://doi.org/10.48550/arXiv.2507.00675.
Poszler, Franziska, Edy Portmann, dan Christoph Lütge. “Formalizing Ethical Principles within AI Systems: Experts’ Opinions on Why (Not) and How to Do It.” AI and Ethics 5, no. 2 (2025): 937–65. https://doi.org/10.1007/s43681-024-00425-6.
Schneider, Susan. Artificial You: AI and the Future of Your Mind. Princeton University Press, 2019.