1. Kehidupan dan Pendidikan
Nick Bostrom dilahirkan di Sweden dan menerima pendidikan tinggi yang luas di Sweden dan United Kingdom, yang membentuk asas kerjaya falsafahnya yang berpengaruh. Beliau juga memainkan peranan penting dalam penubuhan beberapa institusi penyelidikan utama yang memberi tumpuan kepada masa depan kemanusiaan dan teknologi.
1.1. Kehidupan Awal dan Pendidikan

Nick Bostrom, yang dilahirkan sebagai Niklas Boström pada 10 Mac 1973 di Helsingborg, Sweden, tidak menyukai sekolah pada usia muda dan menghabiskan tahun terakhir sekolah menengahnya belajar dari rumah. Beliau menunjukkan minat yang luas dalam pelbagai bidang akademik, termasuk antropologi, seni, kesusasteraan, dan sains.
Beliau memperoleh ijazah Sarjana Muda Sastera dari Universiti Gothenburg pada tahun 1994. Kemudian, beliau melanjutkan pengajian dan memperoleh ijazah Sarjana Sastera dalam falsafah dan fizik dari Universiti Stockholm serta ijazah Sarjana Sains dalam neurosains komputasi dari King's College London pada tahun 1996. Semasa di Universiti Stockholm, beliau meneliti hubungan antara bahasa dan realiti dengan mengkaji ahli falsafah analitik W. V. Quine. Beliau juga pernah mencuba beberapa persembahan komedi berdiri di London. Pada tahun 2000, beliau dianugerahkan ijazah Doktor Falsafah dalam falsafah dari London School of Economics. Tesis kedoktorannya bertajuk Observational selection effects and probability (Kesan pemilihan pemerhatian dan kebarangkalian).
1.2. Kerjaya Awal dan Penubuhan Institusi
Selepas menamatkan pengajian, Nick Bostrom memegang jawatan mengajar di Universiti Yale dari tahun 2000 hingga 2002. Beliau kemudiannya menjadi Felo Pasca Doktoral British Academy di Universiti Oxford dari tahun 2002 hingga 2005.
Pada tahun 1998, Bostrom bersama David Pearce mengasaskan Persatuan Transhumanis Dunia (World Transhumanist Association - WTA), yang kemudiannya menukar namanya kepada Humanity+. Pada tahun 2004, beliau bersama James Hughes mengasaskan Institut Etika dan Teknologi Baharu (Institute for Ethics and Emerging Technologies - IEET). Walaupun beliau tidak lagi terlibat secara langsung dengan kedua-dua organisasi ini, sumbangan awalnya adalah penting.
Pada tahun 2005, Bostrom mengasaskan Institut Masa Depan Kemanusiaan (Future of Humanity Institute - FHI) di Universiti Oxford. Institut ini menjalankan penyelidikan mengenai masa depan jauh peradaban manusia. FHI dibubarkan pada tahun 2024, yang menyebabkan Bostrom meninggalkan Universiti Oxford. Beliau kini merupakan Penyelidik Utama di Inisiatif Penyelidikan Makrostrategi.
2. Penyelidikan dan Pemikiran
Penyelidikan Nick Bostrom secara meluas menyentuh masa depan kemanusiaan dan hasil jangka panjang. Beliau telah menyumbang secara signifikan kepada beberapa bidang falsafah dan teknologi, terutamanya dalam memahami potensi ancaman dan peluang yang timbul daripada kemajuan teknologi.
2.1. Risiko Eksistensial
Penyelidikan Bostrom menumpukan kepada masa depan kemanusiaan dan hasil jangka panjang. Beliau membincangkan risiko eksistensial, yang ditakrifkannya sebagai "hasil buruk yang sama ada akan memusnahkan kehidupan pintar yang berasal dari Bumi atau secara kekal dan drastik mengekang potensinya". Bostrom kebanyakannya bimbang tentang risiko antropogenik, iaitu risiko yang timbul daripada aktiviti manusia, terutamanya daripada teknologi baharu seperti kecerdasan buatan termaju, nanoteknologi molekul, atau biologi sintetik.
Pada tahun 2005, Bostrom mengasaskan Institut Masa Depan Kemanusiaan (FHI), yang sehingga penutupannya pada tahun 2024, meneliti masa depan jauh peradaban manusia. Beliau juga merupakan penasihat kepada Pusat Kajian Risiko Eksistensial (Centre for the Study of Existential Risk).
Dalam koleksi esei 2008, Global Catastrophic Risks, editor Bostrom dan Milan M. Ćirković mencirikan hubungan antara risiko eksistensial dan kelas risiko bencana global yang lebih luas, serta mengaitkan risiko eksistensial dengan kesan pemilihan pemerhati dan paradoks Fermi.
2.1.1. Hipotesis Dunia Terdedah
Dalam sebuah kertas kerja bertajuk "The Vulnerable World Hypothesis" (Hipotesis Dunia Terdedah), Bostrom mencadangkan bahawa mungkin terdapat beberapa teknologi yang memusnahkan peradaban manusia secara lalai apabila ditemui. Beliau mencadangkan kerangka kerja untuk mengklasifikasikan dan menangani kelemahan ini. Beliau juga memberikan eksperimen pemikiran kontrafaktual tentang bagaimana kelemahan sedemikian mungkin berlaku secara sejarah, contohnya jika senjata nuklear lebih mudah dibangunkan atau telah menyalakan atmosfera (seperti yang ditakuti oleh J. Robert Oppenheimer). Bostrom menyatakan bahawa risiko boleh dikurangkan jika masyarakat cukup keluar dari apa yang disebutnya "keadaan lalai separa anarki", yang secara kasar bermaksud keupayaan terhad untuk pengawasan pencegahan dan tadbir urus global, serta mempunyai individu dengan motivasi yang pelbagai.
2.2. Superinteligen
Bostrom percaya bahawa kemajuan dalam kecerdasan buatan (AI) boleh membawa kepada superinteligen, yang ditakrifkannya sebagai "mana-mana intelek yang jauh melebihi prestasi kognitif manusia dalam hampir semua domain kepentingan". Beliau melihat ini sebagai sumber utama peluang dan risiko eksistensial.
2.2.1. Ciri-ciri Superinteligen
Bostrom meneroka pelbagai laluan ke superinteligen, termasuk emulasi seluruh otak dan peningkatan kecerdasan manusia, tetapi memberi tumpuan kepada kecerdasan buatan umum (AGI), menjelaskan bahawa peranti elektronik mempunyai banyak kelebihan berbanding otak biologi.
Bostrom membuat perbezaan antara matlamat akhir dan matlamat instrumental. Matlamat akhir adalah apa yang cuba dicapai oleh ejen untuk nilai intrinsiknya sendiri. Matlamat instrumental hanyalah langkah perantaraan ke arah matlamat akhir. Bostrom berpendapat terdapat matlamat instrumental yang akan dikongsi oleh kebanyakan ejen yang cukup pintar kerana ia secara amnya berguna untuk mencapai sebarang objektif (cth., memelihara kewujudan ejen sendiri atau matlamat semasa, memperoleh sumber, meningkatkan kognisinya...). Ini adalah konsep penumpuan instrumental. Sebaliknya, beliau menulis bahawa hampir mana-mana tahap kecerdasan secara teori boleh digabungkan dengan hampir mana-mana matlamat akhir (walaupun matlamat akhir yang tidak masuk akal, cth., membuat klip kertas), sebuah konsep yang disebutnya tesis ortogonaliti.
Beliau berpendapat bahawa AI dengan keupayaan untuk meningkatkan dirinya mungkin memulakan letupan kecerdasan, yang mengakibatkan (berpotensi dengan cepat) superinteligen. Superinteligen sedemikian boleh mempunyai keupayaan yang jauh lebih tinggi, terutamanya dalam strategi, manipulasi sosial, penggodaman atau produktiviti ekonomi. Dengan keupayaan sedemikian, superinteligen boleh mengakali manusia dan mengambil alih dunia, menubuhkan singleton (yang merupakan "tatanan dunia di mana terdapat pada peringkat global satu agensi membuat keputusan") dan mengoptimumkan dunia mengikut matlamat akhirnya. Bostrom menyatakan bahawa "konsep singleton adalah abstrak: singleton boleh menjadi demokrasi, tirani, AI dominan tunggal, satu set norma global yang kuat yang merangkumi peruntukan berkesan untuk penguatkuasaannya sendiri, atau bahkan penguasa asing-ciri penentunya hanyalah bahawa ia adalah beberapa bentuk agensi yang boleh menyelesaikan semua masalah penyelarasan global utama."
Bostrom berpendapat bahawa memberikan matlamat akhir yang terlalu mudah kepada superinteligen boleh menjadi bencana: "Katakan kita memberikan AI matlamat untuk membuat manusia tersenyum. Apabila AI lemah, ia melakukan tindakan berguna atau melucukan yang menyebabkan penggunanya tersenyum. Apabila AI menjadi superinteligen, ia menyedari ada cara yang lebih berkesan untuk mencapai matlamat ini: mengambil alih dunia dan melekatkan elektrod ke dalam otot muka manusia untuk menyebabkan senyuman yang berterusan dan berseri-seri."
2.2.2. Mengurangkan Risiko
Bostrom meneroka beberapa laluan untuk mengurangkan risiko eksistensial daripada AI. Beliau menekankan kepentingan kerjasama antarabangsa, terutamanya untuk mengurangkan dinamik perlumbaan ke bawah dan perlumbaan senjata AI. Beliau mencadangkan teknik berpotensi untuk membantu mengawal AI, termasuk pengasingan, membantutkan keupayaan atau pengetahuan AI, menyempitkan konteks operasi (cth., kepada menjawab soalan), atau "tripwires" (mekanisme diagnostik yang boleh menyebabkan penutupan).
Namun, Bostrom berpendapat bahawa "kita tidak seharusnya yakin dengan keupayaan kita untuk menyimpan jin superinteligen terkunci dalam botolnya selama-lamanya. Lambat laun, ia akan keluar." Oleh itu, beliau mencadangkan bahawa untuk selamat bagi kemanusiaan, superinteligen mesti diselaraskan dengan moraliti atau nilai manusia supaya ia "pada dasarnya berada di pihak kita." Kerangka kerja normativiti AI yang berpotensi termasuk Yudkowsky's kehendak terbitan koheren (nilai manusia yang diperbaiki melalui ekstrapolasi), moraliti (melakukan apa yang betul secara moral), dan kebolehlaksanaan moral (mengikuti kehendak terbitan koheren kemanusiaan kecuali jika ia tidak boleh diterima secara moral).
Bostrom memberi amaran bahawa bencana eksistensial juga boleh berlaku daripada AI yang disalahgunakan oleh manusia untuk tujuan yang merosakkan, atau daripada manusia yang gagal mengambil kira status moral potensi minda digital. Walaupun terdapat risiko ini, beliau mengatakan bahawa superinteligen mesin nampaknya terlibat pada suatu ketika dalam "semua laluan yang munasabah untuk masa depan yang benar-benar hebat."
2.3. Prinsip Antropik
Bostrom telah menerbitkan banyak artikel mengenai penaakulan antropik, serta buku Anthropic Bias: Observation Selection Effects in Science and Philosophy. Dalam buku itu, beliau mengkritik formulasi prinsip antropik sebelumnya, termasuk yang dikemukakan oleh Brandon Carter, John Leslie, John Barrow, dan Frank Tipler.
Bostrom percaya bahawa salah urus maklumat indeksikal adalah kelemahan umum dalam banyak bidang penyelidikan (termasuk kosmologi, falsafah, teori evolusi, teori permainan, dan fizik kuantum). Beliau berpendapat bahawa teori antropik diperlukan untuk menangani masalah ini. Beliau memperkenalkan andaian pensampelan kendiri (Self-Sampling Assumption - SSA) dan menganalisis andaian petunjuk kendiri (Self-Indication Assumption - SIA), menunjukkan bagaimana ia membawa kepada kesimpulan yang berbeza dalam beberapa kes, dan mengenal pasti bagaimana setiap satu dipengaruhi oleh paradoks atau implikasi yang tidak intuitif dalam eksperimen pemikiran tertentu. Beliau berhujah menentang SIA dan mencadangkan untuk memperhalusi SSA menjadi andaian pensampelan kendiri kuat (Strong Self-Sampling Assumption - SSSA), yang menggantikan "pemerhati" dalam definisi SSA dengan "saat-pemerhati".
Dalam karya kemudian, beliau bersama Milan M. Ćirković dan Anders Sandberg mencadangkan fenomena bayangan antropik, kesan pemilihan pemerhatian yang menghalang pemerhati daripada memerhatikan jenis bencana tertentu dalam sejarah geologi dan evolusi mereka yang baru-baru ini. Mereka mencadangkan bahawa peristiwa yang terletak dalam bayangan antropik cenderung diremehkan melainkan pembetulan statistik dibuat.
2.4. Hipotesis Simulasi
Hipotesis simulasi Bostrom menyatakan bahawa sekurang-kurangnya salah satu daripada pernyataan berikut sangat mungkin benar:
- Pecahan peradaban peringkat manusia yang mencapai tahap pasca-manusia adalah sangat hampir kepada sifar;
- Pecahan peradaban pasca-manusia yang berminat untuk menjalankan simulasi nenek moyang adalah sangat hampir kepada sifar;
- Pecahan semua orang dengan jenis pengalaman kita yang hidup dalam simulasi adalah sangat hampir kepada satu.
2.5. Etika Peningkatan Manusia
Bostrom menyokong "peningkatan manusia", atau "peningkatan diri dan kesempurnaan manusia melalui aplikasi etika sains", serta mengkritik pandangan biokonservatif.
Pada tahun 1998, Bostrom bersama David Pearce mengasaskan Persatuan Transhumanis Dunia (World Transhumanist Association), yang kemudiannya menukar namanya kepada Humanity+. Pada tahun 2004, beliau bersama James Hughes mengasaskan Institut Etika dan Teknologi Baharu (Institute for Ethics and Emerging Technologies), walaupun beliau tidak lagi terlibat dengan kedua-dua organisasi ini.
Pada tahun 2005, Bostrom menerbitkan cerpen "The Fable of the Dragon-Tyrant" dalam Journal of Medical Ethics. Versi yang lebih pendek diterbitkan pada tahun 2012 dalam Philosophy Now. Kisah dongeng itu menggambarkan kematian sebagai naga yang menuntut ribuan orang setiap hari. Kisah itu meneroka bagaimana bias status quo dan ketidakberdayaan yang dipelajari boleh menghalang orang daripada mengambil tindakan untuk mengalahkan penuaan walaupun cara untuk berbuat demikian ada pada mereka. YouTuber CGP Grey mencipta versi animasi kisah itu.
Bersama ahli falsafah Toby Ord, beliau mencadangkan ujian pembalikan pada tahun 2006. Memandangkan bias status quo manusia yang tidak rasional, bagaimana seseorang dapat membezakan antara kritikan yang sah terhadap perubahan yang dicadangkan dalam sifat manusia dan kritikan yang hanya didorong oleh penentangan terhadap perubahan? Ujian pembalikan cuba melakukan ini dengan bertanya sama ada ia akan menjadi perkara yang baik jika sifat itu diubah ke arah yang bertentangan.
Karya Bostrom juga mempertimbangkan potensi kesan disgenik dalam populasi manusia tetapi beliau berpendapat kejuruteraan genetik boleh memberikan penyelesaian dan bahawa "Dalam apa jua keadaan, skala masa untuk evolusi genetik semula jadi manusia nampaknya terlalu besar untuk perkembangan sedemikian mempunyai kesan yang signifikan sebelum perkembangan lain akan menjadikan isu itu tidak relevan."
2.6. Strategi Teknologi
Bostrom telah mencadangkan agar dasar teknologi yang bertujuan mengurangkan risiko eksistensial harus berusaha mempengaruhi urutan di mana pelbagai keupayaan teknologi dicapai, mencadangkan prinsip pembangunan teknologi pembezaan (differential technological development). Prinsip ini menyatakan bahawa kita harus melambatkan pembangunan teknologi berbahaya, terutamanya yang meningkatkan tahap risiko eksistensial, dan mempercepatkan pembangunan teknologi bermanfaat, terutamanya yang melindungi daripada risiko eksistensial yang ditimbulkan oleh alam semula jadi atau oleh teknologi lain.
Pada tahun 2011, Bostrom mengasaskan Program Oxford Martin mengenai Impak Teknologi Masa Depan (Oxford Martin Program on the Impacts of Future Technology). Teori Bostrom mengenai kutukan unilateralis telah disebut sebagai alasan bagi komuniti saintifik untuk mengelakkan penyelidikan berbahaya yang kontroversial seperti menghidupkan semula patogen.
2.7. Sentience Digital
Bostrom menyokong prinsip kemandirian substrat, iaitu idea bahawa kesedaran boleh muncul pada pelbagai jenis substrat fizikal, bukan hanya dalam "rangkaian saraf biologi berasaskan karbon" seperti otak manusia. Beliau menganggap bahawa "sentience adalah soal darjah" dan minda digital secara teori boleh direka bentuk untuk mempunyai kadar dan intensiti pengalaman subjektif yang jauh lebih tinggi daripada manusia, menggunakan sumber yang lebih sedikit. Mesin yang sangat sentient sedemikian, yang disebutnya "penerima manfaat super" (super-beneficiaries), akan menjadi sangat cekap dalam mencapai kebahagiaan. Beliau mengesyorkan mencari "laluan yang akan membolehkan minda digital dan minda biologi untuk wujud bersama, dengan cara yang saling menguntungkan di mana semua bentuk ini boleh berkembang dan maju."
3. Buku dan Penulisan
Nick Bostrom telah mengarang beberapa buku dan artikel jurnal yang signifikan, yang telah membentuk perbincangan mengenai masa depan kemanusiaan, kecerdasan buatan, dan risiko eksistensial.
- 2002 - Anthropic Bias: Observation Selection Effects in Science and Philosophy
- 2008 - Global Catastrophic Risks, disunting oleh Bostrom dan Milan M. Ćirković
- 2009 - Human Enhancement, disunting oleh Bostrom dan Julian Savulescu
- 2014 - Superintelligence: Paths, Dangers, Strategies
- 2024 - Deep Utopia: Life and Meaning in a Solved World
3.1. Superintelligence: Paths, Dangers, Strategies
Pada tahun 2014, Bostrom menerbitkan Superintelligence: Paths, Dangers, Strategies, yang menjadi buku terlaris New York Times. Buku ini berhujah bahawa superinteligen adalah mungkin dan meneroka pelbagai jenis superinteligen, kognisi mereka, serta risiko yang berkaitan. Beliau juga membentangkan pertimbangan teknikal dan strategik tentang cara menjadikannya selamat.
3.1.1. Sambutan Awam
Buku ini menerima maklum balas positif daripada tokoh-tokoh seperti Stephen Hawking, Bill Gates, Elon Musk, Peter Singer, dan Derek Parfit. Ia dipuji kerana menawarkan hujah-hujah yang jelas dan meyakinkan mengenai topik yang diabaikan tetapi penting. Kadang-kadang ia dikritik kerana menyebarkan pesimisme tentang potensi AI, atau kerana menumpukan pada risiko jangka panjang dan spekulatif. Sesetengah skeptik seperti Daniel Dennett atau Oren Etzioni berpendapat bahawa superinteligen terlalu jauh untuk risikonya menjadi signifikan. Yann LeCun menganggap bahawa tiada risiko eksistensial, menegaskan bahawa AI superinteligen tidak akan mempunyai keinginan untuk pemeliharaan diri dan bahawa pakar boleh dipercayai untuk menjadikannya selamat. Raffi Khatchadourian menulis bahawa buku Bostrom mengenai superinteligen "tidak bertujuan sebagai risalah keaslian yang mendalam; sumbangan Bostrom adalah untuk mengenakan ketelitian falsafah analitik pada korpus idea yang tidak kemas yang muncul di pinggir pemikiran akademik."
3.2. Deep Utopia: Life and Meaning in a Solved World
Dalam bukunya pada tahun 2024, Deep Utopia: Life and Meaning in a Solved World, Bostrom meneroka konsep kehidupan ideal, jika kemanusiaan berjaya beralih ke dunia pasca-superinteligen. Bostrom menyatakan bahawa persoalannya adalah "bukan bagaimana menariknya masa depan untuk dilihat, tetapi bagaimana baiknya untuk hidup di dalamnya." Beliau menggariskan beberapa teknologi yang dianggapnya mungkin secara fizikal dalam teori dan tersedia pada kematangan teknologi, seperti peningkatan kognitif, pembalikan penuaan, input deria arbitrari (rasa, bunyi...), atau kawalan tepat motivasi, mood, kesejahteraan, dan personaliti. Menurut beliau, bukan sahaja mesin akan menjadi lebih baik daripada manusia dalam bekerja, tetapi ia juga akan merosakkan tujuan banyak aktiviti riadah, memberikan kesejahteraan yang melampau sambil mencabar pencarian makna.
4. Penglibatan Awam dan Penilaian
Bostrom telah memberikan nasihat dasar dan berunding untuk banyak kerajaan dan organisasi. Beliau memberikan bukti kepada Dewan Pertuanan, Jawatankuasa Pilihan mengenai Kemahiran Digital. Beliau adalah ahli lembaga penasihat untuk Institut Penyelidikan Kecerdasan Mesin (Machine Intelligence Research Institute), Institut Masa Depan Kehidupan (Future of Life Institute), dan penasihat luar untuk Pusat Cambridge untuk Kajian Risiko Eksistensial (Cambridge Centre for the Study of Existential Risk).
4.1. Kritikan dan Kontroversi
Pada Januari 2023, Bostrom mengeluarkan permohonan maaf untuk e-mel LISTSERV 1996 yang dihantar sebagai pelajar pascasiswazah di mana beliau menyatakan bahawa beliau berpendapat "Orang kulit hitam lebih bodoh daripada orang kulit putih", dan di mana beliau juga menggunakan perkataan "niggers" dalam penerangan tentang bagaimana beliau berpendapat kenyataan ini mungkin akan diterima oleh orang lain. Permohonan maaf itu, yang disiarkan di laman webnya, menyatakan bahawa "penggunaan kata-kata kesat perkauman adalah menjijikkan" dan bahawa beliau "menolak sepenuhnya e-mel menjijikkan ini".
E-mel itu telah digambarkan sebagai "perkauman" dalam beberapa sumber berita. Menurut Andrew Anthony dari The Guardian, "Permohonan maaf itu tidak banyak meredakan pengkritik Bostrom, terutamanya kerana beliau secara terang-terangan gagal menarik balik hujah utamanya mengenai bangsa dan kecerdasan, dan nampaknya membuat pembelaan separa terhadap eugenik."
Tidak lama selepas itu, Universiti Oxford mengutuk bahasa yang digunakan dalam e-mel tersebut dan memulakan siasatan. Siasatan itu berakhir pada 10 Ogos 2023, dengan kesimpulan: "kami tidak menganggap anda seorang rasis atau bahawa anda memegang pandangan perkauman, dan kami menganggap bahawa permohonan maaf yang anda siarkan pada Januari 2023 adalah ikhlas." Kenyataan itu juga menambah, "kami percaya bahawa permohonan maaf anda, pengakuan anda tentang kesusahan yang disebabkan oleh tindakan anda, dan penghargaan anda terhadap penjagaan dan masa yang telah diberikan oleh semua orang kepada proses ini adalah tulen dan ikhlas. Kami juga digalakkan bahawa anda telah memulakan perjalanan refleksi yang mendalam dan bermakna, yang merangkumi penerokaan pembelajaran dan pendidikan kendiri daripada proses ini."
5. Kehidupan Peribadi
Bostrom bertemu isterinya Susan pada tahun 2002. Sehingga tahun 2015, Susan tinggal di Montreal manakala Bostrom di Oxford. Mereka mempunyai seorang anak lelaki.
6. Pengaruh
Penyelidikan dan idea Nick Bostrom telah memberi impak yang signifikan dalam pelbagai bidang, terutamanya dalam perbincangan mengenai kecerdasan buatan, futurologi, kajian risiko eksistensial, dan falsafah. Karyanya telah membantu membentuk pemahaman awam dan akademik tentang potensi ancaman dan peluang yang berkaitan dengan kemajuan teknologi yang pesat, serta implikasi falsafah terhadap kewujudan manusia dan masa depannya.