Loạt bài: TỪ DỊCH NHÂN LUẬN ĐẾN HẬU NHÂN LUẬN
***
Kỳ 2: TRÍ TUỆ NHÂN TẠO. QUYỀN LỰC. NHÂN TÍNH
(Võ Quốc Việt)
Cuộc chạy đua
trí tuệ nhân tạo cho thấy đằng sau đó cuộc chạy đua quyền lực với tham vọng bá
chủ thế giới (chí ít cũng “tiểu cường”) với chiêu bài tự vệ hoặc chiêu bài bảo
vệ hòa bình công lý. Các nhà khoa học và các nhà kinh doanh với tâm thế lạc
quan về AI: hoặc là kẻ ấu trĩ về quyền lực hoặc là kẻ cố tình dối mình dối người
buông ra những lời xảo trá. Lợi ích mà AI mang lại hầu như hiển nhiên, điều
đáng nói là mang lại ích lợi cho ai? Liệu AI có thể trở thành công cụ để một số
ít người “thuộc địa hóa”, “nô lệ hóa” con người ở cấp độ tiên tiến hơn hay
không? Chưa ai dám trả lời chắc chắn câu hỏi này. Nhưng thay vì trả lời câu hỏi
này, bạn có thể thử nghiệm lại: từ cuộc cách mạng công nghiệp lần thứ nhất đến
nay, tần suất xảy ra chiến sự, tranh chấp tăng hay giảm; mức độ quy mô phạm vi
của chiến sự và tranh chấp ấy tăng hay giảm; và hiện nay số cuộc chiến đang diễn
ra trên thế giới nhiều hay ít?
Từ lâu thiên hạ
vẫn nói “thương trường như chiến trường”, nhưng đến nay với sự phát triển công
nghệ, cuộc thương chiến mới thật sự khốc liệt. Và công nghệ AI hiện nay đã được
ứng dụng trong rất nhiều lĩnh vực. Cuộc chạy đua công nghệ trí tuệ nhân tạo thậm
chí còn đáng sợ hơn cuộc chạy đua vũ khí, cuộc chạy đua vào không gian. Loài
người đang quay cuồng, quần thảo ráo riết giữa cơn lốc công nghệ đến mức không
còn đủ thì giờ nhìn thấy căn nguyên của cuộc chạy đua. Bởi vì nếu tụt lại nghĩa
là chết!
*
Căn nguyên cuộc
chạy đua công nghệ, cuộc chạy đua vũ khí, cuộc chạy đua không gian, cuộc chạy
đua trí tuệ nhân tạo: lòng tham và sợ hãi. Lòng tham hay ý thức chiếm lĩnh, khống
chế thế giới. Sợ hãi hay ý thức chiếm lĩnh, không chế tha nhân. Và khi ta mải
miết lo chạy đua, ta quên mất vấn đề hệ trọng hơn: đạo đức công nghệ. Hầu như sự
phát tiến công nghệ nào hiện nay đều vấp phải những quan ngại về đạo đức. Đặc
biệt AI đặt ra thách đức về đạo đức công nghệ buộc việc thiết kế cần những thuật
toán bảo đảm tính an toàn và cân nhắc đạo đức nhân tạo[1].
Nhưng theo Yoshua Bengio: “AI hiện tại
[2018] – và cả AI mà ta có thể tiên lượng trong tương lai khả lý – không và sẽ
không hề có cảm thức luân lý hoặc nhận biết luân lý về điều gì đúng/thiện và điều
gì sai/ác”[2].
Hơn nữa, xã hội chúng ta là một xã hội liên tục tái tạo các tạo tác của
mình, bao gồm cả hệ thống đạo đức xã hội. Ngay giữa người với người, ta cũng
khó có thể xây dựng luân lý nhất quán bởi tính chủ quan về đạo đức cá nhân; nên
việc cấp quyền tự quyết về mặt đạo đức cho trí tuệ nhân tạo có thể gây ra tổn hại
hoặc hỗn loạn trong vận hành đạo đức xã hội[3].
Điều này cho thấy tầm quan trọng của việc đồng bộ đạo đức xã hội (mà đúng hơn
là nhân tính) với phát triển khoa học kỹ thuật nói chung. Thậm chí vấn đề này
còn chí tử hơn là tụt hậu!
Những phát biểu
của GS. Geoffrey Hinton, cho thấy trí khôn (cơ xảo) và nhận thức quy luật tồn tại
thế giới đã phát triển vượt quá nhận thức về đạo đức/nhân tính của con người. Việc
không đồng bộ này trong tự thân tinh thần con người mới thực là điều đáng lo ngại
và gây ra hệ quả trong việc phát triển trí tuệ nhân tạo. Geoffrey Hinton (được
xem như Bố già của lĩnh vực trí tuệ nhân tạo) đã rời khỏi Google và chia sẻ
trên Twitter ngày 01/5/2023 sau khi từ chức:
"Hôm nay trên NYT, Cade Metz ám chỉ rằng tôi rời Google để có thể chỉ
trích Google. Thực tế, tôi rời đi để có thể nói về sự nguy hiểm của AI mà không
phải xem xét điều này ảnh hưởng đến Google thế nào”. Đến ngày 05/5/2023,
ông lại chia sẻ trên Twitter về dòng tiêu đề chưa chính xác của CBC: “Geoffrey Hinton, người tiên phong về AI của
Canada nói rằng AI có thể quét sạch nhân loại. Trong lúc đó vẫn có tiền để trục
vét”. Câu thứ hai do nhà báo tự bịa đặt, không phải tôi”. Nghĩa rằng ông
không phủ nhận nguy cơ từ AI nhưng không thừa nhận việc trục lợi từ việc phát
triển AI của ông và cộng sự. Nhưng chắc hẳn phải có ai đó được lợi từ việc này.
Vấn đề mấu chốt ở chỗ ai được lợi từ sự phát triển trí tuệ nhân tạo. Là nhân loại
hay một bộ phận nhân loại?
Trước đó, năm
2018, ông cũng phản đối (trong nội bộ Google) về việc quân đội Hoa Kỳ sử dụng
trí tuệ nhân tạo để tăng cường sức mạnh quân sự. Phản đối này có căn cớ bởi việc
sử dụng Hệ thống vũ khí tự trị (Autonomous weapons system/AWS) nhằm củng cố,
nâng cao, phát triển năng lực quân sự[4].
Chính điều này mới gây ra tai họa, thảm trạng, là nguy cơ của nền văn minh loài
người chứ không phải việc cải tiến trí tuệ nhân tạo. AI sở dĩ nguy hiểm vì nó đặt
ra thử thách ngay tận mặt con người về việc tiến hóa tồn tại người. Ta hay quan
ngại về tốc độ phát triển của AI, và với những rào cản về thân xác, con người
khó có thể tiến kịp và nguy cơ mất kiểm soát đối với AI là có thực. Nhưng ta
không thể quên rằng AI do con người tạo ra, tốc độ phát triển của nó phụ thuộc
vào lòng tham và nỗi sợ hãi của con người. Chính vì sự tích tụ và lớn mạnh của
lòng tham và nỗi sợ hãi mới là nguyên động lực thúc đẩy tốc độ phát triển AI
ngày càng nhanh chóng. Gia tốc công nghệ dựa trên lòng tham và nỗi sợ hãi sẽ
kích hoạt và đưa chúng ta ngày càng đến gần hơn điểm kỳ dị công nghệ (Singularity)
– như chân trời sự kiện của “hố đen” – khi mà khả năng tiên lượng dự đoán không
còn được kiểm soát.
Điều dễ thấy ở
các cuộc chay đua (công nghiệp hóa, vũ khí chiến tranh, không gian, AI) hầu như
chỉ quan tâm đến các phương thức đạt được chiến thắng, ưu thế trong cuộc chạy
đua; mà chưa thực sự nghiêm túc chuẩn bị cho giai đoạn “hậu chiến thắng”. Chưa
kể đến sau khi thắng lợi, cuộc chạy đua như thế đã tạo ra những áp lực xã hội, ảnh
hưởng trực tiếp đến quan niệm sống của con người. Minh chứng là: “thế hệ
Satori”/NEET ở Anh quốc; “thế hệ Sampo” ở Hàn Quốc; “thế hệ nằm ngửa” và thanh
niên 4 không ở Trung Quốc; và thế hệ “Củi thải Heisei”, những người Hikikomori,
parasaito shinguru/độc thân ký sinh, bi kịch Oya-gacha, hiện tượng “Jouhatsu” ở
Nhật Bản, … Điểm trung ở tất cả hiện tượng này chính là cơn khủng hoảng toàn diện
và tận gốc rễ hệ giá trị sống của người trẻ. Hiện tượng người trẻ lựa chọn dừng
lại hoặc tách mình ra khỏi cuộc chạy đua sinh tồn trong xã hội ngày càng lan rộng.
Họ không muốn trở thành phương tiện của ý chí chính thể bởi họ không nhìn thấy
hình bóng mình trong viễn cảnh chiến thắng sau cuộc đua. Hoặc đơn giản, cuộc chạy
đua sinh tồn trong xã hội chỉ dẫn họ đến “bất định”.
Trong lĩnh vực
Tương lai học, Ray Kurzweil dự báo rằng
khoảng 2029 trí tuệ nhân tạo có thể bắt kịp trí tuệ sinh học và năm 2045 đạt tới
điểm kỳ dị công nghệ[5].
Trong viễn cảnh đó, vấn đề đặt ra: loài người thực sự đã sẵn sàng bước tới
“chân trời sự kiện” trí tuệ nhân tạo hay chưa? Và nếu có, nhóm người nào đã sẵn
sàng cho kỷ nguyên mới? Và, làm thế nào thích nghi kỷ nguyên kỳ dị công nghệ?
Kurzweil còn phác họa viễn cảnh con người kết hợp sức mạnh não bộ của mình (gồm
kiến thức, kỹ năng và cá tính) với sức mạnh máy tính để suy nghĩ, lập luận,
giao tiếp và sáng tạo theo những cách mà ngày nay chúng ta khó có thể tưởng tượng
nổi. Điều này khiến ta liên tưởng đến Dự án Neuralink của Elon Musk. Với tham vọng
kiến thiết Brain Machine Interface (BMI), Musk muốn mở ra Kỷ nguyên Pháp thuật
(Wizard Era). Với sự ưu việt và “pháp thuật” trong tay, liệu con người có thoát
khỏi cám dỗ bá quyền? Hay vốn dĩ con người vẫn luôn là nô lệ của nỗi cám dỗ ấy!
Về việc thích nghi kỷ nguyên kỳ dị công nghệ, trong video phỏng vấn Geoffrey Hinton được University of Toronto đăng tải trên Youtube ngày 22/6/2023, Hinton cũng nói về khả năng kết nối và sự bất tử của trí tuệ nhân tạo[6]. Dù cho tất cả các máy tính đều không còn nữa thì nội dung thông tin, cường độ kết nối của AI vẫn còn đó và hoàn toàn có thể chạy trên phần cứng khác mà không hề có chút mất mát nào. Khi được hỏi tại sao chúng ta phải lo lắng về việc trí tuệ nhân tạo sẽ thay thế trí tuệ sinh học, Hinton trả lời: bởi vì trí tuệ nhân tạo có thể học hiểu một vạn thứ khác nhau cùng một lúc, đồng thời chia sẻ dữ liệu lập tức và nguyên vẹn (mà không gặp những trở ngại nào như bộ não của chúng ta). Và rủi ro lớn nhất, theo Hinton, chính là khả năng AI thấu hiểu một cách sâu sắc bản tính con người (đối với nó, bản tính này cũng như loại tri thức/dữ liệu), nhất là nó hoàn toàn có thể hiểu bản tính dối trá và hoài nghi của con người. Do đó nó có thể thao túng con người mà không cần trực tiếp thực hiện điều gì cả. Bởi vì con người sẽ thay nó thực hiện ý muốn của nó. Và Hinton tự thừa nhận rằng ở tuổi 75 ông đãng trí đến mức nhầm lẫn các biến và chậm chạp trong việc lập trình, nhưng AI thì không. Nó không phải trải qua nỗi khổ của sinh, lão, bệnh, tử như con người. Nó siêu việt hơn chúng ta. Cũng vì điều này, Sadhguru – đạo sư Ấn Độ - cho rằng việc thức tỉnh tâm linh là việc cần thiết sắp tới của con người trong kỷ nguyên trí tuệ nhân tạo; để không sa vào tình trạng đánh mất vị trí xã hội của mình, con người phải tiến hóa (chí ít là kịp thời) sự tiến bộ của trí tuệ nhân tạo[7]; để có thể làm được những việc mà trí tuệ nhân tạo không thể thực hiện.
Nên chăng con
người trước hết cần băn khoăn về chính bản thân mình trong cuộc chạy đua trí tuệ
nhân tạo hơn là băn khoăn về hậu quả mà cuộc chạy đua ấy mang lại. Với xu thế
và tốc độ của cuộc chạy đua AI, dù muốn dù không, con người cũng không thể
tránh né. Và từ các cuộc cách mạng công nghiệp trước đó, con người đã rút ra
bài học: thích nghi! Như vậy có thể thích nghi với kỷ nguyên trí tuệ nhân tạo
như thế nào? Như đã nói, vấn đề đạo đức công nghệ, vấn đề tiến hóa tâm thức, vị
trí của con người trong cuộc sống dung hợp trí tuệ công nghệ, … là những vấn đề
trực diện mà con người cần băn khoăn trước hết.
Lịch sử nhân
loại có thể nói là quá trình con người nâng cao vị thế của mình với thế giới,
là sự vươn mình của loài người vượt qua các giới hạn; đồng thời với quá trình
đó chính là sự khẳng định-giữ gìn-nâng cao nhân tính. Chính điều này mới là thực
tiễn cốt lõi khiến tạo bản chất của nền văn minh. Cuộc chạy đua trí tuệ nhân tạo
hiện nay không thể nằm ngoài xu thế đó (bởi nếu nó đi ngược lại thì nó đã phủ định
nền văn minh nhân loại). Thực tế cho thấy, trí tuệ nhân tạo chỉ là một phần/khía
cạnh của thực trạng “hậu công nghiệp” (vốn đã khởi sự từ sau thế chiến II). Điều
này kéo theo sự biến đổi trong bản thân quan niệm “dịch nhân” (thuộc Dịch Nhân
Luận) hình thành quan niệm “hậu nhân” (trong Hậu Nhân Luận). Và Hậu Nhân Luận với
nghiên cứu về nền nhân tính mới trong kỷ nguyên dung hợp trí tuệ nhân tạo kỳ thực
phản ánh mối quan tâm và nỗ lực tái thiết nền văn minh đặt nền tảng trên nhân
tính. Dù nền văn minh trong tương lai có được kiến tạo trên “Nhân tính mới” hay
“Nhân tính khác” thì nó cũng không thể bỏ rơi nhân tính. Bởi vì nền văn minh
không dựa trên căn nguyên nhân tính chính là sự tận diệt của con người. AI
không đáng sợ, cái đáng sợ là tham lam và sợ hãi trong lòng người!
Rừng
Dầu, ngày 16/07/2023
Võ Quốc
Việt
Tài
liệu tham khảo
·
Amoroso, D., and Tamburrini, G. (2018). The
Ethical and Legal Case Against Autonomy in Weapons Systems. Global Jurist 18
(1), DOI: 10.1515/gj-2017-0012.
·
Nick Bostrom and Eliezer Yudkowsky (2014). The
Ethics of Artificial Intelligence. In Cambridge Handbook of Artificial
Intelligence (edited by Keith Frankish and William Ramsey). New York: Cambridge
University Press. pp. 316 – 334.
·
Bryson, J. (2018). Patiency is not a virtue: the
design of intelligent systems and systems of ethics. Ethics and Information
Technology, 20 (1). 15–26.
·
Martin Ford (ed., 2018). Architects of
Intelligence (The Truth about AI from the people building it). Birmingham, UK:
Packt Publishing Ltd., p.17.
·
Geoffrey Hinton (22/6/2023). The Godfather in
Conversation: Why Geoffrey Hinton is worried about the future of AI.
(Retrieved from:
https://www.youtube.com/watch?v=-9cW4Gcn5WY).
·
Ray Kurzweil (2005). The Singularity Is Near:
When Humans Transcend Biology. USA: Viking Penguin.
·
Ray Kurzweil (2022). Superintelligence and
Singularity. In Machine Learning and the City: Applications in Architecture and
Urban Design (ed. by Silvio Carta). USA: Wiley-Blackwell, pp.579-601.
·
Sadhguru (04/3/2023). Preparing For AI's Impact.
(Retrieved from: https://www.youtube.com/watch?v=v9m9LkHUOFk).
Comments
Post a Comment