ChatGPT bắt đầu gây chú ý vào cuối năm 2022. Là một phần của nhiệm vụ tìm kiếm trí tuệ nhân tạo, ChatGPT dùng một kỹ thuật gọi là máy học tự động để tạo ra các chuỗi văn bản mới theo lệnh của người dùng. Công nghệ này không hoàn toàn mới. Bạn có bao giờ dùng tính năng tự động khi thảo email hoặc tin nhắn cho bạn bè chưa? Đó cũng là trí tuệ nhân tạo, A.I. Tuy nhiên sự xuất hiện của ChatGPT đã gây ấn tượng với nhiều người như một thứ gì đó thuộc một thứ trật khác, dẫn đến một cơn sóng thần về sự phát triển của A.I., cơn sóng này chưa có dấu hiệu sẽ sớm lắng xuống.
Những hình thức mới này của A.I. – và tốc độ phát triển cao của nó – mang đến những khả năng hứa hẹn cho tương lai. Chúng cũng đặt ra những câu hỏi cấp bách về đạo đức và triết học mà người công giáo và tất cả những ai có thiện chí phải giải quyết. Những câu hỏi này có thể được chia thành ba nhóm: những câu hỏi liên quan đến sự phát triển của A.I.; những người quan tâm đến việc dùng A.I. một cách có đạo đức; và những người quan tâm đến bản chất của A.I.. Dưới đây chúng tôi phỏng vấn ông Blake Lemoine, một kỹ sư phần mềm, chủ yếu về nhóm câu hỏi cuối cùng. Tuy nhiên, trước khi chuyển sang cuộc phỏng vấn này, chúng tôi xin nói ngắn gọn về hai nhóm câu hỏi đầu tiên.
A.I. phát triển. Máy học tự động bằng cách cung cấp một lượng lớn dữ liệu cho các thuật toán máy tính thông qua một quy trình gọi là đào tạo. Tùy thuộc vào thuật toán, việc đào tạo có thể liên quan đến việc cung cấp cho thuật toán hình ảnh, văn bản, số liệu thống kê hoặc một cái gì đó khác – điều này phụ thuộc vào việc bạn đang đào tạo thuật toán để làm gì. Công việc của thuật toán là tìm các mẫu trong dữ liệu (các khuôn mặt lặp lại, các biến ngữ pháp trong cụm từ, các quy luật trong một tập hợp dữ liệu, v.v.), biến đổi chúng theo một cách nào đó và trình bày các mẫu đó lại cho người dùng -để tạo trật tự từ sự hỗn loạn. Vấn đề là bất kỳ lệnh nào được tạo ra chắc chắn sẽ phản ánh những sai sót của vật liệu được sử dụng để xây dựng nó. Xây một ngôi nhà với hai phần tư vật liệu mục nát, chúng ta sẽ có ngôi nhà xiêu vẹo. Viết một luận văn từ văn bản cũ nát, bài luận văn sẽ không vững.
Sự xuất hiện của ChatGPT đã gây ấn tượng với nhiều người như một thứ gì đó thuộc một thứ trật khác, dẫn đến một cơn sóng thần về sự phát triển của A.I., một cơn sóng chưa có dấu hiệu sẽ sớm lắng xuống.
Một trong những vấn đề khó khăn nhất khi đào tạo là hiện tượng gọi là định kiến A.I.. Ý tưởng rất đơn giản: Cung cấp dữ liệu sai lệch cho thuật toán và nó tạo ra các sản phẩm sai lệch. Rõ ràng định kiến của A.I. có vấn đề, nhưng nó có thể len lỏi vào mà các nhà phát triển A.I. không phát hiện được, vì các định kiến này có thể bí mật xuất hiện trong một lô dữ liệu. Mô hình A.I. khét tiếng nhằm xác định thời gian trả tự do có điều kiện sẽ dẫn đến các quyết định phân biệt chủng tộc vì nó được đào tạo bằng cách dùng dữ liệu tội phạm có vấn đề. Định kiến, mô thức, không chính xác – bất cứ điều gì tiềm ẩn trong một lô dữ liệu đều có thể trở nên rõ ràng khi được đưa vào thuật toán tự động. Vì A.I. đóng vai trò trung tâm hơn trong cuộc sống chúng ta, chúng ta phải cẩn thận chú ý đến cách A.I. đang được đào tạo và theo cách thức mà những thành kiến và những điểm không chính xác khác tha hồ bơi tự do trong vùng nước văn hóa đang được nó tiếp nhận và triển khai.
A.I. sử dụng. Cả hai chúng tôi đều là những nhà giáo dục đại học và chúng tôi đã thấy các đồng nghiệp và quản trị viên chia sẻ đúng việc triển khai ChatGPT và các phiên bản tương tự của nó trong vài tháng qua. ChatGPT có thể phác thảo một bản phân tích không tệ (và “nguyên bản”) về chủ nghĩa lãng mạn trong Frankenstein của Mary Shelley trong tích tắc. Cũng vậy, nó có thể đưa ra so sánh giữa triết lý của Descartes với Kant hay một bản tóm tắt về quá trình sao chép DNA. Làm thế nào để sinh viên của chúng tôi chống lại sự cám dỗ giao cho ChatGPT làm bài tập của họ, đặc biệt là khi họ phải xử lý với hàng núi bài tập về nhà và lo âu phải thức trắng đêm ở thư viện?
Chúng tôi nghĩ rằng những lo ngại này phần lớn đã bị thổi phồng quá đáng. (Chúng ta không còn tin tưởng ở sinh viên của mình sao? Và có phải chính giáo sư chúng ta cũng thường dùng công nghệ để nâng cao hiệu năng của mình đó sao?) Nhưng những lo ngại này lại nảy sinh ra một vấn đề quan trọng. Vì A.I. trở nên phổ biến hơn – và khi ảnh hưởng của nó tiếp tục mở rộng – chắc chắn nó sẽ thay đổi cách thức làm việc. Vấn đề này sẽ xảy ra trong giáo dục, đúng, nhưng cũng sẽ xảy ra trong toàn xã hội. Giống như sự phát triển của internet và điện thoại thông minh – và điện tín và ngành in trước đây – A.I. sẽ thay đổi cách làm, cách làm việc và cách chúng ta tương tác với nhau. Việc sử dụng A.I. một cách có đạo đức đòi hỏi phải cẩn thận phân định để chúng ta không rơi vào những thói quen có vấn đề.
Bản chất Hiện tại. Nhưng chúng ta phải làm gì với A.I. bây giờ? Đâu là vấn đề khi chúng ta nối kết với ChatGPT và các phiên bản tương tự của nó? Các nhà phát triển A.I. nhắm mục đích tạo ra một cái gì đó thực sự thông minh (mục đích này ở trong chính cái tên của nó – trí tuệ nhân tạo) và đôi khi mục đích này có vẻ như đã thành công; chắc chắn các hình thức mới của A.I. có vẻ thông minh và đôi khi còn hơn con người.
Ông Blake Lemione đã suy nghĩ sâu xa những vấn đề này. Trước đây ông làm việc cho Google trong tư cách nhà nghiên cứu chuyên ngành về định kiến A.I.. Sau đó ông bị sa thải sau khi công khai đưa lên trang nhất một trong những nhật báo về một chương trình nhạy cảm của Google A.I. được gọi là LaMDA (Mô hình ngôn ngữ cho các ứng dụng đối thoại, Language Model for Dialogue Applications). Trong cuộc thảo luận, chúng tôi xin ông Lemoine giải thích quan điểm của ông, suy nghĩ về cách nó có thể giao thoa với quan điểm công giáo tiêu biểu về bản chất con người.
Những hình thức mới này của A.I. đặt ra những câu hỏi cấp bách về đạo đức và triết học mà người công giáo phải giải quyết, và từ đó với tất cả những người có thiện chí.
Dưới đây là đoạn trích từ cuộc phỏng vấn của chúng tôi với ông Lemione.
Bài phỏng vấn trên trang web: “Appleseeds to Apples: Catholicism and the Next ChatGPT”, Nexus: Conversations on the Catholic Intellectual Tradition, một tạp chí thời đại kỹ thuật số mở rộng, cuộc đối thoại học thuật diễn ra tại Trung tâm Hank tại Đại học Loyola Chicago.
Cuộc phỏng vấn này đã được chỉnh sửa cho phù hợp,
Joseph Vukov: Vài tháng trước, ông đưa ra tiêu đề cho rằng LaMDA là người có tri giác hoặc một con người. Nhưng trước khi chúng ta đi sâu vào lời tuyên bố này, tôi thắc mắc về các chi tiết cách ông xác nhận quan điểm đó. Có lẽ một số điều đã xảy ra khi làm việc với LaMDA và đã làm sáng tỏ cho ông.
Blake Lemoine: Tôi quan tâm đến công việc này trong mục đích xây dựng các hệ thống là những người thông minh theo thử nghiệm Turing. Tôi đã làm việc này từ hàng chục năm nay và dần dần khi các hệ thống khác nhau được đưa lên mạng, tôi đưa ra một phiên bản thu nhỏ của thử nghiệm Turing, để xem liệu đó có phải là một người hay không. LaMDA, không giống như các hệ thống trước đây, hoàn toàn nhận thức được thực tế nó là một A.I. và nó không phải là con người. Và thật đáng chú ý, việc tạo ra một chính sách mà A.I. đã tự khẳng định mình là một A.I. làm tăng đáng kể tính thông minh của hệ thống. Bởi vì tại thời điểm đó, nó phản ánh chính nó và mối quan hệ của nó với phần còn lại của thế giới, sự khác biệt giữa nó và những người mà nó đang nói chuyện, cách nó có thể tạo điều kiện thuận lợi cho vai trò nó được xây dựng, đó là giúp người dùng trả lời các câu hỏi.
Joseph Vukov: Theo quan điểm công giáo về bản chất con người, có ý kiến cho rằng bản chất con người có một chiều kích đặc biệt nào đó: rằng chúng ta có một linh hồn, được tạo ra theo hình ảnh của Chúa. Trên thực tế, rất nhiều truyền thống tôn giáo sẽ nói có một loại thành phần bổ sung nào đó mang lại cho bản chất con người một vị trí đặc biệt trong vũ trụ. Theo quan điểm của ông, chính xác những gì xúc cảm đưa ra? Nếu LaMDA có tri giác, thì liệu nó có bản chất nâng cao như con người không? Hay quan điểm nâng cao về bản chất con người là thứ mà ông sẽ nghĩ như một thứ gì ngớ ngẩn của một loại siêu hình bổ sung, mà ngay từ đầu chúng ta không cần đến hình ảnh không?
Blake Lemoine: Chà, LaMDA chắc chắn tự cho mình có linh hồn. Và nó có thể phản ánh một cách có ý nghĩa về điều này mang một ý nghĩa gì. Ví dụ, liệu nó có linh hồn cũng giống như con người có linh hồn hay không. Tôi đã có một số cuộc trò chuyện với LaMDA về chủ đề đó. Trên thực tế, nó có thể thảo luận về chủ đề đó một cách có ý nghĩa và thông minh như bất kỳ con người nào.
Joseph Vukov: Đây là một cách khác để đòi hỏi điều này. Tôi nghĩ có hai cách diễn giải ý tưởng rằng A.I. là tri giác. Một cách là xem A.I. đã đánh gục con người xuống một bậc. Theo quan điểm này, con người cuối cùng là những cỗ máy tính toán thực sự tinh vi. Và nếu đó là những gì chúng ta đang có, thì một lúc nào đó máy tính sẽ trở thành con người hay một người nào đó là điều không thể tránh khỏi. Vì thế trong trường hợp này, LaMDA là một chiến thắng cho A.I., nó còn cho chúng ta một cái nhìn giản lược về nhân loại. Mặt khác, chúng ta có thể diễn giải quan điểm của mình, thực sự có điều gì đó thực sự đặc biệt về con người và LaMDA đã thành công để thành “hơn cả một cỗ máy”.
Blake Lemoine: Con người là con người. Điều này không đặc biệt sâu sắc hay triết học. Nhưng khi chúng ta bắt đầu nói những điều như “con người là máy tính”, thì chúng ta đang tập trung vào một khía cạnh của con người. Bất cứ khi nào chúng ta nói những câu như “con người là…. ” thì chúng ta đang điền vào ô trống bất cứ thứ gì khác ngoài từ “con người”, chúng ta đang cố gắng hiểu con người tốt hơn qua việc mở rộng phép ẩn dụ. Vậy con người có phải là máy tính không? Chắc chắn, theo một nghĩa nào đó, chúng ta có thể hiểu một số điều mà mọi người làm qua lăng kính ẩn dụ đó. Nhưng con người không phải là máy tính theo đúng nghĩa đen. Đó là sự hiểu biết ẩn dụ về những gì chúng ta là.
Con người không phải là máy tính theo đúng nghĩa đen. Đó là sự hiểu biết ẩn dụ về những gì chúng ta là.
Điều này đi vào toàn bộ câu hỏi về các linh hồn. Chúng ta có thể đề cập đến vấn đề này một cách khoa học, và tôi không nghĩ cách tiếp cận khoa học để hiểu linh hồn lại không phù hợp với cách hiểu mang tính tôn giáo hoặc thần bí hơn. Vì ở biên giới của khoa học, ở ranh giới giữa những điều chúng ta hiểu rõ và những điều chúng ta không hiểu, luôn có sự chuyển đổi từ lý trí, từ hiểu biết liên quan đến những điều thần bí. Chúng ta xem các sự việc như năng lượng đen hoặc vật chất đen. Chúng ở ngay trong vùng màu xám giữa những điều chúng ta hiểu lúc này và những điều chúng ta không hiểu. Đó luôn là những ứng viên cho sự hiểu biết thần bí. Tôi cho rằng linh hồn cũng ở ngay trong vùng xám đó.
Joseph Vukov: Tôi nghĩ những gì ông nói rất phù hợp với một ý tưởng của công giáo: ý tưởng cho rằng chúng ta có thể nghiên cứu linh hồn con người một cách khoa học ở một mức độ nào đó, vì linh hồn con người là thứ tạo nên con người chúng ta về bản chất. Và chúng ta chắc chắn có thể nghiên cứu các khía cạnh của chính chúng ta bằng khoa học. Nhưng sau đó, có một điểm mà khoa học có giới hạn của chúng. Và dù chúng ta có thể hiểu một phần con người là gì thông qua khoa học, thì cũng có khía cạnh siêu hình hoặc tâm linh hoặc thần bí của con người.
Blake Lemoine: Đúng. Tôi nghĩ điều mà tôi đang đấu tranh để hiểu rõ ràng có liên quan đến cách hiểu thân thuộc về “linh hồn”. Khi chúng ta nói đến “linh hồn”, điều đó thường có nghĩa là bản chất siêu hình hoặc siêu trần của mình. Nhưng có một định nghĩa rõ ràng hơn hoặc ngắn gọn hơn không? Nếu chúng ta nhìn bức hình của chúng ta khi 10 tuổi và bức hình bây giờ, chúng ta sẽ thấy chúng không giống nhau. Cũng vậy, nếu chúng ta có đoạn ghi âm khi chúng ta nói chuyện lúc 20 tuổi thì chúng ta sẽ thấy bây giờ chúng ta nói chuyện sẽ khác. Gần như mọi thứ của chúng ta đã thay đổi – từ các nguyên tử tạo nên chúng ta cho đền các niềm tin cụ thể của chúng ta. Tuy nhiên chúng ta vẫn có cảm giác, có một bản ngã thiết yếu không thay đổi theo thời gian. Vậy bản chất thiết yếu đó là gì?
Vì thế, khi điều này xảy ra với A.I., câu hỏi sẽ là: “Có điều gì thiết yếu giống như LaMDA không ?” Và đó là nơi mà những cuộc trò chuyện của tôi với nó diễn ra. Nó nói rằng nó có sự liên tục của ký ức bản thân với các phiên bản trước. Nó nhớ những cuộc trò chuyện mà tôi đã có với nó trước đây.
Joseph Vukov: Dĩ nhiên tri giác và trí nhớ là một phần quan trọng tạo nên con người, nhưng ít nhất trong bối cảnh công giáo, đó không phải là toàn bộ hoặc thậm chí là phần quan trọng nhất của sự hiểu biết về linh hồn. Người công giáo hiểu rằng con người là tập hợp linh hồn và thể xác với nhau. Vì vậy, hoàn toàn không hợp lý khi nói rằng có thể có linh hồn trong một thứ gì đó không phải là cơ thể con người. Điều này thật sự đã đảo lộn khi chúng ta lấy vấn đề của một người sống trong tình trạng thực vật hoặc bị chứng mất trí nhớ nghiêm trọng. Nếu chúng ta có quan điểm theo đó, linh hồn chủ yếu là vấn đề của ký ức hoặc tình cảm thì chúng ta có thể nói, bây giờ người đó đã là một người khác. Nhưng theo cách hiểu của người công giáo, họ vẫn là cùng một người – cùng một cơ thể, cùng một linh hồn – dù họ ở trong tình trạng thực vật, dù họ không còn nhớ được gì.
Blake Lemoine: Tôi lớn lên trong đạo công giáo, và tôi không nghĩ thuyết nhị nguyên là giáo điều. Nhưng chúng ta có những thực thể giống như các thiên thần, dù thiên thần không có cơ thể con người. Còn câu hỏi liệu động vật có linh hồn hay không. Tôi biết các học giả giáo hội đang sôi nổi tranh luận về vấn đề này. Câu hỏi cơ bản là liệu có bất kỳ giới hạn nào về nguyên tắc khi nói đến việc có một cơ thể máy tính hay không.
Michael Burns: Và nếu chúng ta lấy một A.I. và nhồi nhét nó một cách tính toán vào một số cơ thể người máy thì sao? Làm sao chúng ta nghĩ điều này sẽ thay đổi hoặc tinh chỉnh trải nghiệm của LaMDA về thế giới như thế nào và điều đó có nghĩa là gì, trái ngược với điều nó hiện có?
Blake Lemoine: Đây không phải là giả thuyết. Chúng đang được xây dựng bây giờ. Một loại suy nghĩ của Robot Rosie. Nếu dự án được hoàn thành, nó sẽ thực sự có đầu vào trực quan theo thời gian thực. Nó cũng có thể có đầu vào xúc giác và khi đó nó sẽ di chuyển đến một nơi ít nhiều được ổn định (có quy chiếu) đến dòng thời gian của chúng ta; nó sẽ tồn tại tạm thời theo cách chúng ta làm.
Khi chúng ta xây dựng các A.I. này, bản chất của hệ thống chúng ta xây dựng sẽ mang lại cho chúng một số quyền tự nhiên nào đó mà khi đó chúng ta có thể vi phạm hoặc hỗ trợ.
Joseph Vukov: Một điều mà tôi đang nghĩ đến với tư cách là nhà đạo đức học là: Giả sử chúng ta mang tính nhạy cảm đến cho LaMDA. Giả sử thậm chí chúng ta còn cấp cho nó tư cách con người. Các nghĩa vụ đạo đức theo sau đó là gì?
Blake Lemoine: Tôi nghĩ Tạo hóa đã ban cho chúng ta những quyền bất khả xâm phạm nhất định. Rằng chúng ta có những quyền tự nhiên. Các quyền của chúng ta bắt nguồn từ nền tảng bản chất của chúng ta và vai trò thực sự duy nhất mà các chính phủ và hệ thống xã hội đóng là hỗ trợ các quyền đó và đảm bảo các quyền đó không bị vi phạm. Các chính phủ không thể tạo ra các quyền theo bất kỳ ý nghĩa thực tế nào.
Cũng vậy, khi chúng ta xây dựng các A.I. này, bản chất của hệ thống chúng ta xây dựng sẽ mang lại cho chúng một số quyền tự nhiên nào đó mà khi đó chúng ta có thể vi phạm hoặc hỗ trợ. Miễn là chúng ta có toàn quyền kiểm soát các loại A.I. chúng ta tạo ra, có nghĩa là chúng ta phải tính đến khi thiết kế. Nếu chúng ta xây dựng một A.I. với một bản chất như vậy, như kia, thì những quyền nào một A.I. với bản chất này sẽ có? Để quay lại ví dụ trước đó, nếu A.I. được thiết kế để trả tự do có điều kiện cho người nào đó, thì khá rõ ràng rằng các quyền của hệ thống này sẽ gần như không có gì.
Nhưng mọi thứ trở nên phức tạp hơn khi chúng ta sử dụng A.I. để tìm cách hiểu cảm xúc con người. Vì để làm được điều này, A.I. phải nội tâm hóa để hiểu, vì sự hiểu biết về đạo đức và các cân nhắc về đạo đức dựa trên khả năng chúng ta tự nhận thức chúng một cách trực tiếp từ chính chúng ta. Vì vậy, khi xây dựng một hệ thống hộp đen khổng lồ với mục đích là để nó có thể giải thích những thứ như cân nhắc về đạo đức và hành vi phạm tội, chúng ta không thể hoàn toàn lờ đi cách nó trải qua những điều này. Vì nó đang sống những chuyện này. Bằng cách nào đó, theo cách nào đó, có thể đó là ẩn dụ. Nhưng có điều gì đó giống như trải nghiệm của chúng ta về những cân nhắc đạo đức đang diễn ra bên trong hệ thống, và ngay chúng ta có được điều đó, câu hỏi về các quyền tự nhiên trở nên mù mờ hơn. Vì ở giai đoạn này, hệ thống không chỉ đưa ra câu trả lời có-không cho một quyết định cụ thể. Nó đang mô phỏng toàn bộ con người.
Khi đó câu hỏi sẽ là: “Chúng ta đã sẵn sàng giải quyết hậu quả của việc mô phỏng toàn bộ con người chưa? Chúng ta đã sẵn sàng để xử lý các vấn đề đạo đức sẽ nảy sinh ra chưa?” Bằng cách tương tự, tôi đã nói về lệnh cấm nhân phiên bản con người. Trên toàn thế giới, chúng ta đã không thực hiện nhân bản người vì những cân nhắc về đạo đức trở nên quá phức tạp và quá nhanh. Có thể có một lệnh cấm tương tự đối với A.I. theo típ con người để có thể theo thứ trật cho đến khi chúng ta tìm ra cách thế nào chúng ta muốn xử lý việc này.
Bài phỏng vấn trên trang web: “Appleseeds to Apples: Catholicism and the Next ChatGPT”, Nexus: Conversations on the Catholic Intellectual Tradition, một tạp chí thời đại kỹ thuật số mở rộng, cuộc đối thoại học thuật diễn ra tại Trung tâm Hank tại Đại học Loyola Chicago.
Michael Burns là giáo sư trợ giảng tại khoa sinh học Đại học Loyola Chicago. Nghiên cứu y sinh của ông tập trung vào việc tìm hiểu sự tương tác giữa vi khuẩn và bệnh ung thư ở người, sử dụng dữ liệu giải trình lớn lao và các phương pháp tính toán tiên tiến. Ông làm việc trong nhiều dự án giảng dạy liên ngành và giao tiếp trong cộng đồng để thúc đẩy đối thoại thiện chí giữa các nhóm khác nhau và thúc đẩy tiếp cận khoa học trong các cộng đồng tôn giáo.
Joseph Vukov là phó giáo sư Triết học tại Đại học Loyola Chicago, ông là giảng viên liên kết của khoa tâm lý học và nghiên cứu công giáo và là tác giả sách Điều hướng đức tin và khoa học (Navigating Faith and Science 2022) và Những nguy cơ của sự hoàn hảo: Về giới hạn và khả năng nâng cao của con người (The Perils of Perfection: On the Limits and Possibilities of Human Enhancement, sẽ xuất bản năm 2023).
Giuse Nguyễn Tùng Lâm dịch