Góc tư vấn

VAI TRÒ CỦA ĐẠO ĐỨC TRONG VIỆC PHÁT TRIỂN VÀ SỬ DỤNG TRÍ TUỆ NHÂN TẠO (AI) – Lm. Anmai, CSsR

VAI TRÒ CỦA ĐẠO ĐỨC TRONG VIỆC PHÁT TRIỂN VÀ SỬ DỤNG TRÍ TUỆ NHÂN TẠO (AI) – Lm. Anmai, CSsR

Trong thời đại số hóa ngày nay, trí tuệ nhân tạo (AI) đã trở thành một phần không thể thiếu trong cuộc sống hàng ngày, từ các ứng dụng hỗ trợ cá nhân hóa đến các hệ thống tự động hóa quy mô lớn trong ngành công nghiệp, y tế, giáo dục và an ninh. Tuy nhiên, sự phát triển nhanh chóng của AI không chỉ mang lại lợi ích mà còn đặt ra nhiều thách thức đạo đức sâu sắc. Bài viết này sẽ khám phá vai trò của đạo đức trong việc phát triển và sử dụng AI, dựa trên các nguyên tắc nhân văn, tôn giáo và xã hội. Chúng ta sẽ phân tích cách mà đạo đức không chỉ là một yếu tố bổ sung mà là nền tảng cốt lõi để đảm bảo AI phục vụ lợi ích của con người, tôn trọng phẩm giá nhân loại và thúc đẩy công ích. Để làm rõ hơn, chúng ta sẽ mở rộng từ các khía cạnh triết lý, thực tiễn ứng dụng, đến các ví dụ cụ thể và các khuyến nghị chính sách, nhằm làm cho nội dung trở nên toàn diện và sâu sắc hơn.

Bối cảnh lịch sử và triết lý về đạo đức trong công nghệ

Trước khi đi sâu vào vai trò của đạo đức trong AI, cần hiểu rằng công nghệ nói chung, và AI nói riêng, không phải là sản phẩm trung lập. Từ thời cổ đại, con người đã nhận ra rằng các phát minh kỹ thuật luôn gắn liền với giá trị đạo đức. Chẳng hạn, trong triết học Hy Lạp cổ, Aristotle đã thảo luận về “techne” (nghệ thuật kỹ thuật) như một phần của trí tuệ thực hành, phải được hướng dẫn bởi “phronesis” (sự khôn ngoan đạo đức). Trong bối cảnh hiện đại, các nhà triết học như Martin Heidegger đã cảnh báo về “Gestell” – cách mà công nghệ có thể “khung” lại nhận thức của con người, biến thế giới thành tài nguyên khai thác mà không quan tâm đến bản chất nhân văn.

Áp dụng vào AI, chúng ta thấy rằng AI không chỉ là thuật toán mà còn là sự phản ánh của ý chí con người. Trên cơ sở cân nhắc này, người ta có thể hỏi làm thế nào AI có thể được sử dụng trong khuôn khổ của kế hoạch thiêng liêng – một khái niệm thường được đề cập trong các tài liệu tôn giáo, chẳng hạn như trong Kitô giáo. Hoạt động khoa học kỹ thuật không trung lập, vì đó là một nỗ lực của con người mà nhân văn và các khía cạnh văn hóa của tinh thần con người. Như trong tài liệu Vatican II, khoa học và kỹ thuật được coi là phần của sự hợp tác giữa con người với Đấng Tạo Hóa trong việc hoàn thiện tạo vật. Điều này nhấn mạnh rằng mọi tiến bộ công nghệ phải được đặt trong bối cảnh đạo đức lớn hơn, nơi con người không chỉ là người sáng tạo mà còn là người quản lý có trách nhiệm.

Để mở rộng, hãy xem xét lịch sử phát triển AI. Từ những năm 1950 với Alan Turing và khái niệm “máy Turing”, đến sự bùng nổ của học máy (machine learning) trong thập niên 2010 nhờ dữ liệu lớn (big data) và sức mạnh tính toán, AI đã tiến bộ vượt bậc. Tuy nhiên, các vụ việc như scandal Cambridge Analytica năm 2018, nơi AI được sử dụng để thao túng dư luận, cho thấy thiếu đạo đức có thể dẫn đến hậu quả nghiêm trọng. Do đó, đạo đức không chỉ là “phụ kiện” mà là yếu tố quyết định sự bền vững của AI.

AI như thành quả của trí thông minh con người và quà tặng thiêng liêng

AI là một thành quả của những khả năng vốn có trong trí thông minh của con người, bao gồm nghiên cứu khoa học và phát triển kỹ thuật. Đây là một phần của việc “hợp tác của con người với Đức Chúa Trời trong sự hoàn hảo của tạo vật hữu hình”. Đồng thời, tất cả các thành tựu khoa học kỹ thuật cuối cùng là quà tặng từ Chúa. Vì lý do này, mọi người phải luôn trình bày những món quà của họ với quan điểm cao hơn Ngài đã ban cho nó.

Mở rộng khái niệm này, trí thông minh con người không chỉ là khả năng logic mà còn bao gồm sự sáng tạo, đồng cảm và đạo đức. AI, dù tiên tiến đến đâu, vẫn chỉ là công cụ do con người tạo ra. Ví dụ, trong y tế, AI như hệ thống chẩn đoán hình ảnh (ví dụ: IBM Watson Health) có thể cứu sống hàng triệu người bằng cách phát hiện ung thư sớm hơn. Tuy nhiên, nếu không có đạo đức, AI có thể dẫn đến phân biệt đối xử, như khi thuật toán nhận diện khuôn mặt thiên vị đối với người da màu, như trường hợp của Google Photos năm 2015 nhầm lẫn người da đen với khỉ đột. Do đó, việc coi AI là “quà tặng” đòi hỏi con người phải sử dụng nó với lòng biết ơn và trách nhiệm, tránh lạm dụng để phục vụ lợi ích cá nhân hoặc quyền lực.

Hơn nữa, trong bối cảnh toàn cầu hóa, AI phải được phát triển để giảm bất bình đẳng. Theo báo cáo của Liên Hợp Quốc năm 2023, AI có thể tạo ra 97 triệu việc làm mới nhưng cũng loại bỏ 85 triệu việc làm cũ, chủ yếu ở các nước đang phát triển. Đạo đức ở đây yêu cầu các nhà phát triển ưu tiên “AI vì lợi ích xã hội” (AI for Good), như chương trình của UNESCO nhằm sử dụng AI để giải quyết biến đổi khí hậu.

 Biết ơn công nghệ nhưng phản đối những ứng dụng vi phạm phẩm giá con người

Chúng ta có thể biết ơn thừa nhận công nghệ “đã gây ra vô số điều xấu xa đã làm hại con người và hạn chế nó” và chúng ta chỉ có thể vui mừng về sự kiện này. Tuy nhiên, không phải tất cả những đổi mới công nghệ trong bản thân nó đại diện cho sự tiến bộ thực sự. Do đó, Giáo hội đặc biệt phản đối những ứng dụng sự thiêng liêng của cuộc sống hoặc phẩm giá của con người. Giống như bất kỳ nỗ lực nào khác của con người, công nghệ sự phát triển nên được tập trung vào việc phục vụ con người và đóng góp vào nỗ lực của để đóng góp cho “một công lý lớn hơn, một tình huynh đệ đầy đủ hơn và một trật tự nhân đạo hơn của sự phụ thuộc lẫn nhau xã hội”, mà “có giá trị hơn tiến bộ kỹ thuật”. Lo ngại về ý nghĩa đạo đức của công nghệ Sự phát triển được chia sẻ không chỉ trong Giáo hội, mà còn bởi các nhà khoa học, công nghệ và hiệp hội nghề nghiệp, những người ngày càng đòi hỏi về đạo đức phản ánh để thúc đẩy tiến bộ này một cách có trách nhiệm.

Để làm rõ, hãy phân tích các ví dụ cụ thể. Công nghệ đã mang lại lợi ích như vaccine COVID-19 được phát triển nhanh chóng nhờ mô hình AI dự đoán protein. Nhưng đồng thời, AI trong giám sát (như hệ thống nhận diện khuôn mặt ở Trung Quốc) có thể vi phạm quyền riêng tư, dẫn đến “xã hội kiểm soát” như George Orwell mô tả trong “1984”. Giáo hội Công giáo, qua các thông điệp của Đức Giáo Hoàng Phanxicô như “Laudato Si'” (2015), nhấn mạnh rằng tiến bộ kỹ thuật phải phục vụ công lý xã hội, không phải tăng cường bất bình đẳng.

Các tổ chức như IEEE (Institute of Electrical and Electronics Engineers) đã phát hành “Ethically Aligned Design” năm 2019, kêu gọi đạo đức trong AI. Tương tự, EU đã ban hành Đạo luật AI năm 2024, phân loại AI theo mức độ rủi ro và yêu cầu đánh giá đạo đức cho các ứng dụng cao rủi ro như tuyển dụng hoặc tín dụng. Điều này cho thấy sự đồng thuận toàn cầu rằng đạo đức không chỉ là lý thuyết mà phải được tích hợp vào thực tiễn.

Tầm quan trọng của trách nhiệm đạo đức dựa trên phẩm giá con người

Để những thách thức, sự chú ý phải được chú ý đến tầm quan trọng của trách nhiệm đạo đức, dựa trên phẩm giá và phẩm giá của ơn gọi của con người. Nguyên tắc này cũng áp dụng cho các câu hỏi về AI. Ở đây, khía cạnh đạo đức là điều tối quan trọng, vì chính con người người thiết kế hệ thống và xác định chúng được sử dụng để làm gì. Giữa một cỗ máy và một con người, chỉ có cái sau thực sự là một tác nhân đạo đức, tức là một chủ thể có trách nhiệm đạo đức tự do trong các quyết định của mình và hậu quả của nó được chấp nhận; Chỉ có con người mới có mối quan hệ với sự thật và sự thiện, được hướng dẫn bởi của lương tâm luân lý, kêu gọi họ “vì tình yêu và làm điều thiện và kềm chế điều ác” và “sự thật, liên quan đến điều thiện tối thượng, đối với Thiên Chúa, từ người mà con người bị thu hút”. Chỉ có con người mới có thể nhận thức đủ về bản thân để có thể lắng nghe và làm theo tiếng nói của lương tâm bằng cách tham gia vào mọi tình huống thận trọng vì lợi ích có thể. Điều này cũng là một phần của việc thực hành trí thông minh của con người.

Mở rộng, phẩm giá con người là nền tảng của mọi hệ thống đạo đức, như được khẳng định trong Tuyên ngôn Quốc tế Nhân quyền (1948). Trong AI, điều này có nghĩa là con người phải là trung tâm, không phải máy móc. Ví dụ, trong xe tự lái, AI có thể phải quyết định giữa cứu hành khách hay người đi bộ (vấn đề “trolley problem”). Chỉ con người mới có lương tâm để cân nhắc đạo đức, không phải thuật toán. Các nhà nghiên cứu như Timnit Gebru (bị Google sa thải năm 2020 vì chỉ trích thiên vị AI) nhấn mạnh rằng đạo đức phải bao gồm đa dạng trong đội ngũ phát triển để tránh thiên vị giới tính hoặc chủng tộc.

Hơn nữa, lương tâm luân lý đòi hỏi đào tạo liên tục. Các chương trình giáo dục như khóa học “Ethics in AI” tại MIT dạy sinh viên cách tích hợp đạo đức vào mã code, sử dụng khung như “Value Sensitive Design”.

AI có thể được sử dụng cho mục đích tích cực hoặc tiêu cực

Giống như bất kỳ sản phẩm nào tâm trí con người, AI cũng có thể được sử dụng cho các mục đích tích cực hoặc tiêu cực. Nếu nó được sử dụng theo cách tôn trọng phẩm giá con người và thúc đẩy hạnh phúc của các cá nhân và cộng đồng, nó có thể cung cấp đóng góp tích cực cho ơn gọi của con người. Tuy nhiên, cũng có ở đây, như trong tất cả các lĩnh vực mà mọi người phải đưa ra quyết định, một cái bóng của cái ác. Nơi tự do của con người mang lại cơ hội để để chọn cái ác, đánh giá đạo đức của công nghệ này phụ thuộc vào nó được chỉ đạo và sử dụng như thế nào.

Ví dụ tích cực: AI trong nông nghiệp, như hệ thống dự đoán hạn hán của Microsoft, giúp nông dân ở châu Phi tăng năng suất. Tiêu cực: AI trong vũ khí tự động (LAWS – Lethal Autonomous Weapons Systems) có thể dẫn đến chiến tranh không nhân đạo. Liên Hợp Quốc đang thảo luận cấm vũ khí này từ năm 2013. Đạo đức ở đây yêu cầu “nguyên tắc kép”: công nghệ phải phục vụ thiện, không ác.

. Ý nghĩa đạo đức của mục tiêu và phương tiện trong AI

Có ý nghĩa đạo đức là không chỉ mục đích mà còn là phương tiện để đạt được chúng; cái nhìn tổng thể và hiểu biết về người được nhúng vào các hệ thống như vậy. Sản phẩm công nghệ phản ánh thế giới quan của các nhà phát triển, chủ sở hữu, người sử dụng và cơ quan quản lý của họ, và với sức mạnh của họ, họ “định hình thế giới và liên quan lương tâm ở cấp độ giá trị”. Ở cấp độ xã hội, một số phát triển công nghệ cũng có thể tăng cường các mối quan hệ và động lực quyền lực không tương thích với quan điểm đúng đắn về con người và xã hội.

Do đó, cả hai các mục tiêu và phương tiện được sử dụng trong một ứng dụng cụ thể của AI cũng như tầm nhìn tổng thể mà nó thể hiện để đảm bảo rằng họ tôn trọng phẩm giá con người và thúc đẩy công ích. Thật vậy, như Đức Giáo Hoàng Phanxicô đã nói, “mọi người và mọi người phải Phẩm giá vốn có của mỗi người phụ nữ là một tiêu chí quan trọng trong việc đánh giá các công nghệ mới nổi” “sẽ nâng cao sự tích cực về đạo đức của họ đến mức độ bằng cách giúp thể hiện phẩm giá này và thể hiện ở tất cả các cấp độ của cuộc sống con người”, bao gồm cả các lĩnh vực kinh tế và xã hội. Theo nghĩa này, trí thông minh của con người không chỉ đóng vai trò trong việc phát triển và sản xuất công nghệ, mà còn trong việc hướng dẫn Sử dụng phù hợp với lợi ích thực sự của con người. Trách nhiệm thực hiện sự quản lý này một cách khôn ngoan thuộc về tất cả mọi người của xã hội, thực hiện nguyên tắc phụ trợ và các nguyên tắc khác của học thuyết xã hội của Giáo hội.

Mở rộng, phương tiện bao gồm dữ liệu huấn luyện AI. Nếu dữ liệu thiên vị, AI sẽ thiên vị. Ví dụ, Amazon hủy bỏ công cụ tuyển dụng AI năm 2018 vì thiên vị chống lại phụ nữ. Tầm nhìn tổng thể phải dựa trên công ích, như nguyên tắc “subsidiarity” trong học thuyết xã hội Công giáo, nơi quyết định được đưa ra ở cấp thấp nhất có thể.

Hỗ trợ cho tự do và ra quyết định của con người

Nghĩa vụ: đảm bảo AI luôn có giá trị cao nhất về nhân phẩm của mỗi người con người và sự trọn vẹn của ơn gọi của anh ấy là một tiêu chí khác biệt, liên quan đến các nhà phát triển, chủ sở hữu, nhà điều hành và cơ quan quản lý cũng như người dùng cuối, và áp dụng cho tất cả các ứng dụng của công nghệ ở tất cả các cấp.

Phân tích hàm ý của nguyên tắc này có thể được kết hợp với việc xem xét ý nghĩa của về trách nhiệm đạo đức. Vì nhân quả đạo đức chỉ áp dụng cho cá nhân, nhưng không áp dụng cho các tác nhân nhân tạo, điều tối quan trọng là phải xác định những người chịu trách nhiệm về các quy trình AI xác định và xác định, đặc biệt là đối với những người có khả năng học tập, sửa chữa và lập trình lại. Thực nghiệm (“Từ dưới lên”) Các phương pháp và mạng nơ-ron rất sâu cho phép AI giải quyết các vấn đề phức tạp, nhưng chúng cũng gây khó khăn cho việc hiểu Các quy trình đã dẫn đến các giải pháp như vậy. Điều này gây khó khăn cho việc xác định trách nhiệm, bởi vì nếu một ứng dụng AI tạo ra kết quả không mong muốn, sẽ rất khó để xác định họ có thể được quy cho ai là. Để giải quyết vấn đề này, loại thủ tục phân bổ phải là trách nhiệm giải trình phức tạp và tự động hóa cao bối cảnh mà kết quả thường chỉ ở mức trung bình đến trung bình cao có thể quan sát được trong dài hạn. Do đó, điều quan trọng là người các quyết định dựa trên AI, chịu trách nhiệm về chúng và có thể ở mọi giai đoạn của quá trình ra quyết định trách nhiệm giải trình đối với việc sử dụng AI.

Ngoài định nghĩa về trách nhiệm cũng phải xác định các mục đích được giao cho các hệ thống AI. Ngay cả khi họ sử dụng cơ chế học tập tự động không giám sát và đôi khi đi theo những con đường khó hiểu, cuối cùng họ theo đuổi những mục tiêu do con người giao cho chúng và phải tuân theo các quy trình mà họ đã thiết kế và lập trình. Đây là một thách thức, bởi vì càng nhiều mô hình AI có khả năng học tập độc lập thì càng ít có khả năng kiểm soát chúng để đảm bảo rằng các ứng dụng như vậy phục vụ mục đích của con người. Nó đại diện cho câu hỏi quan trọng là làm thế nào để đảm bảo rằng Hệ thống AI được sử dụng vì lợi ích của con người chứ không phải chống lại họ.

Nếu có đạo đức việc sử dụng các hệ thống AI chủ yếu ảnh hưởng đến những người phát triển chúng, sản xuất, quản lý và giám sát, trách nhiệm đó thuộc về cũng với người dùng. Bởi vì, như Đức Giáo Hoàng Phanxicô đã lưu ý: “Cỗ máy cái gì là một lựa chọn kỹ thuật trong số một số khả năng và dựa trên dựa trên các tiêu chí được xác định rõ ràng hoặc dựa trên suy luận thống kê. Mặt khác, con người không chỉ lựa chọn, mà còn ở trong trái tim mình đối với một quyết định.” Bất kỳ ai sử dụng AI để hoàn thành nhiệm vụ và theo dõi kết quả của nó tạo ra một bối cảnh trong đó anh ta chịu trách nhiệm cuối cùng về quyền lực mà anh ta đã trao tặng. Do đó, trong phạm vi mà AI cho phép con người ra quyết định, các thuật toán tạo ra chúng Đủ đáng tin cậy, an toàn và mạnh mẽ để đối phó với sự không phù hợp cũng như minh bạch trong hoạt động của chúng để Giảm thiểu thành kiến và tác dụng phụ không mong muốn. Khung pháp lý cần đảm bảo rằng tất cả các pháp nhân đều có quyền truy cập vào sử dụng AI và tất cả các hậu quả liên quan đến nó, với các biện pháp phù hợp để đảm bảo tính minh bạch, bảo mật và trách nhiệm giải trình. Ngoài ra, người dùng nên đảm bảo rằng họ nhận thức được quyết định không quá phụ thuộc vào AI, và do đó đã có mức độ phụ thuộc cao vào công nghệ, điều này làm cho ngày nay xã hội.

Đạo đức và đạo đức Học thuyết xã hội của Giáo hội giúp chuẩn bị cho việc sử dụng AI mà khả năng hành động của con người. Cần tính đến những cân nhắc về công lý các vấn đề như thúc đẩy một xã hội công bằng bảo vệ an ninh quốc tế và thúc đẩy hòa bình. Bằng cách thực hiện sự thận trọng, các cá nhân và Cộng đồng phân biệt cách AI được sử dụng vì lợi ích của nhân loại đồng thời tránh các ứng dụng làm suy yếu phẩm giá con người hoặc gây hại cho hành tinh. Trong bối cảnh này, khái niệm “trách nhiệm” không chỉ nên được hiểu theo nghĩa hẹp nhất của nó, nhưng như “mối quan tâm cho người khác […] và không […] chỉ đơn thuần là một tài khoản cho những gì “.

Do đó, với tư cách là AI công nghệ, một phần của phản ứng có ý thức và có trách nhiệm đối với Trở thành ơn gọi tốt đẹp của nhân loại. Tuy nhiên, như đã nói ở trên, nó phải là trí thông minh của con người theo cách mà nó có thể được kết nối với ơn gọi này và đảm bảo sự tôn trọng nhân phẩm của con người. Để ghi nhận “phẩm giá cao cả”, Công đồng Vatican II tuyên bố rằng ” trật tự xã hội và sự phát triển của nó […] liên tục quan tâm đến hạnh phúc của con người [phải] được định hướng”. Trong bối cảnh này, việc sử dụng AI, như Đức Giáo Hoàng Phanxicô đã nói, phải “Đi kèm với đạo đức […] dựa trên lợi ích chung, của một đạo đức tự do, trách nhiệm và tình huynh đệ, đó là có thể thúc đẩy sự phát triển toàn diện của con người trong mối quan hệ với những người khác và đến sự sáng tạo”.

Để mở rộng phần này, hãy xem xét khái niệm “explainable AI” (XAI), nơi AI phải minh bạch để con người có thể hiểu và chịu trách nhiệm. Ví dụ, trong ngân hàng, AI phê duyệt vay phải giải thích lý do từ chối để tránh phân biệt đối xử. Trách nhiệm cũng mở rộng đến người dùng: một bác sĩ sử dụng AI chẩn đoán phải kiểm tra lại, không mù quáng tin tưởng. Học thuyết xã hội Công giáo nhấn mạnh công lý, như trong “Pacem in Terris” (1963), yêu cầu AI thúc đẩy hòa bình, không phải xung đột (ví dụ: tránh AI trong chiến tranh mạng).

Trong tương lai, vai trò của đạo đức trong AI sẽ càng quan trọng khi công nghệ tiến đến AGI (Artificial General Intelligence). Các thách thức bao gồm mất việc làm, mất quyền riêng tư và “singularities” (điểm kỳ dị) nơi AI vượt qua con người. Giải pháp: thành lập các ủy ban đạo đức quốc tế, tích hợp đạo đức vào giáo dục STEM, và thúc đẩy “human-centered AI”.

Kết luận, đạo đức không chỉ giới hạn mà còn nâng tầm AI, đảm bảo nó phục vụ ơn gọi con người. Bằng cách đặt phẩm giá con người làm trung tâm, chúng ta có thể xây dựng một tương lai nơi AI là đồng minh, không phải mối đe dọa.

Lm. Anmai, CSsR

Bài viết liên quan

Back to top button
error: Content is protected !!