Trí tuệ nhân tạo dưới mắt của linh mục Paolo Benanti Dòng Ba Phanxicô  

91

Trí tuệ nhân tạo dưới mắt của linh mục Paolo Benanti Dòng Ba Phanxicô

“Chúng ta đừng là những kẻ khủng bố công nghệ, cũng không là những người lạc quan về công nghệ, nhưng là những người có đạo đức.”

marianne.net, Alexandra deCozar, 2023-07-15

Linh mục Paolo Benanti là linh mục không điển hình. Là thành viên của Dòng Ba Phanxicô, linh mục được giới thiệu như người cố vấn cho giáo hoàng về trí tuệ nhân tạo. Linh mục đã nổi tiếng vượt ra ngoài biên giới của Vatican.

Linh mục Benanti không phải là linh mục như những linh mục khác. Cha mang đồng hồ Apple, dùng iPhone đời mới nhất, tham gia Ted Talk rất nổi tiếng, đăng ảnh du lịch trên Instagram. Nhưng chiếc áo không làm nên linh mục. Cha cố vấn cho giáo hoàng về các vấn đề liên quan đến trí tuệ nhân tạo. Khi cha đến Pháp dự buổi gặp Spark do Capgemini tổ chức, chúng tôi có cơ hội phỏng vấn cha về cái nhìn “chủ nghĩa hậu nhân văn” của cha. Một chủ đề được cha đề cập rất nhiều trong quyển sách nổi tiếng Các máy móc thông thái (Des machines savantes, nxb. Marietti 1820), xuất bản tháng 1 năm 2019.

Cha đã xuất bản gần 20 quyển sách về chủ đề siêu nhân học và đạo đức công nghệ. Theo cha, là người của Giáo hội sẽ mang đến cho cha điều gì để giải quyết những chủ đề này? 

Linh mục Paolo Benanti: Ồ, nếu ông xem qua lịch sử dòng của tôi, Raymond Lully, một trong những anh em của tôi ở thế kỷ 14 đã viết một văn bản tên là Ars Magna, trong đó cha đã phát triển một công cụ, được cho là cho phép kết hợp triết học và tôn giáo mà không cần rào cản ngôn ngữ. Công trình này được Leibniz tiếp tục vài năm sau đó, và sau này trở thành logic tổ hợp được máy tính sử dụng. Vì vậy, để trả lời cho ông, tôi cảm thấy thoải mái như đang ở trong nhà tôi, theo nghĩa là có một mối liên hệ lịch sử chặt chẽ giữa Giáo hội và các kỹ thuật mới.

Mặt khác, Giáo hội không phải là một pháo đài ngăn sự tiến bộ. Cách đây vài tuần, bộ phận truyền thông của Vatican đã công bố một tài liệu đề cập đến việc làm thế nào để hòa giải đức tin với các mạng xã hội. Giống như các tổ chức khác, chúng tôi cũng phải đối diện với những rủi ro của trí tuệ nhân tạo. Ví dụ, một bức ảnh cho thấy giáo hoàng mặc chiếc áo khoác hiệu Balenciaga gần đây đã gây xôn xao trên mạng. Loại clisê (ấn bản) làm sôi nổi tất cả các loại tranh luận, trên thực tế được tạo ra một cách giả tạo.

Các nhân vật chính của tôn giáo hiểu tầm mức quan trọng của của các canh tân này. Đến mức ngày 10 tháng 1, đại diện của ba tôn giáo Áp-ra-ham (công giáo, do thái và hồi giáo) đều đã ký “Lời kêu gọi từ Rôma” về đạo đức trong A.I.

Theo cha, các vấn đề chính được các trí tuệ nhân tạo này nêu lên là gì?

Trí tuệ nhân tạo có khả năng trở thành một loại công nghệ rất đặc biệt. AI là thứ được gọi là “công nghệ có tiến trình chung” hay GPT (Công nghệ mục đích chung, General Purpose Technologies). Giống như dòng điện, chúng không có chỉ một mục đích duy nhất. Những kỹ thuật này thay đổi hoàn toàn cách chúng ta làm việc. Trên thực tế, Trí tuệ Sáng tạo có tiềm năng trở thành một công cụ đa năng và ảnh hưởng đến mọi lãnh vực trong cuộc sống chúng ta.

Câu hỏi đầu tiên là biết những gì chúng sẽ thay đổi trong cách sống của chúng ta. Khi chúng ta bắt đầu lan truyền dòng điện, chúng ta đã thấy hai mô hình phân phối. Một mặt, có Edison, người sáng lập General Electric, ông đã nghĩ đến việc phân phối dòng điện bằng cách dân chủ hóa nó, và từ đó giảm giá thành để mọi người đều có thể dùng được. Nó giống hệt như 4G, các công ty sở hữu nó sẽ hạ giá xuống mức tối thiểu.

Mặt khác có Lênin và kế hoạch “GOELRO”, tiên liệu liên xô hóa thế giới bằng điện khí hóa. Với Lênin, đó là cách chiếm quyền lực bằng các nguồn lực. Tương lai của trí tuệ nhân tạo cũng phụ thuộc vào việc những người sở hữu nó quyết định làm gì với nó.

Cuối cùng, khi các bài báo nói rằng trí tuệ nhân tạo cùng phạm những lỗi lầm phân biệt đối xử trong tuyển dụng như nguồn nhân lực mà chúng giúp đỡ, điều này làm nảy sinh vấn đề thứ ba. Những chiếc máy này không được thiết kế như những chiếc máy tính mà lập trình viên của nó có thể lường trước được lỗi và cho biết máy nên làm gì. Bây giờ máy dựa trên một loạt dữ liệu. Trên thực tế, chất lượng của dữ liệu và thực tế là máy có khả năng phản ứng với các tình huống mà nó gặp phải, làm cho cần thiết phải có nguyên tắc phòng ngừa. Đây là một số trong vô số câu hỏi do AI đặt ra và chúng ta hiện chưa có câu trả lời.

Làm thế nào chúng ta có thể chắc chắn những công nghệ này không lọt khỏi tay chúng ta?

Tôi muốn nói, điều quan trọng nhất là đảm bảo, những chiếc máy chúng ta cố gắng tự động hóa này tôn trọng các giá trị căn bản của chúng ta. Chúng ta đi đến vấn đề của đoạn văn “từ hộp đen đến hộp Pha lê”. Có nghĩa là làm cho thấy rõ hoặc ít nhất là cách thức mà hệ thống tiến hành. Nếu không, nó có thể dẫn đến sự bất bình đẳng lớn trong xã hội.

Nó cũng là trung tâm để phân phối trách nhiệm một cách nhanh chóng. Trong trường hợp có sự cố, chúng ta phải chỉ định được người có trách nhiệm: lập trình viên? Người dùng? Người đã cấy ghép một hệ thống phức tạp hơn ở đó?

Và rồi, chủ nghĩa hậu nhân văn nảy sinh một tất yếu. Đó là tạo sự khác biệt giữa một cỗ máy ngày càng trở nên giống con người hơn và một Con người đang liên tục “cơ giới hóa”. Miguel Benasayag, bác sĩ tâm thần người Pháp gốc Argentina, đã nghiên cứu rất nhiều về sự khác biệt giữa “hoạt động” và “tồn tại”. Thuyết siêu việt hóa con người trở thành một cuộc đấu tranh để giữ bản sắc chúng ta. Trong nhiều năm, chúng ta là loài duy nhất được học, giờ đây máy móc cũng vậy, chúng ta phải đặt câu hỏi về định nghĩa của “Con người”.

Vậy thì khi cuộc chiến Trí tuệ nhân tạo áp đặt như một “cuộc chạy đua vũ trang” mới, thì cha chủ trương cái mà cha gọi là “thuật toán”. Xin cha giải thích điều này.

Thuật toán bao gồm, nếu máy trở nên hung hăng thì phải tạo một “tay vịn” để ngăn máy đi chệch hướng quá nhiều. Đó không phải là một nền đạo đức mới, mà là một chương đạo đức mới, vẫn do con người tạo ra, nhưng lần này được điều chỉnh cho phù hợp với máy móc. Lấy vấn đề một xe tự động, trong trường hợp xảy ra tai nạn, nó phải lựa chọn giữa giết một người và giết hai người. Trong bối cảnh như vậy, đối diện với điều không thể tránh khỏi, con người sẽ chọn cách giảm thiểu thiệt hại. Do đó, vấn đề là lấy nguyên tắc đạo đức con người và tích hợp nó vào máy móc bằng cách biến nó thành quy tắc ứng xử. Vấn đề không chỉ là thời gian và tiền bạc, thuật toán đòi hỏi một “hiệp thông” thực sự.

Đây có phải là một cái nhìn hơi ngây ngô về kỹ thuật số không?

Xây dựng một cộng đồng quốc tế để quản lý trí tuệ nhân tạo có vẻ khó khăn. Hơn nữa, vì điều này để chống lại chiến tranh là điều không được đảm bảo. Nó chỉ phụ thuộc vào mức độ đòi hỏi của chúng ta. Ai viết một văn bản pháp luật mà không đảm bảo mọi người tôn trọng nó. Luật pháp chỉ cho phép chúng ta đặt lời nói trên hành động.

Không có lý do nào để sợ Trò chuyện GPT hơn internet hoặc hơn một thanh gỗ. Luôn có một mơ hồ với sự mới lạ. Khi thành viên đầu tiên của loài chúng ta ở trong hang động lấy một mảnh gỗ, đó là công cụ để lấy thêm dừa hay vũ khí để lấy thêm đầu lâu? Tính hai mặt này luôn tồn tại. Do đó, không cần phải trở thành một kẻ khủng bố công nghệ, hay một người lạc quan về công nghệ, chỉ cần có đạo đức.

Giuse Nguyễn Tùng Lâm dịch

Trí tuệ nhân tạo sẽ là chủ đề của Thông điệp hòa bình

Trí tuệ nhân tạo phục vụ truyền giáo?

CatéGPT, trí tuệ nhân tạo phục vụ Giáo hội

Laurent Alexandre: “Trí tuệ nhân tạo là một thay đổi văn minh mà chúng ta không tiên liệu được nó sắp đến”