Nghi ngờ, để “nhân bản hóa” trí tuệ nhân tạo
cath.ch, Raphaël Zbinden, 2024-01-08
Sự tham gia ngày càng tăng của trí tuệ nhân tạo vào cuộc sống của chúng ta đặt ra những câu hỏi đạo đức sâu sắc | © Andy Kelly/Bapt
Thần học gia Dòng Phanxicô Paolo Benanti là thành viên của cơ quan cố vấn Liên Hiệp Quốc về trí tuệ nhân tạo (AI). Linh mục xem việc nâng cao trình độ giảng dạy đạo đức phần mềm là điều cấp thiết. Để tôn trọng tốt nhất bản chất con người, linh mục đề nghị nên dạy trí tuệ nhân tạo tích hợp khái niệm ‘nghi ngờ’.
Chúng ta cầu nguyện “để sự phát triển nhanh chóng của các hình thức trí tuệ nhân tạo không làm gia tăng quá nhiều bất bình đẳng và bất công hiện có trên thế giới, nhưng góp phần chấm dứt chiến tranh và xung đột, đồng thời làm giảm bớt nhiều hình thức đau khổ đang hành hạ gia đình nhân loại.” Đây là mong muốn của Đức Phanxicô trong sứ điệp Ngày Hòa bình Thế giới, được công bố ngày 1 tháng 1 năm 2024.
Giáo hoàng, cũng như phần còn lại của nhân loại, chắc chắn ngài tự vấn sâu sắc trước sự xuất hiện gần đây của các robot đàm thoại với hiệu suất ấn tượng, trong đó rộng rãi nhất là ChatGPT. Những tiến bộ này đã tạo một choáng váng nào đó trong dư luận, giữa nỗi lo mất việc hàng loạt và sự nô lệ hóa máy móc của con người.
Những cỗ máy “thương xót”?
Nhiều tiếng nói áp dụng cách tiếp cận ôn hòa, từ chối việc xem thường những công nghệ này, đồng thời kêu gọi phản ánh toàn cầu và đặt ra các giới hạn. Đó là trường hợp của thần học gia Paolo Benanti, nhà đạo đức học và chuyên gia về trí tuệ nhân tạo. Thành viên của cơ quan tư vấn Liên Hiệp Quốc về những vấn đề này, ngày 3 tháng 1 năm 2024, linh mục phát biểu trên tờ La Stampa của Ý về những hướng đi mong muốn trong lãnh vực này.
“Các thuật toán khác với con người ở một khía cạnh quan trọng: chúng không biết những gì chúng không biết”. – Steve Fleming, giáo sư khoa học thần kinh nhận thức tại Đại học College London
Linh mục Benanti đảm bảo: “Cách tốt nhất để đối phó với trí tuệ nhân tạo là đặt con người lên hàng đầu. Giữa mục tiêu của máy móc và mục tiêu của con người, dự án của con người phải được đặt lên hàng đầu. Trí tuệ nhân tạo phải mang lại cho con người khả năng xác định các ưu tiên của mình và từ đó mang lại quyền tự quyết về mặt xã hội cho họ.”
Theo linh mục Benanti, có ba giá trị thiết yếu cần được trí tuệ nhân tạo tích hợp. Ngài giải thích: “Trong lĩnh vực xã hội, khía cạnh công bằng và bình đẳng là rất quan trọng. Nếu không, trí tuệ nhân tạo sẽ gây ra phân chia nguy hiểm thành các tầng lớp xã hội thông qua định kiến.” Nhà đạo đức học khuyến nghị “lòng thương xót, nghĩa là khả năng không để bản thân bị quyết định chỉ bởi những sự kiện tiêu cực mà một người đã phải chịu đựng và ghi lại trong đời của họ”.
Thiếu hướng nội
Nhưng theo linh mục, điều quan trọng nhất đối với trí tuệ nhân tạo là tích hợp khái niệm nghi ngờ. Linh mục lưu ý: “Nếu chúng ta hỏi ChatGPT điều gì, nó luôn cho chúng ta câu trả lời. Và đôi khi, đó là những câu trả lời trơn tru.” Việc thiếu khả năng hướng nội thực sự là một khía cạnh của trí tuệ nhân tạo được các chuyên gia trong ngành công nhận rộng rãi. Giáo sư Steve Fleming lưu ý: “Mặc dù các thuật toán (…) có vẻ thông minh đến mức đáng ngạc nhiên, nhưng hiện tại chúng khác với con người ở một khía cạnh quan trọng: chúng không biết những gì chúng không biết, một năng lực mà các nhà tâm lý học gọi là siêu nhận thức”.
“Một khi máy móc trở thành một phần trong cuộc sống hàng ngày của chúng ta, chúng ta có xu hướng trở nên thỏa mãn về những rủi ro liên quan” – Steve Fleming
Trong một bài báo xuất bản năm 2021 trên tờ Financial Times, giáo sư Fleming giải thích “siêu nhận thức là khả năng suy nghĩ về chính tư tưởng riêng của mình – chẳng hạn khi chúng ta có thể lầm, hoặc khi khôn ngoan đi tìm một ý kiến thứ hai. Giáo sư cảnh báo, từ lâu các nhà nghiên cứu trí tuệ nhân tạo đã biết các công nghệ học tự động có xu hướng quá tự tin: “Thay vì thừa nhận thất bại, phần mềm thường đưa ra những câu trả lời sai với độ tin cậy rất cao.”
Đưa ra giới hạn cho trí tuệ nhân tạo
Linh mục Paolo Benanti nói: “Hiện tại, ‘đức hạnh’ lớn nhất mà chúng ta, những con người nam giới cũng như nữ giới, có thể khao khát, không phải là khả năng trả lời, mà tự hỏi câu trả lời đó có giá trị hay không. Nếu chúng ta có thể tạo cho cỗ máy khả năng nghi ngờ câu trả lời của nó, chúng ta sẽ làm điều gì đó tôn trọng bản chất con người nhiều hơn.”
Dù sao, linh mục giáo sư đạo đức học kêu gọi hãy phân biệt rõ ràng giữa tâm trí con người chúng ta và “bộ não nhân tạo”. Trên báo La Stampa, linh mục nhắc: “Chúng ta phải bắt đầu từ nguyên tắc trí tuệ nhân tạo không thể được giáo dục về mặt đạo đức, vì nó không phải là tính chủ quan của cá nhân.”
“Các giá trị mà trí tuệ nhân tạo dựa là kỹ thuật số. Nhưng chúng có thể được điều chỉnh ở một mức độ nào đó, được kiểm soát bởi các thuật toán có thể được sử dụng như một loại biện pháp bảo vệ đạo đức. Vì thế một nền giáo dục đạo đức mới và đổi mới cho người dùng, tức là công dân, trở nên quan trọng, họ sẽ không chỉ tương tác với trí tuệ nhân tạo mà còn là người sẽ đặt ra cho nó những giới hạn hoặc lãnh vực ứng dụng của nó.”
“Vấn đề sẽ không nằm ở mối quan hệ giữa Chúa và trí tuệ nhân tạo mà là thái độ của chúng ta, với tư cách là con người, đối với trí tuệ nhân tạo” – Paolo Benanti
Giáo sư Steve Fleming cũng khuyến khích chúng ta “nghĩ về những gì chúng ta đang tạo ra khi phát triển các thuật toán này. Lịch sử tự động hóa cho thấy một khi máy móc trở thành một phần trong cuộc sống hàng ngày của chúng ta, con người có xu hướng trở nên thỏa mãn về những rủi ro liên quan”.
Giáo sư trích dẫn lời của triết gia Mỹ Daniel Dennett, theo đó “mối nguy hiểm thực sự không phải là những cỗ máy thông minh hơn chúng ta, chiếm đoạt vai trò người chỉ huy vận mệnh chúng ta, nhưng chúng ta đánh giá quá cao sự hiểu biết của các công cụ tư duy mới nhất của chúng ta, nhường uy quyền cho chúng quá sớm, vượt xa kỹ năng của chúng”.
Ảo ảnh về ‘đám mây’ thần thánh
Giáo sư Fleming trích lời thượng giáo sĩ người Anh Jonathan Sacks (1948-2020): “Nếu chúng ta tìm cách bảo tồn nhân tính của mình, câu trả lời không phải là nâng cao trình độ thông minh (…) Chính ý thức về ‘chính mình’ mới làm cho con người trở nên khác biệt.’ Giáo sư Steve Fleming lưu ý: “Khả năng nghi ngờ, đặt câu hỏi và nghiên cứu những gì chúng ta chưa biết là động lực sáng tạo khoa học đã khai sinh ra trí tuệ nhân tạo”.
Vì vậy, theo linh mục Paolo Benanti, “vấn đề sẽ không liên quan đến mối quan hệ giữa Chúa và trí tuệ nhân tạo, mà là thái độ của chúng ta, với tư cách là con người đối với trí tuệ nhân tạo. Vì chúng ta có xu hướng tạo ra thần tượng cho chính mình (…) Trong thực hành, có nguy cơ là chúng ta nhìn về phía ‘đám mây’ nơi trí tuệ nhân tạo cư trú, thay vì hướng tới bầu trời thì chúng ta xem trí tuệ nhân tạo như một ‘vị thần mới’”.
Marta An Nguyễn dịch