Trí tuệ nhân tạo: con người có thể chọn không phụ thuộc vào nó

110

Trí tuệ nhân tạo: con người có thể chọn không phụ thuộc vào nó

Mối quan hệ giữa con người và công nghệ kỹ thuật số là toàn bộ trọng tâm thông điệp của Đức Phanxicô Ngày Hòa bình Thế giới lần thứ 57. Vấn đề không phải là quay lưng lại với những tiến bộ do trí tuệ nhân tạo mang lại, nhưng không đánh mất khả năng phân định của chúng ta.

vaticannews.va, Jean-Charles Putzolu, Vatican, 2024-01-01

Trong thông điệp nhân Ngày Hòa bình Thế giới lần thứ 57, tập trung vào “trí tuệ nhân tạo và hòa bình”, Đức Phanxicô nhấn mạnh các công nghệ mới phải luôn hướng tới “việc tìm kiếm hòa bình và lợi ích chung và phải phục vụ sự phát triển toàn diện cho các cá nhân và cộng đồng”. Suy nghĩ của ngài về tác động của trí tuệ nhân tạo đối với hòa bình thế giới là lời cảnh báo chống lại việc lạm dụng trí tuệ nhân tạo. Ngài kêu gọi cộng đồng quốc tế thông qua một hiệp ước ràng buộc để điều chỉnh sự phát triển và sử dụng các dạng trí tuệ nhân tạo khác nhau, đồng thời đặt ra những câu hỏi về đạo đức liên quan chặt chẽ đến các công nghệ mới đang cách mạng hóa loài người trong mọi lãnh vực đời sống, có khả năng xử lý những điều tốt nhất, cũng như những điều xấu nhất. Vì những công nghệ này không mang tính trung lập, nhưng bị các nhà thiết kế thuật toán định hướng nên chúng có thể thao túng tâm trí con người và từ đó tạo xung đột.

Để hiểu rõ hơn về mối quan hệ giữa con người và máy móc, Vatican News đã trao đổi với giáo sư Mathieu Guillermin, giảng viên tại Đại học Công giáo Lyon, chuyên gia về Trí tuệ nhân tạo. Công việc của giáo sư tập trung vào các vấn đề triết học và đạo đức do công nghệ kỹ thuật số đặt ra.

Phỏng vấn giáo sư Mathieu Guillermin về trí tuệ nhân tạo

Trong những năm gần đây, trí tuệ nhân tạo mở ra những chân trời mới và đặt ra những câu hỏi mới về đạo đức, triết học và thậm chí cả nhân học. Liệu con người có tuần phục máy móc không? 

Giáo sư Matthieu Guillermin. Chúng ta thường trình bày mọi thứ dưới dạng “máy móc sẽ làm điều gì đó với chúng ta”, nhưng về cơ bản, máy móc vẫn là máy tính và điều này sẽ không thay đổi. Đó là cơ chế chuyển đổi, mở hoặc đóng các kênh tùy thuộc chức năng đã được lập trình và chúng ta, chúng ta gắn ý nghĩa vào đó. Nhưng thực tế thì cái máy không muốn gì cả. Do đó không có vấn đề gì về sự đối lập giữa máy móc và con người. Đó là vấn đề của những người làm việc với máy móc và nó tác động đến người khác, tốt hơn hoặc tệ hơn. Không có cỗ máy nào làm điều gì đó vì nó muốn. Có thể có những máy móc mà chúng ta không kiểm soát được và có thể tạo ra “ảo giác”, tức là những kết quả không mong muốn hoặc có những máy móc mà chúng ta kiểm soát rất tốt.

Vậy cách lập trình thuật toán có thể hướng dẫn các lựa chọn của chúng ta không?

Có, hoàn toàn có. Ở đây có một thách thức. Đây là một trong những điều cơ bản mà chúng ta có thể không nhìn thấy ngay trong mối quan hệ chiến tranh và hòa bình, nhưng nó thực sự có tác dụng rất lâu dài. Trên thực tế, chúng ta tạo ra những hình ảnh thể hiện nhỏ dựa trên hành vi của người đó. Nếu một người hành xử theo một cách nào đó, chúng ta có thể biết người đó đang ở trạng thái nào và với những xác suất, chúng ta có thể xác định hành vi tiếp theo của họ sẽ như thế nào. Kiểu tính toán này mang lại một sức mạnh vô cùng to lớn, có thể là một sức mạnh tốt. Tôi bằng lòng nếu họ cho những thông tin mà tôi quan tâm, nhưng từ những thông tin này, nó có thể trượt nhanh qua những thông tin khác gây sự chú ý của tôi. Nó có thể đi xa đến mức thao túng tinh thần. Chúng tôi gọi đây là công nghệ thuyết phục. Điều này không mới với trí tuệ nhân tạo, nhưng trí tuệ nhân tạo sẽ củng cố những gì chúng ta có thể làm trong lãnh vực này.

Và các ý kiến quần chúng có khả năng của một phân định đúng đắn không?

Chúng ta thực sự nói đến chủ đề trí tuệ nhân tạo và hòa bình. Việc khai thác các giao tiếp nhận thức riêng của chính chúng ta, về cách chúng ta suy nghĩ, cách chúng ta phản ứng, có thể bị dùng để phổ biến thông tin sai lệch hoặc để khuấy động xung đột. Đây thực sự là cách dùng quân sự hóa. Nếu chúng ta khai thác vấn đề các bong bóng nhận thức, nghĩa là chúng ta sẽ chỉ cung cấp cho mọi người những gì họ quan tâm và do đó, sau một thời gian, sẽ hình thành những nhóm người chỉ có một số thông tin nhất định, những nhóm khác có những thông tin khác, cuối cùng sẽ phá vỡ trí tuệ tập thể và điểm chung là chúng ta có thể phải nói chuyện với nhau về hòa bình hoặc những căng thẳng. Đó là cách sử dụng thuật toán không lành mạnh và chúng tôi hoàn toàn tập trung vào chủ đề trí tuệ nhân tạo và hòa bình. Mặt khác, chúng ta có thể sử dụng các thuật toán này để nói “được rồi, tôi có hồ sơ của bạn, tôi biết, tôi phát hiện đại khái điểm chúng ta sẽ đồng ý và điểm chúng ta sẽ không đồng ý, vì vậy tôi dựa vào đó để có một cuộc thảo luận thông minh hơn với bạn”. Như thế, ở đó, chúng ta sẽ đạt được sự gắn kết và trí tuệ tập thể. Do đó có thể sử dụng công nghệ này một cách lành mạnh. 

Và dựa trên điều này, hệ thống giáo dục có thể tham gia vào những hướng suy nghĩ nào?

Suy nghĩ đầu tiên cần phát triển sẽ bắt đầu từ thế giới nơi chúng ta đang sống và chúng ta là ai, để đặt câu hỏi đúng: Chúng ta có muốn có khả năng thực hiện hành động này hay hành động kia không? Dòng suy nghĩ này có thể quyết định vừa những gì chúng ta đào tạo vừa những gì chúng ta học để làm, song song vào đó, chúng ta có tích hợp các thuật toán ở đâu hay không. Để sử dụng nó một cách chính xác, thì phải hiểu lý do vì sao chúng ta làm những chuyện này. Thực sự, khi chúng ta có khuôn khổ này, chúng ta nên quay lại, vì bây giờ chúng ta có thể tự động hóa nhiều thứ, cung cấp cho mọi người, học sinh và tất cả mọi người khả năng tự định hướng trong kiểu lựa chọn này. Trên thực tế, tất cả những điều này tạo nền tảng để có thể trở thành một người đích thực và một người thông minh.

Đức Phanxicô cũng nói trong thông điệp của ngài, con người có thể mất kiểm soát bản thân khi tin tưởng hoàn toàn vào công nghệ…

Sự mất kiểm soát đã có rồi. Nó đã có trước cả máy móc, vì chúng ta có tính ngạo mạn của thần promethean. Chúng ta có các quyền lực và chúng ta trở thành nô lệ cho quyền lực của mình, chúng ta đặt những thứ để tạo các luồng không khí và chúng ta lặn ngụp trong đó. Đó là lúc chúng ta mất kiểm soát bản thân. Nhưng cũng giống như cách các thuật toán có thể làm chúng ta phản ứng theo một cách nào đó, mà không cần tối thiểu phải suy nghĩ, tối thiểu phải phê phán, phải phân định, chúng ta cũng mất kiểm soát và đặt vào đó những cỗ máy lấy đi quyền tự chủ của chúng ta. Thế mà quyền tự chủ là quyền chúng ta không được tước đi, đó là khả năng chúng ta chúng ta lựa chọn và nhất là chúng ta phải lựa chọn một cách có ý thức. Và đó là chúng ta bảo vệ quyền tự chủ của mình.

Giuse Nguyễn Tùng Lâm dịch

Đức Phanxicô cảnh báo hậu quả của trí tuệ nhân tạo trên hòa bình

Làm chủ trí tuệ nhân tạo

Khi Vatican nhúng tay vào trí tuệ nhân tạo