Khi trí tuệ nhân tạo (AI) phát triển mạnh mẽ, không thể phủ nhận tiềm năng thúc đẩy đổi mới nhưng đi kèm là những rủi ro. Từ bê bối deepfake đến thông tin sai lệch do AI tạo ra, công nghệ này đặt ra những thách thức về đạo đức nghiêm trọng.

Để AI trở thành công cụ phục vụ phải ưu tiên phát triển AI có trách nhiệm. AI tạo sinh đang chuyển đổi nhiều ngành nghề: truyền thông, giáo dục, y tế và tài chính bằng khả năng tạo nội dung mới từ dữ liệu có sẵn. Trong lĩnh vực y tế, AI hỗ trợ chẩn đoán hình ảnh, cá nhân hóa phác đồ điều trị và thúc đẩy quá trình nghiên cứu thuốc. Trong giáo dục, AI hỗ trợ học tập, phát hiện đạo văn và cung cấp trợ giảng ảo. Trong kinh doanh và marketing, AI thúc đẩy sáng tạo nội dung tự động, hỗ trợ chăm sóc khách hàng và tạo ra các “KOL ảo”.
Mặt trái của AI
Tuy nhiên, dư luận dấy nên những lo ngại về mặt đạo đức vì các mô hình AI có thể khuếch đại thành kiến, lan truyền thông tin sai lệch, thúc đẩy deepfake và có nguy cơ xâm phạm quyền riêng tư dữ liệu, bảo mật dữ liệu và sự ổn định của lực lượng lao động. Những quan ngại phản ánh qua phát biểu của nhiều nhà lãnh đạo trong lĩnh vực công nghệ. Tại các diễn đàn lớn như Davos 2024 và chuỗi ReThinking với Adam Grant trên TED, giám đốc điều hành OpenAI Sam Altman đã nhiều lần nhấn mạnh rằng “AI tạo sinh đang định hình lại sáng tạo, nhưng cần có sự giám sát của con người để kiểm soát hiệu quả những mối nguy về đạo đức”.

Những sự cố gần đây, từ bê bối hình ảnh khiêu dâm giả mạo của Taylor Swift, cuộc gọi tự động mạo danh cựu Tổng thống Mỹ Joe Biden, việc sử dụng AI trái phép trong tố tụng pháp lý, cho đến tình trạng gian lận học thuật bằng AI…; đáng lo ngại hơn nữa là các trường hợp chatbot kích động hành vi tự sát, tạo nội dung lạm dụng trẻ em, khuyến khích các vụ ám sát, thuật toán tuyển dụng thiên vị, hay các lỗ hổng bảo mật bị AI khai thác… làm nổi bật tính cấp thiết của việc phát triển AI có trách nhiệm cùng với các quy chuẩn đạo đức rõ ràng. Những vấn đề này nhấn mạnh hơn nữa sự cần thiết phải có hướng tiếp cận lấy con người làm trung tâm, nhằm giảm thiểu việc lạm dụng AI cũng như bảo vệ lợi ích của cá nhân và xã hội.
AI 2025: Đặt trách nhiệm lên hàng đầu
Khi AI tiếp tục phát triển, năm 2025 chứng kiến sự chuyển dịch rõ rệt sang AI có trách nhiệm, lấy con người làm trung tâm, đảm bảo tính minh bạch, trách nhiệm giải trình và niềm tin với các hệ thống AI. Trước những lo ngại ngày càng tăng về thành kiến, thông tin sai lệch và rủi ro đạo đức, công nghệ AI minh bạch (Explainable AI – XAI) đang được ưu tiên, giúp người dùng hiểu rõ cách AI đưa ra quyết định. Một số quốc gia như Hoa Kỳ, Canada, Brazil, EU, Vương quốc Anh, Úc, Trung Quốc, Ấn Độ và Nhật Bản đã bắt đầu triển khai các quy định về AI. Những chính sách này quản lý AI, đảm bảo triển khai một cách có đạo đức trên toàn ngành.

Thay vì thay thế vai trò của con người, AI ngày càng được thiết kế để bổ trợ và nâng cao năng lực cho con người. AI lai (hybrid AI), mô hình kết hợp giữa AI và con người, được kỳ vọng sẽ phát triển mạnh mẽ. Bên cạnh đó, AI sẽ mở rộng ứng dụng trong an ninh mạng, giúp tăng cường khả năng phân tích rủi ro và đối phó với các mối đe dọa số. Trong phát triển bền vững, AI sẽ đóng vai trò quan trọng trong giải quyết biến đổi khí hậu và thúc đẩy công nghệ xanh. Khi việc áp dụng AI tăng tốc, quản trị AI có trách nhiệm là điều thiết yếu để tối ưu hóa lợi ích của công nghệ, giảm thiểu rủi ro tiềm ẩn.
Việt Nam cần làm gì để phát triển AI có trách nhiệm?
Cùng với việc tăng tốc áp dụng AI, Việt Nam đang có nhiều hoạt động đổi mới AI. Tuy nhiên, để AI phát triển có đạo đức là điều hết sức quan trọng nhằm tránh thành kiến trong thuật toán, rủi ro về quyền riêng tư và mất niềm tin của công chúng.
Để lĩnh vực AI hoạt động đúng với các nguyên tắc đạo đức, Việt Nam nên tập trung vào các lĩnh vực sau: đầu tư vào nghiên cứu về đạo đức AI, hợp tác với các trường đại học để đưa ra khung pháp lý AI có trách nhiệm; đưa bộ môn đạo đức AI vào chương trình giảng dạy đại học để trang bị cho sinh viên hiểu biết về công bằng, minh bạch và quản trị AI; mở rộng chương trình về AI để lãnh đạo doanh nghiệp, những người làm công tác giáo dục và các nhà hoạch định chính sách có đủ kiến thức để đối mặt với những thách thức AI đặt ra; nâng cao nhận thức cộng đồng để cá nhân và doanh nghiệp hiểu rõ tác động của AI đối với quyền riêng tư, bảo mật dữ liệu và các quyết định kinh doanh; khích lệ thúc đẩy AI đổi mới trong y tế, môi trường và giáo dục để tạo ra lợi ích xã hội thay vì chỉ tập trung vào lợi nhuận.

Bên cạnh đó, cần có khung pháp lý rõ ràng cho việc phát triển AI có trách nhiệm. Việt Nam cần có hành động quyết đoán: thực hiện các quy định AI chặt chẽ nhằm thực thi luật bảo mật dữ liệu, hướng dẫn đạo đức cũng như phòng chống thông tin sai lệch và thiên kiến; tăng cường khung pháp lý AI để bảo vệ người dùng và giải quyết những rủi ro từ việc tích hợp AI quá nhanh; tiếp cận các mô hình quản trị AI quốc tế để áp dụng tốt nhất, đồng thời điều chỉnh các chính sách phù hợp với bối cảnh kinh tế – xã hội của Việt Nam; giới thiệu chứng nhận AI có đạo đức với những tiêu chuẩn về minh bạch, công bằng và bảo mật; xây dựng hệ thống phân loại và kiểm định rủi ro AI để đánh giá ứng dụng AI dựa trên tác hại tiềm ẩn cũng như yêu cầu kiểm định bắt buộc với những hệ thống có mức rủi ro cao.
Hiệp hội phần mềm và dịch vụ công nghệ thông tin Việt Nam (VINASA) đã thành lập Ủy ban đạo đức AI vào hôm 6.12.2024. “…Ủy ban có sứ mệnh định hướng lộ trình phát triển AI của Việt Nam, đảm bảo AI được triển khai theo chuẩn mực đạo đức, đổi mới sáng tạo song hành với lợi ích xã hội, và thúc đẩy môi trường pháp lý thuận lợi cho AI. Ngoài việc xây dựng chính sách và tiêu chuẩn đánh giá rủi ro, ủy ban còn là cầu nối hợp tác quốc tế và cố vấn cho Chính phủ Việt Nam với những nhiệm vụ chính: phát triển tiêu chuẩn an toàn AI, phân tích rủi ro và nâng cao nhận thức về AI có trách nhiệm” (tuyên bố của VINASA).
TS. Sam Goundar (Đại học RMIT Việt Nam)