Khóa học “Đạo đức AI” diễn ra ngày 15-16/5/2025 tại TP. Hồ Chí Minh, do Viện ABAII phối hợp cùng Hiệp hội Blockchain Việt Nam, Đại sứ quán Hoa Kỳ và Tổng Lãnh sự quán Hoa Kỳ tổ chức, đánh dấu bước tiến quan trọng trong việc nâng cao nhận thức về sử dụng trí tuệ nhân tạo một cách có trách nhiệm tại Việt Nam. Trước đó, khóa học đã được tổ chức thành công ở Hà Nội với sự tham gia của 500 học viên, hướng đến các chuyên gia công nghệ, cán bộ quản lý nhà nước, giảng viên và nhà nghiên cứu.
Sử dụng AI có trách nhiệm đang là xu hướng không thể bỏ qua trên thế giới, đặc biệt tại các quốc gia phát triển như Hoa Kỳ, Nhật Bản, Hàn Quốc và Liên minh châu Âu. Tại những nơi này, các tập đoàn công nghệ lớn đều xây dựng những quy định và bộ tiêu chuẩn riêng nhằm đảm bảo AI phát triển an toàn, công bằng và không gây hại. Ở Việt Nam, Chiến lược quốc gia về AI đến năm 2030 cũng đã xác định đạo đức AI là một trong những trụ cột quan trọng trong đào tạo và phát triển công nghệ.
Ông Đào Trung Thành, Phó Viện trưởng Viện ABAII, nhấn mạnh rằng AI không nên là công nghệ thay thế con người mà phải giúp nâng cao giá trị và khả năng của con người. Đạo đức AI không chỉ là lựa chọn mà là nền tảng để xây dựng niềm tin xã hội trong thời đại số. Câu hỏi không còn là có nên dùng AI hay không, mà là sử dụng nó sao cho không làm tổn thương chính chúng ta.
Từ góc độ quốc tế, các doanh nghiệp lớn như Microsoft, Google và IBM đều có cách tiếp cận khác nhau nhưng đều hướng đến mục tiêu chung: đảm bảo AI hoạt động theo những giá trị đạo đức, an toàn và mang lại lợi ích xã hội. Microsoft tập trung phát triển các hệ thống AI đáng tin cậy và an toàn. Google quan tâm đến tác động xã hội của AI, cân nhắc cả lợi ích và những rủi ro tiềm tàng. IBM thì xây dựng bộ nguyên tắc hướng dẫn thiết kế, phát triển và sử dụng AI minh bạch, có trách nhiệm.
Trong khi đó, tại Việt Nam, sự quan tâm đến đạo đức AI vẫn còn hạn chế. Bà Trần Vũ Hà Minh, chuyên gia về AI có trách nhiệm tại FPT, cho rằng các khóa học về đạo đức AI như thế này rất cần thiết để xây dựng nguồn nhân lực có trình độ, có khả năng phát triển AI một cách có trách nhiệm và bền vững.
Một thực tế đáng lưu ý là nhiều tổ chức trên thế giới vẫn chưa chuẩn bị kỹ càng cho việc quản trị rủi ro và đạo đức trong ứng dụng AI. Ông Jeffery Recker, Giám đốc điều hành Babl AI (Hoa Kỳ), ví việc này như chữa cháy khi ngọn lửa đã bùng phát, thay vì chủ động phòng tránh. Ông khuyến nghị các tổ chức nên xây dựng lộ trình tuân thủ đạo đức AI ngay từ bây giờ, bao gồm việc liệt kê các công cụ AI, đánh giá rủi ro, lấy sự chấp thuận của lãnh đạo cấp cao và phân tích các yêu cầu pháp lý để xác định kế hoạch cải thiện.
Xây dựng một hệ sinh thái AI có trách nhiệm tại Việt Nam không chỉ là nhiệm vụ của nhà nước mà còn đòi hỏi sự hợp tác từ doanh nghiệp, viện nghiên cứu và cộng đồng chuyên gia. Việt Nam cần phát triển các chính sách pháp lý, tiêu chuẩn đạo đức và đồng thời nâng cao nhận thức để sử dụng AI một cách an toàn, minh bạch và phục vụ lợi ích xã hội.
AI đã và đang thay đổi sâu sắc mọi lĩnh vực như y tế, tài chính, giáo dục và truyền thông. Nhưng nếu thiếu đạo đức, AI có thể gây ra nhiều hệ lụy như phân biệt đối xử, xâm phạm quyền riêng tư và làm gia tăng bất bình đẳng. Vì vậy, việc đào tạo và áp dụng các chuẩn mực đạo đức AI là rất quan trọng để bảo vệ con người và xây dựng xã hội công bằng hơn.
Khóa học “Đạo đức AI” vừa qua mở ra cơ hội để Việt Nam học hỏi kinh nghiệm quốc tế, đồng thời chuẩn bị tốt hơn cho những thách thức trong phát triển và ứng dụng AI trong tương lai. Việc xây dựng nguồn nhân lực chất lượng, nắm bắt các chuẩn mực đạo đức và áp dụng phù hợp sẽ giúp Việt Nam đi đúng hướng trong cuộc cách mạng số.
Theo: vista.gov.vn