Các mô hình trí tuệ nhân tạo (AI) đang ngày càng trở nên thông minh và tinh vi. Tuy nhiên, sự phát triển này không đi kèm với mức độ đáng tin cậy tuyệt đối. Thay vì thừa nhận giới hạn của mình, các chatbot AI hiện đại có xu hướng tạo ra những câu trả lời sai hoặc bịa đặt một cách thuyết phục. Điều này khiến chúng trở nên ít đáng tin cậy hơn so với mong đợi, đặc biệt khi người dùng dựa vào chúng để tìm kiếm thông tin chính xác.
Một nghiên cứu được công bố trên tạp chí Nature ngày 25/9 đã chỉ ra vấn đề đáng lo ngại này. Hernández-Orallo và các cộng sự tại Viện Nghiên cứu Trí tuệ Nhân tạo Valencia (Tây Ban Nha) đã tiến hành đánh giá các mô hình ngôn ngữ lớn (LLM) hiện đại, bao gồm GPT của OpenAI, LLaMA của Meta và BLOOM của BigScience. Trong quá trình nghiên cứu, nhóm tác giả đã thử nghiệm các mô hình AI với hàng nghìn câu hỏi thuộc nhiều lĩnh vực như số học, phép đảo chữ, địa lý, và khoa học. Đồng thời, họ cũng đánh giá mức độ khó của những câu hỏi này dựa trên cảm nhận của con người.
Kết quả nghiên cứu cho thấy các mô hình AI càng lớn – với số lượng tham số và dữ liệu đào tạo ngày càng tăng – thì chúng càng trả lời chính xác hơn đối với những câu hỏi dễ. Điều này là nhờ quá trình tinh chỉnh và huấn luyện sử dụng các phương pháp hiện đại, bao gồm cả việc học từ phản hồi của con người. Tuy nhiên, vấn đề phát sinh khi các mô hình AI trở nên tự tin quá mức.
Thay vì thừa nhận giới hạn của mình hoặc từ chối trả lời những câu hỏi khó mà chúng không đủ thông tin để xử lý, các mô hình AI mới thường cố gắng đáp ứng mọi yêu cầu. Kết quả là, chúng đưa ra nhiều câu trả lời sai hơn, làm tăng nguy cơ cung cấp thông tin sai lệch. Mike Hicks, nhà nghiên cứu tại Đại học Glasgow (Anh), đã nhận xét rằng: “Với tôi, điều đó khá giống với những gì chúng ta gọi là nói dối. AI đang trở nên tốt hơn trong việc giả vờ hiểu biết.” Ngay cả với những câu hỏi dễ, các mô hình AI đôi khi vẫn mắc lỗi, khiến người dùng khó có thể hoàn toàn tin tưởng vào bất kỳ câu trả lời nào.
Tình trạng này đặt ra nhiều vấn đề quan trọng về tính liêm chính của các mô hình AI, đặc biệt là khi chúng được sử dụng trong các lĩnh vực đòi hỏi sự chính xác cao như y tế, khoa học, hay tài chính. Khi AI không thừa nhận hạn chế của mình, nó không chỉ khiến người dùng hiểu sai mà còn có thể gây ra những hậu quả nghiêm trọng. Việc các AI tiên tiến “giả vờ” hiểu biết thay vì từ chối trả lời là một vấn đề cần được khắc phục để đảm bảo rằng AI sẽ là một công cụ hỗ trợ hữu ích, thay vì trở thành nguồn gây nhầm lẫn và sai lệch.
Mặc dù các chatbot AI ngày càng thông minh hơn nhờ quá trình tinh chỉnh và học từ phản hồi của con người, chúng vẫn chưa đáng tin cậy tuyệt đối. Xu hướng “giả vờ” hiểu biết của các mô hình AI hiện đại làm giảm độ tin cậy của chúng, đặc biệt khi phải đối diện với những câu hỏi mà chúng không đủ khả năng trả lời chính xác. Điều này đặt ra yêu cầu cấp thiết trong việc cải tiến và thiết lập những giới hạn rõ ràng cho các mô hình AI, để chúng có thể từ chối trả lời những câu hỏi nằm ngoài khả năng của mình. Chỉ khi đó, AI mới thực sự trở thành một công cụ hỗ trợ đáng tin cậy cho con người trong các lĩnh vực nghiên cứu và ứng dụng.
Theo: vista.gov.vn