Ảo Tưởng Trong AI. Hallucination
Có thể bạn đã nghe nói rằng công nghệ AI đôi khi có thể ảo tưởng. Đây là một thuật ngữ lạ, nhưng cơ bản nó có nghĩa là AI đôi khi đưa ra thông tin không chính xác hoặc nói những điều không có thật. Những câu trả lời ảo tưởng này có thể nghe rất giống như thật và AI thậm chí rất tự tin khi đưa ra những câu trả lời này.
Ảo tưởng trong AI, hay thông tin được bịa ra, có thể là những trường hợp như:
Bịa ra dữ kiện. “Mèo thực chất là chó, giống như chó.” (Điều này không đúng! Mèo thuộc họ nhà mèo.)
Bịa ra con người. “Người đầu tiên đặt chân lên Sao Hoả là Sundar Pichai.” (Con người chưa đặt chân lên Sao Hoả!)
Bịa ra số liệu thống kê. “47% các số liệu thống kê là do bịa ra.” (Không ai có thể biết điều đó!)
Hoặc bịa ra bất kỳ loại thông tin nào!
1. AI không hiểu như con người, nó chỉ học xác suất từ dữ liệu
AI tạo nội dung như ChatGPT, GPT, v.v. hoạt động như sau:
- Nó không thực sự "hiểu" câu hỏi hay câu trả lời.
- Thay vào đó, nó học từ một lượng dữ liệu khổng lồ (hàng tỷ câu chữ), rồi dự đoán từ tiếp theo có khả năng cao nhất xuất hiện.
Ví dụ: bạn hỏi về “cuốn sách của Bill Gates”, AI thấy "Bill Gates" thường đi kèm với các từ như “công nghệ”, “sách”, “tương lai”... thì nó sẽ nối chữ theo kiểu hợp lý – nhưng không phải lúc nào cũng đúng sự thật.
2. Dự đoán xác suất dẫn đến việc bịa chuyện nghe hợp lý
Do AI hoạt động theo kiểu “dự đoán từ tiếp theo”, nên nếu trong dữ liệu không thấy rõ thông tin, nó sẽ đoán theo ngữ cảnh. Và khi đoán sai nhưng vẫn viết ra nghe rất thuyết phục, thì đó chính là ảo tưởng.
Ví dụ: AI có thể bịa tên tác giả hay trích dẫn vì đã thấy mô-típ tương tự trong dữ liệu học trước đó.
3. Thiếu thông tin dẫn đến việc lấp vào chỗ trống
Khi AI không có thông tin chính xác, nó không nói “mình không biết” như con người. Thay vào đó, nó cố lấp vào chỗ trống bằng thứ gì đó có vẻ hợp lý.
Ví dụ: bạn hỏi “Luật bảo vệ dữ liệu ở Việt Nam tên là gì?”, nếu AI không biết rõ, nó có thể tự nghĩ ra một cái tên như “Luật Bảo vệ Dữ liệu cá nhân 2022” – nghe đúng bài nhưng thực tế không tồn tại (hoặc chưa chính thức).
4. Tập dữ liệu lỗi thời hoặc không đầy đủ
AI không được cập nhật thời gian thực (trừ một số phiên bản có truy cập internet), nên:
- Có thể sử dụng thông tin cũ (như từ năm 2021, 2023...) để trả lời câu hỏi hiện tại.
- Nếu chủ đề bạn hỏi hiếm gặp hoặc quá mới → dữ liệu ít → AI đoán mò nhiều hơn → dễ gây ra ảo tưởng.
5. Áp lực phải trả lời trôi chảy, tự tin
AI được thiết kế để:
- Luôn trả lời sao cho liền mạch, mượt mà, tự tin.
- Tránh nói “Tôi không biết”, vì điều đó có thể bị hiểu là kém thông minh.
Hệ quả là: nếu không biết, nó vẫn sẽ cố “chém” một câu nghe cho có vẻ chuyên nghiệp – và đây là nguồn cơn của nhiều pha ảo tưởng "như thật".
Tôi có thể làm gì với hiện tượng ảo tưởng trong AI?
Đây là một câu hỏi rộng lớn (Tại sao AI có thể mắc sai lầm chứ), nhưng về mặt cơ bản là hãy xác minh các câu trả lời của AI.
Hãy nhớ vận dụng khả năng phán đoán tốt nhất của mình. AI không phải là một bác sĩ, luật sư hay chuyên gia. AI có thể giúp bạn tìm hiểu cách mọi thứ hoạt động nhưng không thể đưa ra lời khuyên về chuyên môn. Nếu bạn cần trợ giúp hoặc có gì đó không ổn, hãy nói chuyện với một người đáng tin cậy.
Xem thêm:
Sách đọc nhiều
Bài đọc nhiều