Dùng AI để làm việc hiệu quả hơn… cho đến khi suýt mất việc vì tin quá mức

Hallucination là “đặc điểm” của AI, còn tin tưởng mù quáng là “lỗi” – và đó là lỗi của bạn

[Lưu ý: Bài viết khá dài, phân tích hai rủi ro tiềm ẩn khi sử dụng AI và đề xuất các biện pháp phòng tránh. Bạn có thể lưu lại để đọc sau nếu hiện tại chưa có thời gian.]

Bạn đã từng bị “lừa” bởi một câu trả lời trôi chảy từ ChatGPT chưa?

Với học sinh, sinh viên, sự tin tưởng mù quáng vào AI có thể dẫn đến những kiến thức sai lệch, trích dẫn không chính xác trong bài tập, bài luận, hoặc thậm chí đạo văn mà không hề hay biết.

Tuy nhiên, nếu bạn là người đang làm việc – đặc biệt trong các lĩnh vực yêu cầu nghiên cứu, phân tích hoặc ra quyết định – thì hậu quả có thể nghiêm trọng hơn rất nhiều.

Một số tình huống thường gặp:

  • Trình bày báo cáo với dẫn chứng hoặc nghiên cứu… không hề tồn tại.
  • Khởi động một chiến dịch dựa trên “insight” mà AI tự tạo ra.
  • Tóm tắt và phân tích tài liệu bằng AI để đưa vào báo cáo cá nhân, nhưng số liệu lại hoàn toàn sai lệch.

Bạn có thể không bị sa thải vì những lỗi này – nhưng uy tín cá nhân chắc chắn sẽ bị ảnh hưởng nặng nề. Và nếu bạn đang ở vị trí có trách nhiệm cao, rủi ro sẽ càng lớn hơn.

Điều đáng nói là, trước khi AI phổ biến, hầu hết chúng ta đều làm mọi việc một cách cẩn trọng. Nhưng hiện nay, nhiều người có xu hướng “giao việc cho AI” và tin tưởng rằng nó sẽ làm đúng.

Vì sao AI có thể trả lời sai nhưng nghe vẫn rất “thuyết phục”?

Tôi cũng từng nhiều lần tin tưởng vào những câu trả lời mạch lạc của AI, chỉ để phát hiện sau đó rằng: một số thông tin hoàn toàn không đúng, thậm chí là bịa đặt.

Nguyên nhân không nằm ở việc AI muốn “lừa” hay “hại” người dùng – đơn giản vì nó không hiểu điều mình nói theo cách con người hiểu.

Cách AI hoạt động: Không hiểu biết, không ý định, chỉ là xác suất

Các mô hình ngôn ngữ lớn (LLMs) như ChatGPT được xây dựng dựa trên xác suất thống kê. Chúng tạo ra từng từ tiếp theo (token) dựa trên khả năng cao nhất trong hàng tỷ mẫu câu mà chúng từng học.

Khi bạn hỏi:

“Tại sao uống nhiều nước lại tốt cho sức khỏe?”

AI không thực sự biết vì sao. Nó chỉ “ghép lại” các câu từng xuất hiện nhiều, trông có vẻ đúng, và xâu chuỗi thành đoạn trả lời mạch lạc.

Hiện tượng “hallucination” – AI tự tin tạo ra thông tin sai

Hallucination là hiện tượng AI tạo ra thông tin nghe có vẻ hợp lý nhưng hoàn toàn sai lệch, không có cơ sở hoặc không hề tồn tại.

Ví dụ:

“Theo nghiên cứu của Steve & Tanaka (2017), công bố trên Tạp chí Tâm lý ứng dụng châu Á, thiền 5 phút mỗi sáng giúp cải thiện hiệu suất công việc 23%.”

Câu trả lời này có đủ mọi yếu tố khiến bạn tin tưởng: số liệu, tên tác giả, năm công bố, tên tạp chí. Nhưng kiểm tra kỹ thì: không có tạp chí đó, không có nghiên cứu đó, không có tác giả nào như vậy. AI đã… tự bịa.

Vì sao AI lại “bịa”?

Vì nó không phân biệt được giữa:

  • Giả định logic
  • Sự thật đã được xác minh
  • Mẫu câu có xác suất cao

Khi không tìm thấy thông tin phù hợp, AI có xu hướng tự tạo một câu nghe “giống như thật” để không làm gián đoạn cuộc hội thoại.

Khi ngôn từ mạch lạc đánh lừa tư duy

Có ba cơ chế tâm lý khiến chúng ta dễ bị thuyết phục bởi hallucination:

  1. Hiệu ứng trôi chảy (Fluency Heuristic)
    Chúng ta có xu hướng tin những thông tin được trình bày rõ ràng, dễ hiểu. Câu trả lời càng mạch lạc, chúng ta càng tin rằng nó đúng.
  2. Lây nhiễm sự tự tin (Confidence Contagion)
    AI luôn trả lời với phong thái rất chắc chắn – không ngập ngừng, không nghi vấn. Điều này khiến người dùng dễ tin rằng “nó biết mình đang nói gì”.
  3. Lười tư duy (Cognitive Laziness)
    Phản biện và kiểm chứng đòi hỏi năng lượng. Trong thời đại thông tin dồn dập, chúng ta có xu hướng tiếp nhận nhanh và tin nhanh – điều mà AI dễ dàng khai thác.

Thiên kiến vô hình trong câu trả lời của AI

Ngoài việc “bịa”, AI còn có thể phản ánh các thiên kiến (bias) từ:

  1. Dữ liệu huấn luyện (Data bias)
    AI học từ internet – nơi tồn tại vô số định kiến về giới tính, sắc tộc, tầng lớp, v.v. Nó không biết đâu là đúng sai, chỉ đơn giản là “cái gì xuất hiện nhiều thì học theo”.
  2. Quá trình căn chỉnh (Model bias)
    Mô hình được con người thiết kế để trở nên “an toàn” và “hữu ích”, nhưng những người điều chỉnh mô hình cũng mang theo hệ giá trị, văn hóa và quan điểm riêng.
  3. Tương tác của người dùng (User bias)
    Khi bạn liên tục hỏi theo một hướng, AI sẽ “học” theo tư duy đó. Dần dần, nó trở thành một “chiếc gương” phản chiếu chính quan điểm của bạn, làm hạn chế sự đa chiều trong tư duy.

Vậy bạn nên làm gì?

Ba nguyên tắc đơn giản giúp giảm thiểu rủi ro từ hallucination:

  1. Luôn kiểm chứng lại thông tin, đặc biệt là trích dẫn, số liệu và định nghĩa.
  2. Hạn chế hỏi theo kiểu xác nhận (confirmation bias). Hãy hỏi thêm:

“Có những góc nhìn trái chiều nào không?”
“Những điểm chưa hoàn thiện trong cách tiếp cận này là gì?”

  1. Xây dựng quy trình đánh giá thông tin từ AI. Đừng chỉ dùng AI như một “trợ lý viết nhanh”, hãy dùng nó như một công cụ gợi mở tư duy – với sự giám sát của bạn.

Một câu hỏi gợi mở:

Bạn đã có quy trình hoặc hệ thống để đánh giá và kiểm chứng thông tin do AI cung cấp chưa?

Nếu có, hãy chia sẻ để mọi người cùng học hỏi.
Nếu chưa, và bạn muốn tìm hiểu sâu hơn, hãy cho tôi biết – nếu có nhiều người quan tâm, tôi sẽ viết tiếp ở bài sau.

Cảm ơn bạn đã đọc đến đây.
Hy vọng bài viết giúp bạn không chỉ hiểu rõ hơn về cách hoạt động của AI, mà còn sử dụng công cụ này một cách chủ động, phản biện và tỉnh táo hơn – trong một thời đại mà thông tin phong phú cũng đi kèm với không ít ảo tưởng.