Chuyển đến nội dung chính

Ảo giác AI là gì?

Nhiều lời nhắc ChatGPT khác nhau sẽ hiển thị trên màn hình.

Ảo giác AI là tình huống mà một công cụ trí tuệ nhân tạo đưa ra kết quả không chính xác, gây hiểu lầm hoặc không mạch lạc, do các thuật toán của nó tìm kiếm các mẫu trong dữ liệu không tồn tại hoặc diễn giải các mẫu đó không chính xác.

Khi khả năng và mức độ phổ biến của trí tuệ nhân tạo ngày càng mở rộng trong vài năm qua, một số sai sót và lỗ hổng của nó đã được phát hiện.

Một trong những câu hỏi lớn nhất mà mọi người đặt ra là liệu AI có chính xác hay không. Trong nhiều trường hợp, nó đã được chứng minh là một công cụ cực kỳ hữu ích để kiểm tra thực tế và nghiên cứu thông tin, nhưng trong một số trường hợp khác, kết quả mà nó đưa ra lại không chính xác hoặc gây hiểu lầm.

Với phạm vi ứng dụng mà AI đang được áp dụng trong thế giới hiện đại, hậu quả của những sai sót này có thể cực kỳ nghiêm trọng. Trong bài viết này, chúng ta sẽ xem xét lý do tại sao ảo giác AI có thể xảy ra, những hậu quả từ quan điểm công nghệ và xã hội, và những gì bạn có thể làm để giảm thiểu rủi ro ảo giác AI trong quá trình sử dụng của chính mình.

Ảo giác AI xảy ra như thế nào?

Có nhiều lý do khác nhau khiến ảo giác AI xảy ra, và trong nhiều trường hợp, nó là sự kết hợp của nhiều lý do cùng một lúc. Những lý do này có thể bao gồm (và không nhất thiết chỉ giới hạn ở):

  • Không có đủ dữ liệu đào tạo để hướng dẫn kết quả toàn diện và chính xác từ mô hình AI.
  • quá nhiều dữ liệu đào tạo, Điều này dẫn đến việc quá nhiều 'nhiễu dữ liệu' không liên quan bị nhầm lẫn với thông tin có liên quan và quan trọng.
  • Sự thiên vị trong dữ liệu được phản ánh trong kết quả được tạo ra.
  • Mô hình AI chỉ đơn giản đưa ra các giả định và kết luận sai từ thông tin mà nó được cung cấp.
  • Thiếu bối cảnh thực tế trong mô hình AI, chẳng hạn như các đặc tính vật lý của vật thể hoặc thông tin rộng hơn có liên quan đến kết quả được tạo ra.

Ảo giác AI trông như thế nào?

Không có một tập hợp các triệu chứng duy nhất cho ảo giác AI vì nó phụ thuộc vào các sai sót trong mô hình và quy trình liên quan. Tuy nhiên, thông thường, ảo giác AI có thể biểu hiện theo một trong năm cách sau:

  • Dự đoán không chính xác : Các mô hình AI có thể dự đoán điều gì đó sẽ xảy ra trong tương lai, điều này có rất ít khả năng xảy ra thực tế hoặc có thể không có khả năng xảy ra.
  • Tóm tắt thiếu thông tin : đôi khi, các mô hình AI có thể bỏ sót bối cảnh hoặc thông tin quan trọng cần thiết để tạo ra kết quả chính xác và toàn diện. Điều này có thể do thiếu dữ liệu được đưa vào mô hình, hoặc do mô hình không thể tìm kiếm bối cảnh phù hợp từ các nguồn khác.
  • Tóm tắt với thông tin bịa đặt : Tương tự như điểm trước, một số mô hình AI có thể bù đắp cho việc thiếu thông tin chính xác bằng cách bịa đặt hoàn toàn. Điều này thường xảy ra khi dữ liệu và bối cảnh mà mô hình dựa vào ban đầu không chính xác.
  • Kết quả dương tính và âm tính giả : AI thường được sử dụng để phát hiện các rủi ro và mối đe dọa tiềm ẩn, dù đó là triệu chứng bệnh tật trong môi trường chăm sóc sức khỏe hay các trường hợp gian lận trong lĩnh vực ngân hàng và tài chính. Đôi khi, các mô hình AI có thể phát hiện ra mối đe dọa không tồn tại, hoặc ngược lại, không thể phát hiện ra mối đe dọa thực sự tồn tại.
  • Kết quả không nhất quán : Nếu bạn đã từng thấy hình ảnh do AI tạo ra về những người có số lượng tay chân không chính xác hoặc những chiếc xe có quá nhiều bánh xe, thì bạn sẽ biết rằng AI vẫn có thể tạo ra những kết quả không hợp lý với con người.

Tại sao việc tránh ảo giác AI lại quan trọng?

Bạn có thể nghĩ rằng ảo giác AI không phải là vấn đề lớn và việc chỉ cần chạy lại dữ liệu qua mô hình là có thể giải quyết vấn đề bằng cách tạo ra kết quả chính xác.

Nhưng mọi thứ không đơn giản như vậy, và bất kỳ ảo giác AI nào được áp dụng vào các trường hợp sử dụng thực tế hoặc được công bố rộng rãi đều có thể gây ra một số hậu quả rất nghiêm trọng đối với số lượng lớn người:

Sử dụng AI phi đạo đức

Việc sử dụng AI nói chung đang được chú ý hiện nay, và các tổ chức sử dụng công nghệ này ngày càng được kỳ vọng sẽ sử dụng AI một cách có trách nhiệm và đạo đức , không gây hại hoặc gây nguy hiểm cho con người. Việc cho phép ảo giác AI đi qua mà không được kiểm soát - dù cố ý hay vô tình - sẽ không đáp ứng được những kỳ vọng về mặt đạo đức đó.

Niềm tin của công chúng và người tiêu dùng

Liên quan đến điểm trước, nhiều người vẫn lo ngại về việc sử dụng AI, từ cách dữ liệu cá nhân của họ được sử dụng cho đến việc liệu khả năng ngày càng tăng của AI có thể khiến công việc của họ trở nên lỗi thời hay không. Việc liên tục xuất hiện các trường hợp ảo giác AI trong phạm vi công cộng có thể làm xói mòn niềm tin đang dần xây dựng trong công chúng và dẫn đến thành công hạn chế cho các trường hợp sử dụng AI và doanh nghiệp về lâu dài.

Ra quyết định thiếu thông tin

Doanh nghiệp và mọi người cần có khả năng đưa ra những quyết định tốt nhất, sáng suốt nhất có thể và đang ngày càng dựa vào dữ liệu, phân tích và mô hình AI để loại bỏ sự phỏng đoán và bất định khỏi những quyết định đó. Nếu họ bị đánh lừa bởi kết quả không chính xác từ các mô hình AI, thì những quyết định sai lầm mà họ đưa ra có thể dẫn đến hậu quả thảm khốc, từ việc đe dọa lợi nhuận của doanh nghiệp đến chẩn đoán sai bệnh nhân.

Rủi ro pháp lý và tài chính từ thông tin sai lệch do AI tạo ra

Như vụ kiện đã đề cập ở trên đã chứng minh rõ ràng, thông tin không chính xác do AI tạo ra có thể gây ra tác hại lớn về mặt pháp lý và tài chính. Ví dụ: nội dung được tạo bằng AI có thể mang tính phỉ báng đối với một số cá nhân hoặc doanh nghiệp nhất định, có thể vi phạm một số quy định pháp lý nhất định, hoặc một số trường hợp cực đoan thậm chí còn gợi ý hoặc kích động mọi người thực hiện các hoạt động bất hợp pháp.

Tránh thiên vị

Chúng ta đang sống trong một thế giới mà mọi người đang làm việc không biết mệt mỏi để đảm bảo rằng mọi người đều được đối xử bình đẳng và không có sự thiên vị đối với một loại người nào đó so với loại người khác. Tuy nhiên, dữ liệu AI thiên vị có thể dẫn đến nhiều định kiến đó được củng cố, thường là vô tình. Một ví dụ điển hình về điều này là việc sử dụng AI trong tuyển dụng và tuyển dụng: Ảo giác AI có thể dẫn đến kết quả thiên vị có thể ảnh hưởng đến các nỗ lực về sự đa dạng, bình đẳng và hòa nhập của tổ chức.

Một số ví dụ điển hình về ảo giác AI là gì?

Việc tránh ảo giác AI đang chứng tỏ là một nhiệm vụ đầy thách thức đối với tất cả mọi người trong ngành. Và nó không chỉ xảy ra với các hoạt động nhỏ hơn không có chuyên môn và nguồn lực. Ba ví dụ về ảo giác AI sau đây chứng minh rằng chúng đang xảy ra với một số công ty công nghệ lớn nhất trên thế giới:

Meta AI và nỗ lực ám sát Donald Trump

Sau vụ ám sát nhằm vào ứng cử viên tổng thống khi đó là Donald Trump vào tháng 7 năm 2024, chatbot AI của Meta ban đầu từ chối trả lời bất kỳ câu hỏi nào về vụ việc và sau đó tuyên bố rằng vụ việc chưa bao giờ xảy ra. Vấn đề này đã khiến Meta phải điều chỉnh thuật toán của công cụ AI, nhưng lại dẫn đến những tuyên bố công khai về sự thiên vị và kiểm duyệt các quan điểm bảo thủ.

Ảo giác ChatGPT và nghiên cứu pháp lý giả mạo

Năm 2023, một người đàn ông ở Colombia đã đệ đơn kiện một hãng hàng không về thương tích cá nhân . Các luật sư của ông đã sử dụng công cụ AI hàng đầu ChatGPT lần đầu tiên để biên soạn vụ kiện và chuẩn bị các tài liệu pháp lý. Tuy nhiên, bất chấp sự đảm bảo của ChatGPT rằng sáu trường hợp tiền lệ pháp lý mà họ tìm thấy là có thật, không có trường hợp nào trong số đó tồn tại.

Sydney của Microsoft yêu người dùng

Sydney, chatbot hỗ trợ AI của Microsoft, được cho là đã nói với một chuyên mục công nghệ của tờ New York Times rằng nó yêu anh ta và rằng anh ta nên rời xa vợ mình để ở bên nó. Trong suốt hai giờ, Kevin Roose cho biết Sydney đã chia sẻ với anh ta một số "ảo tưởng đen tối" về việc lan truyền thông tin sai lệch về AI và trở thành con người.

Có thể làm gì để giảm thiểu nguy cơ ảo giác AI?

Do tầm quan trọng của việc tránh nguy cơ ảo giác AI, những người sử dụng mô hình AI phải thực hiện tất cả các bước thực tế có thể để giảm thiểu bất kỳ tình huống nào có thể dẫn đến vấn đề. Chúng tôi khuyến nghị như sau:

Đảm bảo mô hình AI có mục đích rõ ràng

Do việc sử dụng AI đã mở rộng trong những năm gần đây, một sai lầm phổ biến là các tổ chức sử dụng mô hình AI chỉ vì mục đích sử dụng mà không cân nhắc đến kết quả mong muốn. Việc xác định rõ ràng mục tiêu tổng thể của việc sử dụng mô hình AI có thể đảm bảo kết quả được tập trung và tránh nguy cơ ảo tưởng AI thông qua phương pháp tiếp cận và dữ liệu quá chung chung.

Cải thiện chất lượng dữ liệu đào tạo

Chất lượng dữ liệu đưa vào mô hình AI càng tốt thì chất lượng kết quả thu được càng cao. Một mô hình AI tốt sẽ dựa trên dữ liệu có liên quan, không thiên vị, có cấu trúc tốt và đã được lọc bỏ mọi 'nhiễu dữ liệu' không liên quan. Điều này rất cần thiết để đảm bảo rằng kết quả được tạo ra là chính xác, trong đúng ngữ cảnh và sẽ không gây ra thêm vấn đề nào.

Tạo và sử dụng mẫu dữ liệu

Một cách tốt để đảm bảo rằng kết quả của mô hình AI phù hợp chặt chẽ với mục đích dự định của chúng là sử dụng các mẫu cho dữ liệu được đưa vào chúng. Điều này đảm bảo rằng mỗi khi sử dụng mô hình AI, nó sẽ quen với việc dữ liệu được cung cấp theo cùng một cách nhất quán và có thể mang lại kết quả nhất quán, chính xác trong đúng ngữ cảnh.

Hạn chế phạm vi phản hồi và kết quả

Đặt thêm các ràng buộc vào mô hình AI có thể giúp thu hẹp các kết quả tiềm năng xuống còn những kết quả cần thiết. Đây là lúc các công cụ lọc và ngưỡng phát huy tác dụng, cung cấp cho các mô hình AI một số ranh giới rất cần thiết để giữ cho quá trình phân tích và tạo ra của chúng luôn đi đúng hướng.

Liên tục kiểm tra và cải tiến mô hình

Cũng như việc cải tiến liên tục là yếu tố then chốt cho sự phát triển phần mềm tốt trong một thế giới không ngừng thay đổi, một mô hình AI tốt cũng vậy. Do đó, tất cả các mô hình AI nên được kiểm tra và tinh chỉnh thường xuyên để có thể hiệu chỉnh lại theo sự phát triển của dữ liệu, yêu cầu và thông tin ngữ cảnh hiện có.

Áp dụng các biện pháp kiểm tra và cân bằng của con người

Trí tuệ nhân tạo (AI) vẫn chưa hoàn hảo đến mức có thể tin cậy để hoạt động hoàn toàn tự động, do đó, việc đảm bảo ít nhất có sự giám sát của con người là điều cần thiết. Việc có người kiểm tra đầu ra của AI có thể xác định bất kỳ ảo giác AI nào đã xảy ra và đảm bảo đầu ra chính xác và phù hợp với các yêu cầu đã nêu.

Tăng cường khả năng cung cấp an ninh mạng của bạn

Nếu ảo giác AI có nguy cơ gây ra lỗ hổng bảo mật, thì đây là lý do chính đáng để đảm bảo giải pháp an ninh mạng tốt nhất có thể được triển khai. Kaspersky Plus Internet Security bao gồm quét vi-rút theo thời gian thực theo tiêu chuẩn để bất kỳ mối đe dọa bảo mật nào do ảo giác AI gây ra đều được giải quyết và loại bỏ trước khi chúng có thể gây ra bất kỳ tác động bất lợi nào.

Các bài viết liên quan:

Ảo giác AI là gì?

Ảo giác AI có thể dẫn đến thông tin sai lệch hoặc gây hiểu lầm, gây ra những rủi ro nghiêm trọng. Tìm hiểu cách nhận biết và ngăn chặn chúng.
Kaspersky logo

Các bài viết liên quan