Sự suy giảm hiệu suất của chatbot AI: Những hiểu biết từ các nghiên cứu gần đây
Sự quan tâm của người tiêu dùng đối với chatbot AI đang giảm sút, dẫn đến sự suy giảm đáng kể trong doanh thu của ngành AI trong quý thứ hai năm 2024.
Một bài báo học thuật gần đây có tựa đề 'Các mô hình ngôn ngữ lớn hơn và dễ hướng dẫn hơn trở nên kém đáng tin cậy hơn' được công bố trên một tạp chí khoa học đã chỉ ra rằng các mô hình chatbot AI mới hơn ngày càng dễ mắc lỗi theo thời gian.
Lexin Zhou, một đồng tác giả của nghiên cứu, cho rằng các mô hình AI được thiết kế để tạo ra các câu trả lời có vẻ hợp lý, thường là với sự hy sinh của tính chính xác thực tế. Xu hướng ưu tiên các câu trả lời có vẻ đúng nhưng không chính xác đang trở thành một vấn đề đáng kể.
Nghiên cứu lưu ý rằng những lỗi do AI tạo ra, hay còn gọi là 'ảo giác', không chỉ tồn tại mà còn gia tăng theo thời gian. Điều này đặc biệt gây vấn đề vì các mô hình mới thường được huấn luyện trên các tập dữ liệu bao gồm đầu ra từ các mô hình cũ hơn, dẫn đến hiện tượng được gọi là 'sụp đổ mô hình'.
Mathieu Roy, một biên tập viên và nhà văn, cảnh báo không nên quá phụ thuộc vào các công cụ AI và nhấn mạnh tầm quan trọng của việc kiểm tra thông tin do AI tạo ra. Ông lưu ý về thách thức trong việc kiểm tra các câu trả lời của chatbot, vì thường không có nguồn bên ngoài để kiểm tra lại thông tin do chính chatbot cung cấp.
Thách thức dai dẳng của ảo giác AI
Vào tháng 2 năm 2024, nền tảng AI của Google đã phải đối mặt với sự chỉ trích công khai sau khi bắt đầu tạo ra các hình ảnh không chính xác về lịch sử, chẳng hạn như miêu tả người da màu là sĩ quan Nazi và mô tả sai các nhân vật lịch sử.
Những sự cố như vậy nhấn mạnh một vấn đề rộng lớn hơn trong cộng đồng AI và các mô hình ngôn ngữ lớn. Các nhà lãnh đạo ngành, bao gồm CEO Jensen Huang của Nvidia, đã đề xuất rằng các mô hình AI nên được yêu cầu thực hiện nghiên cứu và trích dẫn nguồn cho các câu trả lời của họ để chống lại ảo giác. Tuy nhiên, ngay cả khi các tính năng này được triển khai trong các mô hình AI hàng đầu, vấn đề vẫn tiếp tục thách thức ngành công nghiệp.
Trong một phát triển gần đây, CEO Matt Shumer của HyperWrite AI đã giới thiệu một mô hình 70B mới sử dụng 'Reflection-Tuning', một kỹ thuật được thiết kế để cho phép AI học hỏi từ lỗi của mình và cải thiện các câu trả lời theo thời gian.
Theo Cointelegraph