Kết quả đánh giá cho thấy GPT o3 và o4-mini đang tự bịa đặt các thông tin không có thật còn nhiều hơn cả các phiên bản trước đó. Vấn đề này được chính OpenAI thừa nhận, nhưng công ty cho biết chưa tìm ra nguyên nhân và phương án xử lý.
Chỉ hai ngày sau khi công bố GPT-4.1, OpenAI tiếp tục gây
chú ý khi ra mắt cùng lúc hai mô hình ngôn ngữ mới: o3 và o4-mini. Cả hai được
quảng bá với khả năng suy luận vượt trội và nhiều cải tiến đáng kể. Tuy nhiên,
theo TechCrunch, bộ đôi mô hình mới này vẫn gặp phải tình trạng "ảo
giác" (hallucinate) hay tự bịa đặt thông tin. Thậm chí, chúng còn gặp
"ảo giác" nhiều hơn một số mô hình cũ của OpenAI.
Chỉ hai ngày sau khi công bố GPT-4.1, OpenAI tiếp tục gây
chú ý khi ra mắt cùng lúc hai mô hình ngôn ngữ mới: o3 và o4-mini. Cả hai được
quảng bá với khả năng suy luận vượt trội và nhiều cải tiến đáng kể. Tuy nhiên,
theo TechCrunch, bộ đôi mô hình mới này vẫn gặp phải tình trạng "ảo
giác" (hallucinate) hay tự bịa đặt thông tin. Thậm chí, chúng còn gặp
"ảo giác" nhiều hơn một số mô hình cũ của OpenAI.
Hai mô hình ChatGPT vừa ra mắt có tần suất bịa đặt thông tin nhiều hơn thế hệ cũ. Ảnh: Wired
Theo IBM, "ảo giác" xảy ra khi các mô hình ngôn ngữ
lớn (LLM), như chatbot hoặc công cụ thị giác máy tính, xử lý dữ liệu không tồn
tại hoặc không thể nhận dạng, dẫn đến kết quả vô nghĩa hoặc sai sự thật.
Báo cáo mới nhất từ OpenAI cho thấy mô hình o3 gặp "ảo
giác" trong 33% câu hỏi trên PersonQA – tiêu chuẩn nội bộ để đánh giá độ
chính xác kiến thức về con người. Con số này gấp đôi tỷ lệ "ảo giác"
của các mô hình trước đó như o1 (16%) và o3-mini (14,8%). Đáng chú ý, o4-mini
còn tệ hơn khi mắc lỗi "ảo giác" tới 48% trong cùng bài kiểm tra.
Điều đáng lo ngại là OpenAI thừa nhận chưa tìm ra nguyên
nhân chính xác. Trong báo cáo kỹ thuật, công ty cho biết: "Cần nghiên cứu
thêm để hiểu tại sao tình trạng 'ảo giác' trở nên nghiêm trọng hơn khi mở rộng
quy mô các mô hình suy luận."
O3 và o4-mini hoạt động tốt hơn ở một số lĩnh vực, bao gồm
các tác vụ liên quan đến lập trình và toán học. Tuy nhiên, do cần "đưa ra
nhiều tuyên bố hơn là nói tổng quát", cả hai mô hình này đã gặp tình trạng
cho ra kết quả gồm "nhiều tuyên bố chính xác hơn, nhưng đồng thời cũng xuất
hiện nhiều tuyên bố không chính xác hơn".
Người dùng phát hiện ra rằng các mô hình mới nhất của ChatGPT có khả năng suy ra vị trí chụp ảnh chỉ từ chính hình ảnh đó. Điều này làm dấy lên những lo ngại về bảo mật thông tin và quyền riêng tư.
Mới đây, đại lý Criswell Acura tại Annapolis, Maryland (Mỹ) đã khởi kiện Honda, yêu cầu bồi thường thiệt hại khi hãng không hỗ trợ xử lý sự cố khiến một chiếc Acura ZDX 2024 trở thành “phế phẩm” chỉ sau hơn 600 km.
Người dùng phát hiện ra rằng các mô hình mới nhất của ChatGPT có khả năng suy ra vị trí chụp ảnh chỉ từ chính hình ảnh đó. Điều này làm dấy lên những lo ngại về bảo mật thông tin và quyền riêng tư.
Sau vụ tai nạn xe Xiaomi SU7 khiến ba người thiệt mạng, Trung Quốc đã ban hành những hướng dẫn nghiêm ngặt nhằm kiểm soát chặt chẽ công nghệ lái xe tự động.
Trí tuệ nhân tạo (AI) có thể được tận dụng để chăm sóc khách hàng, hỗ trợ thực hiện một số chức năng trong chuỗi cung ứng như mua hàng, dự báo và hoàn tất đơn hàng.