CEO Nvidia: Tình trạng AI “loạn ngôn” hoàn toàn có thể sửa được, 5 năm nữa sẽ có siêu AI

Gần đây, một nghiên cứu của Đại học Waterloo đã đưa ra kết quả đáng chú ý: 40% người được hỏi không thể phân biệt được ai là người thật.

Trong khảo sát, có tổng cộng 20 bức ảnh được sử dụng: 10 bức là ảnh được tạo ra bởi trí tuệ nhân tạo (DALL-E hoặc Stable Diffusion), và 10 bức là ảnh chụp người thật. 260 người đã tham gia vào khảo sát này, và dự kiến rằng 85% trong số họ sẽ có khả năng phân biệt được ảnh giả và ảnh thật. Tuy nhiên, con số này chỉ đạt 62%.

AGI, viết tắt của artificial general intelligence, thường được biết đến với nhiều cái tên khác nhau như Siêu AI, AI biết suy nghĩ giống con người, hay AI phổ quát. Đây là mục tiêu của nhiều nhóm nghiên cứu trong lĩnh vực AI hiện nay, mục tiêu là tạo ra một loại AI biết suy nghĩ, không chỉ dựa vào việc học thuộc lòng mà còn có khả năng tạo ra nội dung mới theo cách suy luận giống con người, không chỉ đơn thuần là lặp lại những gì đã học được như các mô hình ngôn ngữ phổ biến hiện nay.
gb
Nhờ vào khả năng tư duy, AGI có thể thực hiện nhiều nhiệm vụ cụ thể khác nhau, từ việc nhận diện lỗi trong sản phẩm, tóm tắt tin tức, đến việc lập trình để xây dựng một trang web hoàn chỉnh… Nói một cách trừu tượng, AGI phải có khả năng thực hiện những nhiệm vụ đòi hỏi sự tư duy logic tương đương, thậm chí nhanh hơn cả tốc độ suy nghĩ của con người.
Tại sự kiện GTC 2024 diễn ra gần đây, CEO Jensen Huang của Nvidia đã chia sẻ về AGI. Tuy nhiên, các phóng viên công nghệ đã nhận thấy rằng ông Huang cảm thấy mệt mỏi với việc liên tục được hỏi về AGI, và một lý do khác là do ông thường bị các trang tin công nghệ dẫn lời không đúng cách.
Tại GTC 2024, ông Huang đã chia sẻ về tốc độ nghiên cứu AGI hiện tại. Ông nhấn mạnh rằng, để xem xét AGI, cần phải đạt đồng thuận về định nghĩa của AGI: “Nếu xem AGI là khả năng thực hiện một hoặc một số nhiệm vụ chuyên biệt, có khả năng vượt qua các bài kiểm tra với điểm số cao hơn con người trong những nhiệm vụ đó, tôi nghĩ có thể đạt được trong khoảng 5 năm tới.” Những bài kiểm tra này có thể là bài thi về luật, kinh tế học, hoặc y học. Tuy nhiên, việc tạo ra một AGI có thể thực hiện mọi thứ, suy luận về mọi ngành nghề một cách nhanh chóng và hiệu quả hơn con người, vẫn là một điều chưa thể dự báo.
Một vấn đề khác, có tính ứng dụng và thực tế hơn, là về hiện tượng “loạn ngôn” – hallucination, khi mô hình ngôn ngữ tạo ra nội dung không có thật, không có nguồn dẫn và xác nhận là sự thật: “Hãy thêm một quy tắc: Với mỗi câu trả lời, mô hình ngôn ngữ sẽ phải đi tìm câu trả lời chính xác.” Phương pháp này được gọi là RAG – Retrieval Augmented Generation, kết hợp cả phần truy xuất thông tin và phần nội suy văn bản của chatbot AI. Nó dựa trên quy luật cực kỳ cơ bản: Xác thực nguồn thông tin và bối cảnh của thông tin, bao gồm tính cập nhật và tính chính xác. Với RAG, chatbot AI sẽ phải xác thực thông tin

IT Xanh cảm ơn đã đọc bài viết, mong các thông tin trên có thể giúp ích cho bạn – Kham khảo thêm nhiều thủ thuật hay và bổ ích cùng IT Xanh

Trả lời

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *