Tạo ra một thuật toán mạnh mẽ cũng giống xây dựng nhà máy điện hạt nhân. Vì vậy phải tạm dừng mở rộng trí tuệ nhân tạo trước khi nhân loại mất kiểm soát, chuyên gia AI cảnh báo.
Ông Stuart Russell, giáo sư khoa học máy tính tại Đại học California, Berkeley (Mỹ) - Ảnh: QUANTA MAGAZINE
Trong một cuộc phỏng vấn với tạp chí Business Today, chuyên gia trí tuệ nhân tạo Stuart Russell cho rằng nếu mối đe dọa của trí tuệ nhân tạo (AI) không được kiểm soát, sẽ tiềm ẩn hiểm họa như sự kiện nhà máy điện hạt nhân Chernobyl.
Theo ông Russell, các phòng thí nghiệm AI đang tiếp tục “cuộc chạy đua ngoài tầm kiểm soát" để phát triển và triển khai những bộ óc kỹ thuật số mạnh mẽ hơn bao giờ hết, mà không ai - kể cả người tạo ra chúng - có thể dự đoán hoặc kiểm soát một cách đáng tin cậy.
Là giáo sư khoa học máy tính tại Đại học California, Berkeley (Mỹ), ông Stuart Russell đã có hàng chục năm làm lãnh đạo trong lĩnh vực AI.
Ông cùng những nhân vật nổi tiếng khác, như hai tỉ phú Elon Musk và Steve Wozniak, mới đây đã ký một bức thư ngỏ kêu gọi tạm dừng mở rộng AI, đồng thời kiểm soát việc phát triển các hệ thống AI mạnh mẽ, được định nghĩa là những thứ mạnh hơn GPT-4 của OpenAI.
Mô hình trí tuệ nhân tạo không còn nghe lời con người?
Các mô hình ngôn ngữ lớn được xây dựng trên một lượng lớn dữ liệu. Chẳng hạn như GPT-4, kết hợp từ khoảng 20.000 - 30.000 tỉ từ.
Theo Gia Minh/ Tuổi Trẻ
https://tuoitre.vn/chuyen-gia-tri-tue-nhan-tao-coi-chung-tham-hoa-chernobyl-voi-ai-2023041217263695.htm