Trang chủ Tin tứcCEO OpenAI: AI có thể gây ra cuộc khủng hoảng lừa đảo vượt qua mọi hình thức xác thực

CEO OpenAI: AI có thể gây ra cuộc khủng hoảng lừa đảo vượt qua mọi hình thức xác thực

bởi Linh

Ngày 22/7 vừa qua, tại một sự kiện do Cục Dự trữ Liên bang Mỹ (FED) tổ chức, bàn về tác động kinh tế và xã hội của trí tuệ nhân tạo (AI), Sam Altman, CEO của OpenAI – công ty đứng sau ChatGPT, đã lên tiếng cảnh báo về những rủi ro liên quan đến sự phát triển nhanh chóng của AI. Ông Altman cho rằng khả năng giả mạo giọng nói và hình ảnh bằng AI hiện đang đạt đến mức độ tinh vi, có thể vượt qua nhiều hình thức xác thực hiện tại.

Ông Altman bày tỏ sự lo ngại đặc biệt về việc một số tổ chức tài chính vẫn chấp nhận sử dụng giọng nói như một phương thức xác minh để chuyển tiền hoặc thực hiện các hành động quan trọng. Theo ông, điều này là “thực sự nguy hiểm” vì AI hiện đã có khả năng đánh bại gần như toàn bộ các phương thức xác thực hiện có, ngoại trừ mật khẩu. Điều này có nghĩa là AI có thể dễ dàng giả mạo giọng nói của một người để thực hiện các giao dịch tài chính hoặc các hành động nhạy cảm khác mà không bị phát hiện.

Không chỉ dừng lại ở đó, ông Altman còn bày tỏ lo ngại về viễn cảnh siêu AI bị các thế lực thù địch lạm dụng trong khi phần còn lại của thế giới chưa đủ khả năng phòng thủ. Ông sợ rằng một kẻ xấu có thể tạo ra siêu AI trước phần còn lại của thế giới và sử dụng nó để tấn công lưới điện hay chế tạo vũ khí sinh học. Điều này đặt ra một thách thức lớn cho việc kiểm soát và điều tiết sự phát triển của AI.

Ông Altman cũng lên tiếng về việc thế giới chưa sẵn sàng đối mặt với những công nghệ mới như video và cuộc gọi AI giả mạo, điều này có thể không thể phân biệt được với người thật. Ông cho rằng cần có một giải pháp kiểm soát AI và ủng hộ sáng kiến The Orb – một thiết bị giúp xác minh người dùng là con người thật trong môi trường kỹ thuật số. Ông kỳ vọng dự án này sẽ trở thành một nền tảng “chứng thực nhân dạng” trong thế giới mà AI có thể dễ dàng giả mạo mọi thứ.

Trước đó, đã có nhiều sự cố liên quan đến deepfake gây chấn động dư luận. Gần đây, các chuyên gia tại Việt Nam cũng lên tiếng trước một số trào lưu sử dụng deepfake để tạo nội dung câu like, câu view. Luật sư Đăng Ngọc Duệ, Giám đốc Công ty Luật TNHH Phụng Sự Công Lý, cho biết tùy thuộc vào nội dung hình ảnh, video được dàn dựng, mục đích của người sản xuất/phát tán sẽ có các lỗi và quy định xử lý riêng. Điều này cho thấy sự cần thiết của việc kiểm soát và điều tiết sự phát triển của AI để tránh những rủi ro tiềm ẩn.

Như vậy, cảnh báo của CEO OpenAI về cuộc khủng hoảng mới do AI phát triển nhanh chóng đã đặt ra một thách thức lớn cho các nhà lãnh đạo, các chuyên gia và cả người dùng. Việc tìm kiếm giải pháp kiểm soát AI và đảm bảo an toàn cho người dùng trở nên cấp thiết hơn bao giờ hết. OpenAI và các công ty khác đang nỗ lực phát triển các công nghệ mới để giải quyết những thách thức này, nhưng cần có sự hợp tác và đồng thuận toàn cầu để đảm bảo sự phát triển của AI mang lại lợi ích cho nhân loại.

Cục Dự trữ Liên bang Mỹ và các tổ chức khác đang tích cực nghiên cứu và thảo luận về các giải pháp để kiểm soát AI. Tuy nhiên, vẫn còn nhiều việc cần làm để đảm bảo rằng AI được phát triển và sử dụng một cách an toàn và có trách nhiệm.

Có thể bạn quan tâm