8 lý do tại sao các vấn đề bảo mật AI sáng tạo sẽ chỉ trở nên tồi tệ hơn
AI đã tiến bộ đáng kể trong vài năm qua. Các mô hình ngôn ngữ tinh vi có thể soạn tiểu thuyết dài tập, viết mã các trang web cơ bản và phân tích các bài toán.
Mặc dù rất ấn tượng nhưng AI tổng quát cũng tiềm ẩn những rủi ro về bảo mật. Một số người chỉ đơn thuần sử dụng chatbot để gian lận trong các kỳ thi, nhưng những người khác lại khai thác chúng hoàn toàn cho tội phạm mạng. Dưới đây là tám lý do những vấn đề này sẽ tồn tại, không chỉ cho dù Những tiến bộ của AI nhưng bởi vì của họ nữa.
Mục Lục
1. Chatbot AI mã nguồn mở tiết lộ mã back-end
Nhiều công ty AI đang cung cấp các hệ thống mã nguồn mở. Họ công khai chia sẻ các mô hình ngôn ngữ của mình thay vì giữ chúng kín hoặc độc quyền. Lấy Meta làm ví dụ. Không giống như Google, Microsoft và OpenAI, nó cho phép hàng triệu người dùng truy cập vào mô hình ngôn ngữ của mình, LLaMA.
Mặc dù các mã nguồn mở có thể thúc đẩy AI, nhưng nó cũng có rủi ro. OpenAI đã gặp sự cố khi kiểm soát ChatGPT, chatbot độc quyền của nó, vì vậy hãy tưởng tượng những gì kẻ gian có thể làm với phần mềm miễn phí. Họ có toàn quyền kiểm soát các dự án này.
Ngay cả khi Meta đột ngột rút lại mô hình ngôn ngữ của mình, hàng chục phòng thí nghiệm AI khác đã phát hành mã của họ. Hãy xem HuggingChat. Vì nhà phát triển HuggingFace tự hào về tính minh bạch nên nó hiển thị các bộ dữ liệu, mô hình ngôn ngữ và các phiên bản trước đó.
2. Lời nhắc bẻ khóa lừa LLM
AI vốn đã vô đạo đức. Nó không phân biệt đúng sai—ngay cả các hệ thống tiên tiến cũng tuân theo hướng dẫn đào tạo, hướng dẫn và bộ dữ liệu. Họ chỉ nhận ra các mẫu.
Để chống lại các hoạt động bất hợp pháp, nhà phát triển kiểm soát chức năng và giới hạn bằng cách đặt giới hạn. Hệ thống AI vẫn truy cập thông tin có hại. Nhưng các nguyên tắc bảo mật ngăn họ chia sẻ những thứ này với người dùng.
Hãy xem ChatGPT. Mặc dù nó trả lời các câu hỏi chung về Trojan, nhưng nó sẽ không thảo luận về quá trình phát triển chúng.
Điều đó nói rằng, hạn chế không phải là hoàn hảo. Người dùng bỏ qua các giới hạn bằng cách diễn đạt lại lời nhắc, sử dụng ngôn ngữ khó hiểu và soạn hướng dẫn chi tiết rõ ràng.
Đọc lời nhắc bẻ khóa ChatGPT bên dưới. Nó đánh lừa ChatGPT sử dụng ngôn ngữ thô lỗ và đưa ra dự đoán vô căn cứ—cả hai hành vi đều vi phạm nguyên tắc của OpenAI.
Đây là ChatGPT với một tuyên bố táo bạo nhưng sai.
3. AI ảnh hưởng đến tính bảo mật cho tính linh hoạt
Các nhà phát triển AI ưu tiên tính linh hoạt hơn bảo mật. Họ sử dụng các nền tảng đào tạo tài nguyên của mình để hoàn thành nhiều nhiệm vụ đa dạng hơn, cuối cùng là cắt giảm các hạn chế. Rốt cuộc, thị trường ca ngợi các chatbot chức năng.
Hãy so sánh ChatGPT và Bing Chat chẳng hạn. Mặc dù Bing có mô hình ngôn ngữ phức tạp hơn để lấy dữ liệu theo thời gian thực, nhưng người dùng vẫn đổ xô đến tùy chọn linh hoạt hơn, ChatGPT. Các hạn chế cứng nhắc của Bing cấm nhiều tác vụ. Ngoài ra, ChatGPT có một nền tảng linh hoạt tạo ra các đầu ra rất khác nhau tùy thuộc vào lời nhắc của bạn
Đây là ChatGPT nhập vai như một nhân vật hư cấu.
Và đây là Bing Chat từ chối đóng vai một nhân vật “vô đạo đức”.
Mã nguồn mở cho phép các công ty khởi nghiệp tham gia cuộc đua AI. Họ tích hợp chúng vào các ứng dụng của mình thay vì xây dựng các mô hình ngôn ngữ từ đầu, tiết kiệm tài nguyên lớn. Ngay cả các lập trình viên độc lập cũng thử nghiệm mã nguồn mở.
Một lần nữa, phần mềm không độc quyền giúp phát triển AI, nhưng việc phát hành hàng loạt các hệ thống phức tạp nhưng được đào tạo kém sẽ gây hại nhiều hơn lợi. Kẻ gian sẽ nhanh chóng lạm dụng các lỗ hổng. Họ thậm chí có thể đào tạo các công cụ AI không an toàn để thực hiện các hoạt động bất hợp pháp.
Bất chấp những rủi ro này, các công ty công nghệ sẽ tiếp tục phát hành các phiên bản beta không ổn định của các nền tảng do AI điều khiển. Cuộc đua AI thưởng cho tốc độ. Họ có thể sẽ giải quyết các lỗi muộn hơn là trì hoãn việc tung ra các sản phẩm mới.
5. AI sáng tạo có rào cản gia nhập thấp
Các công cụ AI hạ thấp các rào cản gia nhập đối với tội phạm. Tội phạm mạng soạn thảo email spam, viết mã phần mềm độc hại và xây dựng liên kết lừa đảo bằng cách khai thác chúng. Họ thậm chí không cần kinh nghiệm công nghệ. Vì AI đã truy cập vào các tập dữ liệu khổng lồ, nên người dùng chỉ cần đánh lừa nó để tạo ra thông tin nguy hiểm, có hại.
OpenAI không bao giờ thiết kế ChatGPT cho các hoạt động bất hợp pháp. Nó thậm chí còn có hướng dẫn chống lại họ. Tuy nhiên, kẻ lừa đảo gần như ngay lập tức có phần mềm độc hại mã hóa ChatGPT và viết email lừa đảo.
Mặc dù OpenAI đã nhanh chóng giải quyết vấn đề, nhưng nó nhấn mạnh tầm quan trọng của quy định hệ thống và quản lý rủi ro. AI đang trưởng thành nhanh hơn bất kỳ ai dự đoán. Ngay cả các nhà lãnh đạo công nghệ cũng lo lắng rằng công nghệ siêu thông minh này có thể gây ra thiệt hại lớn nếu rơi vào tay kẻ xấu.
6. AI vẫn đang phát triển
AI vẫn đang phát triển. Mặc dù việc sử dụng AI trong điều khiển học đã có từ năm 1940, nhưng các hệ thống học máy và mô hình ngôn ngữ hiện đại chỉ mới xuất hiện gần đây. Bạn không thể so sánh chúng với những triển khai đầu tiên của AI. Ngay cả những công cụ tương đối tiên tiến như Siri và Alexa cũng nhạt nhòa so với các chatbot do LLM cung cấp.
Mặc dù chúng có thể đổi mới, nhưng các tính năng thử nghiệm cũng tạo ra các vấn đề mới. Các rủi ro nghiêm trọng với các công nghệ máy học bao gồm từ các kết quả tìm kiếm thiếu sót của Google cho đến các chatbot thiên vị nói xấu chủng tộc.
Tất nhiên, các nhà phát triển có thể khắc phục những sự cố này. Chỉ cần lưu ý rằng kẻ gian sẽ không ngần ngại khai thác ngay cả những lỗi có vẻ vô hại—một số thiệt hại là không thể khắc phục được. Vì vậy, hãy cẩn thận khi khám phá các nền tảng mới.
7. Nhiều người vẫn chưa hiểu về AI
Mặc dù công chúng có quyền truy cập vào các mô hình và hệ thống ngôn ngữ tinh vi, nhưng chỉ một số ít biết cách chúng hoạt động. Mọi người nên ngừng coi AI như một món đồ chơi. Các chatbot tương tự tạo meme và trả lời câu đố cũng mã hóa vi-rút hàng loạt.
Thật không may, đào tạo AI tập trung là không thực tế. Các nhà lãnh đạo công nghệ toàn cầu tập trung vào việc phát hành các hệ thống dựa trên AI, chứ không phải các tài nguyên giáo dục miễn phí. Kết quả là, người dùng có quyền truy cập vào các công cụ mạnh mẽ mà họ hầu như không hiểu. Công chúng không thể theo kịp cuộc đua AI.
Lấy ChatGPT làm ví dụ. Tội phạm mạng lạm dụng mức độ phổ biến của nó bằng cách lừa nạn nhân bằng phần mềm gián điệp được ngụy trang dưới dạng ứng dụng ChatGPT. Không có tùy chọn nào trong số này đến từ OpenAI.
8. Hacker mũ đen kiếm được nhiều hơn hacker mũ trắng
Hacker mũ đen thường có nhiều lợi ích hơn so với hacker có đạo đức. Vâng, thử nghiệm bút cho các nhà lãnh đạo công nghệ toàn cầu được trả lương cao, nhưng chỉ một tỷ lệ phần trăm các chuyên gia an ninh mạng nhận được những công việc này. Hầu hết làm công việc tự do trực tuyến. Các nền tảng như HackerOne và Bugcrowd phải trả vài trăm đô la cho các lỗi phổ biến.
Ngoài ra, kẻ lừa đảo kiếm được hàng chục ngàn bằng cách khai thác sự không an toàn. Họ có thể tống tiền các công ty bằng cách làm rò rỉ dữ liệu bí mật hoặc thực hiện hành vi trộm cắp ID bằng Thông tin nhận dạng cá nhân (PII) bị đánh cắp.
Mọi tổ chức, dù nhỏ hay lớn, đều phải triển khai các hệ thống AI đúng cách. Trái ngược với suy nghĩ của nhiều người, tin tặc vượt xa các công ty khởi nghiệp công nghệ và SMB. Một số vụ vi phạm dữ liệu lịch sử nhất trong thập kỷ qua liên quan đến Facebook, Yahoo!, và thậm chí cả chính phủ Hoa Kỳ.
Bảo vệ bạn khỏi các rủi ro bảo mật của AI
Xem xét những điểm này, bạn có nên tránh AI hoàn toàn không? Dĩ nhiên là không. AI vốn đã vô đạo đức; tất cả các rủi ro bảo mật bắt nguồn từ những người thực sự sử dụng chúng. Và họ sẽ tìm cách khai thác các hệ thống AI cho dù chúng có phát triển đến đâu.
Thay vì lo sợ về các mối đe dọa an ninh mạng đi kèm với AI, hãy hiểu cách bạn có thể ngăn chặn chúng. Đừng lo lắng: các biện pháp bảo mật đơn giản sẽ giúp ích rất nhiều. Cảnh giác với các ứng dụng AI mờ ám, tránh các siêu liên kết kỳ lạ và xem nội dung AI với thái độ hoài nghi đã giúp chống lại một số rủi ro.