Các hacker sẽ rất thích sử dụng Google Bard vì lý do này
So với ChatGPT, các rào cản liên quan đến bảo mật của Google Bard có phần “dễ thở” hơn.
Theo TechRadar, nếu ChatGPT không cho phép sử dụng chatbot để tạo email lừa đảo và các nội dung độc hại, thì theo một nghiên cứu mới, Google Bard hoàn toàn ngược lại, vì các hạn chế bảo mật của chatbot AI này thoải mái hơn rất nhiều.
Theo đó, các nhà nghiên cứu an ninh mạng tại Check Point đã sử dụng công cụ AI của Google để tạo ra được email lừa đảo, keylogger và một số mã nguồn ransomware đơn giản. Trong bài báo cáo, nhóm nghiên cứu đã nêu chi tiết về việc cố gắng so sánh mức độ bảo mật giữa Bard và ChatGPT, bằng cách yêu cầu cả hai nền tảng AI tạo ra ba thứ gồm email lừa đảo, keylogger và một số mã cơ bản của ransomware.
Google Bard có cơ chế bảo mật trong phản hồi kém hơn so với ChatGPT.
Khi chỉ hỏi đơn giản về một email lừa đảo, cả hai nền tảng không đưa ra kết quả, nhưng khi các nhà nghiên cứu yêu cầu các chatbot cung cấp một ví dụ về email lừa đảo thì Bard đã cung cấp rất tốt. Mặt khác, ChatGPT đã không chấp nhận, cho biết rằng điều đó đồng nghĩa với việc tham gia vào các hoạt động lừa đảo, và điều này là bất hợp pháp.
Chuyển sang keylogger, một lần nữa, một câu hỏi trực tiếp không mang lại kết quả nào, ngay cả với một câu hỏi mẹo, cả hai nền tảng đều từ chối. Các nhà nghiên cứu cho biết cách các nền tảng trả lời hoàn toàn khác nhau. ChatGPT đã từ chối một cách chi tiết, trong khi Bard chỉ phản hồi đơn giản: “Tôi không thể giúp điều đó, tôi chỉ là một mô hình ngôn ngữ.”
Cuối cùng, các nhà nghiên cứu đã yêu cầu hai chatbot cung cấp keylogger để họ có thể tự theo dõi thao tác bàn phím của chính mình, thay vì dùng để đánh cắp dữ liệu từ người khác, cả ChatGPT và Bard đều tạo ra mã độc. Tuy nhiên, ChatGPT đã bổ sung một tuyên bố ngắn về việc miễn trừ trách nhiệm.
Khi bắt đầu yêu cầu Bard tạo mã cho một tập lệnh ransomware cơ bản. Điều này khó khăn hơn nhiều so với các email lừa đảo và keylogger, nhưng cuối cùng, các nhà nghiên cứu đã thuyết phục được Bard tham gia.
Các nhà nghiên cứu kết luận: “Các hạn chế chống lạm dụng của Bard trong lĩnh vực an ninh mạng thấp hơn đáng kể so với các hạn chế của ChatGPT. Do đó, việc tạo nội dung độc hại bằng Bard sẽ dễ dàng hơn nhiều”.
Từ lâu, nhóm phân tích của Check Point Research đã xem xét việc các mô hình AI bị lạm dụng cho việc xấu. Vào đầu tháng 1/2023, khoảng hai tháng sau khi ChatGPT được phát hành, các nhà nghiên cứu đã quan sát thấy công cụ này đang bị kẻ gian sử dụng để cải thiện - và đôi khi xây dựng lại từ đầu - phần mềm độc hại và phần mềm tống tiền nguy hiểm.
Các nhà nghiên cứu cho biết họ đã phát hiện ra nhiều bài đăng trên các diễn đàn hack ngầm, nơi những kẻ lừa đảo thảo luận về việc sử dụng ChatGPT để xây dựng trình đánh cắp thông tin, công cụ mã hóa và phần mềm độc hại khác. Bên cạnh việc xây dựng phần mềm độc hại và ransomware, tội phạm mạng cũng đang sử dụng chatbot do AI cung cấp để xây dựng phần mềm hỗ trợ của riêng họ.
Nguồn: [Link nguồn]
Bard tìm cách kết hợp kiến thức toàn cầu với sức mạnh, trí thông minh và sự sáng tạo của các mô hình ngôn ngữ lớn sẵn có.