Các nhà an ninh mạng lên tiếng về sự cố ChatGPT tại Samsung
17/06/2023 lúc 08:35
Nhân viên của Samsung đã sử dụng ChatGPT, một trợ lý trí tuệ nhân tạo do OpenAI phát triển. Họ dùng nó để hỗ trợ viết email, bài luận và tìm kiếm các sửa lỗi trong mã code. Tuy nhiên, việc này đã gây ra sự cố cho một số nhân viên của Samsung.
Mục lục
Chi tiết về sự cố ChatGPT tại Samsung
Vào đầu tháng này, The Economist Korea đưa tin về ba trường hợp đã nhập thông tin doanh nghiệp của Samsung Electronics vào ChatGPT. Trong một trường hợp, một nhân viên đã nhập mã nguồn gây vấn đề và yêu cầu giải pháp. Một nhân viên khác đã nhập mã chương trình và yêu cầu tối ưu hóa mã. Một nhân viên thứ ba đã gửi nội dung cuộc họp để chuẩn bị bản ghi chú cuộc họp.
Sau khi phát hiện các sự cố này. Các nhà lãnh đạo và nhân viên của công ty đã được thông báo và được khuyến nghị cẩn trọng khi sử dụng ChatGPT. Vì sau khi dữ liệu được đưa lên máy chủ bên ngoài của OpenAI, không thể khôi phục hoặc xóa nó. Samsung Electronics đang tìm các biện pháp bảo vệ để ngăn chặn rò rỉ thông tin trong tương lai. Tuy nhiên, nếu việc này tái diễn, truy cập vào ChatGPT có thể bị chặn.
Xem thêm: Cách sử dụng ChatGPT để tạo ra một ứng dụng – Bạn có biết?
Các nhà lãnh đạo an ninh mạng lên tiếng về sự cố ChatGPT tại Samsung
“Vụ việc này thực sự không ngạc nhiên. Mọi người coi ChatGPT như một công cụ hữu ích. Đúng vậy, nhưng họ quên rằng bất kỳ thông tin nào họ chia sẻ với nó cũng được chia sẻ với tất cả người dùng của nó. Vì vậy, bất kỳ thông tin nhạy cảm hoặc cá nhân. Nó cần được loại bỏ khỏi các tương tác với bot,” Mike Parkin, Kỹ sư Công nghệ Cao cấp tại Vulcan Cyber nói. “Trong khi các công ty có thể triển khai các công cụ sử dụng công nghệ GPT một cách an toàn để tái tạo ChatGPT. Họ phải ngăn dữ liệu của mình không được chia sẻ ra bên ngoài”
Lời chia sẻ của Parkin
Parkin cho biết các sự cố tại Samsung là ví dụ về việc không thực hiện quản lý rủi ro. Bằng cách tiết lộ thông tin nhạy cảm trên một kênh không an toàn.
“ChatGPT có thể tuyệt vời cho nhiều việc. Nhưng mọi người cần ngừng giả vờ rằng nó là bí mật hoặc an toàn. Nó không phải là vậy,” ông nói. “Nó không phải là một con quái vật ác độc sẽ phá hủy thế giới. Nhưng điều đó không có nghĩa là nó không thể gây hại khi bạn cung cấp cho nó thông tin mà nó thực sự không nên có.”
“ChatGPT có lẽ là điều thú vị nhất trong thời gian gần đây,” Casey Ellis, Người sáng lập và Giám đốc Công nghệ của Bugcrowd nói. “Nhược điểm không may là người hào hứng thường là người thiếu thận trọng. Và họ có khả năng mắc lỗi liên quan đến quyền riêng tư và an ninh”
Xem thêm: Cách dùng ChatGPT để viết code một cách hoàn hảo
Sự cố này đã xảy ra với Github, Readdit
Ellis nói rằng những hành vi tương tự đã xảy ra với các công cụ như Github, Stack Overflow, Reddit và thậm chí các công cụ tìm kiếm.
“Đây không phải là hiện tượng mới trong hành vi con người,” Ellis nói. “Với điều đó trong tâm trí, tôi nghĩ rằng người lãnh đạo an ninh nên áp dụng ý tưởng ‘xây dựng nó như nó đã bị hỏng’ và giả định rằng. Ít nhất ở một nơi nào đó trong tổ chức sẽ không xảy ra như vụ việc tại Samsung. Về phòng ngừa, việc đào tạo nhận thức người dùng rất quan trọng trong giai đoạn đầu. Và tôi tưởng tượng rằng việc xem xét lại kiểm soát truy cập sẽ được nhiều tổ chức quan tâm trong những tháng tới.”
“Như một quy tắc chung, nếu bạn không muốn chia sẻ nội dung bạn đang gõ vào ChatGPT với ai đó làm việc cho đối thủ cạnh tranh trực tiếp của công ty bạn. Thì đừng chia sẻ nó với ChatGPT,” Melissa Bischoping, Giám đốc Nghiên cứu An ninh Đầu cuối tại Tanium, nói.
“Ngay cả khi bạn nghĩ rằng dữ liệu bạn đang chia sẻ có thể là thông tin chung chung và không gây thiệt hại, bạn nên xem xét lại bất kỳ chính sách liên quan nào với các nhóm pháp lý và tuân thủ của bạn để làm rõ bất kỳ nghi ngờ nào. Các công ty đã nhanh chóng triển khai các chính sách sử dụng chấp nhận được cho các công cụ AI/ML nếu chưa có. Vì vậy người lãnh đạo nên ưu tiên trả lời câu hỏi và hiểu rõ rủi ro và giới hạn.”
Bischoping chia sẻ về vấn đề
Bischoping cho biết vấn đề khi chia sẻ dữ liệu với ChatGPT là các nhà phát triển có thể xem tất cả các dữ liệu được nhập và sử dụng nó khi mô hình tiếp tục được huấn luyện và phát triển. Hơn nữa, sau khi thông tin trở thành một phần của mô hình tiếp theo. Có thể có khả năng cho trí tuệ nhân tạo chuyển thông tin cho một bên thứ ba.
“Khi các tổ chức muốn cho phép sử dụng các công cụ mạnh mẽ như ChatGPT. Họ nên khám phá các tùy chọn cho phép sử dụng một mô hình được huấn luyện riêng tư để dữ liệu quý giá chỉ được sử dụng bởi mô hình của họ, và không được sử dụng trong quá trình huấn luyện cho các mô hình công khai tiếp theo,” Bischoping tiếp tục. “Các mô hình ngôn ngữ lớn không đi đâu cả, nhưng với sức mạnh đó đi kèm trách nhiệm lớn. Giáo dục nhân viên về thông tin nhạy cảm, cách xử lý dữ liệu đó đối với con người hoặc hệ thống máy tính. Và xem xét đầu tư vào một mô hình không công khai để bảo vệ quyền trí tuệ của bạn.”
Xem thêm: Các chatbot AI tốt nhất: ChatGPT và các lựa chọn thay thế khác
Kết luận
Sự cố ChatGPT tại Samsung đã thu hút sự quan tâm của các nhà an ninh mạng. Và họ đã lên tiếng để cảnh báo về những nguy cơ liên quan đến nó. Các chuyên gia an ninh mạng nhấn mạnh việc chia sẻ thông tin nhạy cảm với ChatGPT dẫn đến rủi ro bảo mật và quyền riêng tư.
Nếu bạn đang tìm kiếm một đối tác triển khai các giải pháp công nghệ cho doanh nghiệp của bạn, hãy đến với IDC Online. IDC Online cung cấp các giải pháp công nghệ thông tin và đám mây cho doanh nghiệp. Bao gồm cả các giải pháp trực quan hóa dữ liệu và các giải pháp khác. Với đội ngũ chuyên gia giàu kinh nghiệm, IDC Online đem lại cho bạn những trải nghiệm tuyệt vời.
Hãy truy cập vào trang web https://idconline.vn/ của IDC Online để biết thêm thông tin chi tiết. Hoặc nếu bạn có vấn đề gì cần giải đáp hãy liên hệ với chúng tôi qua hotline: 19006452. IDC Online luôn ở đây để được đồng hành cùng bạn