Google cảnh báo nhân viên về Chatbot

Google đã khuyên nhân viên của họ không nhập các tài liệu bí mật của mình vào chatbot AI nhằm bảo mật thông tin lâu dài.

Sự thận trọng của Google

Bard và Chat GPT là những chatbot tiêu biểu do con người tạo ra, được gọi là trí tuệ nhân tạo. Cụ thể hơn, nó sẽ thực hiện chức năng trao đổi với người dùng và phản hồi vô số lời nhắc.

Các nhà nghiên cứu phát hiện ra rằng AI tương tự có thể tái tạo dữ liệu mà nó thu thập được trong quá trình trao đổi và tạo ra nguy cơ rò rỉ. Theo một số nguồn tin, Alphabet cũng cảnh báo các kỹ sư của họ về việc tránh sử dụng mã máy tính mà Chatbot có thể tạo ra.

Google cho biết Bard có thể đưa ra các đề xuất mã không mong muốn. Google cũng muốn minh bạch về những hạn chế trong công nghệ của mình nhằm đảm bảo chất lượng dịch vụ cũng như tránh lỗi trục trặc từ phần mềm để có thể cạnh tranh với ChatGPT. Những người ủng hộ ChatGPT của Open AI và chatbot của Microsoft đã đe dọa doanh thu hàng tỷ USD của Google, đó là chưa kể doanh thu quảng cáo và cloud từ các chương trình AI mới.

google-5


 

Tháng 2 vừa qua, Google yêu cầu nhân viên kiểm tra Bard trước khi ra mắt và không được cung cấp thông tin nội bộ. Tính đến thời điểm hiện nay, Google đang triển khai Bard tới hơn 180 quốc gia với 40 ngôn ngữ như một bàn đạp cho sự mở rộng trong tương lai.

Google thông tin thêm, họ đã có các cuộc trò chuyện chi tiết với Ủy ban bảo vệ dữ liệu của Ireland và đang giải quyết các câu hỏi của cơ quan quản lý. Sau một báo cáo của Politico, công ty đã hoãn việc ra mắt Bard's EU trong tuần này để chờ thêm thông tin về tác động của chatbot đối với quyền riêng tư.

Sự thận trọng của Google cũng dần phản ánh về tiêu chuẩn bảo mật cho các tập đoàn, cụ thể là cảnh báo nhân viên về việc sử dụng các chương trình trò chuyện công khai có sẵn. Ngày càng nhiều doanh nghiệp trên khắp thế giới đã thiết lập các biện pháp bảo vệ trên nền tảng Chatbot AI.

Theo một cuộc khảo sát với gần 12.000 người từ các công ty khác nhau, bao gồm cả công ty hàng đầu tại Hoa Kỳ, có khoảng 43% chuyên gia đang sử dụng ChatGPT hoặc các công cụ AI nhưng không nói với sếp của mình.

google-1-3.jpg

Các biện pháp bảo vệ

Công nghệ AI có thể soạn thảo email, tài liệu, thậm chí cả phần mềm, hứa hẹn sẽ tăng tốc đáng kể các tác vụ. Tuy nhiên, nội dung đó có thể chứa thông tin sai lệch, dữ liệu nhạy cảm hoặc thậm chí là các tài liệu có bản quyền.

Thông báo về quyền riêng tư của Google được cập nhật vào ngày 1/ 6 cũng nêu rõ: "Không bao gồm thông tin bí mật hoặc nhạy cảm trong các cuộc trò chuyện trên Bard của người dùng".

Một số công ty đã phát triển phần mềm để giải quyết những lo ngại về dữ liệu thông tin. Chẳng hạn, Cloudflare (NET.N) bảo vệ website khỏi các cuộc tấn công mạng và cung cấp các dịch vụ đám mây khác, đang tiếp thị cho các doanh nghiệp gắn thẻ và hạn chế một số dữ liệu lọt ra bên ngoài.

google-2-1.jpg

Google và Microsoft cũng cung cấp các công cụ đàm thoại cho khách hàng doanh nghiệp với mức giá cao hơn nhưng không tiếp nhận dữ liệu vào các mô hình AI công khai. Cài đặt mặc định trong Bard và ChatGPT để lưu lịch sử hội thoại, người dùng có thể chọn xóa lịch sử này.

Giám đốc tiếp thị của Microsoft - Yusuf Mehdi cho biết  các công ty không muốn nhân viên của họ sử dụng chatbot công cộng cho công việc là quyết định khá hợp lý. Mehdi giải thích: “Các công ty đang có quan điểm cân nhắc trước khi giải thích cách so sánh chatbot Bing miễn phí của Microsoft với phần mềm doanh nghiệp của họ”.

Microsoft từ chối phản hồi về việc liệu họ có lệnh cấm hoàn toàn đối với nhân viên nhập thông tin bảo mật vào các chương trình AI công khai hay không, bao gồm cả chương trình của chính mình. Tuy nhiên, một giám đốc điều hành khác chia sẻ với Reuters rằng cá nhân ông đã hạn chế nhập dữ liệu thông tin vào AI này. Theo Matthew Prince, giám đốc điều hành của Cloudflare - chia sẻ việc nhập các dữ liệu bí mật vào chatbot giống như "tiết lộ một loạt thông tin riêng tư trong hồ sơ cá nhân”.

google-3-1.jpg