ChatGPT: 5 Điều bạn tuyệt đối không nên nói với AI

ChatGPT đã thay đổi cách nhiều người trong chúng ta làm việc và sinh hoạt hàng ngày. Theo các thống kê gần đây, hơn 100 triệu người dùng sử dụng nó mỗi ngày để xử lý hơn một tỷ câu hỏi. Tuy nhiên, chatbot LLM này đã được mô tả như một “hố đen về quyền riêng tư”, với những lo ngại về cách nó xử lý dữ liệu mà người dùng nhập vào, điều này thậm chí đã dẫn đến việc nó bị cấm tạm thời ở Italy.

Tạo ra ChatGPT, OpenAI không giấu giếm rằng, bất kỳ dữ liệu nào nhập vào có thể không an toàn. Ngoài việc được sử dụng để huấn luyện thêm các mô hình của nó, có thể dẫn đến việc thông tin bị lộ trong các kết quả đầu ra cho người khác, dữ liệu của người dùng còn có thể được xem xét bởi con người để kiểm tra việc tuân thủ các quy tắc về cách thức sử dụng. Và tất nhiên, bất kỳ dữ liệu nào được gửi đến dịch vụ đám mây đều chỉ an toàn như mức độ bảo mật của nhà cung cấp dịch vụ đó.

Ảnh: Jakub Porzycki/NurPhoto

Điều này có nghĩa là bất kỳ dữ liệu nào nhập vào cũng nên được coi là thông tin công khai. Với điều này trong tâm trí, có một số điều tuyệt đối không nên nói với nó – hoặc bất kỳ chatbot nào khác trên nền tảng đám mây công cộng. Hãy cùng xem qua một số điều đó:

  1. Yêu cầu bất hợp pháp hoặc vô đạo đức

Hầu hết các chatbot AI đều có các biện pháp bảo vệ để ngăn ngừa việc chúng bị sử dụng vào các mục đích vô đạo đức. Nếu câu hỏi hoặc yêu cầu của bạn liên quan đến các hoạt động có thể là bất hợp pháp, bạn có thể gặp phải rắc rối. Các ví dụ về những điều tuyệt đối không nên hỏi một chatbot công cộng là cách thực hiện tội phạm, tiến hành hoạt động gian lận, hoặc thao túng người khác để thực hiện hành động có thể gây hại.

Nhiều chính sách sử dụng rõ ràng cho biết yêu cầu bất hợp pháp hoặc tìm cách sử dụng AI để thực hiện các hoạt động phi pháp có thể dẫn đến việc người dùng bị báo cáo cho các cơ quan chức năng. Các luật này có thể khác nhau tùy theo quốc gia. Ví dụ, luật AI ở Trung Quốc cấm sử dụng AI để làm suy yếu quyền lực nhà nước hoặc sự ổn định xã hội, trong khi Luật AI của EU quy định rằng các hình ảnh hoặc video “deepfake” (giả mạo) mà tưởng chừng là thật nhưng thực chất do AI tạo ra phải được dán nhãn rõ ràng. Tại Vương quốc Anh, Đạo luật An toàn Trực tuyến quy định rằng việc chia sẻ hình ảnh khiêu dâm do AI tạo ra mà không có sự đồng ý là một hành vi phạm tội.

Việc nhập yêu cầu cho vật liệu bất hợp pháp hoặc thông tin có thể gây hại cho người khác không chỉ sai về đạo đức mà còn có thể dẫn đến những hậu quả pháp lý nghiêm trọng và tổn hại đến danh tiếng.

  1. Thông tin đăng nhập và mật khẩu

Với sự phát triển của AI có khả năng kết nối và sử dụng các dịch vụ của bên thứ ba, nhiều người trong chúng ta sẽ phải sử dụng AI có thể cần đến thông tin đăng nhập của chúng ta. Tuy nhiên, việc cung cấp thông tin đăng nhập có thể là một ý tưởng tồi. Khi dữ liệu đã được nhập vào một chatbot công cộng, gần như không thể kiểm soát những gì sẽ xảy ra với nó, và đã có những trường hợp dữ liệu cá nhân của người dùng bị lộ trong phản hồi cho người dùng khác. Rõ ràng, đây có thể là một cơn ác mộng về quyền riêng tư, vì vậy, tốt nhất là tránh bất kỳ sự tương tác nào với AI liên quan đến việc cung cấp thông tin đăng nhập và tài khoản trừ khi bạn hoàn toàn chắc chắn rằng bạn đang sử dụng một hệ thống rất an toàn.

Ảnh: Pixabay

  1. Thông tin tài chính

Vì lý do tương tự, việc nhập dữ liệu như số tài khoản ngân hàng hoặc số thẻ tín dụng vào chatbot AI là một ý tưởng không hay. Những thông tin này chỉ nên được nhập vào các hệ thống bảo mật dùng cho thương mại điện tử hoặc ngân hàng trực tuyến, nơi có các biện pháp bảo vệ như mã hóa và tự động xóa dữ liệu sau khi đã xử lý. Các chatbot không có những biện pháp bảo vệ này. Trên thực tế, một khi dữ liệu đã vào, bạn sẽ không thể biết được điều gì sẽ xảy ra với nó, và việc nhập thông tin nhạy cảm này có thể khiến bạn bị lừa đảo, trộm cắp danh tính, tấn công phishing hoặc ransomware.

  1. Thông tin bí mật

Mỗi người có trách nhiệm bảo vệ thông tin nhạy cảm mà mình quản lý. Những nghĩa vụ này là tự động, như việc bảo mật giữa các chuyên gia (ví dụ, bác sĩ, luật sư và kế toán với khách hàng của họ). Nhưng nhiều nhân viên cũng có trách nhiệm bảo mật thông tin đối với nhà tuyển dụng của họ. Việc chia sẻ tài liệu công việc, như ghi chú và biên bản cuộc họp hoặc các hồ sơ giao dịch, có thể là việc chia sẻ bí mật thương mại và vi phạm bảo mật, như trong trường hợp liên quan đến nhân viên Samsung vào năm 2023. Vì vậy, dù có thể bạn sẽ thấy hấp dẫn khi nhập chúng vào ChatGPT để xem những hiểu biết nào mà nó có thể tìm ra, đây không phải là một ý tưởng tốt trừ khi bạn hoàn toàn chắc chắn rằng thông tin đó có thể chia sẻ.

  1. Thông tin y tế

Chúng ta đều biết rằng đôi khi rất dễ dàng để hỏi ChatGPT trở thành bác sĩ và chẩn đoán các vấn đề sức khỏe. Tuy nhiên, điều này cần được thực hiện với sự thận trọng cao độ, đặc biệt là khi các cập nhật gần đây cho phép nó “ghi nhớ” và thậm chí tổng hợp thông tin từ các cuộc trò chuyện khác để giúp hiểu rõ hơn về người dùng. Tuy nhiên, không có sự bảo vệ quyền riêng tư nào cho các chức năng này, vì vậy tốt nhất là bạn nên nhận thức rằng chúng ta thực sự không có nhiều quyền kiểm soát đối với những gì sẽ xảy ra với bất kỳ thông tin nào mà chúng ta nhập vào. Điều này càng đúng hơn đối với các doanh nghiệp liên quan đến thông tin bệnh nhân, khi họ có thể đối mặt với những khoản tiền phạt khổng lồ và thiệt hại lớn về danh tiếng.

Như với bất kỳ điều gì chúng ta đưa lên Internet, tốt nhất là nên coi đó là thông tin công khai và không có gì đảm bảo rằng nó sẽ luôn được bảo mật. Vì vậy, tốt nhất là không tiết lộ bất kỳ điều gì mà bạn sẽ không muốn cả thế giới biết. Khi chatbot và các đại lý AI ngày càng đóng vai trò lớn trong cuộc sống của chúng ta, vấn đề này sẽ trở thành mối quan tâm ngày càng tăng, và việc giáo dục người dùng về các rủi ro sẽ là một trách nhiệm quan trọng đối với bất kỳ ai cung cấp loại dịch vụ này. Tuy nhiên, chúng ta cũng cần nhớ rằng bản thân chúng ta có trách nhiệm bảo vệ dữ liệu của mình và hiểu cách giữ nó an toàn.