Thế giới

Khi các gã khổng lồ công nghệ kiếm lợi nhuận từ AI bất chấp vấn đề đạo đức

NYP
(ĐTTCO) – Facebook đọc và chia sẻ tin nhắn riêng tư của người dùng. Google sử dụng trí tuệ nhân tạo (AI) nhằm giúp các công ty tài chính đưa ra quyết định sẽ cho ai vay tiền. Microsoft phải cân bằng giữa lợi ích kinh tế và rủi ro chính trị trong việc sử dụng công nghệ bắt chước giọng nói.

Cuộc điều tra mới đây cho thấy người kiểm duyệt Facebook có thể đọc tin nhắn mã hóa từ WhatsApp. Ảnh: Getty Images.

Cuộc điều tra mới đây cho thấy người kiểm duyệt Facebook có thể đọc tin nhắn mã hóa từ WhatsApp. Ảnh: Getty Images.

Tính bảo mật có thực sự được cam kết?

Theo một báo cáo mới đây, WhatsApp – dịch vụ nhắn tin được mã hóa của Facebook – không đảm bảo được tính riêng tư như họ tuyên bố.

Ứng dụng được Facebook mua lại này cam kết các tính năng bảo mật, cho biết họ không thể đọc tin nhắn được gửi đi giữa những người dùng. Tuy nhiên, một báo cáo mở rộng của ProPublica hôm thứ Ba (7/9) tuyên bố rằng Facebook đang trả tiền cho hơn 1.000 nhân viên hợp đồng trên khắp thế giới để đọc và kiểm duyệt các tin nhắn trên WhatsApp – vốn được cho là riêng tư hoặc được mã hóa.

Ngoài các tin nhắn, các nhân viên còn thấy các thông tin chưa được mã hóa khác như tên và hình ảnh hồ sơ của các nhóm WhatsApp của người dùng, cũng như số điện thoại, ảnh hồ sơ, mức pin điện thoại, ngôn ngữ và bất kỳ tài khoản Facebook và Instagram nào có liên quan.

Hơn nữa, theo báo cáo, Facebook đã chia sẻ một số dữ liệu cá nhân nhất định với các cơ quan thi hành pháp luật, chẳng hạn như Bộ Tư pháp Hoa Kỳ.

Tiết lộ này được đưa ra sau khi ông chủ Facebook – Mark Zuckerberg – liên tục nói rằng công ty không thể đọc được các tin nhắn WhatsApp. Trong phiên điều trần trước Thượng viện Hoa Kỳ năm 2018, Zuckerberg cho biết: “Chúng tôi không đọc bất kỳ nội dung nào trong WhatsApp.”

Vào tháng 9 năm ngoái, đơn vị đám mây của Google đã xem xét việc sử dụng trí tuệ nhân tạo để giúp một công ty tài chính xác định những đối tượng có thể cho vay tiền.

Động thái này đã làm thất vọng nhiều người, cho rằng dự án quá nhạy cảm về mặt đạo đức, vì công nghệ AI có thể dính dáng đến những thành kiến xoay quanh vấn đề chủng tộc và giới tính.

Kể từ đầu năm ngoái, Google cũng đã ngăn chặn các tính năng AI phân tích cảm xúc, vì lo ngại sự vô cảm văn hóa, trong khi Microsoft hạn chế phần mềm bắt chước giọng nói, và IBM từ chối yêu cầu công nghệ nhận dạng khuôn mặt tiên tiến.

Tất cả các công nghệ này đã bị hạn chế bởi các ban Giám đốc điều hành hoặc các nhà lãnh đạo khác, theo các cuộc phỏng vấn với Giám đốc đạo đức AI của ba gã khổng lồ công nghệ.

Trí tuệ nhân tạo và trách nhiệm xã hội

Lần đầu tiên, các báo cáo nói rằng những công ty công nghệ đang thực sự cân nhắc để cân bằng giữa việc theo đuổi công nghệ AI sinh lợi nhuận và trách nhiệm xã hội.

Các công ty cho biết họ hoan nghênh việc đưa ra quy định cụ thể trong việc sử dụng trí tuệ nhân tạo, nói rằng điều này là cần thiết để xây dựng niềm tin của khách hàng và cộng đồng. Hành động có trách nhiệm hơn cũng sẽ đem lại lợi ích tài chính cho họ.

Tracy Pizzo Frey, người tham gia 2 ủy ban đạo đức tại Google Cloud với tư cách là Giám đốc điều hành về AI, cho biết: “Có những cơ hội và cả những tác hại. Công việc của chúng tôi là tối đa hóa cơ hội và giảm thiểu các tác hại đó.”

Microsoft sẽ cân bằng lợi ích của việc sử dụng công nghệ bắt chước giọng nói để khôi phục giọng nói của những người khiếm thị trước những rủi ro, như kích hoạt các trò lừa đảo chính trị, Natasha Cramption, Giám đốc AI của công ty cho biết.

Tuy vậy, việc phán xét động thái của các công ty công nghệ sẽ còn gặp nhiều khó khăn. Các nhà hoạt động nhân quyền cho rằng các ủy ban đạo đức của các công ty công nghệ không thể thực sự độc lập đánh giá tính bảo mật, và tính minh bạch công khai trong vấn đề giám sát bảo mật của họ còn bị hạn chế bởi áp lực cạnh tranh với các công ty cùng ngành khác.

Jascha Galaski, nhân viên vận động tại Liên minh Tự do Dân sự cho châu Âu, cho rằng việc giám sát của các cơ quan bên ngoài là đường hướng phù hợp cần thực hiện. Các nhà chức trách Hoa Kỳ và châu Âu cần vạch ra các quy tắc và ranh giới cho lĩnh vực AI non trẻ này.

Galaski cho rằng: “Nếu các ủy ban đạo đức AI của các công ty thực sự minh bạch và độc lập, thì điều này tốt hơn bất kỳ giải pháp nào khác, nhưng tôi nghĩ điều này là không tưởng, nó không thực tế.”

Phúc Hà

Các tin, bài viết khác