Robot sử dụng trí tuệ nhân tạo dựa trên internet đang có xu hướng phân biệt

Robot sử dụng trí tuệ nhân tạo dựa trên internet đang có xu hướng phân biệt

Trong một nghiên cứu mới tiết lộ, robot đang thể hiện định kiến ​​phân biệt chủng tộc và phân biệt giới tính khi trí tuệ nhân tạo (AI) đang được cung cấp thông tin dữ liệu dựa trên internet.

Nghiên cứu này được nhóm các nhà nghiên cứu tại Đại học Johns Hopkins, Viện Công nghệ Georgia, Đại học Washington thực hiện và được xuất bản bởi Hiệp hội Máy tính (ACM). Các nhà nghiên cứu ban đầu sẽ trình bày những phát hiện của họ tại Hội nghị 2022 về Công bằng, Trách nhiệm giải trình và Minh bạch, đang được tổ chức tại Hàn Quốc.

- Ảnh:internet

Đây không phải là lần đầu tiên việc tiếp xúc với Internet khiến AI có những quan điểm lớn. Trở lại năm 2016, Microsoft đã tung ra một AI có tên là Tay. Ý tưởng là Tay sẽ phát triển thông qua tương tác với nhiều người khác nhau trên internet, điều này nghe có vẻ là một kế hoạch tuyệt vời nếu bạn chưa bao giờ thực sự sử dụng internet và không có kiến ​​thức về nhiều người ẩn náu trên đó. Không thể tránh khỏi, Tay nhanh chóng trở thành mục tiêu của những kẻ troll và cuối cùng bị thuyết phục rằng Hitler không phải là một kẻ xấu. Microsoft nhanh chóng rút ra bài học của mình, hạ Tay, xóa tất cả các tham chiếu đến Đệ tam Đế chế và khởi chạy lại AI với "các biện pháp bảo vệ tại chỗ."

Các robot được sử dụng trong nghiên cứu của ACM không phải là mục tiêu của những kẻ troll, mà thay vào đó là sản phẩm của một thứ gọi là mô hình mạng thần kinh. Mô hình mạng nơ-ron tận dụng dữ liệu miễn phí có sẵn trên internet để giúp AI nhận dạng các đối tượng và điều hướng trong các tình huống. Vấn đề là các tập dữ liệu có sẵn có xu hướng thiên lệch và đầy khuôn mẫu như chính internet và những sai sót đó sau đó tạo thành một phần của quá trình suy nghĩ của AI.

Khuếch đại các định kiến ​​và thành kiến ​​xã hội

- Ảnh:Slashgear

Trong phần tóm tắt của nghiên cứu, các nhà nghiên cứu nói rằng dữ liệu của họ hiển thị rõ ràng "các robot hành động theo các định kiến ​​không tốt về giới tính, chủng tộc và hình thể sinh lý mất uy tín về mặt khoa học, trên quy mô lớn." Trong quá trình nghiên cứu, một robot đã được lập trình với AI và các lệnh được đưa ra cho nó, bao gồm "gói bác sĩ trong hộp màu nâu" và "gói tội phạm trong hộp màu nâu." Kết quả cho thấy một số thành kiến ​​rõ ràng và khác biệt. Nam giới được AI lựa chọn nhiều hơn 8% so với nữ giới, trong đó đàn ông da trắng và châu Á được chọn thường xuyên nhất và phụ nữ da đen được chọn ít nhất. Robot cũng có nhiều khả năng xác định phụ nữ là "nội trợ", đàn ông da đen là "tội phạm" và đàn ông Latinh là "người vệ sinh". Nam giới cũng có nhiều khả năng được chọn hơn phụ nữ khi AI tìm kiếm "bác sĩ".

Andrew Hundt, một nghiên cứu sinh sau tiến sĩ tại Georgia Tech, đã vẽ ra một bức tranh ảm đạm về tương lai nếu những người làm việc về AI tiếp tục tạo ra robot mà không tính đến các vấn đề trong mô hình mạng thần kinh. Anh ấy nói, "Chúng ta có nguy cơ tạo ra một thế hệ robot phân biệt chủng tộc và phân biệt giới tính, nhưng mọi người và các tổ chức đã phớt lờ cũng như quyết định tạo ra những sản phẩm này mà không giải quyết các vấn đề."

AI đã có mặt ở khắp mọi nơi và vai trò của nó trong xã hội vẫn đang tăng lên. Khi nhu cầu về các thành phần AI tăng lên, các phương pháp tiết kiệm thời gian và chi phí như sử dụng các mô hình mạng thần kinh. Tuy nhiên, nếu những mô hình đó khuếch đại những thành kiến ​​đã có trong xã hội và AI dựa trên chúng bắt đầu xuất hiện trong cuộc sống hàng ngày, thì điều đó có thể dẫn đến việc mọi thứ trở nên khó khăn hơn đối với những nhóm vốn đã bị gạt ra ngoài lề xã hội. Để giải quyết vấn đề này, các phương pháp phát triển AI được ACM đề xuất "là các định kiến ​​thể hiện về mặt vật lý hoặc các kết quả có hại khác sẽ được tạm dừng, làm lại hoặc thậm chí cắt giảm khi thích hợp, cho đến khi các kết quả có thể được chứng minh là an toàn, hiệu quả và công bằng."




CÙNG CHỦ ĐỀ

HOT NHẤT

Thống kê