Thẻ tín dụng Apple và những phép tính “algo” chi phối cuộc sống của chúng ta thiên vị như thế nào.

Thẻ tín dụng Apple và những phép tính “algo”
chi phối cuộc sống của chúng ta thiên vị như thế nào.
Lê Mạnh Hùng

Tình trạng ồn ào nổi lên chung quanh vụ thẻ tín dụng mới mà công ty Apple đưa ra kỳ thị chống lại phụ nữ đã lôi kéo sự chú ý của người ta đến việc các chương trình điện toán hiện đang chi phối đời sống của chúng ta không phải là hoàn toàn khách quan mà có rất nhiều những thiện vị được thiết kế vào chính trong chúng.

Vào buổi đầu thời đại điện toán, người ta hy vọng rằng máy điện toán, qua cái logic khách quan của các chương trình, có thể đưa ra những quyết định khách quan không bị ảnh hưởng bởi những thiên kiến kỳ thị mà con người mắc phải. Thế nhưng những nhà nghiên cứu càng ngày càng khám phá ra rằng các “algorithm” (gọi tắt là “algo”) – chuỗi logic làm cơ sở cho các chương trình điện tóan, không những có thể tái lập mà còn khuếch đại các thiên kiến kỳ thị của những người tạo ra nó.

Một algo là một công thức để thao tác các tin tức hay thực hiện một công tác. Sắp xếp một cái tên trong một danh sách theo thứ tự abc là một algo; công thức để làm một cái bánh sinh nhật cũng là một algo. Nhưng đó chỉ là những công thức đơn giản. Các algo mà các công ty như Google hay Facebook sử dụng thì phức tạp hơn nhiều và nhiều khi phải tốn hàng tỷ đô la để lập ra.

Nhưng tuy rằng không tính truớc nhưng những kỹ sư thảo chương vẫn có thể làm chương trình mình viết ra phân biệt đối xử. Facebook chẳng hạn vào năm 2015 đã bị chỉ trích kịch liệt khi từ chối không cho những người Mỹ thổ dân da đỏ mở chương mục vì tên họ của họ tỷ như Lance Browneyes, Dana Lone Hill bị coi như là giả mạo. Còn Amazon năm 2016 cũng rơi vào đúng vấn đề này, khi một chương trình thông minh nhân tạo (AI) được công ty mang ra thử nghiệm để tuyển nhân viên đã loại bỏ một cách có hệ thống tất cả ứng viên phụ nữ.

Vì sao các chương trình này có thể tạo ra những phân biệt đối xử như vậy?

Mỗi khi bạn dùng một cái app, mua một món gì trên mạng hay coi một quảng cáo trên máy hay phone bạn đều để lại một chuỗi những dữ kiện về bạn. Những dữ kiện này bị những công ty thu thập, cùng với những dự kiện thu thập một cách truyền thống tỷ như danh sách cử tri, bằng lái xe, mua báo, mua hàng dùng thẻ tín dụng. Tất cả nhửng tin tức đó về bạn có thể được phối hợp lại để tạo ra một bức tranh toàn cảnh về bạn.

Những dữ liệu này tự nó không có gì tạo ra thiên kiến, nhưng vấn đề là khi chúng được sử dụng không đúng. Lấy thí dụ chương trình tuyển người của Amazon. Theo bà chuyên gia đuợc Amazon nhờ để thử nghiệm chương trình này thì chương trình này dùng một kỹ thuật gọi là “predictive modelling” (mô hình dự phóng) về căn bản là dựa trên những gì xảy ra từ trước để tiên đóan tương lai. Đối với chương trình của Amazon, những dữ liệu đưa vào cho nó đọc cho thấy phụ nữ được thăng cấp ít hơn, có khuynh hướng nghỉ việc nhiều hơn và lương ít hơn. Và máy kết luận rằng tuyển nam giới là tốt hơn cho công ty.

Và để thực hiện việc này, chương trình của Amazon đã làm hết sức để loại bỏ phụ nữ. Thế nhưng làm sao máy có thể phân biệt đối xử khi các nhà thảo chương, để tuân thủ luật của chính phủ Liên Bang cấm việc phân biệt đối xử dựa trên chủng tộc, giới tính, tuổi tác, hoặc khuynh hướng tính dục, đã giữ tất cả những thông tin về các vấn đề này không cho máy biết?

Đó là vì chương trình đã dùng những dữ kiện gọi là thay thế (proxies) để đại biểu cho những dữ kiện này. Tỷ như năm bạn tốt nghiệp có thể cho biết bạn vào trạc tuổi nào, trong khi đi học tại một trường con gái hay là thành viên của một “sorority” cho thấy bạn là một phụ nữ. Địa chỉ nơi ở của bạn tại một nơi nào đó có thể cho biết nhiều về chủng tộc của bạn. Một công trình nghiên cứu năm 2017 cho thấy Facebook đã sắp hạng một số người sử dụng là “gay” dựa trên những cái gì họ “likes” tuy rằng những người này không tự nhận mình là vậy.

Và điều này dẫn ta đến truờng hợp thẻ tín dụng của Apple. Nó bắt đầu với việc ông David Heinemeier Hansson, một nhà thảo chương có tên tuổi viết trên Twitter chỉ trích Apple là đã cho ông 20 lần mức giới hạn tín dụng mà Apple cho vợ ông tuy rằng bà vợ có một điểm khả tín cao hơn và hai người khai chung thuế.

“Tweet” của ông Hansson lập tức được nhiều người hưởng ứng và cho biết họ cũng gặp những kỳ thị tương tự, kể cả ông Steve Wozniak, đồng sáng lập ra Apple cũng cho biết Apple cho ông một mức tín dụng gấp 10 mức của vợ ông. Goldman Sachs, ngân hàng phát hành tấm thẻ này cho Apple thì phủ nhận là họ cố ý kỳ thị phụ nữ và nói rằng thẻ tín dụng Apple chỉ cấp cho cá nhân và có khả năng rằng hai người trong cùng gia đình có mức tín dụng khác nhau.

Có triển vọng rằng chương trình cấp thẻ tín dụng của Goldman Sachs-Apple cũng dùng kỹ thuật “predictive modelling” để xác định mức giới hạn tín dụng. Nhưng nó một lần nữa cho thấy nguy cơ của việc dùng các “algo” để quyết định. Và những cố gắng để kiềm chế nó đã bắt đầu tại các chính phủ.

Ở Hoa Kỳ, cả thượng viện và hạ viện đều đang chuẩn bị một đạo luật gọi là Algorithmic Accountability Act of 2019 đòi hỏi các công ty phải thử nghiệm chương trình để lọai bỏ các thiên kiến trước khi đem ra sử dụng.

Liên Hiệp châu Âu thì đã đưa ra quy định bảo vệ Dữ Liệu Cá Nhân (General Data Protection Regulation) cho phép mọi công dân quyền lựa chọn cho phép người ta sử dụng những dữ liệu gì của mình và quyền bắt các công ty phải giải thích quyết định của các “algo” về mình.

Riêng về vụ thẻ tín dụng Apple, Cơ Quan Quản lý Dịch vụ Tài Chánh tiểu bang New York cho biết “sẽ mở cuộc điều tra xem luật của New York có bị vi phạm hay không?”

Lê Mạnh Hùng
Nov 2019

Bài Liên Quan