Tại sao các hệ thống AI nên tiết lộ rằng chúng không phải là con người

Nếu không, họ có thể đánh lừa và lừa dối mọi người.
Chúng ta đang gần một thời đại mới của AI phổ biến. Giữa điện thoại thông minh, máy tính, xe hơi, nhà thông minh và phương tiện truyền thông xã hội, bạn có thể tương tác với một loại hệ thống tự động, thông minh hàng chục lần mỗi ngày. Đối với hầu hết các tương tác của bạn với AI, rõ ràng và cố ý rõ ràng rằng văn bản bạn đọc, giọng nói bạn nghe hoặc khuôn mặt bạn nhìn thấy không phải là người thật. Tuy nhiên, lần khác nó sẽ không quá rõ ràng. Khi các công nghệ tự động leo ra khỏi thung lũng kỳ lạ một cách nhanh chóng và có phương pháp , các cuộc gọi dịch vụ khách hàng, chatbot trên trang web và các tương tác trên phương tiện truyền thông xã hội có thể dần dần trở nên ít giả tạo.

Điều này đã xảy ra. Năm 2018, Google đã giới thiệu một công nghệ có tên là Duplex, gọi các nhà hàng và tiệm làm tóc để thay mặt bạn. Vào thời điểm đó, Google phải đối mặt với một phản ứng dữ dội vì sử dụng giọng nói tự động nghe có vẻ giống con người , thậm chí sử dụng các giọng nói như giọng ca um, Hồi mà không tiết lộ bản chất robot của nó. Nghịch ngợm, duplex ngày nay có vấn đề ngược lại. Hệ thống tự động tự tiết lộ, nhưng ít nhất 40% các cuộc gọi của nó có con người trên điện thoại và rất dễ để người nhận cuộc gọi nhầm lẫn giữa những người thực sự với AI.

Khi tôi lập luận trong một bài báo mới của Viện Brookings , có giá trị rõ ràng và ngay lập tức đối với một yêu cầu rộng rãi về công bố AI trong trường hợp này và nhiều vấn đề khác. Bắt buộc các công ty lưu ý rõ ràng khi người dùng tương tác với một hệ thống tự động có thể giúp giảm gian lận, cải thiện diễn ngôn chính trị và giáo dục công chúng.

Độ tin cậy của các hệ thống này được thúc đẩy bởi các mô hình AI về ngôn ngữ của con người, đang được cải thiện nhanh chóng. Đây là một lợi ích cho các ứng dụng có lợi cho xã hội, chẳng hạn như chú thích đóng tự động và dịch ngôn ngữ. Thật không may, các tập đoàn và diễn viên chính trị sẽ tìm thấy nhiều lý do để sử dụng công nghệ này để trình bày một cách trùng lặp phần mềm của họ như người thật. Và các công ty có động cơ để đánh lừa: Một thử nghiệm ngẫu nhiên gần đây cho thấy rằng khi chatbot không tiết lộ bản chất tự động của họ, họ đã vượt trội so với nhân viên bán hàng thiếu kinh nghiệm. Khi chatbot tiết lộ mình là nhân tạo, hiệu suất bán hàng của nó đã giảm 80%.

Chatbot vô hại có thể giúp chúng ta đặt bánh pizza hoặc chọn một flannel theo mùa, nhưng những người khác đang bắt đầu cung cấp tư vấn tài chính và trở thành điểm liên lạc đầu tiên trong điều khiển từ xa. Mặc dù có những lợi ích cho các hệ thống này, nhưng thật ngây thơ khi nghĩ rằng chúng được thiết kế riêng để thông báo cho khách hàng, họ cũng có thể có ý định thay đổi hành vi, đặc biệt là chi tiêu nhiều tiền hơn. Chúng ta cũng có thể mong đợi cuối cùng sẽ tìm thấy các hệ thống AI đằng sau các chatbot nổi tiếng trên các nền tảng như Instagram và WhatsApp. Họ sẽ được quảng cáo như một cách để đưa các ngôi sao và người hâm mộ đến gần nhau hơn, nhưng thực tế mục tiêu của họ có thể là bán các sản phẩm bổ sung sức khỏe giả hoặc các nhãn hiệu athleợi đắt tiền. Khi công nghệ được cải thiện và các bộ dữ liệu mở rộng, AI sẽ chỉ hiệu quả hơn trong việc thúc đẩy doanh số,

Các thuật toán không được tiết lộ cũng là một vấn đề trong diễn ngôn chính trị. BuzzFeed News đã báo cáo rằng Tập đoàn công nghiệp Broadband for America đứng sau nỗ lực năm 2017 để gửi hàng triệu bình luận giả mạo ủng hộ việc bãi bỏ tính trung lập ròng cho Ủy ban Truyền thông Liên bang đôi khi sử dụng tên của người quá cố. Liên minh các công ty, bao gồm AT & T, Cox và Comcast, đã không phải đối mặt với hậu quả cho việc sử dụng tự động hóa lừa đảo và sự phát triển của các công nghệ AI chỉ làm cho loại chiến dịch chính trị này trở nên dễ dàng hơn trong tương lai.

Bots hoạt động trên phương tiện truyền thông xã hội cũng nên được dán nhãn rõ ràng là tự động. Trong cuộc bầu cử năm 2016, 12,6% tài khoản Twitter tham gia chính trị là bot, chiếm 20% tổng số tweet chính trị. Twitter xứng đáng được ghi nhận vì đã tích cực chống lại sự mất thông tin có tổ chức từ các bot và để cung cấp dữ liệu của nó cho nghiên cứu. Nhưng quy mô của vấn đề ít được biết đến trên các nền tảng kỹ thuật số khác. Nhiều chiến dịch bot chính trị trên WhatsApp và phát hiện gần đây hàng trăm hồ sơ Facebook do AI tạo racho thấy ảnh hưởng của các hệ thống tự động trên phương tiện truyền thông xã hội là một vấn đề lớn. Mặc dù tuyên bố rằng các bot chịu trách nhiệm cho các cuộc bầu cử lớn có khả năng bị thổi phồng, nghiên cứu cho thấy rằng chúng có thể phân cực hơn nữa và làm giảm ý kiến ​​bất đồng. Bots cũng đã được quan sát thấy lan truyền các thông điệp giả khoa học nguy hiểm, ví dụ chống lại vắc-xin MRR. Mặc dù việc thực thi công bố thông tin bot là khó khăn đối với các công ty truyền thông xã hội, tôi lập luận trong bài báo của Brookings rằng đáng để giữ các nền tảng kỹ thuật số chịu trách nhiệm theo một số tiêu chuẩn.

Ngoài việc chống lại gian lận thương mại và chính trị lừa đảo, còn có những lợi thế khác đối với yêu cầu công khai AI mở rộng. Nếu mọi người biết khi họ tương tác với các hệ thống AI, họ sẽ tìm hiểu các điểm mạnh và hạn chế của thuật toán thông qua tiếp xúc nhiều lần. Điều này rất quan trọng, vì việc hiểu AI rất phức tạp và hầu hết mọi người đều bị hiểu lầm bởi những chân dung của AI thông minh đến khó tin tồn tại trong nền văn hóa nổi tiếng của chúng ta, nghĩ rằng Westworld , Battlestar Galactica và Ex Machina . Trong thực tế, các hệ thống AI ngày nay là AI hẹp, có nghĩa là chúng có thể thực hiện tốt một số nhiệm vụ trong khi hoàn toàn là trẻ sơ sinh ở những người khác.

Vì nó sẽ làm giảm các ứng dụng chính trị và thương mại lừa đảo, đòi hỏi các hệ thống AI phải tự tiết lộ hóa ra là trái cây treo thấp trong chính sách phức tạp điển hình của chính sách công nghệ. Chúng ta không thể thấy trước những cách thức mà AI sẽ được sử dụng trong tương lai, nhưng chúng ta chỉ ở trong thập kỷ đầu tiên của AI hiện đại. Bây giờ là lúc để thiết lập một tiêu chuẩn cho sự minh bạch.

Alex Engler là thành viên David M. Rubenstein tại Viện Brookings, nơi ông nghiên cứu về quản trị trí tuệ nhân tạo và công nghệ mới nổi . Ông cũng là giáo sư phụ trợ và học giả liên kết tại Trường Chính sách công McCourt của Đại học Georgetown, nơi ông giảng dạy các khóa học về khoa học dữ liệu để phân tích chính sách.

Nhận xét

Bài đăng phổ biến từ blog này

Một cú hích cho văn hóa thiết kế đồ họa có ảnh hưởng, sôi động của Nhật Bản

Áp lực tăng lên để Mitch McConnell cho phép Thượng viện thảo luận về các biện pháp an ninh bầu cử

Halloween là khủng khiếp cho môi trường. Đây là cách để làm điều đó bền vững