Meta 的全男性人工智慧顧問委員會引發爭議

分類: AI News標籤: , , , , 發表於:5 月 25, 20242.6 分鐘讀取

週三,成立了一個完全由白人組成的人工智慧諮詢委員會。鑑於女性和有色人種長期以來被排除在人工智慧領域之外,儘管她們具有資格和貢獻,這種多樣性的缺乏並不令人意外。

梅塔沒有立即回應有關董事會多元化的詢問。這個新委員會與 Meta 現有的董事會和監督委員會不同,後者表現出更大的多樣性。 AI董事會缺乏信託義務,也不是由股東選舉產生的。梅塔告訴彭博社,董事會的職責包括透過定期會議提供有關技術進步和成長機會的見解。

值得注意的是,該委員會的成員全部由商人和企業家組成,不包括倫理學家或學者。雖然有些人認為,Stripe、Shopify 和 Microsoft 的高階主管因其經驗而非常適合監督 Meta 的人工智慧產品路線圖,但與人工智慧相關的獨特風險需要更廣闊的視角。人工智慧具有產生深遠影響的潛力,特別是對於邊緣化群體而言,需要採取謹慎的態度。

AI Now Institute 董事總經理 Sarah Myers West 強調了嚴格審查人工智慧生產機構以確保滿足公眾需求的重要性。她強調了人工智慧錯誤對邊緣化社群造成的不成比例的傷害,呼籲制定更高的標準。

女性不成比例地面臨人工智慧的負面影響。 Deepfake 技術已成為針對女性的武器,非自願的露骨內容不成比例地針對女性。泰勒絲深度假貨事件等備受矚目的案例展示了女性面臨的挑戰,尤其是那些沒有全球名人資源的女性。

有關學生製作同學的明顯深度偽造品的報告凸顯了這種有害技術的可及性。專門設計用於「脫衣」照片或創建露骨內容的應用程式很容易訪問,引發了人們對潛在危害的擔憂。在 Perky AI 廣告爭議等事件發生後,Meta 的監督委員會正在調查該公司對人工智慧產生的色情內容報告的處理方式。

讓女性和有色人種參與人工智慧創新至關重要。歷史上將邊緣群體排除在技術發展之外已經導致了有害的結果。例子包括將女性排除在臨床試驗之外以及自動駕駛車禍對黑人造成的不成比例的影響。

根據有偏見的資料訓練的人工智慧系統會延續現有的不平等現象。人工智慧演算法放大了就業、住房和刑事司法的種族歧視。語音助理很難應付不同的口音,臉部辨識系統不成比例地標記黑人。

目前的人工智慧格局反映了現有的權力結構,解決這些問題的努力有限。對快速發展的關注往往忽略了生成式人工智慧加劇現有問題的潛力。麥肯錫的報告指出,人工智慧可以使少數族裔工人所從事的工作自動化,這引發了人們對其潛在影響的擔憂。

Meta 等知名科技公司的全白人男性顧問委員會對他們為不同人群開發產品的能力提出了質疑。建構真正的包容性技術需要採取多方面的方法,包括研究和對交叉社會問題的理解。創建安全和包容性人工智慧的複雜性凸顯了當前顧問委員會組成的局限性。

看看其他的 人工智慧新聞 和技術活動的權利 在 AIfuturize 中!

發表評論