首頁 > 人工智能 > 正文

人工智能道德與數據治理:良性循環

2019-07-17 11:32:21  來源:企業網D1Net

摘要:隨著很多企業投入大量資金和人力研究和開發人工智能,他們面臨著隱私與道德的相關問題。
關鍵詞: 人工智能 AI
  隨著很多企業投入大量資金和人力研究和開發人工智能,他們面臨著隱私與道德的相關問題。例如,負責任的人工智能是什么樣的?如何控制人工智能偏見?人工智能技術是前沿技術,它對社會發展有著嚴重的影響。但在企業能夠解決道德問題之前,他們應該關注數據治理的更基本問題。
 
  人工智能技術在過去五年中發展迅速。很多人認為神經網絡在某些任務中比人類做得更好,特別是在某些圖像分類系統中。企業可以利用這些先進的人工智能功能來簡化運營,提高利潤,降低成本,并改善客戶服務。
 
  但Information Builders公司阿姆斯特丹辦事處數據管理卓越中心的國際主管James Cotton說,盡管人工智能技術很強大,但如果基礎數據管理不善,就不能以合乎道德的方式實施。他指出,了解數據治理與人工智能道德之間的關系至關重要。
 
  他說,“數據治理是人工智能道德的基礎。如果企業不知道自己擁有什么,數據來自哪里,數據是如何使用的,或者數據被用于什么目的,就不能以道德的方式使用數據。”
 
  實施GDPR法規是一個良好的開端
 
  企業面臨的挑戰在于沒有適用的數據治理的標準或方法。而歐盟推出的通用數據保護法規(GDPR)就是一個良好的開端,但即使實施GDPR法規也不足以確保在所有情況下都能實現良好的數據治理。而人們希望通過2021年推出的電子隱私條例(ePR)法來解決這一問題。
 
  對于同一數據塊,采用良好治理的規則可能會有所不同,這取決于如何收集它們以及如何使用它們,這是問題之一。
 
  Cotton說,“人們都傾向于把數據看作一堆1和0,并在數據庫中存放大量數據。事實上,并非所有數據都是平等創建的。當然,也并非所有數據都被同等對待,而且可能不應該這樣。”
 
  Cotton表示,例如記錄中某位客戶的頭發是紅色的,這并不被視為“個人數據”。他說,“這并沒有什么個人暗示。但如果他或她住在芬蘭北部一個只有20人的村莊,將這兩個特征相結合,合并的數據集可能能夠識別這個客戶,因此應該以不同的方式處理。”
 
  Cotton表示,這種不斷變化的數據性質可能會破壞企業遵守GDPR法規的能力,更不用說提供有意義的信息來長期訓練人工智能模型。其最佳實踐是不要在與原始數據集合相關聯的場景之外使用數據。
 
  但數據和數據治理的其他方面對人工智能和模型訓練有著更直接的影響,其中之一就是糟糕的數據。
 
  錯誤的數據
 
  那些希望在人工智能技術方面有所成就的企業都希望獲得準確和正確的數據,這是因為可以提高人工智能的有效性和實用性。由于數據準確性是良好數據治理的副產品,因此采用良好的數據治理實踐符合企業的本身利益。
 
  這是循環的良性部分:良好的數據治理導致開發更好的人工智能,而更好的人工智能反過來支持更符合道德的人工智能。人們還可以想象,如果客戶相信開發商以合乎道德的方式實施人工智能,他們會更愿意與開發商共享更多、更好的數據,如果他們知道它不會被濫用,并且是準確的,他們也可能從中得到一些有益的東西。
 
  但如果數據質量一開始就很低,其輸出的結果將會更加糟糕。
 
  Cotton說,“我們知道,世界上大部分數據都是錯誤的。”這些數據質量錯誤來自各種地方。問題是,一將它們應用到人工智能上,無論人工智能技術能否處理這些問題,人工智能只會在大規模上做出錯誤的決定。”
 
  Information Builders公司將數據治理解決方案作為其套件的一部分出售。該軟件可以幫助客戶回答這樣的問題:“例如,這些數據來自何處?為什么首先收集這些數據?在此過程中,我們對它做了什么?出于什么原因?誰最后使用了它?它在哪里使用?它是如何被利用的?我們是否對此認同?”
 
  Cotton說:“任何合適的數據管理項目都存在這樣的問題。如今,當越來越多的企業和潛在客戶開始認識到他們在組織中所擁有的數據的價值,并開始真正地將其視為一種戰略資產時,他們也開始更加重視該信息的實際管理和治理,并應以最佳方式進行組織和使用。”
 
  人工智能道德倫理指南
 
  GDPR法規和其他類似隱私法律為企業提供數據治理的最低標準,或者因此而面臨巨額罰款。最重要的數據驅動型企業在與人們及其數據的互動方面往往超出GDPR法規要求,但GDPR法規仍然是一種標準較低的法規。
 
  目前,在人工智能道德方面并不能采用最低標準。咨詢機構德勤公司負責人Vic Katyal說,不要指望人工智能道德法規會很快出臺。
 
  Katyal說,“對于那些使用人工智能技術的用戶來說,擔心面臨一些風險。而在調查中,40多名證券交易委員會注冊者對人工智能相關風險表示擔憂。但是,當人們談論組織的發展方向、支出、發展旅程時,在這一點上,我認為很多事情都處在初始發展階段。”
 
  Katyal說,受監管行業的企業正在進一步解決人工智能道德問題,就像他們傾向于進一步推進數據治理項目一樣,位于人工智能道德領域前沿。但他表示,由于美國缺乏數據治理和數據隱私監管法規,因此在確定人工智能道德標準方面的進展正在受到阻礙。
 
  他說,“在美國,人們甚至無法就數據隱私規則的共性達成一致。美國各州都有自己的法規。即使是基本的數據隱私動機、本地化類型的規則,也無法創建聯邦層面的規則。”
 
  Katyal預測,如果制定出更加完善的人工智能道德法規,那么很可能來自歐洲,而且將在三到五年之后推出。
 
  他繼續說:“人們仍在努力控制人工智能的道德標準,而實現這個標準需要一段時間。我希望在數據治理方面看到更多的事情發生,將其視為隱私標準和規則,并達成一致。如果能達成協議,那就更好了。”
 
  然而,只是因為目前沒有關于人工智能道德使用的法規,這并不意味著企業不應該考慮它。
 
  現在的人工智能道德
 
  Katyal提供了一些如何在組織中考慮采用人工智能的提示。
 
  他說,“首先,企業在采用人工智能技術時,必須將控制結構放在管理算法以及數據方面。”
 
  他表示,“如果是一個受監管的行業,那么該算法所做的任何決定都可能以某種方式影響或違反監管措施。如果不是受監管的行業,那將面臨聲譽風險,因為其算法可能會失控,帶來一些問題,并導致企業的品牌、聲譽、人員、客戶受到影響,而企業可能不得不為此付出代價。企業應該以正在建造的東西和誰在建造它們為重點進行治理,因為數據治理顯然正在發生變化。圍繞人工智能的算法進行一些治理,確保企業能夠了解正在發生的事情。這是一種很好的做法,雖然可能沒有規則推動這樣做,但這是正確的做法。”

第二十九屆CIO班招生
法國布雷斯特商學院MBA班招生
法國布雷斯特商學院碩士班招生
法國布雷斯特商學院DBA班招生
責編:baiyl