share on
為人工智能系統建立基於績效的指標,有助消費者、企業和政府更好地比較不同系統的表現,並設定最低績效要求。
人工智能(AI)具有創造許多巨大經濟和社會效益的潛力。 然而,對這項技術的憂慮促使政策制定者制定法律法規,在不影響該領域創新的情況下建立「負責任的人工智能」。
Center for Data Innovation總監Daniel Castro在一份新報告中提出10條原則,以指導政策制定者制定和評估不妨礙創新的人工智能監管提案。以下提供摘要以作人力資源從業者和僱主參考:
1. 避免有利於人類的偏見:允許人工智能系統做人類界定為合法的事(並禁止做非法的事)。
原因:要求人工智能系統達到比人類更高的標準會抑壓技術的使用。
2. 規範績效而非過程:通過規範結果而非為技術制定特定規則來解決對人工智能安全性、有效性和偏見的憂慮。
原因:建立基於績效的法規有助靈活實現目標,並且不會對人工智能系統強加可能代價高昂的不必要規則。
3. 規範行業而非技術:為特定行業的具體人工智能應用制定規則,而非為人工智能技術制定籠統的規則。
原因:情景很重要。即使採用類似的底層技術,用於駕駛車輛的人工智能系統,與用於自動化股票交易或診斷疾病的系統不同。
4. 避免人工智能近視:要解決整體問題,而非只著眼於涉及人工智能的部分。
原因:不管是否涉及人工智能,很多問題均需解決。只著眼於涉及人工智能的部分往往會忽略解決更大問題。
5. 準確定義人工智能:明確定義人工智能,避免無意中將其他軟件和系統納入新規範之中。
原因:人工智能涵蓋廣泛的技術,並融入許多產品之中。如果政策制定者僅打算規範機器學習或深度學習系統,則不應使用廣義來定義人工智能。
6. 執行現有規則:人工智能要遵守現有規則。
原因:已有許多法例針對解決對人工智能的普遍憂慮,例如員工安全、產品責任、歧視等。
7. 確保收益大於成本:考慮法規的所有潛在成本和收益。
原因:直接合規和間接創新和競爭力等成本會影響監管提案的吸引力。
8. 優化法規:儘量擴大法規收益並減少成本。
原因:政策制定者應採取最有效的方式實現其監管目標。
9. 平等對待企業:無論企業規模大小或註冊地點在哪裡,規則均適用於所有企業。
原因:免除對某些企業的監管會造成不公平的競爭環境,並使消費者面臨風險。
10. 尋求專業知識:增強技術、行業和監管專業知識。
原因:技術專家可以幫助監管者了解監管選擇的影響。
報告作者Castro指出:「不當制定法律法規,可能會延誤或阻礙可以挽救生命、增加工資和改善生活質素的技術應用。因此,政策制定者應謹慎行事,並以這些核心原則為指引,以免因尋求負責任的人工智能而造成不負責任的監管。」
感謝閱讀我們的文章!如您有任何意見,歡迎隨時告訴我們 — 按此參加我們的2023年讀者調查。
圖片來源 /Shutterstock
share on