韩国三级一区-韩国三级香港三级日本三级la-韩国三级香港三级日本三级-韩国三级视频网站-日韩欧美一及在线播放-日韩欧美一二三区

首頁|必讀|視頻|專訪|運營|制造|監管|芯片|物聯網|量子|低空經濟|智能汽車|特約記者
手機|互聯網|IT|5G|光通信|人工智能|云計算|大數據|報告|智慧城市|移動互聯網|會展
首頁 >> 頭條資訊 >> 正文

AI倫理:構建可信人工智能的五大關鍵路徑

2025年7月10日 07:30  CCTIME飛象網  作 者:劉隸放

Cloudera大中華區技術總監 劉隸放

在當今競爭異常激烈的環境中,全球各地的企業都在大力投資人工智能(AI),以獲得更大的競爭優勢。然而,隨著創新的加速,企業也深知倫理和監管在AI發展中的關鍵作用。德勤對100位企業高管進行的一項調查顯示,88%的受訪者表示其企業正在采取措施向員工傳達AI的倫理使用規范。根據騰訊研究院的一項調查顯示,個人隱私保護與網絡安全已成為公眾最為關注的風險因素之一。在覆蓋各行各業的3,000名受訪者中,38%的受訪者認為企業在應用生成式AI過程中可能存在侵犯個人隱私的風險,另有33.5%的受訪者認為模型的可解釋性和透明度問題亦不容忽視。

AI創新帶來新的倫理問題

借助AI的進步,我們已經從基于人工設定規則的決策系統,發展到通過海量數據訓練的復雜模型來自動定義規則、生成內容并做出決策。然而,不受約束的AI系統往往會優先優化預設目標,而忽視更廣泛的社會影響和倫理考量,這將逐漸削弱公眾信任。

盡管AI技術取得了顯著進展,但偏見和“幻覺”等問題依然存在,甚至引發了一些爭議事件。例如,2021年4月,荷蘭六名司機因“算法手段”被不公平解雇,導致歐盟根據《通用數據保護條例》(GDPR)對此展開調查。兩年后,英國幾名送餐員因位置數據被懷疑多收費用,并在幾乎沒有解釋的情況下被解雇。

類似的爭議事件在國內也內屢見不鮮,從因性別歧視導致的不公平貸款發放,到使用侵犯隱私的面部識別技術處理保險索賠。例如,一位中國博主的個人形象未經授權便被某AI應用使用,還引發了一場訴訟糾紛。這些問題的根源很大程度上在于AI的“可解釋性”。尤其是深度學習模型,其決策過程復雜且不透明,常被視為“黑匣子”,許多專家也難以理解其結論的形成機制。缺乏適當的人工監督和理解,這些帶有偏見的決策便可能會引發嚴重的負面后果。

隨著諸如OpenAI SORA AI視頻生成器等生成式AI創新()的涌現,AI在提升生產力和增強企業競爭力方面展現出巨大潛力。然而,這些工具也可能引發版權侵權等問題,甚至為濫用和虛假信息的傳播打開大門。因此,關注AI倫理變得比以往任何時候都更加重要。

公共與私營部門需攜手將倫理和監管融入AI

盡管ChatGPT等生成式AI工具都設有防濫用規則,許多用戶仍找到了繞過這些保護措施的方法。網絡犯罪分子甚至創建了自己的GPT,用于編寫惡意軟件和生成極具欺騙性的釣魚郵件。

目前,有效識別和阻止這類有害產出的工具和法律仍很匱乏。因此,公共和私營部門需要加強合作,通過更嚴格的監管降低AI濫用風險,并確保在模型開發中融入倫理考量。

為了構建合乎倫理的AI,需要將倫理原則、問責機制、透明度、可解釋性和良好治理融入模型。提升模型的可解釋性和倫理水平不僅能幫助解決當前AI的缺陷,還能顯著提高決策的準確性和有效性。

許多公共和私營部門實體正在共同努力推進AI的倫理建設。例如,澳大利亞近期投資1700 萬美元啟動了“AI應用計劃”,幫助中小型企業在利用AI提升業務決策能力。去年,新加坡政府與私營部門合作成立了“AI驗證基金會”, 以應對AI帶來的風險。該基金會今年又推出針對生成式AI的新框架,解決知識產權濫用等新問題的同時持續促進創新。2025年3月,中國《政府工作報告》提出將要持續推進“人工智能+”行動。在此背景下,自2023年起施行的《生成式人工智能服務管理暫行辦法》的重要性進一步凸顯。這些措施涉及內容監管和數據使用道德等領域,為負責任的AI發展提供了一個基礎框架。此外,具身智能(Embodied Intelligence)首次被納入國家戰略計劃,這表明在仿人機器人、無人機和倉庫自動化等技術可能在私營部門大規模應用的情況下,需要持續的監管。

隨著相關法規和倡議的陸續出臺,企業可以通過使用可信數據,為推進倫理AI的倫理建設貢獻力量。

設計合乎倫理的AI系統需要可信數據

構建值得信賴的AI系統離不開可信的數據來源。以準確、一致、潔凈、無偏見且可靠的數據為基礎,企業可以設計出符合倫理的AI系統,確保其始終產出公平、無偏見的結果。這樣的系統能夠幫助企業輕松發現問題、彌補邏輯漏洞、優化輸出,并評估其創新是否符合法規要求。

在Cloudera的AI倫理實踐中,數據隱私保護占據著基石地位。我們堅信,對數據隱私的尊重是贏得客戶信任的前提,也是平臺設計的核心原則。為此,Cloudera通過其開放數據湖倉(Open Data Lakehouse)架構,在數據層深度融合了統一的安全與治理能力(SDX)。這意味著隱私控制不再是上層應用的“補丁”,而是深入數據全生命周期的原生能力。它幫助企業在運用AI進行深度洞察時,依然能無縫地保護敏感數據、履行合規義務。這種貫穿數據生命周期的隱私保護設計,不僅提升了AI模型的安全性與透明度,更為企業構建值得信賴且符合法規的AI解決方案奠定了穩固根基。

如果企業想要開發合乎倫理的AI系統,可采取以下建議:

●關注意圖:AI系統僅基于訓練數據進行決策,缺乏道德準則和公平參照。因此,設計者需明確而謹慎地構建系統設計動機的意圖表示方法,在量化倫理考量的同時平衡性能目標。

●優化模型設計:設計良好的AI系統應避免偏見、因果關系和不確定性。企業應定期進行審查,以檢測是否存在模型漂移問題,即模型逐漸因數據過時而開始變得不準確,并廣泛建立因果模型以評估潛在負面影響。

●確保人工監督:AI系統雖能基于高質量數據做出可靠決策,但缺乏情商,無法處理特殊情況。最有效的系統應結合人類判斷與AI能力,企業需始終確保人工監督,尤其是在AI模型置信度較低時。

●加強安全性與合規性:以安全性和合規性為核心的倫理AI系統,不僅能增強系統可信度,還能加速其在企業中的普及,同時確保符合地方和區域法規。

●充分利用現代數據平臺:借助支持現代數據架構的數據平臺等先進工具,企業可以顯著提升其在數據和AI模型生命周期內的管理與分析能力。理想情況下,平臺應具備內置的安全和治理控制功能,使企業在大規模部署數據分析和AI時,仍能保持對AI驅動決策的透明度和控制力。

編 輯:魏德齡
飛象網版權及免責聲明:
1.本網刊載內容,凡注明來源為“飛象網”和“飛象原創”皆屬飛象網版權所有,未經允許禁止轉載、摘編及鏡像,違者必究。對于經過授權可以轉載,請必須保持轉載文章、圖像、音視頻的完整性,并完整標注作者信息和飛象網來源。
2.凡注明“來源:XXXX”的作品,均轉載自其它媒體,在于傳播更多行業信息,并不代表本網贊同其觀點和對其真實性負責。
3.如因作品內容、版權和其它問題,請在相關作品刊發之日起30日內與本網聯系,我們將第一時間予以處理。
本站聯系電話為86-010-87765777,郵件后綴為cctime.com,冒充本站員工以任何其他聯系方式,進行的“內容核實”、“商務聯系”等行為,均不能代表本站。本站擁有對此聲明的最終解釋權。
推薦新聞              
 
人物
飛象訪談:對話InterDigital副總裁兼無線實驗室負責人Milind Kulkarni
精彩視頻
飛象趣談第二十九期!物流無人機,低空經濟崛起中的“雙輪引擎”
未來出行的芯力量 向“智能移動終端”躍遷
飛象訪談:對話InterDigital副總裁兼無線實驗室負責人Milind Kulkarni
2025MWC上海丨中興通訊副總裁熊杰就AI萬兆全光園區話題進行交流
精彩專題
2025 MWC 上海
2025工業互聯網大會
2025世界電信和信息社會日大會
第八屆數字中國建設峰會
關于我們 | 廣告報價 | 聯系我們 | 隱私聲明 | 本站地圖
CCTIME飛象網 CopyRight © 2007-2024 By CCTIME.COM
京ICP備08004280號-1  電信與信息服務業務經營許可證080234號 京公網安備110105000771號
公司名稱: 北京飛象互動文化傳媒有限公司
未經書面許可,禁止轉載、摘編、復制、鏡像