国产精品国产三级农村av,亚洲精品久久久久久久久久,久久精品欧美一区二区三区不卡,精品久久www,精品久久久久久一区二区,国产精品一区在线免费观看,超碰色偷偷

每日經(jīng)濟新聞
要聞

每經(jīng)網(wǎng)首頁 > 要聞 > 正文

AI惹禍誰來背鍋?香港金融科技周籌辦商Finoverse首席執(zhí)行官:應(yīng)由多方共同承擔

2025-11-14 18:52:02

每經(jīng)記者|趙景致    每經(jīng)編輯|張益銘    

人工智能的采用率正在上升,但信任仍是一個關(guān)鍵挑戰(zhàn)。

根據(jù)畢馬威KPMG最新數(shù)據(jù),相較于2022年ChatGPT發(fā)布前,如今AI(人工智能)普及率已經(jīng)顯著提升,但憂慮情緒也隨之上升,全球僅46%受訪者愿意信任AI系統(tǒng)。

許多先進的人工智能模型被視為“黑箱”,即便是開發(fā)者也難以完全理解其決策邏輯。面對這種透明度缺失的情況,我們應(yīng)如何建立對人工智能系統(tǒng)的信任?近日,《每日經(jīng)濟新聞》記者(簡稱NBD)專訪了香港金融科技周籌辦商Finoverse首席執(zhí)行官Anthony Sar。

Finoverse首席執(zhí)行官Anthony Sar 受訪者供圖

“大語言模型至今其實仍不透明,即便對于其創(chuàng)造者也是如此。”Anthony Sar認為,建立信任需要強有力的人類監(jiān)督、透明的數(shù)據(jù)使用以及企業(yè)級的測試,與此同時,當AI出現(xiàn)嚴重錯誤時,責任應(yīng)由多方共同承擔。

負責任的人工智能并不意味著取代人類判斷

NBD:許多先進的人工智能模型被視為“黑箱”,面對這種透明度缺失的情況,我們應(yīng)如何建立對人工智能系統(tǒng)的信任?

Anthony Sar:大型語言模型的透明度仍未完全實現(xiàn),即便對其創(chuàng)造者而言亦是如此,如今的人工智能不僅能預測文字,還能理解概念——這既賦予了它強大的能力,也帶來了相應(yīng)風險。建立信任需要強有力的人類監(jiān)督、透明的數(shù)據(jù)使用以及企業(yè)級的測試。負責任的人工智能意味著,在技術(shù)能夠安全提升人類成果的領(lǐng)域部署它,而非取代人類的判斷。

NBD:訓練數(shù)據(jù)中存在的社會偏見往往會傳導至人工智能上。在您看來,社會和科技公司應(yīng)采取哪些具體且可操作的措施,系統(tǒng)性地減輕甚至消除人工智能偏見,以確保其發(fā)展不會加劇社會不平等?

Anthony Sar:人工智能往往會反映人類生成數(shù)據(jù)中存在的偏見,但我們應(yīng)該建立更具包容性的人際聯(lián)結(jié)。例如,我們?yōu)楸敬谓鹑诳萍贾茉O(shè)計的人工智能社區(qū)主持人Samantha,在為參會者進行匹配時,僅關(guān)注雙方的共同利益,而忽略頭銜、國籍或影響力等因素。

Samantha通過發(fā)起原本可能不會發(fā)生的引薦,幫助打破了這一障礙。活動吸引了來自120多個國家的參與者,Samantha基于共同價值而非曝光度為人們搭建聯(lián)結(jié)。這只是人工智能如何幫助減少壁壘、推動以人為本的機會獲取的一個例證。

人工智能責任應(yīng)由多方共同承擔

NBD:當人工智能系統(tǒng)出現(xiàn)嚴重錯誤(例如自動駕駛汽車引發(fā)事故、醫(yī)療人工智能給出誤診)時,該由誰為這一錯誤負責?

Anthony Sar:人工智能的責任應(yīng)由多方共同承擔。就像交通安全依賴于司機、行人及監(jiān)管機構(gòu)共同遵守規(guī)則一樣,負責任的人工智能需要開發(fā)者、部署者和用戶各自承擔明確的角色。

我們已經(jīng)擁有監(jiān)管復雜系統(tǒng)的框架,通過標準制定、測試和執(zhí)行,這些框架同樣可以應(yīng)用于人工智能領(lǐng)域。

例如,我們在Samantha的設(shè)計中融入了“人機協(xié)同”模式,確保所有互動均經(jīng)由活動組織者與我們的團隊審核后,再逐步擴大自動化應(yīng)用范圍。這種方式既保留了人類監(jiān)督,又讓人工智能能夠處理日常事務(wù),為平衡創(chuàng)新與問責提供了真實可行的實踐模型。

NBD:隨著人工智能能力的快速提升,人們對其被惡意使用的擔憂日益加劇,甚至有人擔心人工智能可能變得無法控制,超出人類的監(jiān)督范圍。您認為這些是迫在眉睫的現(xiàn)實威脅,還是遙遠的科幻場景?國際社會應(yīng)如何為人工智能的發(fā)展和使用劃定“紅線”,以應(yīng)對其可能帶來的“災難性”或“生存性”風險?

Anthony Sar:與任何強大的技術(shù)一樣,人工智能既可用于造福人類,也可能被用于危害他人,就像核能一樣。人工智能可能在未來20年內(nèi)超越人類能力,因此治理至關(guān)重要,必須確保技術(shù)發(fā)展的方向始終服務(wù)于人類福祉。

我們認為,靈活的、基于風險的治理模式是關(guān)鍵。需要注意的是,并非所有應(yīng)用場景都存在相同程度的風險,在金融、醫(yī)療或公共安全等敏感領(lǐng)域,監(jiān)管必須像對持證職業(yè)那樣嚴格,確保每一項決策都經(jīng)過測試、驗證并明確問責。但在創(chuàng)意類或低風險應(yīng)用場景中,應(yīng)允許人工智能在清晰的倫理準則下更自由地發(fā)展。

封面圖片來源:受訪者供圖

如需轉(zhuǎn)載請與《每日經(jīng)濟新聞》報社聯(lián)系。
未經(jīng)《每日經(jīng)濟新聞》報社授權(quán),嚴禁轉(zhuǎn)載或鏡像,違者必究。

讀者熱線:4008890008

特別提醒:如果我們使用了您的圖片,請作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。

歡迎關(guān)注每日經(jīng)濟新聞APP

每經(jīng)經(jīng)濟新聞官方APP

0

0