人工智慧已不再侷限於後台辦公室。從處理複雜查詢的聊天機器人到產生投資組合摘要的機器人顧問,人工智慧越來越多地成為傳達金融資訊的主要管道。雖然這種轉變帶來了效率和規模,但它稀釋了解釋風險時的「人性化接觸」,人類顧問可以察覺客戶的猶豫並提供細緻的指導,而針對速度和清晰度進行最佳化的人工智慧介面往往會忽略這些。
在南非背景下,這造成了一個矛盾。人工智慧驅動的揭露承諾使金融資訊的取得民主化,但它們引入了威脅公平性、消費者保護和系統穩定性的不透明風險。當我們整合這些技術時,創新不能以犧牲客戶保護為代價。
監管基準:POPIA、TCF與治理
南非的監管框架為管理人工智慧風險提供了堅實的基礎,儘管它並非以機器學習為設計初衷。
個人資訊保護法(POPIA)直接適用。金融人工智慧模型依賴龐大的資料集、信用歷史、人口統計和行為資料,處理必須保持合法、透明並與收集的原始目的一致。至關重要的是,第71條賦予客戶權利,可對僅透過自動化流程做出且具有法律後果的決策提出質疑。隨著自動化信用評分和承銷成為標準,機構必須確保為客戶提供清晰的途徑以請求人工審查。
人工智慧可以透過確保負擔能力檢查的一致應用來改善公平對待客戶(TCF)的結果。然而,如果模型是基於歷史偏見資料進行訓練的,它可能產生歧視性結果,違反TCF的公平對待原則。深度學習的「黑箱」特性進一步使結果3(清晰資訊)和結果4(合適建議)複雜化,如果機構無法解釋如何達成某個結果,有意義的揭露就變得困難。
King V公司治理準則(2025年10月)強化了這些義務:原則10明確指出,董事會必須參與自動化決策的倫理、法律和策略後果。人工智慧不僅僅是資訊科技問題。
公平性、透明度與保護
基於南非歷史資料訓練的人工智慧模型有再現根深蒂固的社會經濟不平等的風險。即使排除種族等受保護特徵,代理變數(郵遞區號、教育程度、就業模式)也可能產生功能上相似的歧視性結果,基於系統性因素而非個人優點限制信貸或保險的取得。
透明度必須有意義地校準。揭露必須超越簡單的免責聲明:消費者應獲得關於人工智慧如何影響其相關結果的清晰解釋,以及關於其救濟權的資訊。對監管機構而言,重點轉向治理和可解釋性,證明實體理解模型的邏輯和現有的保障措施。
生成式人工智慧引入了「幻覺」的額外風險,即看似合理但事實上不正確的輸出。為潛在客戶轉換進行最佳化的人工智慧系統可能會透過淡化風險警告而無意中推動客戶選擇高風險產品。輸出過濾器必須禁止人工智慧截斷強制性風險揭露。
保持金融系統穩定
分析師監控資料螢幕。Freepik
除了個別互動之外,人工智慧影響更廣泛的系統穩定性。它幫助監管機構即時掃描龐大資料集以偵測詐欺或破產,作為比單純人工分析更快的預警系統。它還可以將複雜的金融術語翻譯成易懂的語言,透過改善消費者理解來降低違約率。
然而,過度依賴少數大型語言模型(LLM)會產生集中風險:多個機構可能以相同方式解讀市場訊號並同時做出反應,加劇波動性或觸發閃電崩盤。人工智慧在重大公開揭露中產生的錯誤可能立即傳播,在人類能夠糾正記錄之前觸發自動化交易反應。廣泛使用的信用評估模型中的單一錯誤可能同時影響不同銀行的數百萬客戶。
南非金融機構的考量
隨著機構從人工智慧實驗轉向全面部署,治理框架必須演進。人在迴路(HITL)協議應包括:
人工智慧是一種工具,而非人類。在南非,金融包容性和客戶保護至關重要,人工智慧必須釐清金融局勢,而非使其模糊。透過將部署建立在POPIA、TCF和King V原則之上,並嵌入強大的治理和人工監督,金融機構可以在不損害公平性或穩定性的情況下利用人工智慧的潛力。正確使用時,人工智慧不會取代人類角色,它會提升人類角色,讓專業人士專注於機器無法複製的判斷、脈絡和問責制。
負責任金融人工智慧部署的治理框架
* 金融業操守監管局(FSCA)監管和監督南非金融機構的市場行為。請訪問 www.fsca.co.za。


