2023-04-17
金融業對AI又愛又恨?彭博研發聊天機械人、高盛用AI輔助編程,但禁員工用ChatGPT?
ChatGPT旋風橫掃全球,除筆者上期提及的法律與醫療業者積極考慮部署外,甚至連一向取態保守的金融業界,也開始引入生成式AI。美國財經資訊公司彭博(Bloomberg)宣布,將會研發自家聊天機械人「BloombergGPT」,藉此推出適用於金融領域的AI模型。華爾街投資銀行高盛(Goldman Sachs)亦已在公司內部試用AI,輔助開發人員編寫和測試程式碼。究竟類ChatGPT工具在金融圈的應用前景如何?背後又隱藏了甚麼風險呢?
彭博創建金融資訊AI模型
2023年3月31日,彭博發表有關BloombergGPT的研究論文。該公司解釋,金融產業因業務本身的複雜性和涉及大量財經術語,所以必需擁有專屬的大型語言模型(Large Language Model)。彭博創建一個內含逾7,000億字詞碎片(Token)的語料庫,專供AI模型進行訓練。如此訓練規模已遠超OpenAI在2020年推出的GPT-3模型(語料庫有5,000億個Token)。
根據彭博介紹,BloombergGPT是專門針對各種金融數據進行訓練的大型語言模型。(圖片來源:Twitter@TechAtBloomberg帳戶)
BloombergGPT語料庫有3,630億個字詞碎片取自彭博終端機數據庫,另有3,450億個則來自其他來源的通用數據集。彭博把訓練數據分為兩大類:財金類「FinPile」與雜項類「The Pile」,讓AI模型可基於金融業和通用型場景進行混合訓練。
FinPile包含彭博數據庫內各式金融文本內容,例如新聞稿、公告、新聞文章、網頁內容、以及社交媒體貼文等。The Pile的來源則非常多樣化,包括YouTube畫面擷取、文藝數碼化的古騰堡計劃(Project Gutenberg)、以及安隆公司(Enron)的電郵快取。
根據彭博表述,BloombergGPT在金融任務上的表現優於其他AI模型,在通用場景上的表現則與現有模型相若。BloombergGPT不僅可以像ChatGPT般回答用戶提問,又容許用戶透過口語方式操作彭博終端機,更能為新聞文章撰寫具有彭博新聞風格的標題。彭博形容, BloombergGPT的開發,代表生成式AI在金融業應用上邁出了第一步。
高盛用AI協助編寫程式碼
另一邊廂,華爾街投行高盛的內部開發人員已開始使用生成式AI來進行編程。高盛資訊長馬可‧阿讓蒂(Marco Argenti)表示,在某些情況下,AI可以幫助開發人員編寫約20%至40%的程式碼,讓生產力獲顯著提升。
擁有近40年IT資歷的阿讓蒂認為,生成式AI是科技的重大轉折點,其顛覆性足以媲美互聯網與雲端運算。他指出,AI技術尚處於早期發展階段,所以暫時不會將最重要工作交給AI處理,目前首要任務是要了解AI在金融領域上的應用潛力,高盛開發人員現已就此進行深入研究。
高盛強調,AI 不是開發人員的替代品,反而是協助他們提高生產力的工具。(圖片來源:維基百科)
其實,生成式AI在金融業可以有非常多元化的應用方向。ChatGPT的強項是理解用戶輸入問題後,自動生成井井有條的答案。當ChatGPT進入金融圈後,便可以充當智能財務顧問,即時回答客戶常見提問,諸如開設帳戶流程、匯款交易問題、不同金融產品之間的差異;甚至可以根據客戶的帳戶資料,為客戶推薦最適合的財務方案。
AI幫助分析數據、生成報告
金融業者需要處理大量財經文本數據,如新聞、報告、評級等。ChatGPT正好可以幫忙做重點整理和摘要,幫助從業員更快理解和掌握數據。同時,AI在梳理數據後,又可以自動生成財務報告,減少人手輸入的錯誤和時間成本,提高作業效率。
生成式AI又可以協助分析借款人的財務記錄,從而預測借款人是否有能力償還貸款,以降低貸款違約的風險。針對銀行投資部門,AI可以預想不同壓力測試情境,讓從業員了解各種非流動性金融資產的狀況,又可以分析上市公司財務數據,進而預測其未來業務走勢,幫助決策者做出更精確的投資決定。
另外,已有銀行開始使用ChatGPT協助處理客戶開戶的KYC(Know Your Customer)調查。每當有客戶到銀行開戶,銀行都會進行負面新聞檢索,查看客戶有否涉及洗錢、貪污、監管違規等負面行為,惟調查過程卻很花時間。
如改由ChatGPT代為處理,在研讀客戶的所有相關新聞資料後,AI會自動把當事人過去所有負面新聞列出來,並作出重點整理和摘要,令原本起碼要30分鐘的作業時間,縮短至數分鐘即能完事,讓開戶顧客等待時間大幅減少。
使用ChatGPT有洩密風險
然而,並非所有華爾街銀行都歡迎生成式AI。摩根大通、美國銀行、花旗集團、富國銀行、以及德意志銀行.現已限制員工在公司內部使用ChatGPT。這不僅因為ChatGPT屬於第三方應用軟件,不是公司內部系統,更因為與AI共享敏感財務資料的潛在監管風險。
摩根大通現已禁止全公司員工使用ChatGPT。據悉,有關禁令並非源自任何特定事件,而是基於公司對第三方軟件的正常管控。(圖片來源:摩根大通官網)
目前富國銀行限制所有員工使用ChatGPT,但不排除未來會採用ChatGPT的可能性。(圖片來源:維基百科)
當用戶在ChatGPT上輸入任何資料,都會自動被當成AI模型的訓練數據。科技網媒The Register引述韓國媒體Economist的消息指,三星電子(Samsung Electronics)近日發生了3宗員工使用ChatGPT導致機密資料外洩事件。
有三星員工把公司系統程式碼上傳至ChatGPT,要求AI幫助修復錯誤和改善程式碼;又有員工將會議記錄輸入至ChatGPT,指示AI幫忙做重點整理,以致工廠性能、產量等機密資料變成GPT模型訓練數據的一部分。於是,外部人士藉由向ChatGPT提問,就有機會得知三星半導體廠房的機密。
三星電子員工疑似因使用ChatGPT,導致公司機密有可能外洩。事件發生後,該公司隨即啟動資訊保護指施,將每次輸入ChatGPT的資訊量限制在1024 byte以下,並進行內部調查。(圖片來源:Samsung官網)
除此以外,無論是GPT-4、抑或其他大型語言模型,均有資訊幻覺(Hallucination)問題,偶爾會無中生有、捏造資訊。假如分析師使用ChatGPT來生成研究報告,內容看似相當可信,惟報告中所述的產業發展卻是子虛烏有,錯誤成為一家上市公司的利空或利多消息,這將造成非常嚴重的後果。
再者,AI模型是直接從互聯網抓取資訊作訓練數據,當中有可能夾雜了某些版權作品。對銀行或提供財經資訊的通訊社而言,此舉有侵權之嫌,可能會損害公司聲譽。
華爾街銀行禁用ChatGPT
有鑑於此,摩根大通(JPMorgan Chase)在2023年2月23日宣布,不准員工在辦公室使用ChatGPT,成為首家禁用ChatGPT的銀行。隨後,美國銀行例行提醒員工切勿使用未經授權軟件時,也特別點名提到ChatGPT。
德意志銀行表明,嚴禁員工在公司內用ChatGPT,並從內部阻斷連接OpenAI網站。盡管高盛鼓勵編程人員採用AI來輔助編程,但卻禁止旗下交易員使用ChatGPT。
如此看來,金融業者對生成式AI可說是又愛又恨:既樂於用生成式AI來提升營運效率,但也要嚴防ChatGPT帶來的洩露機密、侵犯版權、或損害商譽等風險。富國銀行(Wells Fargo)表示,不排除日後會採用ChatGPT的可能性,但大前提是要有適用於銀行運作的專屬AI模型。
因此,未來銀行使用的類ChatGPT工具,背後的AI模型應是非開放式:訓練模型所用的數據不是從互聯網直接擷取,而是來自銀行內部知識庫,即是BloombergGPT的做法。這樣能夠控制聊天機械人的回覆在限定範圍內,加上在回答內容上標註參考文件來源,便可以解決ChatGPT被人詬病的資訊失實問題。
根據彭博社的調查,三分之二的金融從業員認為,自己在未來3年不會被ChatGPT取代。(圖片來源:Pexels圖庫網站)
銀行從業員學習與AI共存
日後銀行理財顧問在AI的幫助下,便可以專注於與客戶溝通互動,進而建立感情來維持長久的客戶關係。此外,當AI自動完成各項市場研究工作後,理財顧問又可以騰出時間來關注客戶的長遠需要,譬如長期財務規劃、或遇到人生大事(如結婚或退休)後的財務規劃改變。
由是觀之,銀行業全面引入AI科技後,帶來的未必是大幅裁員,而是工作形態的轉變。國際諮詢顧問機構埃森哲(Accenture)指出,未來銀行從業員的訓練應聚焦於培養善用AI的能力,學習與AI共存,達到增加作業效率的效果。
Accenture針對銀行使用AI的價值研究報告指出,隨著業者逐漸採納生成式AI,未來銀行內可能會產生一些新職位,例如機器學習工程師、金融詐騙分析師、以及替代貨幣研究員等。(圖片來源:Pexels圖庫網站)
日後銀行在招聘員工時,未必再關注應聘者能否做好特定專門業務,而是要求對方具備AI適應能力。銀行從業員必需充分了解AI的能力與極限,與人腦的專長之間該如何有效協作,這樣才可以在未來銀行業中佔一席位。
《說說心理話》從心理學角度看成癮:點解沉迷?點樣算上癮?一個關鍵指標!邊類人最難以自拔?► 即睇