如何避免生成式AI虛構事實的問題

生成式人工智慧(Generative AI,也被稱為生成式AI)正在徹底改變多個行業的價值創造方式。然而,儘管用戶能夠享受便利,他們也必須應對虛構事實、隱私和智慧財產權等問題。

一篇發表於2023年11月《哈佛商業評論》上的文章《如何利用生成式人工智慧》提供了解決這些問題的建議。

首先,在虛構事實方面,文章提供了三種解決方式,如圖1所示。

圖1 虛構事實的三種解決方法

1.建立使用規範,或整合其他系統

企業可以透過技術建立使用標準,自動判斷是否適合使用生成式AI,降低虛構的可能性。同時,可以與其他系統結合,例如克里斯塔(Cresta)新創公司的智慧客服系統,在接收客戶問題後,能根據語意從企業手冊或文件中提取答案,確保回應內容的正確性。

2.結合人工審核

行銷人員可以審查生成文案是否通順,軟體工程師可以確認生成代碼是否正確,進行品質確認。例如,一位醫生可以使用生成式AI自動化總結患者的就診報告,將原本需要2小時的任務縮減到20分鐘,醫生只需進行最終審核確認,有更多時間用於病人服務。

3.不使用大型語言模型

該篇文章的其中一位作者在用ChatGPT整理參考文獻時,發現一些文獻是錯的。當他向ChatGPT提供一篇文章的URL時,有時會產生錯誤的標題、錯誤的日期、甚至是錯誤的作者。他發現手動建立參考文獻,可能比逐條審查生成的參考文獻(包括標題、出版日期、作者等)更加迅速。

此外,在使用生成式AI時,企業必須制定明確的隱私政策,明確規範哪些員工有權存取資料,並避免使用機密資料進行訓練,以免在生成過程中產生機密洩露的風險。例如,三星(Samsung)引入ChatGPT後不久,就發生了良率和測量數據等機密外洩事件。

同時,在智慧財產權方面,由於生成式AI的內容主要來自網路上眾多的訓練資料,其知識產權歸屬尚未明確定義。許多組織仍在等待法院的判決結果。為了鼓勵使用,一些系統供應商選擇自行承擔法律風險。例如,Adobe宣布將賠償其旗下圖像生成軟體Firefly的法律索賠。

最後,該文章指出,為了避免生成式AI產生偏見,必須在訓練時提供完整的、高品質的資料,以避免「垃圾進,垃圾出」的問題。例如,如果一家企業只招聘研究所畢業生作為產品經理,那麼使用這樣的就業歷史資料來訓練招聘決策系統,可能會導致拒絕沒有研究所學歷的求職者。

總之,在採用生成式AI技術的同時,企業務必慎重評估其使用,同時制定嚴格的使用標準。

黃揚博(政大企管碩士,識商創辦人)、羅凱揚(台科大兼任助理教授)

資料來源:McAfee, A., Rock, D., & Brynjolfsson, E. (2023). How to Capitalize on Generative AI. Harvard Business Review, 101(6), 42–48. https://hbr.org/2023/11/how-to-capitalize-on-generative-ai

更多商普好文推薦

回到頂端