56 2 科技與商業應用 具解釋力大勢所趨 可以看到,由人工智能所生出的決策,要求演算法具有解釋能力(AI Interpretability), 或稱「機器學習解釋」(Machine Learning Explanation‧ML)能力,是目前人工智能 領域最前沿的研究,其發展趨勢和商業應用前景非常值得關注。 以信用卡公司審核申請為例。究竟該不該批準 A 君的信用卡申請?銀行通過數據,包括 個人資料,如年齡、學歷、入息、有沒有破產紀錄等等,透過演算法,決定不予批准。 但為什麼拒絶批出?AI 或 ML 演算法的模型,要求能夠給出解釋性理由;而顧客也有權 知道遭拒絶的因由。這是歐盟《一般資料保護條例》制定有關「權利解釋權」的立法精 神;也是在商業應用時,企業愈來愈需要重視客戶知情權的大趨勢。 看深一層,無論 AI 或 ML 演算法,其模型設計的目的,一、是作出預測,或二、發現資 料變數之間的潛在關聯特徵。隨著 AI 的技術發展與廣泛應用,演算法也愈來愈複雜, 很多演算法的預測精確能力提高,卻缺乏解釋性,這種發展方向的可持續性確實並不 理想。因此,演算法能夠對決策結果作出解釋,幫助人類對相關事件/商業行為/消費習 慣 ........等的演算法結果作出分析,是當前 AI 一個重要前沿發展方向。 購物籃子的分析啟示 以購物籃分析(Market Basket Analysis)為例,電子商務巨擘亞瑪遜的銷售推薦系統 值得一提,例如,你網購一把刮鬍刀時,系統同時向你推薦 B 商品;並為相應推薦提供 解釋—因為系統清楚告訴你,購買了這刮鬍刀的其他顧客,同時也買了 B 商品,兩者 是配搭一起購買的。有研究發現,這種帶解釋性的推薦,有效地提高顧客的購買意欲。 對銷售商來說,無疑有助提高營銷額。 在機器學習中,有一種稱為「監督式學習」(Supervised learning)方法。簡單來說, 是電腦程式通過一些訓練資料(如一些歷史數據)中,學到或建立一個模型,據此模 型推測新的實例,作出相應的預測。在「監督式學習」中,最簡單的模型是決策樹模型 (Decision Tree Model)。該模型模仿人們日常所做決策的思路,按照一條條規則進行 相應預測。
RkJQdWJsaXNoZXIy NDk5Njg=