大企業如何避免AI洩密問題?- 以台積電的智能對話機器人iGenie為例

Last Updated on

一、AI工具使用與洩密問題

為了避免ChatGPT等生成式AI工具可能引發的洩密問題,許多大型企業包括三星和蘋果公司等,皆禁止員工使用這類工具。然而,工作時間外的使用這些企業往往難以規範,進而引發了一系列的問題。三星在今年四月導入ChatGPT後,僅20天就爆發了3起洩密事件。因此,三星在5月初決定禁止員工使用生成式AI工具,並考慮跟進台積電,改以內部AI服務取代。

二、企業紛紛禁用生成式AI工具

不僅三星,如今包括蘋果、威瑞森電信(Verizon)、摩根大通、美國銀行、高盛、富國以及花旗等華爾街大型銀行也都禁止或限制使用ChatGPT。此外,日本包括軟銀、瑞穗金融及三菱日聯集團等亦同樣禁止使用。至於亞馬遜,雖然限制員工使用GPT,但仍鼓勵工程師採用自家開發的AI工具寫程式。這些公司主要的考慮在於,使用生成式AI工具可能產生的洩密風險,遠超過生產力和效率的提升。

三、台積電的智能對話機器人iGenie

在各大企業紛紛禁止使用生成式AI工具的同時,台積電選擇了另一條路。台積電主管說:“與其禁用,還不如趕快開發出一套安全的智能對話機器人讓員工放心使用。”今年初,台積電組成百名團隊研發智能對話機器人iGenie,並在5月初推出,順利完成超前部署。

四、iGenie的功能及效益

那麼,這款iGenie智能對話機器人究竟能帶來什麼效益呢?它的功能相當豐富,除了可以提供如同ChatGPT的即時對話、翻譯與撰寫報告等功能外,還能編寫、除錯程式,並嘗試用虛擬的資料預測良率、庫存、價格及員工離職率等,協助台積電在生產、物料、銷售、人資等部門做出最佳化管理。這種自主開發的方式不僅能降低洩密風險,更能根據企業的特定需求來進行調整和優化,顯示出更大的潛力和可能。

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *