【本報訊】香港個人資料私隱專員公署11日發布《人工智能(AI):個人資料保障模範框架》,為有意採購人工智能系統處理個人資料的機構提供建議,以減低私隱風險。
該框架涵蓋四大範疇,分別為制定AI策略及管治架構,為員工提供相關培訓;建立風險管理機制,採取“風險為本”的管理方式;實施及管理AI模型的定製,並為模型準備及管理數據;以及促進持份者,尤其內部員工、AI供應商等的溝通及交流。
框架建議,機構在引入AI系統前需要進行全面的風險評估,包括考慮涉及的個人資料數量、敏感程度、資料保安、出現私隱風險的可能性和潛在損害的嚴重程度等,並採取相稱的風險管理措施,包括作出適當的人為監督,以減低AI作出不當決定。
私隱專員鍾麗玲引述生產力局數據指,今年預計將有近一半香港機構使用AI,按年上升約兩成,其中較多企業使用生成式AI,較其他如雲端計算、物聯網等新興技術存在更多私隱風險。她希望,框架可協助機構遵從《私隱條例》的規定,以孕育AI在香港的健康發展,並促進香港成為創新科技樞紐,以及推動香港以至大灣區的數字經濟發展。
青年創研庫曾於去年6月21日至7月10日期間,訪問558名15至34歲青協會員,另訪問18名青年個案及7位專家和學者。研究發現,受訪青年不太擔心生成式AI會取代自己,以10分為最擔心,0分為完全不擔心,平均得分4.87分;14%受訪者更認為可增加個人就業機會。
至於生成式AI廣泛應用可能會為社會帶來哪些風險,虛假信息和知識產權分別佔67.7%和43.9%、數據安全佔40%;還包括私隱保障、道德倫理等問題。65.6%受訪者讚成政府需監管生成式AI。【編輯:陳康】
編輯出版發行人:環球新聞時訊報
社 長:魏月童
承 印:環球電視有限公司
地 址:香港上環幹諾道西20號中英大廈14樓1401室