正值我國數據安全法施行兩周年,2023“浦江護航”數據安全上海論壇日前舉行。記者從論壇上獲悉,電信和互聯網企業承載著大量用戶個人信息和業務數據,佔比超過全國行業機構產生數據總量的四分之一,具有極高價值,但也成為網絡攻擊的主要目標,勒索病毒、數據泄露等安全事件時有發生,總體形勢依然嚴峻。其中,上海承擔著護衛數據安全的重要角色。上海市政府辦公廳副主任張宇祥介紹,截至去年底,上海數字核心企業已突破1200家,核心產業規模近3400億元。
去年11月以來,以ChatGPT為代表的生成式人工智能等新技術、新業務的發布,引發行業變革,但也為數據安全保護和監管帶來新挑戰。深信服科技股份有限公司副總裁馬蘊超舉例,“我們公司有一個細分產品規則庫,需要有4人花數年時間對其進行不斷更新維護。然而,經訓練的大模型隻用了一周時間,就超越了規則庫原先的更新維護效果。”
上海市數字証書認証中心有限公司總經理崔久強擔憂大模型的另一面。“我看過一個詐騙短視頻,其中用AIGC(生成式人工智能)生成了一個人的聲音和肖像,所謂眼見為實,而今已經做不到了。人臉識別是人工智能技術應用最先取得商業化成功的領域,但AIGC如果開始做壞事,比如各種偽造、攻擊等,后果是巨大的。”觀安信息創始人張照龍也留意到,大模型中隱含著許多敏感數據。不久前韓國三星一技術人員因寫代碼受困,求助於ChatGPT,將企業生產的核心代碼也上傳了,使個人、企業及國家敏感數據不斷處於風險之中。因此,如何做好數據的防泄密以及統一的數據管控,這非常關鍵。
“從去年ChatGPT重磅發布到今年以來國產大模型‘百模大戰’,可謂熱鬧非凡,但從過往經驗來看,我們應記住:永遠不要高估一個新技術前5年的創造性,也永遠不要低估它接下來5到10年的破壞性。”上海交通大學人工智能研究院副院長王延峰說。
國家和政府部門其實早已留意到其中的挑戰。今年8月31日,國內首批8家大模型公司通過《生成式人工智能服務管理暫行辦法》備案,獲批面向公眾開放服務,這些大模型包括上海人工智能實驗室的書生通用大模型、商湯科技“商量”,以及百度“文心一言”等。這意味著,國產大模型從“出生潮”邁向“應用潮”過程中,始終面臨著政府部門的審慎監管。
工信部網絡安全管理局副局長杜廣達在論壇上介紹,近期,工信部已啟動2023年“數安護航”專項行動,面向重點電商平台、數據中心和雲基礎設施運營企業,集中開展風險排查和防范處置,及時化解電信和互聯網領域數據安全的風險隱患。