國家安全機關提示:使用智能設備,牢記這三條守則!
初中教師小李自從使用AI備課后,能在五分鐘內生成一份生動有趣的教案,包括圖片、視頻和互動問答。“以前備課要兩小時,現在可以省下更多時間關注學生個人情況,還能一對一定制專屬練習題。”
某獨居老人陳爺爺,通過子女贈送的智能音箱,找到了新樂趣。“小智不僅能陪我聽戲、聊天,還會在我忘記吃藥時主動提醒,它居然還記住了我所有孫輩的生日。”
29歲的小王原本是文案策劃,因擅長與AI“對話”,現已成功轉型為提示詞工程師。“關鍵是要把指令說得足夠清晰。”從智能客服到AI繪圖師,大模型正創造著一個個前所未見的新崗位。
當前,AI大模型加速賦能千行百業,推動人們生活日新月異,這位能干又貼心的“數字伙伴”正加速融入我們日常生活。然而每一次技術躍遷必然伴隨著新的挑戰,當AI的觸角延伸越廣、嵌入越深,隨之而來也暴露出數據隱私、算法偏見等潛在風險,亟需我們構筑安全防線,助推這場深刻的智能變革,安全賦能美好未來。
|
高速發展背后的“暗礁”
——數據隱私與安全邊界模糊。個別單位因直接使用開源框架建立聯網大模型,導致攻擊者未經授權即可自由訪問內部網絡,從而引發數據泄露和安全風險。據公開案例顯示,某單位工作人員在處理內部文件時,違規使用開源AI工具,由于電腦系統默認開啟公網訪問且未設密碼,導致敏感資料被境外IP非法訪問和下載。
——技術濫用與虛假信息產生。利用AI的深度學習算法進行自動化的數據處理,實現圖片、音頻及視頻的智能模擬和偽造,這種技術被稱為深度偽造(Deepfake)。一旦該技術被濫用或惡意使用,將給個人合法權益、社會穩定甚至國家安全帶來諸多風險和挑戰。國家安全機關工作發現,某境外反華敵對勢力通過深度偽造技術生成虛假視頻,并企圖向境內傳播,以誤導輿論、制造恐慌,對我國家安全構成威脅。
——算法偏見與決策“黑箱”。AI的判斷源于其所學習的資料,若訓練數據本身存在社會偏見或代表性不足等問題,大模型便可能放大歧視。測試顯示,某些AI會系統性偏向西方視角。當研究人員用中英文向某同一個AI提問歷史問題時,發現英文回復會刻意回避、淡化某些史實,甚至會給出包含錯誤歷史信息的內容,引發重大歧誤,而中文回復則相對客觀。
安全守則:給“數字伙伴”的三條守則
——守則一:劃定“活動范圍”。做到“權限最小化”,聯網AI不處理涉密數據、語音AI不收集環境語音、智能助手不保存支付密碼,關閉“數據共享”“云空間”等不必要的訪問權限。
——守則二:檢查“數字足跡”。養成定期清理AI聊天記錄、修改AI工具密碼、更新防病毒軟件、查看賬號登錄設備等習慣。同時避免隨意下載使用來源不明的大模型程序,對提供身份證、銀行賬戶或其他敏感信息的要求保持警惕。
——守則三:優化“人機協作”。向AI提問時,在提示詞中明確禁止AI過度推演,并要求AI顯示來源或思考過程,對重要信息進行跨平臺驗證,合理辨別AI生成結果,特別是涉及政治、歷史、意識形態等話題時,要具備獨立思考意識,辯證看待AI的回答,避免陷入“AI幻覺”。
國家安全機關提示
安全是發展的前提,發展是安全的保障。只有懂科技、安全使用科技,才能讓AI大模型這一新興科技成為推動社會進步的正能量。廣大用戶應當提高安全意識,審慎授權大模型軟件權限。如發現AI大模型存在竊取個人信息,向境外傳輸敏感數據等危害網絡安全的問題線索,可通過12339國家安全機關舉報受理電話、網絡舉報平臺(www.12339.gov.cn)、國家安全部微信公眾號舉報受理渠道或者直接向當地國家安全機關進行舉報。
國內新聞精選:
- 2025年12月26日 00:32:36
- 2025年12月25日 17:57:43
- 2025年12月25日 12:05:01
- 2025年12月25日 09:37:39
- 2025年12月24日 15:20:40
- 2025年12月24日 15:01:52
- 2025年12月24日 08:46:17
- 2025年12月23日 18:07:25
- 2025年12月23日 10:42:07
- 2025年12月22日 21:59:50














































京公網安備 11010202009201號