
AI代寫愈加火熱,人工智能(néng)潛在隐患又該如(rú)何防範?
編輯:2024-01-05 11:39:28
時值年(nián)末,又到了一年(nián)一度寫年(nián)終總結的時候,*近,武漢的一家(jiā)公司在朋友圈發(fā/fà)布的招聘啓事(shì)引發(fā/fà)關注。内容說:“今年(nián)在AI的協助下(xià),大緻會(huì)撰寫35萬份以上報告(去(qù)年(nián)是26萬份),年(nián)底來臨,有不少總結性報告要(yào / yāo)寫,招多個兼職報告撰寫人員。”據了解,有了AI加持,這家(jiā)公司在精簡10%-20%人力的基礎上,單量卻比去(qù)年(nián)同期增加20%-30%。
此外,據報道,在某線上購物平台,輸入“年(nián)終總結AI”“代寫”等關鍵詞,立刻蹦出許多相關産品。商家(jiā)在産品介紹中寫下(xià)宣傳語:“AI智能(néng)原創、寫作必備”“懶人辦公”“三分鍾急速交稿”等。産品銷量一般在幾千單左右,有的店鋪月銷量達6萬單以上。
随着(zhe/zhuó/zhāo/zháo)科技快速發(fā/fà)展,人工智能(néng)(AI)應用(yòng)越來越廣泛,它深入到醫療、教育、娛樂等各個領域。如(rú)今,伴随各類年(nián)度總結任務的集中湧來,AI代寫業務火了,然而(ér),這看似*輕松的背後(hòu),卻隐藏着(zhe/zhuó/zhāo/zháo)巨大的風險!
那(nà)麽
人工智能(néng)應用(yòng)使用(yòng)過(guò)程中
隐藏哪些風險呢?
下(xià)面跟着(zhe/zhuó/zhāo/zháo)小密一起來看!

人工智能(néng)在促進社會(huì)發(fā/fà)展進步的同時,也伴随着(zhe/zhuó/zhāo/zháo)一些風險隐患,以今年(nián)爆火的ChatGPT爲例,若被不當使用(yòng)或濫用(yòng)很有可(kě)能(néng)影響到國家(jiā)安全、社會(huì)穩定、企業利益和個人用(yòng)戶權益等諸多方面。
而(ér)ChatGPT類大模型加速了數字世界和物理世界的深度融合,引領人工智能(néng)進入新的發(fā/fà)展階段。與此同時,人工智能(néng)固有的不确定性、不透明性、難以解釋、事(shì)實性錯誤等能(néng)力局限,對(duì)經濟發(fā/fà)展、國際政治和全球治理等方面帶來深遠影響,引發(fā/fà)了全球對(duì)大模型廣泛應用(yòng)安全風險的熱議。如(rú)何應對(duì)人工智能(néng)風險并把握人工智能(néng)發(fā/fà)展的戰略主動,有效保障國家(jiā)安全,已成爲我國國家(jiā)安全治理的重要(yào / yāo)議題。
大模型技術引發(fā/fà)新的安全風險和治理挑戰。随着(zhe/zhuó/zhāo/zháo)技術的更新叠代,人工智能(néng)的應用(yòng)門檻持續降低,伴随着(zhe/zhuó/zhāo/zháo)誤用(yòng)濫用(yòng)情況的增加,經濟社會(huì)領域的多重安全風險也在交織疊加。
根據相關報道,ChatGPT的訓練使用(yòng)了45TB的數據、近1萬億個單詞(大概是1351萬本牛津詞典的單詞量)。其(qí)中很有可(kě)能(néng)就(jiù)包括未經同意獲取的個人信息。除前述海量數據外,ChatGPT還能(néng)夠在與用(yòng)戶一對(duì)一的對(duì)話互動中獲取信息。
在該軟件隐私政策不明了的情況下(xià),個人信息是否會(huì)被存儲、洩露,甚至被惡意使用(yòng)都不得(dé / de / děi)而(ér)知。
ChatGPT龐大的網絡語料庫中或許包含着(zhe/zhuó/zhāo/zháo)他人擁有著作權的作品,故其(qí)生(shēng)成的文本也存在嫁接他人作品的可(kě)能(néng)性。但它在輸出内容時卻未必能(néng)夠識别,也不一定會(huì)對(duì)用(yòng)戶進行(háng / xíng)提示。在沒有得(dé / de / děi)到原作者授權的情況下(xià),ChatGPT産生(shēng)的文本如(rú)果被使用(yòng),那(nà)麽則很有可(kě)能(néng)是使用(yòng)者承擔知識産權侵權的法律風險。
盡管ChatGPT被視爲有史以來*智能(néng)的AI,但它畢竟也不是全知全能(néng)。比如(rú)在一段涉及《紅樓夢》的對(duì)話當中,ChatGPT就(jiù)言之鑿鑿地宣稱,賈寶玉是賈元春的兒子。
盡管它在文字組織上的确能(néng)夠做到語句通暢,有條有理,但是并不能(néng)保障内容的真實準确。當用(yòng)戶在自(zì)己不熟悉的領域向ChatGPT咨詢問題時,就(jiù)很有可(kě)能(néng)因爲這些看似“高大上”的回複,錯信了有誤甚至是虛假的信息,從而(ér)産生(shēng)決策失誤、傳播虛假信息等諸多法律風險。
在高度智能(néng)化、自(zì)動化的應用(yòng)場景中,ChatGPT在數據獲取、處理、結果展示等環節都存在重大的數據安全風險。
一是數據獲取階段。用(yòng)戶在使用(yòng)ChatGPT時,可(kě)能(néng)會(huì)輸入自(zì)己或他人的信息數據,從而(ér)導緻隐私洩露。如(rú)果員工使用(yòng)ChatGPT輸入各類工作數據,就(jiù)可(kě)能(néng)導緻公司敏感信息洩露。而(ér)一旦輸入涉及國家(jiā)秘密或敏感内容的信息,則無疑會(huì)導緻洩密。
二是數據處理階段。ChatGPT會(huì)将用(yòng)戶輸入、交互的數據用(yòng)于(yú)後(hòu)續持續的叠代訓練,這就(jiù)導緻這些信息很可(kě)能(néng)被其(qí)他用(yòng)戶獲取,從而(ér)構成數據非授權共享,進而(ér)出現數據洩密問題。
随着(zhe/zhuó/zhāo/zháo)人工智能(néng)的不斷深入
我們在面對(duì)AI帶來的種種風險時
又該如(rú)何應對(duì)呢?
且聽小密爲你(nǐ)一一道來~

第一,建立行(háng / xíng)業監管制度并開展合規性評估審查。建立健全AI服務行(háng / xíng)業監督管理相關制度與标準。包括算法分級分類管理、算法推薦服務安全管理、AI 濫用(yòng)舉報等,并開展AI應用(yòng)安全合規性評估審查與處置,實現行(háng / xíng)業監管閉環。
第二,創新研究應用(yòng)人工智能(néng)賦能(néng)網絡安全技術。一方面,利用(yòng)AI技術賦能(néng)針對(duì)複雜網絡攻擊的防禦能(néng)力,使用(yòng) AI 技術應對(duì)其(qí)帶來的網絡安全風險;另一方面,研究利用(yòng)AI技術提升企業組織在網絡安全攻擊檢測、數據資産識别與風險監測、業務安全風控、不良信息識别、電信反詐、安全威脅分析、深度僞造識别等方面的能(néng)力。
第三,做好元宇宙等AI融合場景的安全風險梳理與防護技術儲備。對(duì)于(yú)元宇宙和AI融合關鍵場景,要(yào / yāo)抓緊開展安全技術研究儲備,提早防範大規模人工智能(néng)安全事(shì)件發(fā/fà)生(shēng)。


對(duì)于(yú)個人而(ér)言,除了避免陷入虛假宣傳,更重要(yào / yāo)的是面對(duì)花樣翻新的AI詐騙,必須保持防範意識。
保護信息,提高警惕。公衆要(yào / yāo)謹慎提交個人信息及企業數據,防範AI應用(yòng)個人隐私竊取、有害言論誤導誘導等風險,防範利用(yòng)ChatGPT熱點或者仿冒知名AI應用(yòng)收集敏感信息實施詐騙等行(háng / xíng)爲。
多重驗證,确認身份。如(rú)果有人自(zì)稱"熟人""領導"等通過(guò)社交軟件、短信以各種理由誘導彙款,或涉及網絡轉賬交易行(háng / xíng)爲時,務必通過(guò)電話、見面等多途徑核驗對(duì)方身份,不要(yào / yāo)未經核實随意轉賬彙款。
如(rú)不慎被騙或遇可(kě)疑情形,請注意保護證據,并立即撥打96110報警。
随着(zhe/zhuó/zhāo/zháo)AI産品的不斷更新,不少AI軟件推出了公文寫作闆塊,人工智能(néng)開始悄然影響公文寫作等日常政務工作,作爲機關、單位幹部職工,如(rú)果偷懶用(yòng)AI代寫,各種文件和數據洩露的後(hòu)果将不堪設想!
不僅如(rú)此,由于(yú)AI寫作内容相對(duì)比較籠統,語言僵硬,不貼合實際情況,使用(yòng)過(guò)程中還可(kě)能(néng)涉及信息洩露風險、侵犯知識産權等法律問題,所(suǒ)以小密建議大家(jiā),在工作中盡量不要(yào / yāo)使用(yòng)AI寫作,多積累理論知識和實踐案例,才能(néng)成爲真正的“筆杆子”!

來源:成華密語


咨詢熱線:0351-4073466
地址:(北區)山西省太原市迎澤區新建南路文源巷24号文源公務中心5層
(南區)太原市小店區南中環街529 号清控創新基地A座4層
