生成式人工智能因其重塑企業的潛力而受到全世界的關注。 這種潛力包括自動化、增強的個性化、大規模內容創建等等。 作為愛德曼數字危機全球負責人,我專門幫助公司應對數字驅動的危機。 這就是為什麼我相信生成式人工智能革命將成為一場生成式危機,以及我建議團隊採取哪些措施來維護他們的聲譽和業務: 生成性危機 生成式人工智能提出了有關真實性和治理的重要問題。 該技術帶來了虛假信息的直接風險,這很容易導致失去控制和責任的長期風險。 以下是由於生成人工智能,組織目前面臨並將在未來繼續面臨的五個最大挑戰。 團隊如何管理人工智能和零信任環境的風險 生成式人工智能已經催生了廣泛的強大應用,但該技術也有可能削弱我們在社會層面上消費的信息的信任。 企業聲譽將——至少部分——掌握在人工智能手中,接受整個互聯網的培訓,並由不透明的、不受監管的處理模型推動。 這些威脅沒有一種解決方案,但有七種可能的方法: 1. 採取信任驅動行為:對人工智能影響的一些擔憂——特別是在內容創作和知識產權方面——可以通過道德聯盟和行動來解決。 愛德曼的愛德曼信託管理研究表明,能力(擅長自己所做的事情)並不總是足以贏得客戶的信任。 事實上,與誠信和可靠性相關的道德相關維度驅動著組織信任資本的大部分。 至關重要的是,團隊圍繞生成人工智能製定並協調道德護欄,以主動建立信任。 2. 教育員工:作為員工最值得信賴的信息來源,公司在提高數字和媒體素養方面可以發揮作用。 例如,對員工進行如何更好地評估信息可靠性的培訓將降低他們被陰謀論、錯誤信息或網絡攻擊欺騙的風險。 3. 制定參與規則:隨著技術以指數級的速度發展,公司必須為其在業務中的使用設定明確的參數,既可以降低風險,又可以讓人們安全地進行實驗。 隨著人工智能版權等領域法律先例的發展,組織應確保當地市場法律團隊參與有關使用生成式人工智能進行營銷活動的決策。 4. 提高業務針對新的和演變的威脅的彈性:確保您的危機準備和準備工作適合應對新的和演變的人工智能威脅。 建立或審查數據洩露和其他網絡安全事件的協議。 將虛假信息攻擊或產品錯誤信息等威脅嵌入到您...