Kidsopp NGO公開セミナー POV:人工智能可能會損害企業。 以下是如何保護您的 圍繞生成人工智能的炒作繼續滾雪球

 

生成式人工智能因其重塑企業的潛力而受到全世界的關注。 這種潛力包括自動化、增強的個性化、大規模內容創建等等。

 

作為愛德曼數字危機全球負責人,我專門幫助公司應對數字驅動的危機。 這就是為什麼我相信生成式人工智能革命將成為一場生成式危機,以及我建議團隊採取哪些措施來維護他們的聲譽和業務:

 

生成性危機

生成式人工智能提出了有關真實性和治理的重要問題。 該技術帶來了虛假信息的直接風險,這很容易導致失去控制和責任的長期風險。 以下是由於生成人工智能,組織目前面臨並將在未來繼續面臨的五個最大挑戰。

 

團隊如何管理人工智能和零信任環境的風險

生成式人工智能已經催生了廣泛的強大應用,但該技術也有可能削弱我們在社會層面上消費的信息的信任。

 

企業聲譽將——至少部分——掌握在人工智能手中,接受整個互聯網的培訓,並由不透明的、不受監管的處理模型推動。

 

這些威脅沒有一種解決方案,但有七種可能的方法:

 

1.採取信任驅動行為:對人工智能影響的一些擔憂——特別是在內容創作和知識產權方面——可以通過道德聯盟和行動來解決。 愛德曼的愛德曼信託管理研究表明,能力(擅長自己所做的事情)並不總是足以贏得客戶的信任。 事實上,與誠信和可靠性相關的道德相關維度驅動著組織信任資本的大部分。 至關重要的是,團隊圍繞生成人工智能製定並協調道德護欄,以主動建立信任。

 

2. 教育員工:作為員工最值得信賴的信息來源,公司在提高數字和媒體素養方面可以發揮作用。 例如,對員工進行如何更好地評估信息可靠性的培訓將降低他們被陰謀論、錯誤信息或網絡攻擊欺騙的風險。

 

3. 制定參與規則:隨著技術以指數級的速度發展,公司必須為其在業務中的使用設定明確的參數,既可以降低風險,又可以讓人們安全地進行實驗。 隨著人工智能版權等領域法律先例的發展,組織應確保當地市場法律團隊參與有關使用生成式人工智能進行營銷活動的決策。

 

4. 提高業務針對新的和演變的威脅的彈性:確保您的危機準備和準備工作適合應對新的和演變的人工智能威脅。 建立或審查數據洩露和其他網絡安全事件的協議。 將虛假信息攻擊或產品錯誤信息等威脅嵌入到您的風險評估、場景規劃、準備和培訓中。

 

5. 主動披露生成式人工智能的使用:雖然歐盟、美國和加拿大等司法管轄區都在朝著監管人工智能的方向發展,但企業有機會通過在內部和外部主動披露生成式人工智能的實質性使用來維持信任。

 

6. 與其他機構合作開發社會解決方案:技術公司、政府和民間社會組織需要合作開發強大的身份驗證和驗證系統,例如數字水印和內容來源跟踪。 我相信合作可以幫助創建可持續的解決方案,以保護企業免受與生成人工智能相關的風險。

 

7. 了解最新發展:隨著生成式人工智能持續快速發展,企業必須隨時了解最新發展,並做好相應調整戰略和政策的準備。

 

我們仍處於生成式人工智能革命的開端。 這些技術的創造性、生產力和創新優勢是顯而易見的,並且該領域本已極快的變革步伐在未來幾年可能還會加快。 然而,這些技術的潛力也有其陰暗面。 企業——無論他們是否選擇為自己部署這些工具——都需要做好準備。

三和一善・林嘉麗・チャールズ リム

Comments

Popular posts from this blog

在困難的假期期間為同事提供支援的 3 種簡單方法

第四次工業革命就在這裡。 這對我們的工作方式意味著什麼

三和一善