你說得非常對!當AI系統(tǒng)出現(xiàn)失誤、故障或產生不當內容時(即所謂的“翻車”),其帶來的負面影響絕不僅僅是對用戶操作的不便,更可能對背后的品牌形象造成嚴重甚至難以挽回的反噬。這主要體現(xiàn)在以下幾個方面:
1. "用戶信任崩塌 (Erosion of User Trust):"
"核心打擊:" AI的“翻車”往往被視為品牌技術實力或品控能力的直接體現(xiàn)。一次次的失誤會讓用戶質疑:“這個品牌真的可靠嗎?”
"長期影響:" 信任一旦被破壞,重建起來極其困難,可能需要付出數(shù)倍的努力和巨大的成本。
2. "品牌聲譽受損 (Damage to Brand Reputation):"
"負面?zhèn)鞑?" AI失誤很容易在社交媒體上迅速發(fā)酵,成為網(wǎng)絡熱點。負面評論、調侃、甚至惡搞視頻會廣泛傳播,形成對品牌的負面輿論漩渦。
"形象固化:" 如果AI“翻車”事件頻繁發(fā)生或性質嚴重(如歧視、泄露隱私、提供錯誤信息導致實際損失),可能會固化用戶對品牌“不靠譜”、“技術落后”或“不負責任”的負面印象。
3. "用戶流失與轉化受阻 (User Churn and Conversion Hurdles):"
"直接后果:" 用戶體驗到糟糕的AI服務,自然會選擇離開,轉向競爭對手。對于依賴AI進行交互或決策的用戶,這種
相關內容:
AI的失效不可避免。營銷人員必須認識到,那些在當下能夠促進AI推廣的營銷手段——特別是過度宣揚產品優(yōu)勢和優(yōu)越性的做法,很可能在AI出現(xiàn)失誤時引發(fā)嚴重后果。因此,在制定營銷策略前,務必充分理解與AI相關的五大陷阱。企業(yè)仔細評估這些風險后制定相應的市場營銷策略,既能實現(xiàn)當前的產品推廣目標,又可以在將來出現(xiàn)失效情況時,降低法律責任和品牌聲譽風險。

2023年10月,一輛自動駕駛汽車在美國舊金山發(fā)生了一起嚴重的交通事故,該自動駕駛汽車由通用汽車旗下的自動駕駛出租車公司Cruise運營。當時,一輛由人類駕駛的日產汽車與行人發(fā)生碰撞,該行人被撞后,被拋到了行駛中的自動駕駛汽車面前。
獨立工程顧問對這起事故的調查結果顯示,在當時的情況下,即便由最謹慎的人類司機駕駛,涉事車輛也無法及時轉向避開行人。但在Cruise最初向監(jiān)管機構提交的報告中,卻遺漏了一個關鍵事實:碰撞發(fā)生后,該行人被卷入車底又拖行了約6米遠。這位女性行人受傷嚴重,但最終得以幸存。
盡管這起碰撞事故責任不在Cruise,但事故仍引發(fā)了公司危機。該公司因未能及時報告事故相關信息,被美國國家公路交通安全管理局(NHTSA)處以150萬美元罰款。此外,美國司法部還對事故展開了刑事調查,最終Cruise支付了50萬美元罰款以達成和解。然而,事情并沒有就此結束。Cruise在舊金山的運營許可證被吊銷。公司半數(shù)員工被裁撤,CEO辭職,公司估值縮水超過50%。整個自動駕駛汽車行業(yè)也受到波及。事發(fā)后不過數(shù)月,一輛Alphabet旗下的Waymo無人駕駛出租車在舊金山遭到人群襲擊并被縱火焚燒,美國國家公路交通安全管理局還對Waymo和亞馬遜旗下的Zoox等多家自動駕駛技術公司展開調查。2024年底,通用汽車宣布完全終止其對自動駕駛出租車業(yè)務的開發(fā)。
從汽車到聊天機器人,AI應用正在各個領域快速鋪開。但Cruise的案例揭示了一個殘酷現(xiàn)實:AI遲早會“翻車”。當這種情況發(fā)生時,涉事AI所屬的組織(無論是自己研發(fā)AI系統(tǒng)的組織,還是整合他人AI系統(tǒng)的公司),都難免成為眾矢之的。人們在推廣AI以促進其普及方面已經做了不少文章,但很少有人關注該如何在營銷的同時,為不可避免的技術“翻車”情況留好后手。
過去七年間,我從市場營銷的角度出發(fā),開展了七項關于AI失效風險的研究。通過這些研究,我提煉出了消費者對AI失效的認知和反應模式。敏銳的營銷人員必須注意,消費者的態(tài)度中隱藏著五大陷阱——這些陷阱在AI出錯之前和之后都可能出現(xiàn)。在本文中,我將探討企業(yè)應如何做好AI失效的應對準備,以及當AI真的“翻車”后該如何補救。我會分析企業(yè)營銷AI的方式是否存在風險,詳細介紹一些組織應對AI失效事件的案例,并為希望在推廣AI系統(tǒng)的同時保護品牌、增強消費者信任的管理者提供實用建議。下面讓我們逐一剖析這五大陷阱。
人們有事先怪AI
為了深入理解公眾和監(jiān)管機構對Cruise事件強烈反應的發(fā)生機理,我和同事開展了一項涵蓋5000多名參與者的研究。我們向參與者展示了一個與Cruise案例類似的事故情境:一位人類司機駕車撞飛一名行人,該行人被拋向另一輛無責車。其中一組參與者被告知這輛無責車是自動駕駛的,另一組則被告知無責車由人類駕駛。隨后,我們請參與者評估車輛制造商應在多大程度上承擔責任。
結果表明,就算涉事車輛客觀上無論如何也無法避開相撞,“自動駕駛組”受訪者認為車企應負責任的程度仍顯著高于“人類駕駛組”。受訪者還判定,就算具備自動駕駛功能的無責車事發(fā)時正由人類駕駛者控制,車企的責任也依然更大。該結果已被中國的一支獨立研究團隊重復驗證,表明上述偏見在不同文化背景下均存在。
在這些案例中,責任被錯置的原因是受訪者受到“自動駕駛汽車”這個新奇概念的誘導,開始想象如果不存在自動駕駛汽車,事情會如何發(fā)展。值得注意的是,在這種情況下,他們往往設想一個“完美”司機會怎么做,從而對AI設定了超過合理范圍的高標準。他們會得出結論,認為自動駕駛汽車本可以通過某種方式提前轉向規(guī)避碰撞,而這在現(xiàn)實中根本不可能實現(xiàn)。這種違背事實的設想導致他們傾向于認為,自動駕駛系統(tǒng)比處于同樣情境中的人類司機更應對事故負責。
在后續(xù)測試中,我們發(fā)現(xiàn)將關注焦點轉移到肇事司機(最初引發(fā)事故的一方)身上,能夠有效降低受訪者對AI的指責程度。當人們的注意力從“自動駕駛”的噱頭轉移到其他顯著因素時,就不太會去“腦補”脫離實際的場景。但必須注意的是,轉移人們對新技術的關注不應被誤解為刻意誤導利益相關方:企業(yè)高管不應隱瞞AI在事故中表現(xiàn)的詳細情況。Cruise公司高層只強調了人類司機的過錯,卻沒有披露其車輛拖拽行人造成二次傷害的情況。當這一事實被揭露后,Cruise不僅失去了對媒體輿論的掌控,更嚴重損害了監(jiān)管機構對其的信任。
一家AI“翻車”,整個行業(yè)“躺槍”
Cruise事件對Waymo、Zoox等其他企業(yè)造成的連鎖反應,揭示了與AI失效相伴的次生風險:當某家公司的AI出現(xiàn)問題時,人們往往會認為其他公司的AI系統(tǒng)同樣存在缺陷。這種“污染效應”(contamination effect)可能會對公眾對各類AI技術的認知造成負面影響。
基亞拉·隆戈尼(Chiara Longoni)教授、盧卡·奇安(Luca Cian)教授和艾莉·耿(Ellie Kyung)教授合作開展的一項研究很好地體現(xiàn)了“污染效應”的發(fā)生機制。他們首先向3724名參與者講述了一個失誤案例:美國阿肯色州相關部門沒有按規(guī)定給一位殘障人士發(fā)放福利金。一組受訪者被告知這是人類員工的失誤,另一組則被告知是算法的問題。隨后,研究人員詢問受訪者:在另一個州(美國肯塔基州),由相關部門員工或算法處理福利分配時,是否也可能會犯類似錯誤?結果顯示,受訪者更傾向于認為,肯塔基州的預測算法也會出錯,而非人類員工。研究人員還在多種其他AI失效場景下,如誤發(fā)社保金等,發(fā)現(xiàn)同樣存在這種對AI更高的“連帶懷疑”傾向。
研究人員發(fā)現(xiàn),受訪者之所以會有這樣的反應,是因為大多數(shù)人并不了解AI的工作原理。他們傾向于認為“天下AI是一家”,具有相同的基本特性;他們不會把一個個AI方案視為各有長短,互不相干的獨立系統(tǒng)。
為避免其他公司AI失效造成的連帶影響,企業(yè)應重點突出與競爭產品相比,自身的差異化優(yōu)勢,包括專有算法、安全防護措施和人類監(jiān)管等。以AI公司Anthropic及其生成式AI模型Claude為例,該公司將其產品定位為“新一代AI助手...經過訓練確保安全、準確和可靠,以幫助用戶發(fā)揮出最佳工作表現(xiàn)”。Anthropic表示,他們采用“憲法”式訓練方法,使Claude更加透明、更易理解,并且符合人類價值觀。通過這樣的差異化定位,Anthropic將Claude與ChatGPT、Bard等采用不同訓練方式的主流競品區(qū)分開來。當這些競爭對手產品因存在偏見或生成不準確信息而出現(xiàn)問題時,Anthropic通過前期建立的差異化基礎,可以有效降低潛在連帶影響。
另一項預防措施是明確告知AI決策過程中存在人類監(jiān)督環(huán)節(jié),即由人類決定是否采納AI的建議。當在“人類參與其中”(human in the loop)機制下出現(xiàn)失誤時,公眾通常不會認為其他AI系統(tǒng)也同樣存在缺陷。這很可能是因為人們不會將此類失誤簡單歸咎于AI技術本身。
企業(yè)夸大AI能力會招致更嚴厲指責
特斯拉將其駕駛輔助系統(tǒng)命名為“Autopilot”(自動駕駛),但實際使用仍需駕駛員在道路上進行主動監(jiān)督。在發(fā)生多起涉及啟用Autopilot功能的致命事故后,這家汽車制造商陷入了一系列訴訟糾紛,其中包括美國司法部對其產品命名是否構成“誤導性營銷”的調查。美國國家公路交通安全管理局也要求特斯拉確保其在對外宣傳中,更準確反映系統(tǒng)的實際能力與局限。特斯拉CEO埃隆·馬斯克過去曾為“Autopilot”這一稱謂辯護,稱其借鑒自航空領域,飛機上的“Autopilot”功能僅作為飛行員的輔助工具,而非完全自主的系統(tǒng)。但消費者是否也會這樣理解呢?
我和同事就“誤導性表述”問題開展了一項研究,針對9492名參與者,結合模擬駕駛和假設性事故情境展開測試。我們告知參與者,某車企計劃推出一款新型自動駕駛汽車。其中一組被告知該車具有“Autopilot”系統(tǒng)(“自動駕駛”,暗示高階AI能力),另一組則被告知該車具有“Copilot”系統(tǒng)(“副駕駛”,暗示中等程度的AI能力)。隨后,參與者被置于一個模擬駕駛場景中,要求根據(jù)自身判斷,在他們認為需要干預時隨時接管方向盤。在模擬過程中,當車輛駛向一個繁忙的十字路口時,若不及時干預,車輛將會撞向亂穿馬路的行人。
結果表明,標注“Autopilot”的車輛,參與者接管控制的時機明顯晚于標注“Copilot”的車輛。這意味著命名方式直接影響參與者的安全意識——他們在名稱引導下認為車輛的能力越強,自己介入控制的時機就會越晚。在其他研究中我們也發(fā)現(xiàn),企業(yè)給產品起的名字越是暗示其性能優(yōu)越,人們就越傾向于認為企業(yè)對事故負有責任。這表明,夸大命名一方面降低了消費者的警惕性,另一方面也抬高了事故后人們對車企的責任預期。
基于上述研究結果,我和同事提出一個假設:在AI產品營銷中,常見的“宣稱自家產品優(yōu)于競爭對手”的營銷策略,在AI失效時可能會適得其反。后續(xù)研究證實了這一假設:當企業(yè)這樣宣傳時,會抬高消費者對系統(tǒng)能力的預期,從而在出現(xiàn)故障時招致更嚴厲的責任認定。例如,通用汽車曾使用“人類是很糟糕的司機”這類廣告語,可能反而加劇了消費者在Cruise卷入事故時對其的責難。
這種現(xiàn)象的產生源于AI系統(tǒng)存在一個從“部分自主”(人類承擔主要操作責任)到“完全自主”(AI全權控制)的能力譜系。然而大多數(shù)消費者難以準確判斷具體AI產品在這個譜系中的實際位置。這種認知鴻溝給營銷人員帶來了兩難困境:雖然實話實說能反映系統(tǒng)真實水平,但企業(yè)往往傾向于使用夸大性能的表達來促進銷售。
若企業(yè)選擇使用具有誤導性的AI產品名,則應該在其他渠道(如官網(wǎng)或產品上的小字)準確清晰地闡明AI的真實能力。研究發(fā)現(xiàn),相比單純使用誤導性命名的企業(yè),那些在誤導性命名的同時披露AI實際能力的企業(yè),在系統(tǒng)失效時面臨的追責更輕。當然,另一種選擇是從源頭避免使用誤導性命名。這種做法雖然無法增強消費者對AI能力的認知,但至少能完全規(guī)避相關風險。
人們對擬人化AI的評判更加嚴苛
如今,越來越多的企業(yè)開始部署具有人類特征的AI系統(tǒng)。心理健康應用Wysa使用卡通形象幫助用戶完成練習,而像Replika這樣的AI伴侶應用則采用能表達“情感”和“思考”的真人形象。
這些設計元素會讓用戶產生錯覺,以為聊天機器人真的具備情感、目標和欲望等它實際上并不存在的特質。與中性機器人相比,擬人化設計能為企業(yè)帶來多重優(yōu)勢:顯著提升消費者的購買意愿、信任程度、品牌忠誠度,以及配合服務商要求和披露個人信息的意愿。值得注意的是,即便用戶明知交談對象是機器,這種擬人化效應依然存在。
在拉吉·斯里尼瓦桑(Raji Srinivasan)教授和居倫·薩里亞爾-阿比(Gülen Sarial-Abi)教授開展的研究中,他們告知參與者一家金融投資公司因失誤導致客戶蒙受損失。一組參與者獲悉失誤原因是“算法程序”出錯,另一組則得知肇事者是一個名為“查爾斯”的擬人化AI。結果顯示,當失誤歸因于擬人化AI時,參與者對品牌的負面評價更為強烈。后續(xù)研究表明,擬人化設計會讓人們以為AI具備記憶、理解、規(guī)劃和思考等心智能力,進而對其失誤施加更高的責任認定。另一項由卡米·克羅利克(Cammy Crolic)主導的研究發(fā)現(xiàn):當聊天機器人同時采用語言(如使用第一人稱、自稱“杰米”)和視覺(女性形象)擬人化特征時,其服務失敗引發(fā)的負面評價比僅采用語言擬人化時更為嚴重。這證明不同類型的擬人化特征會疊加放大用戶對AI失效的負面反應。
在客戶可能產生激烈情緒的場景中,使用聊天機器人時要格外謹慎。在克羅利克團隊開展的另一項研究中,研究人員分析了某國際電信公司約50萬次的客服對話記錄,發(fā)現(xiàn)顧客越是以對待人類的方式與機器人互動(如在對話中直呼機器人名字),在生氣時對公司的不滿情緒就越重。要減輕這種效應,可以有選擇性地僅在產品搜索等中性場景使用擬人化機器人,而在客服等易引發(fā)顧客憤怒的環(huán)節(jié)減少擬人化AI的使用頻率。企業(yè)方面還可以在對話伊始就主動降低預期,例如Slack的聊天機器人會聲明:“你好,我是Slackbot。我盡力提供幫助(但我只是個機器人,抱歉?。!边@類“丑話說在前面”的機器人在出現(xiàn)服務失誤時就不那么容易激怒顧客。
人們對預設偏好感到憤怒
2016年,梅賽德斯-奔馳一位高管表示,在開發(fā)自動駕駛汽車時,公司將優(yōu)先保護車內乘客而非行人和其他道路使用者的安全。其邏輯很直接:若只能救一人,應該救車內人員。這番言論引發(fā)了輿論風暴,某報紙直接指責奔馳為了保護司乘人員,“寧愿碾過兒童也不肯轉向”。事發(fā)后不過幾周時間,奔馳做了公開澄清,稱工程師和自動駕駛系統(tǒng)都不應對人類生命價值做出評判。這一事件激起的公眾情緒表明,人們認為企業(yè)將基于年齡、性別或用戶身份等群體特征預設的偏好植入AI系統(tǒng)是不道德的。
為驗證這一假設,我與哈佛大學的米娜·奇卡拉(Mina Cikara)教授合作開展了研究。我們讓826名來自美國的參與者設想一輛全自動駕駛汽車面臨的各種道德困境,比如是撞向一位老人還是一名兒童,然后我們呈現(xiàn)出最終撞上其中一類人的情景。我們控制的關鍵變量在于:車輛的選擇是隨機的,還是基于預設的群體偏好。研究發(fā)現(xiàn),相比隨機選擇,任何預設的群體偏好都會引發(fā)更強烈的憤怒情緒。這表明企業(yè)應避免公開宣揚其系統(tǒng)內存在基于群體特征的決策邏輯。某些情況下,甚至需要從一開始就避免收集種族、性別、年齡等可能影響AI決策的特征數(shù)據(jù)。另一種方式是采用情境結構特征作為決策依據(jù),比如讓系統(tǒng)優(yōu)先采用能拯救更多人的方案。約哈南·比格曼(Yochanan Bigman)和庫爾特·格雷(Kurt Gray)的研究發(fā)現(xiàn),相比群體偏好,公眾更支持AI使用基于結構特征的決策邏輯。這可能是因為結構偏好具有明確的功利主義合理性,更容易獲得普遍認同。
AI的失效不可避免。營銷人員必須認識到,那些在當下能夠促進AI推廣的營銷手段——特別是過度宣揚產品優(yōu)勢和優(yōu)越性的做法,很可能在AI出現(xiàn)失誤時引發(fā)嚴重后果。因此,在制定營銷策略前,務必充分理解與AI相關的五大陷阱。企業(yè)仔細評估這些風險后制定相應的市場營銷策略,既能實現(xiàn)當前的產品推廣目標,又可以在將來出現(xiàn)失效情況時,降低法律責任和品牌聲譽風險。
朱利安·德弗雷塔斯(Julian De Freitas)| 文
朱利安·德弗雷塔斯是哈佛商學院市場營銷教研室副教授。
DeepSeek | 初譯 高曉萌 | 譯校 廖琦菁 | 編輯
本文選自《哈佛商業(yè)評論》中文版2025年8月刊。
《哈佛商業(yè)評論》中文版 聯(lián)系方式
投稿、廣告、內容和商務合作
newmedia@hbrchina.org


微信掃一掃打賞
支付寶掃一掃打賞