正在閱讀:

盧向華:如果人機協(xié)作“搞砸”了任務(wù),人類和AI誰負責任?

掃一掃下載界面新聞APP

盧向華:如果人機協(xié)作“搞砸”了任務(wù),人類和AI誰負責任?

企業(yè)需要為不同類型的任務(wù)匹配不同的人機協(xié)作系統(tǒng)。

圖片來源:匡達/界面新聞

文丨盧向華(復旦大學管理學院教授)

數(shù)字經(jīng)濟時代,“人”的角色正在發(fā)生新的變化。當AI成為了企業(yè)的“新員工”,人與AI的協(xié)同合作將逐漸成為生產(chǎn)過程中的常態(tài)。當碳基與硅基兩種智慧碰撞,如何摸索出新的協(xié)作模式以提升整體效率?如果人機協(xié)同的工作任務(wù)“搞砸”了,人類和AI之間如何界定責任?

與AI一起工作,需要最優(yōu)匹配模式

如果要讓人機協(xié)作的系統(tǒng)變得更好,組織管理上可以做什么?這一領(lǐng)域的研究尚處于初步階段,因為大多數(shù)企業(yè)仍在探索中,成熟的研究較少。

就目前我們所了解的情況而言,人機協(xié)同中的組織管理可以歸納為三個主要方面:一是企業(yè)任務(wù)與人機系統(tǒng)的匹配管理;二是AI員工融入組織后,組織管理方式的調(diào)整;三是人和AI在系統(tǒng)中的責任管理。

首先,需要考慮的是工作任務(wù)與人機合作模式之間的匹配管理。

用戶的異質(zhì)性會影響人機協(xié)作效果,不同任務(wù)的性質(zhì)也會要求不同的人機協(xié)作模式。因此,組織需要根據(jù)任務(wù)的屬性來調(diào)整人和AI在具體任務(wù)中的比重。目前,大家普遍認可的任務(wù)匹配管理模式主要有可計算性、主觀性及復雜性三個維度。

第一,可計算性維度。如果任務(wù)本身需要大量的計算,超出了人腦的處理能力,那么讓AI來主導可能會更有效。舉例來說,規(guī)劃從地點A到地點B的路線時,盡管人類可能有經(jīng)驗,但只能從幾條已知路徑中選擇最優(yōu)路線,而AI可以枚舉所有可能路徑,從中找出最優(yōu)解,因此效果更佳。

第二,主觀性維度。如果任務(wù)具有較強的主觀性或需要靈活應(yīng)變,如醫(yī)療服務(wù)或餐飲服務(wù),人類可能更適合扮演主導角色。

第三,復雜性維度。復雜的決策場景需要考慮更多因素,關(guān)系也更加復雜。例如,在外賣快遞調(diào)度系統(tǒng)或空間模擬計算等復雜任務(wù)中,人類很容易忽視相關(guān)因素,從而影響決策質(zhì)量,這時增加AI的比重可能會更有利。

舉例來說,最近的一項研究中發(fā)現(xiàn),對于創(chuàng)意評價這類任務(wù),由于其相對模糊和主觀性強,即使使用了具有理論支持的可解釋性人工智能,也無法模仿人類專家的判斷,特別是在篩選出特別優(yōu)秀的創(chuàng)意方面。因此,像這樣的任務(wù)更需要由人類來主導。

然而,如果所有的創(chuàng)意評價都由人類專家來完成,可能會導致案例過多,使專家感到枯燥和疲倦,從而影響他們的客觀判斷能力。因此,在這項研究中提出了一個解決方案:針對那些低質(zhì)量的創(chuàng)意,可以先讓AI進行篩除,減少專家的工作負擔和乏味感。這樣,專家就可以將更多精力集中在評估和篩選優(yōu)秀創(chuàng)意上。

我們學院的一位年輕老師也進行過一個相關(guān)的有趣的研究。他們發(fā)現(xiàn),在任務(wù)結(jié)果主要依賴于運氣時,比如選課、抽卡娛樂、盲盒消費等,人們更傾向于選擇由人工智能提供服務(wù)。因為人們認為,AI的運氣比人類更好,更有可能帶來理想的結(jié)果。

然而,在理財、醫(yī)療等需要一定能力完成的任務(wù)上,我們更傾向于選擇由人類主導的系統(tǒng)來完成。這一發(fā)現(xiàn)在一定程度上證實了,企業(yè)需要為不同類型的任務(wù)匹配不同的人機協(xié)作系統(tǒng)。

AI讓工作技能提升還是喪失?

隨著AI的加入,企業(yè)員工的組成也從傳統(tǒng)的僅有社會人,轉(zhuǎn)變?yōu)樯鐣伺cAI機器人的組合。在這種情況下,企業(yè)需要面對新的管理挑戰(zhàn),包括如何管理AI員工以及如何調(diào)整組織策略以適應(yīng)AI員工的加入。目前已有大量研究發(fā)現(xiàn),在與AI合作之后,員工對公平性的感知和情緒都會發(fā)生很大的變化。

例如,智能審計的引入可能會導致員工感到焦慮和不安全,從而抑制其自主創(chuàng)新的意愿,進而影響員工的績效。在這種背景下,許多組織行為學領(lǐng)域的學者開始研究,AI員工的引入如何影響員工的心理狀態(tài)、團隊協(xié)作、領(lǐng)導力,以及人力資源的計劃、招聘、培養(yǎng)和管理過程。

在這里,我分享兩項最新的研究成果:這篇最新發(fā)表的研究,探索了員工在企業(yè)引入智能知識管理系統(tǒng)后如何適應(yīng)工作變化。研究發(fā)現(xiàn),員工在與AI支持系統(tǒng)合作時,存在兩種適應(yīng)機制。

第一種:效益最大化機制,員工會最大程度地利用AI來提高自己的認知能力,從而提高工作績效。

第二種:干擾最小化機制,AI破壞了員工原有的工作流程,導致員工感到角色沖突,進而使得他們的績效受損。

研究進一步分析發(fā)現(xiàn),采用效益最大化策略的新員工其績效提升速度最快,而采用干擾最小化策略的老員工,其績效相對也表現(xiàn)不錯。

因此,論文建議企業(yè)在引入這樣的AI系統(tǒng)之后,應(yīng)該著力鼓勵新員工更多地采用效益最大化的機制來應(yīng)對AI系統(tǒng)。換言之,鼓勵他們利用AI學習新知識,以提高工作績效。對于那些已經(jīng)熟悉了原有工作流程的老員工,組織應(yīng)該幫助他們通過AI來調(diào)整自己的工作框架和流程,從而降低角色沖突,緩解AI所帶來的干擾。

與此相關(guān)的另一個話題是人機合作過程中員工工作技能的變化管理問題。一旦AI接管了計算性強、重復性、結(jié)構(gòu)化的任務(wù),理論上我們?nèi)祟惥涂梢赞D(zhuǎn)而從事一些更具有意義、更需要創(chuàng)造性的工作,以促進員工技能的提升。我們將這個現(xiàn)象稱為“AI導致的技能提升”。

舉例來說,對于程序員而言,在AI的輔助下,他們可以將更多時間用于思考程序的業(yè)務(wù)邏輯,而不是花費大部分時間在修復程序中的錯誤上。

然而,對于某些知識型員工來說,AI并不一定會促進技能的提升,反而可能導致一種“去技能化”的趨勢。

根據(jù)一項2023年的研究,醫(yī)生在使用診斷輔助系統(tǒng)后,其獨立診斷的準確性明顯下降,因此AI輔助診斷系統(tǒng)的使用實際上導致了醫(yī)生的“去技能化”。

另一項研究也發(fā)現(xiàn),手術(shù)機器人的引入大大減少了住院醫(yī)師實際操作訓練的需求,從而降低了醫(yī)生的動手能力。

因此,現(xiàn)在住院醫(yī)生需要采取不同于以往的方式來提高自己的動手能力,某位醫(yī)生學者就提出過一個影子學習的方法,通過盡早專業(yè)化、抽象演練和監(jiān)督實踐的方法來培養(yǎng)醫(yī)師的動手能力。

任務(wù)失敗時,人與AI誰來負責?

除了激勵和培養(yǎng)員工以更好地適應(yīng)人機協(xié)同工作的環(huán)境之外,對企業(yè)而言,還有一個更大的挑戰(zhàn),即如何對人和AI的責任進行認定。特別是當服務(wù)失敗時,到底由誰來承擔責任?

之前關(guān)于無人駕駛車出了車禍之后的責任問題,引發(fā)了廣泛的討論。主流觀點認為,AI系統(tǒng)本質(zhì)上是機器,無法承擔法律責任,因此問責對象應(yīng)該是系統(tǒng)背后的人或機構(gòu)。然而,也有研究認為,當算法透明度越來越高后,AI在一定程度上可對其所做的事情負責。

因此,當人和AI共同完成任務(wù)時,企業(yè)如何分配相應(yīng)的責任就成了一個備受關(guān)注的問題。換句話說,企業(yè)是否愿意主動對AI的失敗負起責任,將影響到人機協(xié)作系統(tǒng)的采納和最終的績效。

不過,這一問題涉及法律、政策、技術(shù)以及相關(guān)管理研究,盡管有很多討論,但成熟可靠的研究實際上并不多見。

我們團隊目前試圖在這方面展開一項探索性研究,研究的場景是互聯(lián)網(wǎng)醫(yī)療平臺。

隨著越來越多的互聯(lián)網(wǎng)醫(yī)療平臺采用生成式人工智能提供AI問診服務(wù),平臺是否需要為AI問診的責任提供支持,成為一個非常有趣的研究話題。

我們希望通過這項研究探索互聯(lián)網(wǎng)醫(yī)療平臺是否愿意為AI問診服務(wù)承擔責任,以及這種決定如何影響患者使用平臺的意愿。我們計劃在兩個不同的場景下進行研究,分別是純粹的AI問診和AI與醫(yī)生混合問診。我們將通過一定方式來調(diào)控患者對平臺承擔責任的感知,并檢驗患者對平臺的信任度和使用意愿。在研究過程中,我們還會引入AI問診和醫(yī)生問診的感知中立性作為調(diào)節(jié)變量。

我們的理論假設(shè)是,在其他條件相同的情況下,當AI愿意為問診質(zhì)量承擔責任,并且患者認為AI問診更加客觀中立時,患者更愿意使用互聯(lián)網(wǎng)平臺的AI問診功能。這項研究仍在進行中,我們期待未來能夠分享更多的成果。

綜上所述,我們建議企業(yè)根據(jù)不同任務(wù)匹配不同的協(xié)作模式,并重新思考AI員工和人類員工合作下的激勵和培養(yǎng)問題,以及做好AI系統(tǒng)的責任管理。

最后,借用“各美其美,美美與共”這句話,人類與AI協(xié)作的理想境界可能是“各智其智、各盡其長”,即充分發(fā)揮人類與AI各自的優(yōu)勢,互相學習,從而提升人機協(xié)作的整體效能。

 

(文章僅代表作者觀點。責編郵箱:yanguihua@jiemian.com。)

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請聯(lián)系原著作權(quán)人。

評論

暫無評論哦,快來評價一下吧!

下載界面新聞

微信公眾號

微博

盧向華:如果人機協(xié)作“搞砸”了任務(wù),人類和AI誰負責任?

企業(yè)需要為不同類型的任務(wù)匹配不同的人機協(xié)作系統(tǒng)。

圖片來源:匡達/界面新聞

文丨盧向華(復旦大學管理學院教授)

數(shù)字經(jīng)濟時代,“人”的角色正在發(fā)生新的變化。當AI成為了企業(yè)的“新員工”,人與AI的協(xié)同合作將逐漸成為生產(chǎn)過程中的常態(tài)。當碳基與硅基兩種智慧碰撞,如何摸索出新的協(xié)作模式以提升整體效率?如果人機協(xié)同的工作任務(wù)“搞砸”了,人類和AI之間如何界定責任?

與AI一起工作,需要最優(yōu)匹配模式

如果要讓人機協(xié)作的系統(tǒng)變得更好,組織管理上可以做什么?這一領(lǐng)域的研究尚處于初步階段,因為大多數(shù)企業(yè)仍在探索中,成熟的研究較少。

就目前我們所了解的情況而言,人機協(xié)同中的組織管理可以歸納為三個主要方面:一是企業(yè)任務(wù)與人機系統(tǒng)的匹配管理;二是AI員工融入組織后,組織管理方式的調(diào)整;三是人和AI在系統(tǒng)中的責任管理。

首先,需要考慮的是工作任務(wù)與人機合作模式之間的匹配管理。

用戶的異質(zhì)性會影響人機協(xié)作效果,不同任務(wù)的性質(zhì)也會要求不同的人機協(xié)作模式。因此,組織需要根據(jù)任務(wù)的屬性來調(diào)整人和AI在具體任務(wù)中的比重。目前,大家普遍認可的任務(wù)匹配管理模式主要有可計算性、主觀性及復雜性三個維度。

第一,可計算性維度。如果任務(wù)本身需要大量的計算,超出了人腦的處理能力,那么讓AI來主導可能會更有效。舉例來說,規(guī)劃從地點A到地點B的路線時,盡管人類可能有經(jīng)驗,但只能從幾條已知路徑中選擇最優(yōu)路線,而AI可以枚舉所有可能路徑,從中找出最優(yōu)解,因此效果更佳。

第二,主觀性維度。如果任務(wù)具有較強的主觀性或需要靈活應(yīng)變,如醫(yī)療服務(wù)或餐飲服務(wù),人類可能更適合扮演主導角色。

第三,復雜性維度。復雜的決策場景需要考慮更多因素,關(guān)系也更加復雜。例如,在外賣快遞調(diào)度系統(tǒng)或空間模擬計算等復雜任務(wù)中,人類很容易忽視相關(guān)因素,從而影響決策質(zhì)量,這時增加AI的比重可能會更有利。

舉例來說,最近的一項研究中發(fā)現(xiàn),對于創(chuàng)意評價這類任務(wù),由于其相對模糊和主觀性強,即使使用了具有理論支持的可解釋性人工智能,也無法模仿人類專家的判斷,特別是在篩選出特別優(yōu)秀的創(chuàng)意方面。因此,像這樣的任務(wù)更需要由人類來主導。

然而,如果所有的創(chuàng)意評價都由人類專家來完成,可能會導致案例過多,使專家感到枯燥和疲倦,從而影響他們的客觀判斷能力。因此,在這項研究中提出了一個解決方案:針對那些低質(zhì)量的創(chuàng)意,可以先讓AI進行篩除,減少專家的工作負擔和乏味感。這樣,專家就可以將更多精力集中在評估和篩選優(yōu)秀創(chuàng)意上。

我們學院的一位年輕老師也進行過一個相關(guān)的有趣的研究。他們發(fā)現(xiàn),在任務(wù)結(jié)果主要依賴于運氣時,比如選課、抽卡娛樂、盲盒消費等,人們更傾向于選擇由人工智能提供服務(wù)。因為人們認為,AI的運氣比人類更好,更有可能帶來理想的結(jié)果。

然而,在理財、醫(yī)療等需要一定能力完成的任務(wù)上,我們更傾向于選擇由人類主導的系統(tǒng)來完成。這一發(fā)現(xiàn)在一定程度上證實了,企業(yè)需要為不同類型的任務(wù)匹配不同的人機協(xié)作系統(tǒng)。

AI讓工作技能提升還是喪失?

隨著AI的加入,企業(yè)員工的組成也從傳統(tǒng)的僅有社會人,轉(zhuǎn)變?yōu)樯鐣伺cAI機器人的組合。在這種情況下,企業(yè)需要面對新的管理挑戰(zhàn),包括如何管理AI員工以及如何調(diào)整組織策略以適應(yīng)AI員工的加入。目前已有大量研究發(fā)現(xiàn),在與AI合作之后,員工對公平性的感知和情緒都會發(fā)生很大的變化。

例如,智能審計的引入可能會導致員工感到焦慮和不安全,從而抑制其自主創(chuàng)新的意愿,進而影響員工的績效。在這種背景下,許多組織行為學領(lǐng)域的學者開始研究,AI員工的引入如何影響員工的心理狀態(tài)、團隊協(xié)作、領(lǐng)導力,以及人力資源的計劃、招聘、培養(yǎng)和管理過程。

在這里,我分享兩項最新的研究成果:這篇最新發(fā)表的研究,探索了員工在企業(yè)引入智能知識管理系統(tǒng)后如何適應(yīng)工作變化。研究發(fā)現(xiàn),員工在與AI支持系統(tǒng)合作時,存在兩種適應(yīng)機制。

第一種:效益最大化機制,員工會最大程度地利用AI來提高自己的認知能力,從而提高工作績效。

第二種:干擾最小化機制,AI破壞了員工原有的工作流程,導致員工感到角色沖突,進而使得他們的績效受損。

研究進一步分析發(fā)現(xiàn),采用效益最大化策略的新員工其績效提升速度最快,而采用干擾最小化策略的老員工,其績效相對也表現(xiàn)不錯。

因此,論文建議企業(yè)在引入這樣的AI系統(tǒng)之后,應(yīng)該著力鼓勵新員工更多地采用效益最大化的機制來應(yīng)對AI系統(tǒng)。換言之,鼓勵他們利用AI學習新知識,以提高工作績效。對于那些已經(jīng)熟悉了原有工作流程的老員工,組織應(yīng)該幫助他們通過AI來調(diào)整自己的工作框架和流程,從而降低角色沖突,緩解AI所帶來的干擾。

與此相關(guān)的另一個話題是人機合作過程中員工工作技能的變化管理問題。一旦AI接管了計算性強、重復性、結(jié)構(gòu)化的任務(wù),理論上我們?nèi)祟惥涂梢赞D(zhuǎn)而從事一些更具有意義、更需要創(chuàng)造性的工作,以促進員工技能的提升。我們將這個現(xiàn)象稱為“AI導致的技能提升”。

舉例來說,對于程序員而言,在AI的輔助下,他們可以將更多時間用于思考程序的業(yè)務(wù)邏輯,而不是花費大部分時間在修復程序中的錯誤上。

然而,對于某些知識型員工來說,AI并不一定會促進技能的提升,反而可能導致一種“去技能化”的趨勢。

根據(jù)一項2023年的研究,醫(yī)生在使用診斷輔助系統(tǒng)后,其獨立診斷的準確性明顯下降,因此AI輔助診斷系統(tǒng)的使用實際上導致了醫(yī)生的“去技能化”。

另一項研究也發(fā)現(xiàn),手術(shù)機器人的引入大大減少了住院醫(yī)師實際操作訓練的需求,從而降低了醫(yī)生的動手能力。

因此,現(xiàn)在住院醫(yī)生需要采取不同于以往的方式來提高自己的動手能力,某位醫(yī)生學者就提出過一個影子學習的方法,通過盡早專業(yè)化、抽象演練和監(jiān)督實踐的方法來培養(yǎng)醫(yī)師的動手能力。

任務(wù)失敗時,人與AI誰來負責?

除了激勵和培養(yǎng)員工以更好地適應(yīng)人機協(xié)同工作的環(huán)境之外,對企業(yè)而言,還有一個更大的挑戰(zhàn),即如何對人和AI的責任進行認定。特別是當服務(wù)失敗時,到底由誰來承擔責任?

之前關(guān)于無人駕駛車出了車禍之后的責任問題,引發(fā)了廣泛的討論。主流觀點認為,AI系統(tǒng)本質(zhì)上是機器,無法承擔法律責任,因此問責對象應(yīng)該是系統(tǒng)背后的人或機構(gòu)。然而,也有研究認為,當算法透明度越來越高后,AI在一定程度上可對其所做的事情負責。

因此,當人和AI共同完成任務(wù)時,企業(yè)如何分配相應(yīng)的責任就成了一個備受關(guān)注的問題。換句話說,企業(yè)是否愿意主動對AI的失敗負起責任,將影響到人機協(xié)作系統(tǒng)的采納和最終的績效。

不過,這一問題涉及法律、政策、技術(shù)以及相關(guān)管理研究,盡管有很多討論,但成熟可靠的研究實際上并不多見。

我們團隊目前試圖在這方面展開一項探索性研究,研究的場景是互聯(lián)網(wǎng)醫(yī)療平臺。

隨著越來越多的互聯(lián)網(wǎng)醫(yī)療平臺采用生成式人工智能提供AI問診服務(wù),平臺是否需要為AI問診的責任提供支持,成為一個非常有趣的研究話題。

我們希望通過這項研究探索互聯(lián)網(wǎng)醫(yī)療平臺是否愿意為AI問診服務(wù)承擔責任,以及這種決定如何影響患者使用平臺的意愿。我們計劃在兩個不同的場景下進行研究,分別是純粹的AI問診和AI與醫(yī)生混合問診。我們將通過一定方式來調(diào)控患者對平臺承擔責任的感知,并檢驗患者對平臺的信任度和使用意愿。在研究過程中,我們還會引入AI問診和醫(yī)生問診的感知中立性作為調(diào)節(jié)變量。

我們的理論假設(shè)是,在其他條件相同的情況下,當AI愿意為問診質(zhì)量承擔責任,并且患者認為AI問診更加客觀中立時,患者更愿意使用互聯(lián)網(wǎng)平臺的AI問診功能。這項研究仍在進行中,我們期待未來能夠分享更多的成果。

綜上所述,我們建議企業(yè)根據(jù)不同任務(wù)匹配不同的協(xié)作模式,并重新思考AI員工和人類員工合作下的激勵和培養(yǎng)問題,以及做好AI系統(tǒng)的責任管理。

最后,借用“各美其美,美美與共”這句話,人類與AI協(xié)作的理想境界可能是“各智其智、各盡其長”,即充分發(fā)揮人類與AI各自的優(yōu)勢,互相學習,從而提升人機協(xié)作的整體效能。

 

(文章僅代表作者觀點。責編郵箱:yanguihua@jiemian.com。)

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請聯(lián)系原著作權(quán)人。