打开APP

AI搞砸工作谁「抗雷」

当碳基与硅基两种智慧碰撞,如何摸索出新的协作模式,以提升整体效率?如果人机协同的工作任务“搞砸”了,人类和AI之间又如何界定责任?

数字经济时代,人的角色正在发生变化。当AI成为企业的新员工,人与AI的协同合作将逐渐成为生产过程中的常态。当碳基与硅基两种智慧碰撞,如何摸索出新的协作模式,以提升整体效率?如果人机协同的工作任务“搞砸”了,人类和AI之间又如何界定责任?

与AI一起工作,需要*匹配模式

如果要让人机协作的系统变得更好,组织管理可以做些什么?

该领域的研究尚处于初步阶段,大多数企业也仍在探索,成熟的相关研究较少。就目前笔者所了解的情况而言,人机协同中的组织管理可以归纳为三个主要方面:一是企业任务与人机系统的匹配管理;二是AI员工融入组织后,组织管理方式的调整;三是人和AI在系统中的责任管理。

首先需要考虑的是工作任务与人机合作模式之间的匹配管理。用户的异质性会影响人机协作的效果。而不同任务的性质也会对不同的人机协作模式,提出不同的要求。因此,组织需要根据任务的属性,调整人和AI在具体任务中的比重。

目前,大家普遍认可的任务匹配管理模式,主要包含可计算性、主观性及复杂性三个维度。

从可计算性维度看,如果任务本身需要大量计算,超出了人脑的处理能力,那么让AI来主导可能会更有效。举例来说,规划从地点A到地点B的路线时,人类可能有经验,但只能从几条已知路径中选择*路线;AI则可以枚举所有可能路径,并从中找出*解,效果更佳。

从主观性维度看,如果任务具有较强的主观性或需要灵活应变,如医疗服务或餐饮服务,人类可能更适合扮演主导角色。

从复杂性维度看,复杂的决策场景需要考虑更多因素,关系也更加复杂。例如,在外卖快递调度系统或空间模拟计算等复杂任务中,人类很容易忽视相关因素,从而影响决策质量,这时增加AI的比重可能会更有利。

举例来说,最近的一项研究发现,创意评价类任务,相对模糊和主观性更强,即使使用了具有理论支持的可解释性人工智能,机器也无法模仿人类专家的判断,特别是在筛选出特别优秀的创意方面。这样的任务更需要由人类来主导。

然而,如果所有的创意评价都由人类专家完成,可能会导致案例过多,使专家感到枯燥和疲倦,从而影响他们的客观判断能力。

因此,这项研究提出了一个解决方案:可以先让AI筛除那些低质量的创意,减少专家的工作负担和乏味感。这样,专家就可以将更多精力集中在评估和筛选优秀创意上。

复旦大学管理学院一位年轻老师也进行过一个有趣的相关研究。他发现,在任务结果主要依赖于运气时,比如选课、抽卡娱乐、盲盒消费等,人们更倾向于选择由人工智能提供服务。因为人们认为,AI的运气比人类更好,更有可能带来理想的结果。然而,在理财、医疗等需要一定能力完成的任务上,人们更倾向于选择由人类主导的系统来完成。

这一发现在一定程度上证实了,企业需要为不同类型的任务匹配不同的人机协作系统。

AI让工作技能提升还是丧失

随着AI的加入,企业员工的组成,从传统仅有社会人转变为社会人与AI机器人的组合。这种情况下,企业将面对新的管理挑战,包括如何管理AI员工,以及如何调整组织策略以适应AI员工的加入。目前已有不少研究发现,在与AI合作之后,员工对公平性的感知和情绪都会发生很大变化。

例如,智能审计的引入可能会导致员工感到焦虑和不安全,从而抑制其自主创新的意愿,进而影响员工的绩效。在这种背景下,许多组织行为学领域的学者开始研究,AI员工的引入如何影响员工的心理状态、团队协作、领导力,以及人力资源的计划、招聘、培养和管理过程。

在这里,我分享两项最新的研究成果。这篇最新发表的研究探索了员工在企业引入智能知识管理系统后,如何适应工作的变化。研究发现,员工在与AI支持系统合作时,存在两种适应机制。

*种是效益*化机制,员工会*程度地利用AI来提高自己的认知能力,从而提高工作绩效。第二种是干扰最小化机制,AI破坏了员工原有的工作流程,导致员工感到角色冲突,进而使得他们的绩效受损。

研究进一步分析发现,采用效益*化策略的新员工,其绩效提升速度最快;采用干扰最小化策略的老员工,其绩效相对也表现不错。

因此,前述建议企业在引入这样的AI系统之后,应该着力鼓励新员工更多地采用效益*化的机制来应对AI系统。换言之,鼓励他们利用AI学习新知识,以提高工作绩效。对于那些已经熟悉原有工作流程的老员工,组织应该帮助他们通过AI来调整自己的工作框架和流程,从而降低角色冲突,缓解AI所带来的干扰。

与此相关的另一个话题是,在人机合作过程中,员工工作技能的变化管理问题。一旦AI接管了计算性强、重复性、结构化的任务,理论上的人类就可以转而从事一些更具有意义、更需要创造性的工作,以促进员工技能的提升。我们将这个现象称为“AI导致的技能提升”。

举例来说,对于程序员而言,在AI的辅助下,他们可以将更多时间用于思考程序的业务逻辑,而不是花费大部分时间在修复程序中的错误上。然而,对于某些知识型员工来说,AI并不一定会促进技能的提升,反而可能导致一种“去技能化”的趋势。

2023年一项研究显示,医生在使用诊断辅助系统后,其独立诊断的准确性明显下降,因此AI辅助诊断系统的使用,实际上导致了医生的“去技能化”。另一项研究也发现,手术机器人的引入大大减少了住院医师实际操作训练的需求,从而降低了医生的动手能力。

现在住院医生需要采取不同于以往的方式,来提高自己的动手能力。某位医生学者就提出过一个影子学习的方法,通过尽早专业化、抽象演练和监督实践的方法来培养医师的动手能力。

任务失败时,人与AI谁来负责

除了激励和培养员工以更好地适应人机协同工作的环境之外,对企业而言一个更大的挑战是,如何对人和AI的责任进行认定。特别是当服务失败时,到底谁来承担责任。

此前关于无人驾驶车出车祸之后的责任问题,就曾引发广泛的讨论。主流观点认为,AI系统本质上是机器,无法承担法律责任,因此问责对象应该是系统背后的人或机构。然而,也有研究认为,当算法透明度越来越高后,AI在一定程度上可对其所做的事情负责。

因此,当人和AI共同完成任务时,企业如何分配相应的责任就成为一个备受关注的问题。换句话说,企业是否愿意主动对AI的失败负起责任,将影响到人机协作系统的采纳和最终的绩效。

不过,这一问题涉及法律、政策、技术以及相关管理研究,尽管有很多讨论,但成熟可靠的研究实际上并不多见。我们团队目前试图在这方面展开一项探索性的研究,研究的场景是互联网医疗平台。

随着越来越多的互联网医疗平台采用生成式人工智能提供AI问诊服务,平台是否需要为AI问诊的责任提供支持,成为一个非常有趣的研究话题。

我们希望通过这项研究,探索互联网医疗平台是否愿意为AI问诊服务承担责任,以及这种决定如何影响患者使用平台的意愿。

我们计划在两个不同的场景下进行研究,分别是纯粹的AI问诊和AI与医生混合问诊。我们将通过一定方式来调控患者对平台承担责任的感知,并检验患者对平台的信任度和使用意愿。在研究过程中,我们还会引入AI问诊和医生问诊的感知中立性作为调节变量。

我们的理论假设是,在其他条件相同的情况下,当AI愿意为问诊质量承担责任,并且患者认为AI问诊更加客观中立时,患者更愿意使用互联网平台的AI问诊功能。这项研究仍在进行中,我们期待未来能够分享更多的成果。

综上所述,我们建议企业根据不同任务匹配不同的协作模式,并重新思考AI员工和人类员工合作下的激励和培养问题,以及做好AI系统的责任管理。

最后,借用“各美其美,美美与共”这句话,人类与AI协作的理想境界可能是“各智其智、各尽其长”,即充分发挥人类与AI各自的优势,互相学习,从而提升人机协作的整体效能。

(作者系复旦大学管理学院信息管理与商业智能系教授、博士生导师)

【本文由投资界合作伙伴微信公众号:经济观察报授权发布,本平台仅提供信息存储服务。】如有任何疑问题,请联系(editor@zero2ipo.com.cn)投资界处理。

相关资讯

AI数据总览

最新资讯

热门TOP5热门机构|VC情报局

去投资界看更多精彩内容
【声明:本页面数据来源于公开收集,未经核实,仅供展示和参考。本页面展示的数据信息不代表投资界观点,本页面数据不构成任何对于投资的建议。特别提示:投资有风险,决策请谨慎。】