首页 科技快讯 让AI当监工,员工答应吗?

让AI当监工,员工答应吗?

来源:晰数塔互联网快讯 时间:2021年08月18日 08:12

最近,俄罗斯一家公司使用算法裁掉150名员工,引发网络热议,因为裁员理由是AI判断这些员工不敬业、效率低下。利用算法工具监控员工表现越来越常见,但该如何设置边界却很少受到讨论。

公司在对员工的工作状态进行监督时,如何保障员工的知情权和隐私权?公司有权收集哪些个人信息?应该如何使用和关注这些信息?应该与员工分享他们的分析吗?这些具有挑战性的问题,是当前需要管理者去认真思考的。

现在,传感器技术和实时数据收集已经能为公司提供了丰富的员工信息。管理者可以获得对员工一举一动的逐秒反馈,并在某种程度上掌握他们的感受。来自电子邮件、聊天记录和日历系统的数据可以与传统HR数据一起进行分析。

传感器可以收集非常具体的员工习惯数据:谁与谁交谈,有多少人互相打断,他们的时间都花在了哪里,甚至压力水平。随着员工证件和办公家具加入物联网,公司掌握的员工信息将以量级扩大。HR部门现在几乎可以了解员工的一切。

以正确和道德的部署为前提,新测量工具已经取得的积极影响十分可观。从铁路公司、金融业到快餐业,公司使用来自可穿戴传感器和数字通信的数据来量化和减少工作中的性别偏见,提高警觉性并减少疲劳,显著提升了工作表现,并减少了人员流失。而挖掘这些新技术的潜力才刚开始。

但对员工而言,所有这些数据收集的价值并不明确。高级人力分析甚至可能会妨碍员工自由支配时间和经验的能力。例如数字可能暗示,某种新工作方式效率不高,尽管长期看来有利于公司收益。更糟的是,分析工具会导致泰勒式过度监控,提高了滥用风险。

具有衡量某些事物的能力并不意味这样做是对的。员工支持者担心数据库监视会赋予雇主不合理的员工管理权,他们不确定公司可信,会不会丢失或滥用敏感个人信息。

鉴于这一新现实,管理人员现在面临着一些具有挑战性的问题:他们应使用分析工具来检查员工的工作时间习惯,以评估他们的表现?公司可以访问哪些数据?他们应该与员工分享他们的分析吗?他们应该查看个人数据吗?

管理者需要指导,来有效运行符合道德准则的人力分析程序,避免员工产生强烈反感或严厉监管措施。以下是有道德、明智地使用员工数据的管理手册:

选择加入

从最简单和最古老的隐私准则开始:如果你发起了收集新类型数据的项目,必须给予员工选择加入的权利,不能收集不同意者的数据。严格来说,强迫人们在工作中放弃有关自己的数据可能在美国和其他一些国家合法,但全球情况并非如此。

但即使在允许这样做的司法辖区,强制监督或要求员工选择退出(特别是在入职期间,选择因为隐藏在细则中而模棱两可)会引发许多道德和商业问题。从纯粹的经济角度看,这样做可能得不偿失。哈佛商学院伊森·伯恩斯坦(Ethan Bernstein)的开创性研究表明,如果员工觉得他们所做的一切都完全透明,往往效率会降低。当人才竞争激烈时,员工可能会离开那些迫使他们放弃数据的公司。

设置选择加入项目在短期内富有挑战性,时间也很紧迫。该计划还必须包括对选择不参加员工的强有力保护,以免他们感到被胁迫或受到惩罚。保护的主要措施是数据聚合,以防止个人行为被识别。但我也建议采取进一步的预防措施,例如同意书和从收集源头进行数据匿名化,避免热情过度、好奇心太强的管理者窥探员工每分每秒的活动。

沟通和透明度

盲目地向所有员工发送同意书,希望获得高选择率不是明智之举。符合道德标准的人力分析涉及大量沟通和保持透明。我采取的流程如下:

●第一周: 发送电子邮件介绍拟定分析程序的承诺,提供公司方法和目标摘要,以及类似程序的新闻链接。 

●第二周: 经理参加有关该技术的宣讲会,会议留出提问和表达疑虑的时间。随后他们与自己的团队见面介绍项目,并回答下属提出的任何问题。 

●第三周: CEO召开员工大会,会上公司向全体员工提供给经理的材料,鼓励每个人发言,自由表达关切和提问。 

在某些情况下,公司选择补偿参与分析项目的员工,补偿形式要么是少量金钱,要么是礼品卡或公司T恤等奖品。但根据我的经验,这样做会出问题,效果也不好。首先,它为雇主提供了具体谁参加的信息。但是这些激励措施通常不会显著提高积极度。员工似乎觉得收了钱,意味着他们签字画押,出卖隐私,会产生更多的负面反应。员工的心理活动可能是:如果我参加能收钱,他们从中赚的钱肯定更多,谁知道他们在做什么呢?

对于所有计划,管理者都应该为副作用做好准备。即使是善意的监控,引发情绪反应、棘手的问题和指责也很常见。你不能指望取得普遍支持,因为员工不仅需要确切了解正在发生什么,而且必须相信管理者对公司诚实和开放的保证。在信任缺失或士气低落的文化中,这是巨大的障碍。仅仅告诉员工你会负责行动远远不够;你必须向他们展示完全透明的项目运营。

当我了解其他组织中的人力分析计划时,往往发现公司故意向员工隐瞒收集的数据内容和原因。公司天真地认为员工不会发现这些做法,实则不然。合法但不道德的行为往往会引起强烈反对。市场上有很多类似例子,从事不道德监控行为的公司在内部和外部都会遭遇不良后果。

聚合

公司通常认为,去掉名字,数据就匿名化了——并没有。因为人类行为是独一无二的,在没有名字的情况下也能够识别数据的主人,通信网络数据尤其如此。

公司发放的手机通常用于位置跟踪,但也存在问题。如果仅收集与办公室相关的数据,电话的效用相当于ID标签。但在实践中,它也可以记录和收集员工在办公室外的行踪信息。这些数据在业务上的应用非常有限,而且还非常敏感,应该避免使用。避开这些陷阱并不困难,而且实际上十分有益。

因为,除了创造隐私风险之外,就方法论而言,分析个人行为或挑出一个人进行跟踪是一种较差的数据分析方法。为什么?

情境差异。由于他/她的独特性,某人可能会有特定的行事方式。例如,在寻找卓越员工特征时,公司可能会关注一位明星员工,并注意到数据显示他在午餐时工作。这是否意味着高绩效员工更有可能在午餐时工作?仅凭一个人无法断言!也许这名员工在午餐时必须和很多人见面,因为他需要10个人来批准决定,这是其他人可以见面批准的唯一时间。如果其他决策任务不具有这种结构,工作午餐一项不太可能是高绩效的原因。

侵犯隐私。不可否认的是,微观分析个人行为会产生“老大哥”的问题。即使这样的分析产生了益处,也会被员工不可避免而且合理的负面反应所抹杀。尽管营业额可能增加,但随之而来的员工表现下降和公司负面公关形象可能导致得不偿失。

公司应该要求分析团队汇报群体平均值或相关性等聚合数据,而非单个数据。鉴于公司应该关注行为分布而非个人模式,这种做法也很适合组织的需要。

超越数字

无论公司收集的数据多么细致,如果衡量的事情不正确,那也没有用。在我们作为咨询顾问的一家公司中,我和我的团队发现,高管每月与某部门沟通的时间不到五个小时。该部门拥有1万多名员工,负责该公司10%以上的收入。可想而知,该部门一直表现不佳,而且没有与该组织在战略上保持一致。对话太少并不是最重要的,更大的问题是管理层很少与该部门的员工交谈。我们可以自信地预测,如果管理层增加与他们的沟通,就将提升部门的绩效。

同样重要的是要记住,无论多么完整、先进的算法或数据集都无法捕获工作的整体复杂性。你不应该试图建立这样的算法,或者更糟糕的是,相信做出类似承诺的顾问。组织内的人员已经了解工作的完整范畴,弃之不顾而盲从算法会导致许多愚蠢的决定。

我和我的同事一直遇到这个问题。正因如此,我们确保与内部利益相关者合作,来了解为什么某小组的数据分析并不总适用于其他小组。深层背景知识提醒了我们,某个数据收集分析对应哪一组织特定部分产生影响。

人力分析改善决策的潜力令人震惊。它可以帮助员工更好地工作,挣更多钱,花更多时间与家人在一起。例如,在日本监测技术开始被用于减少过劳带来的巨大人力成本。过去公司可能的做法是,实施减少工作量计划。如果一年之后没有人自杀,说明计划成功。今天他们能够立即看到工作量是否真的减少了。他们可以快速发现改善工作环境的因素并进行调整,而不是继续做一些无效的事情。这实际上是在挽救生命。

但是,公司有责任避免屈从于让员工产生不适的分析工具。企业需要立即开始实施保护措施,否则反应过激的立法将会对他们构成打击。这可能会永久抹杀人力分析的巨大潜力。因此分析产业和公司对强有力的保护具有义不容辞的责任,其中利害巨大,不容忽视。

本文来自微信公众号“哈佛商业评论”(ID:hbrchinese),作者:HBR-China,36氪经授权发布。

相关推荐

让AI当监工,员工答应吗?
化身“监工”的AI,我们该如何相处?
“我被机器解雇了。”Amazon 63岁员工因算法评分太低被自动开除
亚马逊用AI考核员工:你是不是世界首富的兄弟
亚马逊竟用AI监控员工:效率低当场开除 没空上厕所
武汉:运营商赶工建5G、3000万网友“云监工”
科技公司应该让技术人员当CEO吗?
“老板狗腿”AI上线:远程监工评绩效,还会打小报告
当AI开始“踢脏球”,你还敢信任强化学习吗?
AI,会让放射科医生下岗吗?

网址: 让AI当监工,员工答应吗? http://www.xishuta.com/newsview48900.html

推荐科技快讯