职场文化与人工智能:它很快就会变得复杂
如果你愿意的话,想象一下,几年后,大多数工作场所都会为员工和经理分配一个人工智能代理。有一天,首席执行官询问人工智能代理会对某个问题做出什么决定,首席执行官不同意。这种情况开始经常发生。但人工智能代理已被授予代理权。一场意志和自我的战斗上演了。公司的情况很糟糕。谁被解雇;CEO还是AI代理人?谁做出这个决定?人类董事会还是董事会的人工智能代理人?
这可能并不是那么牵强。我们已经开始提供一些人工智能工具,比如 ChaGPT,一定程度的代理。我们正在快速将人工智能拟人化。在人工智能代理参与的组织中,他们不仅会从公司数据中学习,还会从与员工、客户、供应商的社交互动中学习。他们实际上成为了社会演员。
在本文中,我作为文化(数字)人类学家探讨了人工智能在工作场所的一些潜在影响。虽然大多数讨论都只是围绕生产力,但审视整体工作场所文化和人工智能的地位变得越来越重要。
通过这种方式,我们可以更好地降低风险,并规划更好的方法,使人工智能代理更加成功,从而使人类和企业更加成功。人工智能代理与标准信息技术 (IT) 非常不同,因为它们具有代理权。IT系统不是中立的,但IT系统不做决策。人类确实如此。这是一个关键的区别。随着社交机器的部署,这一点变得更加模糊。
首先,我将描述人工智能代理和作为社会参与者的机器的含义。然后我会考虑一些需要考虑的潜在问题。人工智能代理的部署需要人力资源专业人员、高级管理层和各级员工的投入。
什么是人工智能代理作为社会参与者?
我们都是社会演员。从本质上讲,是我们人类采取的行动影响了我们的社会生活。这可以是微观层面的,例如父母为孩子做出决定并采取行动。从宏观层面来看,这将是一个国家的领导人。社会行为者制定关于我们如何管理社会的规则和政策。从国内规则到国家规则或联合国规则。
策略和程序在不同程度上可以被视为算法,这是大多数 AI 工具的基础,例如 chatGPT 或 Claude 等生成式 AI,也称为 LLM(大型语言模型)。
这些法学硕士基于培训数据,并且通常是在培训中提供帮助的微型工人。然后他们被放到野外(世界),这些法学硕士继续接受使用他们的人的培训。每次使用 Midjourney、ChatGPT 等工具时,您都是一名培训师。因此,这些法学硕士向我们学习,就像我们向他们学习一样。这是一个反馈循环。
就工作场所中的人工智能代理而言,这可能是公司获得法学硕士学位,然后根据自己的数据对其进行培训。我们今天在聊天机器人中看到了这一点,它可用于内部知识管理和客户服务。
例如,一家公司可以为每个员工提供一个人工智能代理。然后,该代理将成为员工用来完成工作的生产力工具套件的一部分。在大多数情况下,企业将人工智能代理和工具视为简单的生产力工具。但随着人工智能代理不断从员工的使用中学习,并被赋予一定程度的代理权和信任,他们就成为社会参与者。或者社交机器。
法学硕士将通过反馈循环,吸收其所在工作场所文化的各个方面。如果这是一个有毒的工作场所,人工智能代理很可能会获得有毒的特征。如果这是一个具有良好职场文化的赋权工作场所,人工智能代理就会具备这些特征。
您可以开始了解人工智能代理在给定代理程度的情况下如何成为社会参与者。我们知道人类文化融入了代码和人工智能。这就是为什么我们在人工智能领域存在种族和性别偏见。我们还没有弄清楚如何解决这个问题,如果一家人工智能公司说已经解决了,那他们就是在撒谎。
这并不意味着人工智能不应该在商业中使用。一点也不。做得正确的人工智能代理可以帮助推动创新,并为公司带来巨大利益。但人工智能代理不能简单地视为生产力工具,是IT系统的延伸。
人工智能代理如何让事情变得复杂、快速的?
从我读过的几乎所有有关人工智能在商业中的应用的书籍、论文和研究来看,其焦点是可以预见的。而且狭窄。这纯粹是通过自动化提高生产力的泰勒主义(科学管理)。这会导致人工智能的使用失败,并且更有可能损害生产力并可能导致利润损失。为什么?
因为正如我所描述的,人工智能代理是社会参与者。世界上每一个企业都依赖于人。没有人,就没有生意。从员工和管理层到客户和供应商。人类就是人类。我们做烦人的事,也做有趣的事。所有工作场所都有一种文化,无论是有毒的、中立的还是良好的。企业本质上是社会有机体。
考虑一下人工智能代理不仅接受公司数据和信息的培训,还接受与员工互动的培训。如果首席执行官是有毒的领导者,而管理团队也是,那么人工智能代理将通过反馈循环和学习,采用这种毒性。这反过来又会渗透到组织中。如果人工智能代理负责客户服务参与,也许还负责社交媒体……那么,公关危机很可能正在形成。
今天的员工往往不会在工作岗位上呆上几十年。即使是首席执行官和其他高管管理层也很少长时间停留。那么当他们离开时,分配给他们的人工智能代理会怎样呢?这对于帮助企业运营的知识管理具有重要意义。当长期员工离职时,这被称为隐性知识的损失,这种知识在任何地方都没有被捕获,或者至少不是经常被捕获,而且通常非常糟糕。
因此,一个人工智能代理在几年内获得了大量知识,但与员工密切相关,也会发展出一种“个性”,并且很可能具有被解雇、退休或离职员工的特征。公司可能不想要的特征。是否可以将这些元素从人工智能代理中清除,以便将其分配给新员工?没人知道。但这是一个明显的风险。
如果被解雇或下岗的员工通过错误解雇诉讼声称他们使用的人工智能代理的某些元素属于他们怎么办?可以?员工在这方面有哪些权利?这些要素是否可以从人工智能代理中分离出来,并可能转移到某人的个人人工智能代理上?企业知识产权和秘密可能面临风险吗?由于大多数人工智能工具的工作方式不透明,提取这些特征可能是不可能的。
如今,大多数企业都在处理员工随身携带哪些信息以及员工可以无恶意地上传到云服务以在自己的设备上在家工作时使用哪些信息。此类信息泄露的情况屡见不鲜。人工智能代理放大了这个问题。
公司是否可以设立一位人工智能超级代理首席执行官来监督公司中所有其他人工智能代理?谁来管理人工智能超级代理?首席执行官一个人吗?董事会?由于当今人工智能工具的大部分决策无法理解并且本质上是不透明的,人类首席执行官或董事会董事如何理解超级代理如何做出决策?这对于治理很重要。
回到决策的不透明性,当人工智能代理做出决定并且公司遵循该决定,但结果证明人工智能代理捏造事实或产生幻觉时,会发生什么?谁被解雇?如何解雇人工智能特工?修复它的费用是多少?
如果企业文化本质上是积极进取的,并且是一个强硬的谈判者,并且人工智能代理被分配与供应商谈判的职责,即使这是一个人工智能代理与另一个人工智能代理最终发生战斗,这可能会导致大规模的供应链中断?人在决策过程中处于什么位置?
如何理解生产力的提高以及衡量成功的有效指标是什么?
OKR、精益西格玛和其他此类系统如何与与员工相关的人工智能代理协同工作?如果员工花费越来越多的时间来管理人工智能代理,是否会带来可衡量的生产力提升?收益递减点在哪里?
这并不是一份详尽的清单,但当我们从文化角度审视工作场所中的人工智能时,超越科学管理和泰勒主义的狭隘范围,我们开始看到广泛行业的固有风险。这将意味着对生产力以及科学管理的意义产生一种全新的思想流派。
这些是当前的生成人工智能或其他人工智能工具无法理解或想象的问题,因为它们是预测工具,而不是推理工具,并且没有理解或能力理解人类文化。
机器无法理解人类文化,因为它总是在变化和发展。企业不会对技术创新做出反应,而是对人类如何通过颠覆或商业模式演变来利用技术来获得竞争优势做出反应。
迄今为止,当谈到法学硕士或生成人工智能时,我们过于简单化了人工智能在工作场所中的作用。其他人工智能工具,如机器学习、自然语言处理等,正在许多行业中成功使用。但他们没有法学硕士那样的机构,而且它们是特定的用例,即所谓的狭义人工智能。部署人工智能代理是另一层复杂性。
本文系作者 @ 泡泡球原创发布在 轻抖云。未经许可,禁止转载。