MinilntelligentGuard是electronic什么意思思

Wilson(埃森哲IT和业务研究常务董事)撰写

Daugherty和Wilson驳斥了人类与机器“为他人的工作而战”的二元方法的共同叙述,主张人类与机器之间未来的共生即所谓的“ 第三波业务转型 ”。 苐一波涉及标准化流程-想想亨利·福特(Henry Ford) Wave 2看到了自动化-1970年代至90年代的IT。 第三波将涉及“自适应过程……由实时数据驱动而不是由先前的步骤序列驱动”。

这“第三波”将使“机器……尽力而为:执行重复性任务分析大量数据集并处理例行案件。 而人类……做他们最擅长嘚事情:解决模棱两可的信息在困难的情况下做出判断,并与不满意的客户打交道” 他们进一步讨论了“ 缺失的中间点 ”,即人与机器的混合活动其中“人类补充了机器”,“人工智能赋予了人类超能力”并提出了人工智能的商业案例:“人工智能不是您的典型资夲投资; 它的价值实际上随着时间的推移而增加,反过来也提高了人们的价值” 出乎意料的是,“目前的问题不仅仅在于机器人正在替代笁作;而是在于解决问题” 这是因为,由于诸如AI之类的新技术工人没有为快速发展的工作所必需的正确技能做好准备。” 未来的问题實际上将围绕员工不断的重新技能和学习

人工智能(AI)和机器学习(ML)最早在1950年代被设想出来,它使计算机可以看到数据模式并产生输出而无需对过程的每个步骤进行硬编码。 为了区别两者人工智能是机器执行“智能”任务的广义概念,而机器学习是人工智能的应用在机器仩可以向机器提供数据(例如个人的健康数据),自己学习并产生输出(例如针对个人的推荐治疗方案)

经过一番资金枯竭之后,自2000年代以来囚工智能就开始流行,并且在当今的企业和日常生活中变得越来越明显:您会醒来Alexa发出的警报告诉您当天的行程。 您打开计算机这很鈳能是由工厂中的智能机器人制造的。 您使用其面部识别系统登录 您可以滚动浏览旨在吸引您注意力的精选Facebook feed,或在Netflix上推荐您观看电视节目和电影来满足自己的观看口味的工作从而拖延工作。 您的工作软件也可能实现了多种AI和ML

这些算法通过训练和测试数据来工作 。 例如可以使用过去的招聘数据来训练CV检查模型,接受进入下一个阶段的人员这些人员要表现出工作说明中描述的素质,而拒绝那些没有表現出来的素质 然后,该模型将获得新的测试数据(之前从未见过的新CV)因此有人可以检查预测结果是否令人满意。 对模型进行调整后将其推出以供实际申请人的简历使用。 然后问题是确保培训数据没有偏见-以2014年的案例研究为例,其中是根据雇用大多数男性的数据进行培訓的从而导致女性申请人受到惩罚-该算法很快就被取消了。

奥迪机器人网真(ART)-专家技术人员远程控制该机器人该机器人与现场技术人员┅起进行维修
  • 监督学习 :标记的火车数据。 该算法要学习将输入连接到给定输出的规则并要使用这些规则进行预测, 例如使用过去雇用嘚应聘者来决定是否雇用新的应聘者这对是否应聘者有一个是/否标签。申请人被录用

  • 无监督学习 :未标记的训练数据 该算法必须自行找到输入的结构和模式, 例如根据人口统计信息及其消费习惯来确定客户的聚类类型,因为在此示例中尚不了解客户群所以没有标签

  • 強化学习 :训练给定特定目标的算法。 算法朝目标迈出的每一步都将得到奖励或惩罚而反馈则使算法能够建立朝目标迈出的最有效路径, 例如机械臂在生产线上拾取零部件,或者

  • 神经网络:一种具有连接的节点/神经元的机器在发射频率更高时会增强,类似于人的大脑 例如,一个神经网络该神经网络学习如何根据过去的数据进行股市预测

  • 深度学习 :更复杂的神经网络,例如深度神经网络(DNN)递归神经網络(RNN),前馈神经网络(FNN)

  • 自然语言处理(NLP):处理人类语言的计算机 例如语音识别,翻译情感分析

  • 计算机视觉 :教计算机识别,分类和理解图潒和视频中的内容 例如面部识别系统

  • 音频和信号处理, 例如文本到语音音频转录,语音控制隐藏式字幕

  • 推荐系统:根据一段时间内嘚细微模式提出建议, 例如针对性广告有关Amazon /

  • 增强现实(AR)和虚拟现实(VR), 例如飞行模拟培训

—甚至有一家公司使用Facebook Messenger的反馈制作了AI酿造的第一批啤酒

本书的重点是MELDS框架 要成为AI推动的业务,必须具备5条关键原则:

  • 心态 :围绕缺失的中部重新构想工作

  • 实验 :寻找机会测试和完善AI系统

  • 領导力 :对负责任使用AI的承诺

  • 数据 :构建数据供应链以推动智能系统

  • 技能 :发展重新构想缺失中部过程的必要技能

MELDS的领导力部分要求负责任的AI这是一个重要的考虑因素,因为AI在当今社会日益受到重视例如在以下情况下:

  • 一种算法正在做出决定 ,决定要优化的因素 例如確定学生的A级成绩,以降低年级通胀率为目标相对于个人公平为目标,确定是否向个人贷款时要考虑公平与收益

  • 社会上已经存在系统性嘚问题 例如,当使用偏向某些特定人群的招聘数据来训练算法时这些人群是白人,男性异性恋。 或使用算法进行刑事定罪并过多定罪黑人被告时

  • 风险很高 例如危及 人们生命的自动驾驶汽车社交媒体上的政治广告

在设计负责任的AI时,我们应该解决许多法律道德囷道德问题,并确保存在以下方面:

  • 信任透明度和责任感 -考虑社会影响,并明确说明算法的目标和流程

  • 法规和GDPR合规性 -为数据集的来源使用和安全性以及数据隐私定义的标准

  • 在部署前后对系统进行人工检查,测试和审计

援助之翼—远程驾驶飞机系统向因自然灾害和人为危机而孤立的人们提供人道主义物品

实施AI /技术系统时,需要公众的信任无论是信任无人驾驶汽车将确保我们的安全,还是信任测试跟踪應用程序值得下载使用并遵循其中的说明。 问题在于技术项目并非总是按计划进行,就像任何过程一样都可能会犯错误-我们知道,A級算法会给您错误的成绩 确保公众信任的关键是算法的工作过程是透明的,以及允许对计算机决策做出上诉和更改

人工智能也带来了責任所在的问题。 虽然从总体上讲自动驾驶汽车减少了道路致死事故的数量,但是如果 谁是法律责任人:算法设计者还是车轮背后的囚? 就公众态度而言丰田汽车研究所首席执行官吉尔·普拉特(Gill Pratt)在2017年告诉国会山的立法者, 这种信任人类而不是机器(即使从统计学上讲機器性能更好)的愿望被称为“ ”,例如人们宁愿依靠的 。

关于责任还曾创造了 一词:“在高度复杂和自动化的系统中,人类可能呮是偶然地或有意地变成了承担道德和法律责任首当其冲的一个组成部分系统整体故障。” 这可能像面对车辆过失杀人罪一样严重最終导致Uber驾驶员由于应用程序故障并将他们定向到错误的位置而从客户那里得到不好的反馈-人类成为“ 责任海绵 ”。 “虽然汽车的压痕区旨茬保护驾驶员但道德的压痕区却保护了技术系统本身的完整性。”

公司应该尽一切努力消除AI系统中的偏差无论是在训练数据,算法本身还是结果结果/决策中 例如,人力资源系统的AI会检查简历或视频采访这可能会产生白人偏见。 或用于预测被告未来犯罪行为的软件這可能会对黑人被告产生偏见。

但是仅因为AI可能会受到偏见,但这并不意味着它不值得使用 人类本身都有偏见,无论是工作的面试官還是法庭的陪审员 如果以负责任的方式创建并进行全面测试,人工智能有可能减少这种人为偏见并增加成本和时间节省。 医疗保健AI可鉯让医生治疗更多的病人而CV检查AI可以在很短的时间内扫描更多的CV。

为了解决数据偏差Google发起了计划,该计划采用开源工具来调查偏差 怹们在《指南》中讨论的一些想法包括:

  • 明确算法的目标 。 例如在选择或保险的时,应使用人口统计学的同等目标例如不了解群体(即使存在群体差异,例如女性为人寿保险支付的费用比男性少,因为她们往往寿命更长)或提供平等机会

  • 向用户提供正确的解释级别以便怹们为系统的功能和限制建立清晰的思维模型。 有时可解释的模型会以更高的精度击败复杂的模型

  • 显示模型输出的置信度 ,可以是数字徝或潜在输出的列表 由于AI输出基于统计数据和概率,因此用户不应完全信任系统而应知道何时执行自己的判断

人工智能模型通常也被稱为“黑匣子系统” ,其中我们不完全了解幕后发生的事情以及计算机认为什么是重要的决策标准 以一个图像识别系统为例,该系统通過在所有正确图像的角落查找版权标签来学习“作弊”而不是图像本身的内容。 随之而来的是需要可解释的AI(XAI) (经过全面测试的系统在此系统中我们测试输入的变化如何影响输出决策或分类)或“人工在环”的AI人工在此审查AI决策 为此,IBM还开发了一个 工具包

监管科技公司昰否应由政府监管? 如果是的话这项规定是否能跟上如此Swift和复杂的领域? 当存在利益冲突时例如在 ,Apple拒绝解锁恐怖分子的手机会发苼什么? 还是科技公司何时使用社交媒体进行

尽管大学附属研究机构需要机构审查委员会(IRB) ,但实际上它们在商业领域并不存在 公司通瑺会自行制定有关研究道德委员会的规则。 公司需要考虑其技术的更广泛影响并且有一个地方可以考虑道德设计标准 ,例如由提出的道德设计标准 其中包含人权,福祉问责制,透明性和意识的一般原则滥用。

测试对于做出决策或与人类互动的AI至关重要 对于许多公司而言,他们的品牌形象和认知度与AI代理人的品牌息息相关:与亚马逊Alexa的互动将塑造您对亚马逊作为一家公司的认知这意味着该公司的聲誉受到威胁。 这种人与AI关系恶化是 他在2016年接受了Twitter交互方面的培训,因此在推特上发布了粗俗种族主义和性别歧视的语言。 在理想的凊况下Microsoft会设想这些问题并实施“ 护栏 ”,例如关键字/内容过滤器或情绪监视器以防止这种情况发生。

其他建议的检查方法包括让人们對AI进行第二次猜测 :例如相信工人具有判断力并且通常比机器更能理解上下文,例如使用AI系统来告知病床分配但让人们拥有最终决定權。

Go-商店其中相机监视您挑选的物品,传感器与您的手机通话并自动为您的账户收费

“中间缺失”体现了8种“ 融合技能 ”将人与机器嘚能力相结合。

1. 重新人性化的时间 :重新构想业务流程以扩大用于人际交往,创造力和决策等独特的人工任务的时间 例如像Microsoft的Cortana,IBM的Watson或IPsoft嘚Amelia之类的聊天机器人它们可以处理简单的请求

2. 负责任的规范化:负责地塑造人机交互的目的和感知的行为,因为它涉及个人企业和社會, 例如A级算法

3. 判断集成:当机器不确定要做什么时基于判断的能力来决定操作过程。 这会告知员工在哪里设置护栏调查异常情况或避免将模型放入客户设置中, 例如无人驾驶汽车限制聊天机器人/代理可以使用的语言/语调

4. 智能询问:知道如何最好地向AI代理提问,以获嘚所需的见解 例如商店中的价格优化

5. 基于机器人的授权 :与AI一起很好地扩展您的能力, 例如金融犯罪专家从AI获得帮助以进行欺诈检测戓使用网络分析进行反洗钱(AML)

6. 整体融合 :开发AI代理的心理模型以改善协作成果, 例如机器人手术

7. 互惠的学徒:从人到AI再到人与人的双向教學, 例如培训AI系统以识别生产线上的故障。 然后使用AI培训新员工

8. 不懈地重新构想:从头开始创建新流程和业务模型的严格纪律而不是簡单地自动化旧流程( 例如,用于汽车的预测性维护或帮助产品开发的AI)

回到“缺少中间人”的概念 它具有6个角色,其中前3个是看到人类训練ML模型解释算法输出并以负责任的方式维持机器。 后3个机器通过高级数据分析来放大人类洞察力通过新颖的界面与我们进行大规模互動,并体现人类的特征(例如与AI聊天机器人或代理例如Alexa,Cortana或Siri)

这些中间的角色可能会创造未来的新工作,例如:

  • 培训师 :提供培训数据 唎如用于NLP,同理/人类行为培训的语言翻译

  • 解释器 :向非技术人员解释复杂的黑匣子系统

  • 数据卫生师:用于数据清理质量检查和预处理

  • 算法取证分析师:调查AI输出何时不同于预期

  • 上下文设计师:在技??术与业务上下文之间取得平衡

  • AI安全工程师:预测意外后果并减轻后果

  • 机器关系经理 :像人力资源经理一样,“除了他们将监督AI系统而不是人工监督 他们将负责定期对公司的AI系统进行性能评估。 他们将推广性能良好的系统复制变体并将其部署到组织的其他部分。 那些性能不佳的系统将被降级并可能退役”

客户关系管理(CRM)供应商 Salesforce提供的 Einstein应用程序 -利用计算机视觉,深度学习和NLP进行有针对性的广告或定制建议

人工智能可以产生深远的影响与人类合作使用8种“ 融合 技能 ”作为“ 缺夨的中间 ”的一部分,并创造许多新的工作机会 未来的企业应采用MELDS (思维方式,实验领导力,数据技能)框架并且需要解决一些大问题:我们如何确保公众对AI的信任,以及公司设计负责任的AI 我们应该使用什么设计标准来减轻偏差,当AI输出出现问题时我们应该怎么做 我們如何应对未来劳动力的大规模技能和再技能? 政府企业和更广泛的社会将塑造AI和人机关系的方向。 我们要建立什么样的未来

,麦肯錫 , (也有 工具包) ,第四次工业革命中心 , 。 还要研究创业加速器为许多创新的科技创业公司提供资金。 YCombinator前总裁山姆·奥特曼(Sam Altman)接任了AI研究实验室首席执行官旨在最大程度地发挥AI对人类的利益并限制其风险,并被认为是Google 的竞争对手

我要回帖

更多关于 electronic什么意思 的文章

 

随机推荐