首页 > 共享知识库

【原创】华为、IBM前CFO告诉你:CFO必读的AI道德部署

本文5658字,阅读时间约10-25分钟。
 
关于2020年的合辑,可点击“阅读原文”或点这里:【内容合辑】2020年不能错过的精彩内容集合(含视频、文章链接)
    这两年“人工智能”这个词被广泛地到处应用,似乎加上了“AI”就是一种特别高级感,似乎只有匹配了这样的词语才能显得企业真的实现了数字化转型。“人工智能”可以说是个被滥用的概念或方法,出现了很多无法解释、甚至可谓黑箱操作的情况,包括一些不公平的偏见。作为财务管理者是有这样的责任与义务,要制止企业在人工智能领域上的滥用,实现必要的措施,在保证企业发展的同时,也免除个人、企业利益受到相关的影响。
     个人认为文章其实提出了人工智能当下隐藏的问题、提出了监管与注意事项,但是在与John沟通时,他更倾向是让财务管理者在企业数字化转型,尤其是介入人工智能的环节上,有从职业道德上的预先设计,所以文章的名字以他的意见,即CFO必读的AI道德部署为名,感谢John F Bould(华为前CFO)投稿联合作者 David Wray,(Global Accounting & Reporting Senior Director at Huawei),本文为该文的编译文并做了一些调整。
John F. Bould
 
前华为产品与解决方案业务首席财务官,曾任IBM地区/全球行业首席财务官、IBM公司总部财务转型总监;强转型规划和执行能力、在战略和执行、计划、定价、预算和成本管理方面有丰富的合作经验;在跨研发、销售和服务交付、硬软件及服务领域、建立财务共享服务和应用新技术方面发挥领导作用。

 
 

 
新风险、新思维
人工智能(AI)是一个有吸引力的新玩具,让各地的财会专业人士相当兴奋!当数据科学领域被令人兴奋的可能性驱动时,财务管理者则需要讨论围绕着数据科学的透明度和道德决策
Artificial intelligence (AI) is a sexy new toy that has finance professionals everywhere quite excited ! While the field of data science is driven by exciting possibilities, the finance discussions surround transparency and ethics in decision-making
 

 
现在有两个特别的领域正在引起注意:Black box dilemma黑箱困境、Biases and the consequences偏见及其后果。
这些挑战并不意味着人工智能应该被避免,因为人的大脑是典型的黑箱(文中的意思是指内部自行操作,复杂无法解释清楚的意思)。随着财务中高管们努力扩大这些新兴技术在企业中的使用,作为财务管理者必须平衡其作为企业可信赖的业务顾问和受托人的双重角色的可能性。
阿尔伯特·爱因斯坦说过:不能用与问题产生时相同的思维来解决问题。如果人类要生存并向更高的层次迈进,一种新的思维方式是必不可少。”他的想法在当前的技术革命和人工智能中具有现实的意义。在John与David 共同的认知里,财务管理者如何系统地管理挑战和风险,是任何AI实施的最重要方面之一。
本文集中讨论财务在企业成功延展人工智能的应用时,必须包括技术、分类法和相应风险的基本认识。

 
不做一个入门者
人工智能定义,韦氏词典将其定义为计算机科学的一个分支,研究计算机中智能行为的模拟和机器模仿人类智能行为的能力
在财务背景下,这意味着训练计算机对大型数据集执行高级分析,以识别关系和相关性,尤其人眼不容易看到。由此产生的模型使用从数据中学习到的模式来执行预测或认知任务,其中一些“推理”应用于新数据
企业ERP系统中的数据海洋以及非结构化数据的数字化企业数据,可以为人工智能的学习提供依据。Intellityx(人工智能的著名公司)展示了七种领先的人工智能技术:机器学习、自然语言处理、语言、专家系统、规划、调度与优化、机器人学或视觉。(如下图)

 
John认为可以把机器学习(ML)作为人工智能在财务管理过程中的一个有趣分支来关注
机器学习使用四种学习方式之一,通过分析数据模式而不是人类编程来自学。当系统分析样本数据时,它会根据得到的结果进行自我改进。如果开发的算法是预测性的,那么模型将产生高质量的前瞻性输出。这四种机器学习的学习方式分别是有监督、无监督、半监督和强化

 
  • 监督,例如财务收入,建立在对数据如何分类的既定理解之上。常用的算法有线性回归、逻辑回归和决策树。例如该算法利用标记的动物图像,在未标记的图像中建立自己的动物类型。
  • 无监督学习,建立在未标记数据的基础上,在标识的模式上对数据进行分类,算法迭代运行,使用K均值算法或使用先验(演绎)的关联规则学习。一个可识别的例子是电子邮件垃圾邮件检测。
  • 半监督学习,是一种基于零星标记数据和未标记数据的学习。该技术包括生成模型、基于图的模型和启发式方法。它的一些应用实例包括蛋白质结构分析和油沉积测定。
  • 强化学习建立在反复试验的基础上,算法通过数据分析建立反馈回路。使用的算法类型包括Q-学习、时间差分(TD)和蒙特卡罗树搜索(MCTS)。一些著名的应用程序使用这种方法:国际象棋、围棋、机器人手臂和自动驾驶汽车。
以案例讲述围绕偏差风险的财务实施和运营考虑,金融服务公司开始部署人工智能来评估信用申请,并决定是否批准信用卡或贷款申请人。在实体不知情的情况下,用于信贷审批算法的历史数据,充斥着关于谁值得信贷和谁不值得信贷的人类过往决策偏见。高盛管理的苹果信用卡业务在几次备受关注的投诉后受到批评,因为丈夫的信用额度高于妻子,其中许多人的信用实际上应该得到更高得分。
如果把人工智能的学习等同于孩子的学习,就会发现其学习速度和范围的挑战。人工智能以闪电般的速度前进,越来越难保持领先一步,自然会增加与公司目标、价值观、道德和社会习俗发生错误或冲突的风险。
财务管理中的人工智能
财务管理者对自动化的热爱由来已久,自动化先从重复性和低价值任务开始,原来SQL脚本(预先部署脚本、数据库对象定义和后期部署脚本合并为一个生成脚本,用于创建数据库对象的语句的集合,文件名通常以 .sql结尾)演变成机器人过程自动化(RPA)。
最近,RPA与ML(机器学习)在应付账款和银行账户对账方面进行了配对。在短期周期预测、账户对账、重复性任务和匹配流程方面取得了自动化进展。支持财务判断的业务仍然是一个切实的机会。这包括围绕长期周期预测的判断、稳健的上市预测、情景模拟分析或高质量的合同会计分析。

 
机器学习的应用需要一个结构良好的实现。然而,一个强大的财务AI实施框架和行动手册仍然难以捉摸,强调在评估潜在偏差、提高透明度和管理道德风险时需要额外的警惕。
黑匣子
试想一下,用一种已经处理过数百万条CRM数据的全新、先进算法做的收入预测提供给CEO(或CFO),如何解释其算法的细节、偏差的风险或CRM数据的哪些变化可能会影响收入预测?
许多ML算法缺乏透明度,因此实际上预测是一个黑箱结果。举个交易定价的延展案例,如果定价目标是利润优化,那么围绕互利的长期客户关系如何更广泛地发挥作用?面对特殊(不可预料)事件如何影响定价(比如Covid19或日益增长的贸易争端)?或者在机器驱动的定价决策中如何考虑社会影响?

 
英国皇家学会的研究人员发现,在一切平等的情况下,机器学习更有可能选择不道德的策略,以一个具体案例说明:在线保险产品是根据用户自己提供的数据进行定价的,随后的分析表明,拥有特定姓名、种族、邮政编码或性别的客户,通常会比没有预先确定个人资料要素的用户收到更高的报价。在大多数情况下,这种基于机器的决策直到事后才被组织所理解。
基于机器的深度学习快速发展算法和模式识别,产生了查询风险。比如,拒绝申请的贷款官员可以告诉潜在的借款人他们的收入水平有问题,或者就业史,或者其他问题。但是使用复杂机器学习的计算机系统,即使对专家来说,模型也很难解释。
自动识别上的财务偏见和道德风险导致英国皇家学会研究人员推荐预防方案,以消除模型训练阶段的不道德策略,很容易理解为什么系统需要某种人工输入和监督。
反观爱因斯坦的建议,人工智能是今天的变革性技术,但是它缺乏国际框架共识、管理机构、结构化的争端解决机制和朝着共同目标的团结。如果围绕人工智能的管理和治理思想孤立于单个企业或企业内部,那么人工智能应该怎么做?作为财务专业人士、财务管理者们,应该如何适应这种环境?外部监管是否是救星,类似于IFRS或FASB会计准则?
向外看-依靠外部监管
企业利益相关者正在积极讨论监管,考虑从实体自律到政府监管或国际监管框架的解决方案,以及在释放风险时保护自身免受伤害的指导原则AI
只要建立了合规性监控机制和结构化例外流程,以便在需要时管理问题,自我认证就有效。Consultancy Asia(亚洲咨询)强调,由于只有16%的决策者支持实体自律,“只相信我”的做法是不够的,自然而然地产生了“信任与验证”的概念。

 
有趣的是,谷歌最近宣布将“人工智能道德”咨询服务商业化,这是一个在人工智能拥有深厚实践经验也犯过AI错误的著名公司。
预打包人工智能工具的可用性提供了可访问性,只需一小部分的自我开发成本,这是否能提供一个可靠的财务AI认证模型的基础,一个类似于ISO标准的模型?一些独立或部分联合起来的标准化工作仍然支离破碎,迫切需要加强协调、整合和普遍性,以建立最低标准、公认的治理模式和执行机构。
从财务管理专业角度
1、不能盲目地相信不了解的东西。人工智能,作为一套技术,不应该被区别对待,任何其他财务标准和工具。作为专业人士,需要齐心协力去理解智能技术及其与道德和声誉的互动风险。
2、加强组织数据治理和数据质量流程,以确保任何财务AI计划的高质量数据起点。将此要求和期望扩展到第三方数据源,特别是在减少人为监督的情况下。不干净的数据会带来不可靠的结论。
3、更新关键控制点(KCP)和风险管理协议,以确定与智能工具部署相关的新关键控制点。更具体地说,金融部门必须制定或监督一个框架,以评估倡议的道德和潜在偏见。

 
支持AI(XAI,意思是可解释的AI)透明,XAI要求结果公开,接受检查和审查。目前正在积极进行研究,以建立几个检查点,并允许理解“黑箱”。其他方法包括使用线性模型,其中变量是加权和聚合,或构建由简单模型加在一起组成的可分解堆叠模型。
4、作为数据初始化过程的一部分,消除过去的偏见和偏见。历史的结果自然地嵌入和反映了当时的偏见。挑战在于,通过将符合“我们想走向哪里”(这里可理解为公司战略、发展方向或价值准则)的人工训练数据整合到模型中,识别无偏预测因子。这是一个基于一系列有原则的程序化模型结果,而不是从历史上有偏见的数据中学到的。
麦肯锡在《哈佛商业评论》上发表的一篇文章指出,事前处理数据、事后改变系统决策,或将公平定义纳入培训过程本身,都可以消除偏见

 
一种越来越流行的技术是“反事实的公平”,它确保在反事实的世界中结果是相同的。这意味着被视为敏感的属性,如种族、性别或性取向,被改变以实现理想的结果。
财务专业在确保全球、透明和一致的财务报告框架方面的作用,是基于作为受信任的受托人和顾问而获得的。财务管理者完全有能力承担可靠智能部署的责任,同时解除人工智能对效率和有效性的承诺
人工智能的实现可以采用简单的三层治理方法,类似于企业财务报告、风险管理和审计的原则
1、项目管理规划责任,以尽早识别、缓解和管理AI相关问题;设计自动化模型以减少风险,增加透明度和消除偏见;
 
2、使用标准的测试案例来预防潜在的人工智能弊病,包括难以捉摸的黑匣子、数据缺陷和数据中固有的偏见或“人工智能教师”。
 
3、需要实体利益相关者的特定AI实施保证。保证人的任务是检查并确保实体人工智能过程和结果透明、公平和公正。
 
这样的治理方式会加速人工智能和增强智能系统的发展和部署,是财务管理者能够在企业内部、外部,促进健全和可信的治理模式,打下基础的最好时机。
 
文章作者:John F Bould、David Wray
编译:陈莲,转载请注明作者与出处。
陈莲,FSSC专家、财格网络总经理
曾任CFO良师益友副总经理、负责安越CFO最佳实践中心、担任行动教育旗下研发机构五项管理首席知识官、“数字管理之父尤登弘”研发助教。从事企业人力资源管理多年,就任培训咨询十余年,负责有关知识管理、课程研发等,自2012年起接触财务共享话题,累计访谈了近400名CFO、财务总监、四大合伙人、FSSC领域资深专家;
走入数家建立财务共享服务中心的知名企业深入沟通与交流;建立近百人的FSSC专家团,包括来自阿里巴巴、亚马逊、立邦、TCL、孩子王、万达、协鑫、友邦、阳光保险、美菜网、喜力、WPP、蒙牛、复星、中粮可口可乐、华夏幸福等共享中心负责人;财大、对外经济贸易大学、人大院长、主任;撰写财务共享领域唯一的案例册以及访谈册;财务共享领域内容第一媒体“FSSC” 主要撰稿人。IPA、IFA。