经济学人智库(EIU)的一份报告说,数据偏见导致对个人或群体的歧视是使用该技术的银行面临的最大风险之一。
据EIU称,人工智能目前在银行业议程中处于首位,而Covid-19造成的混乱已经“加强”了该领域的采用。银行正在使用AI为客户创建更多个性化的银行服务,实现后台流程的自动化,并与该领域开创AI的数字挑战者银行的发展保持同步。
EIU的“监督AI:银行报告中的人工智能治理”表示,但是银行将需要确保基于道德,公平和有据可查的AI决策。它说,计算机做出的决定必须保持道德,没有偏见,并且这些决定必须是可解释的。
为了实现这些目标,人工智能在设计上应符合道德规范,应监控数据的准确性和完整性,开发过程需要有据可查,银行需要确保其具有适当的技能水平。
欧洲,中东和非洲(EMEA)编辑总监Pete Swabey – EIU的思想领导者说:“人工智能被视为该领域的关键竞争优势。我们的研究借鉴了全球监管机构的指导意见,强调了银行要想安全,合乎道德地利用AI机会,必须应对的主要治理挑战。”
EIU认为,可能缺乏人为监督是一个主要问题。该公司表示,应优先考虑招聘和培训具有适当技能的人员:“银行必须确保整个企业具有适当水平的AI专业知识,以建立和维护AI模型,并监督这些模型。”但是,作为IT的先驱,并凭借其丰富的IT技能和研究资金,银行可以为AI开发设定标准。
花旗创新实验室高级副总裁Prag Sharma表示:“偏差可以渗透到任何行业的AI模型中,但是与大多数类型的组织相比,银行的定位要好得多。最大限度地提高算法的可解释性有助于减少偏差。”
人工智能生态系统构建商Skymind Global Ventures的联合创始人亚当·吉布森(Adam Gibson)表示,首先定义道德对产品的意义非常重要,因此在设计AI应用程序时应遵循一些准则。
他说:“此外,您需要思想和跨职能团队的多样性,以研究您在其整个生命周期中构建的服务的各个方面。”
“与来自不同背景的不同人的合作对于最大程度地减少AI决策过程中的偏见和道德上可疑的活动至关重要。这不仅包括具有构建技术技能的人员,还包括服务的用户。他们将直接了解任何偏差,并能够在启动AI服务之前的设计过程中对其进行标记。”
Gibson补充说,AI是通过数据集构建的,而种族主义AI模型通常来自种族主义数据集。他说:“这是我们需要意识到的,以帮助最小化和保护我们免受对社会无益的创新。”
免责声明:本文由用户上传,如有侵权请联系删除!