
根据7月11日国家金融服务部门的一份备忘录,保险公司必须核实他们对消费者数据和人工智能的使用不存在歧视,如果外部工具产生有偏见的承保或定价决策,保险公司将承担责任。
美国国家金融服务部(state Department of Financial Services)在上周发布的一份备忘录中写道,除非全面评估表明,保险公司不应纳入外部数据或人工智能系统,否则它们的使用不会“不公平地歧视处境相似的个人”。该文件说,如果评估显示对某个人口群体的影响不成比例,保险公司必须设法找到一个不那么有偏见的替代方案。这封通函——一份概述期望的政府文件——与DFS监管的大约1960家公司有关,包括人寿、财产和意外伤害保险公司,以及一些健康保险公司。
DFS主管阿德里安娜·哈里斯(Adrienne Harris)表示,该指南将确保“在维护市场稳定的同时,在保险领域实施人工智能不会延续或扩大导致非法或不公平歧视的系统性偏见。”
消费者权益组织消费者报告(consumer Reports)表示,虽然传统的分析方法也可能具有歧视性,但当企业采用不透明的公式来分析大量数据并实现决策自动化时,风险就会加剧。人工智能可能会被输入部分、不准确或不具代表性的数据,或者是由过时的、有偏见的做法形成的信息。
例如,寿险公司已经承认会考虑客户的身体质量指数——体重与身高的比例——但美国医学协会建议不要仅仅依赖身体质量指数,因为它几乎完全是用白人患者的数据开发的。《消费者报告》的宣传项目主管查克·贝尔说,保险公司现在可能需要重新评估他们如何考虑体重指数。
贝尔说:“如果你使用的是一个数据变量,而有人质疑它是否具有歧视性影响,那么保险公司就必须考虑……并对算法进行适当的测试和审查。”
代表健康保险公司的纽约健康计划协会(New York Health Plan Association)总裁兼首席执行官埃里克·林泽(Eric Linzer)说,DFS的愿景似乎具有适当的适应性。Linzer说,人工智能通常不用于承保和定价健康计划,但已被用于评估欺诈索赔和识别护理差距。
Linzer说:“我们当然支持一个灵活的框架,允许计划开发适当的工具……以增强而不是取代人类的决策和专业知识。”“人工智能有可能使医疗保健系统更好地运作,成本更低。”
Sarina Trangle涵盖了可负担性和生活成本问题以及其他商业话题。她曾在纽约广播公司担任编辑和记者。