8月31日下午,广州建筑集团在建研创新大厦项目举办“智能筑墙机器人观摩活动”。此次活动由广州建筑集团科技创新管理部、恒盛集团联合承办,不仅展示了广州建...
2025-09-03 0
随着人工智能(AI)以惊人的速度重塑世界,经济学家对女性可能被抛在后面表示担忧。女性在训练AI系统的数据集中既被代表不足,又被错误代表,而参与设计这些系统的女性更是寥寥无几。女性代表性的缺失必然会导致AI本身的性别偏见,进而在社会环境中加剧AI造成的性别不平等。这被称为“性别数字鸿沟”。为弥合AI领域的“性别数字鸿沟”,联合国妇女署(UN Women)启动了一所“AI学校”,让女性重返课堂。这一在线项目旨在帮助亚洲和太平洋地区的企业家、学者、女性主义者、气候正义活动家及其他专业人士学习如何利用AI推动社会变革、倡导和决策。
联合国妇女署的AI学校
联合国国际劳工组织(ILO)与波兰数字事务部下属国家研究所(NASK)今年早些时候发布的一份报告发现,在高收入国家,AI可能取代女性主导岗位中将近10%的职位,而对男性来说,这一比例仅为3.5%。专家呼吁各国政府、雇主和工人组织制定“包容性战略”,以帮助在受威胁的领域保护工作质量和生产力。“AI学校正是源于这种紧迫的需求……需要对AI的发展采取行动,并确保女性和女孩不会被落下。”AI学校的创始人埃马德·卡里姆(Emad Karim)表示。
AI学校的课程涵盖从AI基础到伦理,以及诸如提示工程等实用主题。卡里姆表示,该项目的目标还在于帮助女性为不断变化的就业市场做好准备,在未来,AI将取代或消除某些工作,同时在其他领域发挥更大的作用。“AI的未来取决于我们,取决于我们是否为平等、公正和尊严而设计它,还是任由它扩大我们试图弥合的差距。”他说。卡里姆建议女性应当具备“AI素养”。“这是一种新的素养。要了解模型、优势与风险。我们既不应盲目信任AI,也不应全盘否定它。”
此外,尽管全球范围内每年都有更多女性接入互联网,但在低收入国家,只有20%的女性能上网。性别数字鸿沟造成的数据缺口反映在AI的性别偏见之中。加州大学伯克利分校哈斯公平、性别与领导力中心(Berkeley Haas Center for Equity, Gender and Leadership)对不同行业的133个AI系统进行分析,发现其中约44%表现出性别偏见,25%同时表现出性别和种族偏见。AI的性别偏见因训练数据以及“词嵌入”(word embedding)产生。“词嵌入”指在机器学习中对某些词的编码方式,用于反映其意义及与其他词的关联。如果AI在训练数据中学习到“男性”和“女性”与特定技能或兴趣相关联,它就会生成反映这种偏见的内容。谁来开发AI,以及它所使用的数据类型,对AI驱动的解决方案有着性别层面的影响。
AI性别偏见不仅仅会造成AI在应用过程中使用“错误的语言”,卢旺达的学生娜塔查·桑瓜(Natacha Sangwa)亲眼看到这种情况如何影响女性使用技术的体验。“当女性使用一些AI驱动的系统来诊断疾病时,常常会得到不准确的答案,因为AI不了解女性可能呈现出的不同症状。”桑瓜表示。如果当前趋势持续下去,AI驱动的技术和服务将继续缺乏多样化的性别和种族视角,这种缺口将导致服务质量下降,以及在就业、信贷、医疗等领域做出带有偏见的决策。妇女署的AI学校正试图从根源上解决这些问题。
如何解决AI性别偏见?
消除AI中的性别偏见,必须从在AI系统构思和构建阶段优先考虑性别平等开始。这包括评估数据中是否存在错误表征,提供能够反映多元性别和种族经验的数据,并重塑AI开发团队,使其更加多元和包容。根据2023年《全球性别差距报告》(Global Gender Gap Report),目前只有30%的AI从业人员是女性。“当技术仅由单一视角开发时,就像是用半只眼睛看世界。”塔夫茨大学量子计算研究员索拉·马福兹(Sola Mahfouz)表示。她目前正致力于开发一个AI驱动的平台,用来连接阿富汗女性。
马福兹对AI充满期待,但也心存担忧。她思考道:“它是否公平?它在多大程度上反映了社会的父权结构以及主要由男性创造者带来的内在偏见?”马福兹出生在阿富汗,当塔利班来到她家并威胁其家人时,她被迫辍学。她最终逃离阿富汗,并于2016年移民美国接受大学教育。“这一领域需要更多女性研究人员。女性独特的生活经验能够深刻影响技术的理论基础,也能开启技术新的应用方向。”她补充道。
在开发AI时,迫切需要借鉴多元领域的专业知识,包括性别方面的专业知识,以便让机器学习系统更好地服务于人类,并支持建设一个更加平等和可持续的世界。在快速发展的AI产业中,缺乏性别视角、数据和决策可能会在未来多年延续深刻的不平等。AI领域需要更多女性,而这要求提升并扩大女孩和女性在STEM(科学、技术、工程和数学)及信息通信技术(ICT)教育和职业中的参与和领导力。
AI可以用来促进平等吗?
然而一个坏消息是:AI实际上正在带来更广泛的不平等。今年8月,在瑞典一处湖畔会场,来自OpenAI、Google DeepMind、英国AI安全研究所(AI Security Institute)、经济合作与发展组织(OECD)等机构的专家峰会描绘了一幅AI缺乏政府和社会重大干预时可能出现的黯淡前景:AI在缺乏治理的情况下,将带来包括性别不平等在内更广泛的不平等。根据峰会声明的说法:AI可能加剧国内财富与收入不平等,恶化许多工薪阶层和中产阶级家庭的经济状况。AI将加大有AI基础设施国家与无此条件国家之间的不平等——既体现在受益机会方面,也体现在应对冲击的能力上。若不加干预,AI引发的不平等可能导致富裕个人和企业的政治主导地位,侵蚀民主制度并加剧政治不满。AI系统的渗透与劳动价值的流失可能使大多数人日益失去权利,导致个人福祉与人生意义的退化。
为了尽可能对冲AI带来的不平等,人类社会需要更负责任的AI。它的原则是AI应该是道德的、安全的、公正的、透明的和可问责的。这意味着要特别小心AI对已经被边缘化的群体和弱势群体生活的影响。这需要政府、企业、社会共同的努力。公司应当将因AI效率提升而节省下的一部分资金,用于培训和提升那些面临失业风险的工人。公平起见,他们也应该获得新的机会。政府也必须承担一部分责任。他们需要鼓励和奖励符合道德、负责任的AI开发,同时设立监管框架来限制AI的有害影响。他们还需要推动对服务不足地区的基础设施投资,并提升弱势群体的AI素养。最终,要确保AI用来改善平等而不是损害平等。
在全球不平等加剧的今天,促成负责任的AI仍然存在全球治理缺口。“目前,还没有机制来限制开发者在AI系统尚未成熟和安全之前就发布。我们需要一个全球多方参与的治理模式,来防止并纠正AI系统表现出性别或种族偏见、强化有害刻板印象,或不符合隐私和安全标准的情况。”联合国妇女署数字性别平等合作顾问海伦娜·莫利尼耶(Helene Molinier)表示。
图片来源于网络
iWeekly周末画报独家稿件,未经许可,请勿转载
相关文章
8月31日下午,广州建筑集团在建研创新大厦项目举办“智能筑墙机器人观摩活动”。此次活动由广州建筑集团科技创新管理部、恒盛集团联合承办,不仅展示了广州建...
2025-09-03 0
来源:中国铁建近日在2025中国国际大数据产业博览会上国家数据局公布了首批行业高质量数据集建设先行先试项目名单由中国铁建推荐、铁一院申报的“铁路勘察地...
2025-09-03 0
睡前聊一会儿,梦中有世界。听众朋友们,晚上好。 进入9月,暑热仍未散去。必不可少的除了空调、西瓜、雪糕的清凉,还有撸串、扒虾、哈啤酒的畅快。人声鼎沸的...
2025-09-03 0
文|龙溪来源|商业传奇不管是“本色出演”,还是精心设计,刘强东回老家这波秀翻天了。在土灶前烧个火,在家里修理个东西,吃个地摊,看个苏超,原本是普通人日...
2025-09-03 0
最近走在街上,不少人发现常去的理发店突然贴了“转让”,身边也总有发型师说“现在开店太难了”。明明理发店做的是“面对面”的生意,电商抢不走客源,可为啥还...
2025-09-03 0
大家都知道,距离9月3日阅兵不到24小时了,现在受邀出席的外国元首和政府首脑也陆续抵达北京。另外,受到国台办邀请的台湾同胞也有人来到北京,而且有人刚抵...
2025-09-03 0
快走—容易被忽视的运动,每天快走1个小时,这些好处不请自来! 膝盖咔咔响、体检报告红字一片的打工人,2024年5月北京协和医院新发布:每天快走1小时,...
2025-09-03 0
近日北京街头,日本游客的身影悄然增多,但他们的行程却显得有些“非典型”——不奔故宫长城,不追烤鸭美食,而是精准地穿梭于老药铺、茶叶城与古玩旧货市场之间...
2025-09-03 0
发表评论