李飞飞:人工智能正在成为一种特权,一种排他性极强的特权

要让人工智能值得信任,需要的远不止商业公司空洞的陈词滥调。

编者按:本文来自微信公众号 中欧商业评论(ID:ceibs-cbr),作者:李飞飞,创业邦经授权转载。

种植到内容生产再到上游制造,人工智能已经开始重塑各个行业的传统运作方式。

李飞飞意识到了人工智能正在产生的深远影响。2019年,她与哲学家约翰·埃切门迪共同成立了斯坦福大学以人为本人工智能研究院(HAI),旨在推动人工智能技术的发展的同时,确保这些强大的工具能够服务于提升人类福祉,而非仅仅追求生产力的提高。

当人工智能成为特权

2015 年 5 月,雅虎图片托管服务 Flickr 在描述 56 岁黑人男子威廉的肖像时,自动生成了一个标签“猿”。

雅虎的技术立刻引发了各方强烈愤慨。此后,这项技术接二连三出现失误:将达豪集中营大门的照片标记为攀爬架,把一位脸上涂有彩色粉末的白人妇女也贴上了“猿”的标签。到了 6 月,谷歌也因其照片服务将两个黑人青少年错误地标记为“大猩猩”而陷入争议。图像分类本已是老生常谈的成功技术,却在短短几周内变得非常复杂。

虽然事故并非恶意,但这并不能让人感到宽慰。相反,无心之失所揭示的问题才更加令人不安。由于训练人工智能的数据集缺乏多样性,导致了一系列意料之外的结果,未经充分测试的算法和存疑的决策又进一步加剧了负面影响。

有果必有因,正如记者兼评论员杰克·克拉克所言,问题的根源在于人工智能“男性之海”问题:科技行业的代表性不足,导致算法无意中带有偏见,在非白人、非男性用户身上表现不佳。这篇文章于 2016 年发表在彭博社网站上,是对人工智能伦理问题的最早一批讨论之一。

事实上,直到今天,人工智能存在的偏见问题直到现在依然没有被很好地解决。2023年底,《华盛顿邮报》发表了一篇详尽的专题报道,深入探讨了机器学习技术中潜在的偏见。当前的 AI 图像生成模型,如 Dall-E 和 Stable Diffusion,有时仍会反映出社会的刻板印象。例如,在生成“具有创造力的人”的图像时,这些系统往往倾向于呈现白人形象;而在描绘“社会服务人员”时,则多数情况下展示的是有色人种的形象

学术界早就意识到人工智能可能会带来负面冲击,然而,由于研究规模有限,风险一直只存在于理论层面。更严峻的问题是,越来越多的学者、政策制定者意识到,训练人工智能的高昂成本正在将研究人员排除在该领域之外,从而损害了对这一新兴技术的独立研究。

面对Meta、谷歌和微软对人工智能领域数十亿美元投资,即便是资源雄厚的美国知名大学也显得力不从心。Meta 计划采购 35万个专用 GPU 来推动其人工智能模型的发展,而斯坦福大学的自然语言处理团队仅有 68 个 GPU 来支撑其研究。

为了追求人工智能研究所需的高昂计算能力和数据资源,学术界往往不得不选择与科技公司合作,这种不平衡的权力动态正在以微妙的方式塑造这个领域,促使人工智能学者调整他们的研究以用于商业用途。斯坦福大学的报告指出,2022年科技行业贡献了 32 个关键的机器学习模型,而学术界仅有 3 个,这与2014年相比呈现出显著的变化,当时的多数人工智能创新都源自大学。

政策制定者正在采取一些措施来解决资金缺口问题。去年,美国国家科学基金会宣布投资 1.4 亿美元,启动 7 个由大学牵头的国家人工智能研究所,研究人工智能如何减轻气候变化的影响和改善教育等课题。

但学者们表示,资金的注入可能来得仍然不够快。

随着硅谷竞相打造聊天机器人和图像生成器,它正以高薪和研究有趣的人工智能问题的机会吸引着未来的计算机科学教授。根据 2023 年的一份报告,近 70% 的人工智能博士最终进入了私营企业,而二十年前只有 21% 的毕业生进入了私营企业。

人工智能正在成为一种特权,一种排他性极强的特权。

硅谷能让人工智能变得更好吗

李飞飞在英伟达 GTC 大会中表示:“今天的人工智能,基本上都是从好奇心驱动的学术研究课题开始的,这是我们社会不断创新的入口。随着像 OpenAI 这样的公司开始在人工智能的发展中占据主导地位,需要相关的法规去约束这些公司,以便让公众受益。”

硅谷的傲慢态度向来为外界所诟,尽管公众对潜在风险的认知不断加深,但硅谷对人工智能技术的夸夸其谈也上升到了新的高度。

硅谷不断推出自动驾驶汽车,设计出高超精湛的肿瘤检测算法,实现工厂端到端自动化。至于被先进技术取代了工作的人(出租车司机、长途卡车司机、装配线工人甚至放射科医生)的命运,硅谷的态度似乎介于半心半意的“再培训”和几乎不加掩饰的漠不关心之间。

里程碑接二连三地出现,可怕的情景正在逼近。

在一份 ProPublica 的独立调查中显示,有偏见的人工智能被广泛应用于处理贷款申请,甚至协助法官做出假释决定等方面。类似的报道还显示,在某些招聘中,求职者会先经过人工智能技术的筛选,然后才有真人面试官进行面试。

此类做法往往会在无意中造成歧视性影响,这一点并不令人意外。这些更微妙、更机构化的伤害几乎不可能迅速得到纠正,相关问题几乎是无声无息的,影响范围更广,而监管则少之又少。

人工智能不是现象,不是颠覆,不是难题,也不是特权。我们面对的是一种自然力量。它是如此宏伟,如此强大,如此反复无常,既能轻易激发灵感,也很容易摧毁一切。要让人工智能值得信任,需要的远不止商业公司空洞的陈词滥调。

谁能作为值得信赖的伙伴让我们了解这项技术的安全性如何?技术的透明度有多少?数据是否存在偏差,我们如何才能公平、可信地使用这种人工智能提供给我们的信息?这些都是我们需要去解决的问题。

人工智能如何以人为本

我们仍身处一场全球风暴之中。每天似乎都有新的头条新闻报道自动化对全球劳动者构成的威胁。

需要明确的是,大型语言模型,即使是多模态的大型语言模型。可能也并不具备真正意义上的“思考”能力。大型语言模型很容易出现荒谬的概念性失误,也乐于编造听起来合理但实际上毫无意义的胡言乱语。

了解这些事实有助于我们避免过分迷恋模型的能力。然而,随着大型语言模型生成的文本、图像、语音和视频越来越复杂,真与假之间的界限愈加模糊。越来越多的评论家开始质疑,为我们敲响警钟:作为个人、机构,甚至社会,我们究竟有没有能力区分真实和虚构?当人们意识到这一切还只是 1.0 版本时,这种发问尤其令人警醒。

科技不断发展,算法语言表达的高级程度已逼近人类水平,机器人正在逐渐学会应对真实的环境。视觉模型不仅可以通过照片进行训练,还可以在全三维世界中进行沉浸式实时训练。人工智能能够像识别内容一样流畅地生成内容。与此同时,伦理问题在我们周围不断涌现,与人类经济社会发展的关联也日益紧密,但这就是科学一直以来的样子。

深度学习飞速发展,每一年都感觉像是要面对一个全新的领域,其应用的深度和多样性增长得如此之快,甚至全职研究生和博士后也很难跟上文献的步伐。可能性无穷无尽,挑战也永无止境。面对全球亟待解决的问题,面对具有历史意义的机遇,面对可能需要几代人的努力才能揭开谜底的未知,真正解决所有问题的答案远远不是公司战略或学术课程所能提供的。

是什么让硅谷的公司如此强大?不仅仅是它们数十亿美元的资金或数十亿用户,也不仅仅是因为它们拥有惊人计算能力和数据储备,让学术实验室的资源相形见绌。它们之所以强大,是因为成千上万个才华横溢的人在同一个屋檐下共同努力。

但商业公司只能利用这些人才,而无法塑造他们。硅谷一次次地出现类似的情况:才华横溢的技术专家几乎可以建造任何东西,但问及工作的伦理问题时,他们却一脸茫然。

是时候重新评估人工智能教育的各个层面了。未来几年,从业者需要的不仅是专业技术知识,他们还必须了解哲学、伦理学,甚至法律。

想象空间是巨大的,但愿景需要一个重要的纽带串联起来,这个纽带就是大学。早在有人利用人工智能谋取利益之前,人工智能就已经在大学里起步了。在大学校园里,仍然最有可能感受到某些意想不到的研究突破带来的火花。

我们要从根本上重新构想人工智能,使其成为以人为本的实践。人工智能一直以来都追求科学性,而现在,它必须也追求人性。人工智能应该秉承最优秀的学术传统,保持合作和敬畏,同时不惧怕直面现实世界。毕竟,星光是多样的。一旦白色的光辉展开,各种颜色就会发出耀眼夺目的光芒。

本文为专栏作者授权创业邦发表,版权归原作者所有。文章系作者个人观点,不代表创业邦立场,转载请联系原作者。如有任何疑问,请联系editor@cyzone.cn。

反馈
联系我们
推荐订阅