作为设计师,我们守护用户利益与价值的责任从未如此重大。身处 ChatGPT 等 AI 工具蓬勃发展的时代,我们正亲眼见证这些系统如何悄然改变用户与技术的权力平衡。无论是自动化任务执行、挖掘潜在规律、优化用户体验、创造全新内容,还是辅助决策制定,AI 的核心价值在于其能够从数据中自主学习并持续进化——无需依赖显性编程指令。
然而,这些颠覆性技术的迭代速度与社会消化能力之间正形成巨大鸿沟。当前 AI 技术的爆发式发展,正在以超出社会适应能力的方式重塑我们的经济结构、心理健康图景、文化形态乃至整个社会生态。
“我们设计师必须在这个新兴的预测性世界中承担起自己的角色,因为一直以来都有我们这双无形的手在干预着各种控制环节。”
—— 海伦・阿姆斯特朗(Helen Armstrong)
这段话出自海伦・阿姆斯特朗(Helen Armstrong)所著的精彩书籍《大数据,大设计:设计师为何应关注人工智能》(Big Data, Big Design: Why Designers Should Care About Artificial Intelligence),该书探讨了设计与人工智能的交叉领域,强调了设计师在塑造 AI 驱动体验方面的作用。
在一个预测性的数字世界里,我们在确保 AI 解决方案符合道德规范、具备透明度且与人类价值观对齐方面,发挥着关键作用。我们必须考虑数据中潜在的偏差、对用户隐私的影响,以及我们的创作对社会产生的影响。通过将责任与担当放在首位,设计师们能够助力打造一个 AI 技术提升人类能力、改善生活质量的未来。
这本书深入探讨了这些问题,书中收录了众多在人工智能与设计交叉领域工作的设计师、教育工作者和研究人员的观点。
它是我撰写本文时,针对文中提出的问题与讨论所参考的主要书籍。不过,为了提供全面的视角,我还参考了许多其他资料。
这本书以及本文的核心主题,都是强调设计师在 AI 产品和服务的伦理化发展过程中的责任。我们这一学科从根本上以用户为中心,注重在更广泛的社会背景下理解和满足人类的需求与期望。我们在产品设计中运用的心理学、调研和策略,对全球用户的身体、心理及情感健康都有着深远影响。
AI 是以用户为中心的……?
以用户为中心的设计,如包容性和参与性的方法,能确保数据模型的公平性、减少偏差并促进包容性。众所周知,在过去十年里,以用户为中心的设计一直是所有设计框架和流程的指导原则,在涉及 AI 的设计工作中也应如此。这些观点十分重要,因为它们能让决策者了解潜在的对人的影响,并帮助预估非预期的后果。像斯坦福大学的以人为中心的人工智能研究所,以及麻省理工学院在 AI 教育方面的巨额投入等举措,都体现了全球对优先采用以用户为中心方法的努力。
根据莎拉・谭(Sarah Tan)的这篇文章,通过各种以用户为中心的设计(HCD)方法来探究 AI 对人的影响,设计能让人与机器的价值观达成一致,将伦理道德融入项目核心。
倡导用户需求,设计调研有能力在现实场景中审视 AI 的影响,同时也能解决社会经济层面的动态问题。然而,这并非易事。我们身为行业内的设计师,常常感到有压力要迅速跟上最新潮流,根本没时间思考。我们经常被要求利用行为调研去影响用户选择,有时甚至是以牺牲用户福祉为代价。此外,我们得在快节奏的环境中工作,秉持着早期脸书文化中流行的 “快速行动,打破常规” 的理念。这种方式会让我们更难进行周全且合乎伦理的设计。
但面对这些压力,要如何为用户发声呢?
所有设计师都应该了解的 AI 能力
这就是我希望通过本文达成的目标:激励设计师更多地参与到 AI 系统的创建中,这样我们就能让这个过程更加合乎伦理且以用户为中心。这意味着以设计思维为指引,通过开发以用户为中心的 AI 系统和准则,来降低 AI 对社会的负面影响。
我们如何实现这一点仍在摸索当中,而我们所有人都是这个过程的一部分!为了助力实现目标,我想重点介绍阿姆斯特朗(Armstrong)书中探讨的主要能力,在这些方面我们设计师应该积极参与其中。我们需要倡导那些既能满足用户需求,又能以合乎伦理的方式尊重社会经济背景的设计决策。这并非易事,但我们可以从这些要素入手,开始铺就道路。
1.为强化预测能力而设计
预测是机器学习(AI 的一个子集,指通过数据训练算法,使其无需显式编程就能做出预测或决策)的核心能力。在预测建模领域,机器学习的目标是基于历史数据中发现的模式,对未来事件或结果进行预测,并预估行为。例如,我们可以想想 Gmail 根据用户过往行为自动补全句子的功能。随着时间推移,该系统能很好地了解个人风格,不仅能补全句子,甚至还能建议合适的语气或情感表达。
 我个人 Gmail 的截图
或者我们可以想想众多跨行业的应用场景,比如股价预测、库存与供应链优化、医疗预测(像疾病爆发预测)、精准营销活动,以及其他个性化用户体验。
虽然这些由 AI 驱动的预测并不总是百分百准确,但它们为企业带来了显著益处。其优势在于,通过预估未来需求、趋势和需要,企业能够更好地把握机遇,获取竞争优势。为此,设计师在项目中运用智能技术时,需要规划不断变化的体验场景。
另一方面,设计师不能盲目应用 AI 技术,否则人类将面临歧视、监视或操纵风险,而且这种风险并非个体层面,而是大规模的。预测模型有时会强化现有偏见,或导致意想不到的后果。
设计师有责任预见这些潜在问题,并采取措施加以缓解,确保设计符合伦理且具有包容性。正如人工智能现状研究所(AI Now Institute)创始人凯特・克劳福德(Kate Crawford)所说:理解 AI 系统内部的 “门道” 比以往任何时候都更为重要,因为它们正迅速融入社会机构的架构之中:决定面试哪些求职者、哪些学生在课堂上专心听讲、逮捕哪些嫌疑人等等诸多事宜。
2.为预估未来场景而设计
海伦・阿姆斯特朗(Helen Armstrong)在她的书中探讨了 “预估” 这一概念,展示了设计师如何利用 AI 来主动预测并满足用户需求。这需要借助数据驱动的洞察,比用户先行一步,减少用户操作流程中的阻碍,提升整体用户体验。
预估性设计的一个优点是,通过预测系统减轻用户的认知负担,从而减少决策疲劳。这些系统会提供相关选择,或者代用户采取行动。例如,像网飞(Netflix)和亚马逊(Amazon)这类公司,就使用预测分析来推荐产品或内容。然而,这也存在伦理方面的问题,因为此类系统可能会侵犯用户的自主权或隐私。正如阿姆斯特朗在第 210 页所言:
预估性设计的前景在于它有潜力打造出既直观又个性化的体验。然而,拥有这种能力的同时,也肩负着审慎运用的责任,要确保在每一个设计决策中,人的因素始终处于核心地位。幸运的是,有一种具有前瞻性的方法,能让我们打造出适应变化、并随用户期望一同发展的产品与服务。设计师可以利用 AI 模拟并构建潜在的未来场景,预估各类用户需求、环境因素和社会变化。这能确保我们的设计始终贴合实际且具备适应性。
3.为打造个性化体验而设计
用户体验设计中的个性化,是指定制界面、内容和交互方式,以满足个体用户的特定需求、偏好及所处场景。当我们在 AI 语境下谈论个性化时,通常意味着利用预测技术和数据分析,在任何特定时刻为用户提供更具相关性和价值的体验。正如设计研究员利兹・桑德斯(Liz Sanders)那句名言所启发的,个性化确保呈现给用户的信息或操作是有用、易用且令人满意的。
AI 能够通过分析海量用户数据来识别模式和偏好,借助预测模型预估用户接下来可能的需求或期望,从而提升个性化程度 —— 这可能涉及考量用户当前所处场景,如位置或时间,以提供更贴合实际的建议。然而,个性化也引发了包括隐私、偏见和透明度等伦理问题。这就是为什么身为设计师的我们,在确保个性化有效且合乎伦理地实现这一过程中,起着至关重要的作用。我们必须通过调研和测试来理解用户需求与偏好,并持续收集反馈以优化个性化功能。
📺:Seeing AI: Making the visual world more accessible
https://www.youtube.com/watch?v=DybczED-GKE
“Seeing AI”:这款微软开发的 AI 应用程序能够描述其在现实世界中 “看到” 的东西,以帮助视障人士。这个视频让我会心一笑。
可以说,个性化是设计师工具库中的一项强大工具。但正如阿姆斯特朗(Armstrong)所强调的,个性化体验能否成功,取决于对 AI 洞察进行周全且合乎伦理的运用。始终将用户的最大利益放在首位至关重要,要确保个性化工作不仅行之有效,而且对用户个体来说是尊重且有益的。
4.把 AI 当作设计素材来用
为 AI 做设计颇具挑战,因为这项技术无形又抽象。身为设计师,要是没法 “勾勒” 出解决方案,就仿佛丧失了一项关键技能。就像交互设计教授菲利普・范・艾伦(Philip Van Allen)说的:“这就跟胳膊被砍了似的。” 为解决这一问题,他为学生打造了一个无需代码的编程环境,方便学生接触机器学习。这款工具叫 “代尔夫特 AI 工具包(Delft AI Toolkit)”,它以 3D 形式模拟 AI 系统,让设计师在投入时间和专业精力进行模型训练、打造实体机器人之前,能在虚拟空间里观察并操控该系统的行为及数据源。
📺:Delft AI Toolkit Introduction
https://www.youtube.com/watch?v=BjsFq0DOrgQ
菲利普・范・艾伦(Phillip Van Allen)开发的代尔夫特 AI 工具包。它是一个用于设计和研究智能产品的系统,提供了可视化创作环境,能简化机器学习、认知 API 和其他 AI 方法的原型制作
卡内基梅隆大学(Carnegie Mellon University)教授约翰・齐默尔曼(John Zimmerman)提出了另一种将 AI 当作设计素材的方法。他开发的方法聚焦于 AI 系统的功能,而非底层技术。齐默尔曼发现,他的很多设计专业学生在使用 AI 技术时,不确定能实现什么,所以他采用了一种 “匹配” 系统,帮助学生理解 AI 系统的潜力。比如,他拿出一个二分类文本分类器,问道:“用这个你能做什么,又是为谁做呢?” 这种方法帮助设计师识别现有功能,并以创新方式加以应用。就像任何设计工具一样,我们对其试验得越多,就越能得心应手,也会产出更多关于 AI 功能的示例和抽象概念。
第三种方法我觉得特别有效,那就是采用面向对象用户体验(Object – Oriented UX,OOUX)方法论。OOUX 在关注 “动作” 之前先聚焦 “对象”,这与用户认知现实世界的方式相契合。它借鉴了面向对象编程的理念,并将其应用于用户体验设计中。这种方法通过围绕对象来组织数据和交互,与 AI 工作流程配合得很好,能使复杂的 AI 系统对于非开发者而言,更贴合他们的心智模型,从而变得更直观易懂。索菲亚・普拉特(Sophia Prater)是 OOUX 领域的顶尖专家,我强烈推荐她关于这个主题的资料和播客。
就我个人而言,我最近用这种方法完成了第一个原生 AI 产品项目。这个方法论非常有帮助,它让我能更清晰地勾勒出系统的功能和局限,对工程师们也有所助益。此外,通过对象映射和用户链路,它让我的设计过程更具实体感,提升了我所提出解决方案的质量和准确性。
机器学习(ML)是新型用户体验(UX)。我期望用户体验从业者能创造性且周全地将机器学习当作设计素材来用,引领用户和技术专家迈向一个由机器学习审慎驱动的未来。—— 杨倩,康奈尔大学
5.为降低 AI 对气候的影响而设计
尽管这一点书中没有提及,也不属于 “AI 能力” 范畴,但它肯定是设计师应具备的关键技能之一,尤其是在 AI 技术崛起的 21 世纪。
桑蒂・阿纳利蒂斯(Santhi Analytis)写过一篇名为《如何设计面向气候的 AI 公司》的文章,强调了设计师在减轻 AI 技术对环境影响方面所发挥的重要作用。文章指出,由于模型训练和数据中心运营等能源密集型过程,AI 的碳足迹不断增加,这是一个需要工程师和设计师都迫切关注的挑战。设计师可以通过创建节能的用户界面 / 用户体验(UI/UX)元素、尽量减少不必要的数据和媒体负载,以及应用绿色软件原则来助力解决这一问题。此外,设计师还可以通过开发具有包容性、关注气候的用户体验,来推动 AI 在社会层面的公平使用。
《巴西拦截报》(Intercept Brasil)去年也发表了一篇文章称,微软、谷歌和亚马逊等大型科技公司如今正转向核能,以应对 AI 和数据中心不断增长的能源需求。微软计划重启三里岛核电站,谷歌已与凯罗斯电力公司(Kairos Power)合作开发小型反应堆,亚马逊则向核技术领域投资了 5 亿美元。许多此类数据中心都建在劳动力和基础设施成本较低的南半球国家,这引发了人们对资源开发问题的担忧。尽管核能无碳且高效,但成本高昂且存在风险,批评人士认为,“大型科技公司” 是在应对自己制造的危机,它们将快速的技术扩张置于可持续发展之上。
行业内 “快速行动” 的心态引发了人们的担忧:核能是否真的能跟上 AI 不断加速的能源消耗,还是说它只会成为大型科技公司无节制增长历史中的又一个篇章。这部 Vox 纪录片试图回答这个问题:
📺:Can clean energy handle the AI boom?
https://www.youtube.com/watch?v=YGfJeH5HRDQ
在麻省理工学院(MIT)发表的另一篇文章中,作者安德鲁・温斯顿(Andrew Winston)同样强调了 AI 对环境日益增长的影响,并给出了减少其碳足迹的建议,比如使用现有模型而非创建新模型。文章着重指出了设计师在这一问题上的作用,敦促设计师掌握 AI 专业知识,以便简化复杂概念,在产品中阐明 AI 的 “营养评分”(其使用情况及环境成本),并遵循类似于欧盟《人工智能法案》(EU’s AI Act)的道德 “行为准则”,确保 AI 产品安全、透明、可追溯、无歧视且对环境负责。
身为设计师,我们可以通过采用能反映 AI 真实成本的透明数据模型,来影响用户行为和公司政策,从而确保这项技术不仅能解决人类面临的问题,还能助力应对环境挑战。
结论:让我们行动起来
面对 AI 伦理的迫切需求,我们很容易感到无所适从。AI 是一个用途广泛且充满活力的领域,能够执行各类任务,助力解决现实世界中的诸多问题。然而,算法系统常常反映并放大现有的社会偏见。在界面清晰阐释这些算法决策背后的逻辑之前,用户无法让这些系统担起责任。这就是为什么设计师以及他们所服务的群体需要了解数字权利。我们必须让自己和整个行业,为我们通过设计所做的选择负责。
关键问题在于:我们是要任由机器学习去伤害那些已然被社会伤害的群体,还是将这项技术作为实现公平与正义的一种手段呢?
作为这个行业的设计师,我们可以从以下这些行动做起:
✅ 进行前瞻性设计,为多种可能的未来做好准备,让我们的设计更具灵活性,能适应未来发展
✅ 以批判性思维思考我们设计的长期影响,以及支撑这些设计的数据驱动型决策
✅ 清晰阐明数字权利,并通过设计交互,以透明化方式引导用户做出选择
✅ 将复杂的隐私协议拆解为快速、易懂、即时的交互内容
✅ 制作面向未来概念的原型,比如g n f理和偏见的问题,确保技术是顺应人类需求,而非本末倒置
你是如何打造 AI 产品的呢?你知道哪些符合伦理且具包容性的设计解决方案案例呢?
|