Google分享:无人驾驶汽车需要怎样的用户体验设计?

无人驾驶汽车,以及其带来的全新出行方式已经离我们不再遥远。但相比较传统汽车出行,人们对驾驶座上空无一人的状态难免心存疑虑。今天我们不讨论无人驾驶领域的技术问题,而是分享一下如何通过体验设计来提升用户的安全信任感的问题。

作者 / Ryan Powell 出品 / Google

在过去的四个月里,一队无人驾驶的白色小型客车在亚利桑那州钱德勒市的街道上奔波,接送了数百名付费乘客。和标准的出租车一样,这些汽车在约定的地方接上乘客,并将他们送到目的地。但与传统出租车或其他共享出行服务不同,这些小客车没有人在驾驶,这就是 Waymo。Waymo 面临的挑战除了技术层面上的问题之外,还从体验上提出了一些全新的需求: 要让乘客相信无人驾驶的车辆可以安全地将自己从 A 点送达 B 点。 

先说说大环境。我们其实已经渐渐开始去信任生活中的 AI 辅助设备了: 我们依靠 Google Maps 来导航,询问 Google Assistant “待会儿是否会下雨”,即便没有亲手驾驶过,但大抵也已经见过一些提供了一定程度自动辅助驾驶功能的汽车。但是,完全不依靠实体控制,把驾驶员的权限完全移交给人工智能——就是另一回事了,这需要更高的信任度。  

来自 Waymo 的 Ryan Powell 如此说道: “当我回想起第一次乘坐 (无人驾驶汽车) 的过程时,我想到了太多的东西。” “这个过程会是什么样子?汽车能真正 ‘看到’ 什么?它又是如何 ‘思考’ 的?”

Powell 在自动驾驶技术公司 Waymo (以前是谷歌的一部分,现在独立出来成为了 Alphabet 的子公司) 负责 UX 研究和设计,他的工作就是思考这些无人驾驶汽车如何能够赢得乘客的信任。汽车的激光雷达 (光线感应测距)、摄像头和传感器会不断检测周围道路和交通状况,获取到的数据多到令人难以置信,但乘客不会——并且可能并不想——看到汽车看到的一切。相反,Waymo 通过一系列的界面将这些繁杂的数据转化为简洁的视觉反馈,这样的做法更符合人们看待外部世界的方式,从而让乘客们放心,因为他们会看到自己乘坐的汽车能自己作出安全而合理的决策。

按照 Powell 的说法,这是一个必须从零开始的设计过程,因为 “无人驾驶汽车的体验设计没有样本或者教科书” 。

从零开始设计乘车过程

Waymo 应用使用的蓝色线条标示出无人驾驶汽车的接驾位置

从零开始,意味着我们需要重新思考乘客和人类驾驶员之间发生的所有交互细节。

乘客在看到汽车后会招手示意驾驶员停车,驾驶员在路边停稳后让乘客上车——但这里 “招手停车” 的过程是一个只属于人类的默契沟通。而无人驾驶汽车按照预先的编程,只会永远遵守交通规则,因此它们不会半途停留在任何地方,乘客向无人车 “招手” 的动作其实很难被解读。我们在设计这个过程时尝试了很多概念,并越来越深刻地意识到,基于目前地图的 UI 惯例可能会让显示出来的内容变得非常复杂,因为来自其他方面的信息量太大了。

我们在 Waymo 的应用中使用 Google Maps,但里面一些早期的想法过分强调交通状况,而对车辆的停靠地点没有足够明确的表达。所以在改进的应用中,我们使用蓝色线条来告诉乘客——无人汽车会在那里安全停靠并等待乘坐——这是早期体验的乘客们最能清楚理解的设计方案。

但如果考虑到视力不足的乘客,情况又会有所不同。因此我们正在尝试一种功能,让乘客通过应用来鸣响汽车喇叭,并以此作为乘车的引导方式。我们还提供更高级的声音反馈选项: 在用户首次设置应用时可以选择打开某些辅助功能,其中一项功能就包括更多的语音 / 声音反馈。例如,当乘客进入汽车时,车内的音源可以让乘客知道 “开始行驶” 按钮的位置,什么时候穿过了哪个交叉路口,这样乘客就可以轻松掌握实时的位置信息。 

在没有人类驾驶员时,这块屏幕会明确告知乘客自己是否坐进了正确的车辆

当您坐上 Waymo 的汽车时,您将会留意到的第一个界面就是我们的乘客屏幕。它的作用是让您放心,让您知道您正坐在正确的车里,而且汽车知道您要去哪里。您可能会注意到的第二件事是声音。当您坐下的时候,我们会播放轻松的环境音乐。Waymo 的车内背景音乐由音效设计师基于 E 调进行谱写,这个曲调会传达出 “欢乐、格局与智能” 的情感。  

显示更少 沟通更多

当您坐在有人驾驶的汽车中时,您和司机之间会发生很多沟通,包括您主动开口询问司机 “您走的是什么路线?” 或者只是静静地看着司机观察人行横道上的行人。

Waymo 无人驾驶汽车能感知到的信息是海量的,但乘客从界面上能看到的信息则是经过精心过滤和渲染的

在无人驾驶的情况下,我们必须设法向您展示出,我们的汽车也知道这些东西。

在心理上,乘客对其他行人是最重视的——这也是汽车最需要重视的事情。为了与这种心态相匹配,我们就要采用真实化的渲染方式。在乘客屏幕上,您将看到道路和人行横道,车辆的路线会被渲染成透明的绿色轨迹。我们在界面中采用柔和的色彩,是因为当我们测试较为饱和的颜色时,那些屏幕上的信息会显得太过扎眼。我们还提供了夜间模式,这样就可以让屏幕变得更暗。一般来讲,我们不希望乘客的注意力被车内音源或者画面信息过分吸引。

* 一般认为,无人驾驶或者半自动辅助驾驶时,辅助驾驶信息不宜影响驾驶员或乘客观察车辆周围的真实环境。

附近的车辆会显示为简单的轮廓,但骑车或步行的人们会被比较清晰地显示出来,分别用蓝色和白色勾出轮廓——这表明我们的车辆可以识别出两者之间的差异。我们使用来自激光雷达获得的真实点阵来完全渲染他们,而不是使用抽象的符号,因为我们发现,乘客比较乐于看到行人和骑车人的手臂和腿实时移动的样子。当然,如果行人坐在轮椅上或是拄着拐杖,那么这一信息也会如实显示在屏幕上。

不过,”真实渲染” 有时候也会不太合适: 在我们的早期 UI 版本中,我们尝试去做类似的事情,通过使用激光雷达的点阵来绘制周围的车辆。但是因为激光只能通过反射探测出面朝我们的车辆表面,所以点阵渲染出来的车辆往往只有残缺的轮廓——甚至会被解读成渲染错误的样子。我们担心,这可能会让乘客怀疑我们的技术无法理解周遭环境,所以现在我们使用扁平的蓝色矩形来代表附近的车辆。

在乘客看到的界面中,其他车辆被渲染成蓝色的矩形。行人则使用白色的圆形标出

为了让乘客更确信无人车知晓周围的环境细节,行人、自行车甚至路锥等内容则被写实渲染出来 (下图)

每隔一段时间,您可能会抬眼一瞥,想知道自己身在何处。因此,除了展示汽车可以看到的内容外,我们还展示了周围的建筑物。但由于它们的重要性不高,我们会把它们调暗,这样它们就不会与画面中的汽车和行人发生冲突了。

助您安全抵达

在整个乘车过程中,您都可以看到屏幕上叠加显示的辅助消息,我们将其称为 “状态层”。

这些信息展示出我们可以清楚地理解交通信号、停车标志、铁路道口、限速信息、学区、行程进度等信息。我们在这里直接把汽车正在做的事情告诉您,并预测您可能会想了解哪些方面的问题。

我们使用 UI 的下半部分提供更多的说明信息,比方说,汽车究竟是因为什么停下的;当汽车在交叉路口转弯前评估情况时,我们会告诉您我们正在等待行人走完。提供这些信息是因为我们的汽车可以 360 度全景观察周围的环境,但对于坐在后座的乘客来说,他们看到的情况也许没有汽车看到的全面。

状态层在车辆处于待转状态时给出丰富信息如果我们需要对您做出提醒,我们会播放提示音。

但总体来说我们对声音的使用是非常谨慎的,因为我们追求的是 “让人放松的乘坐体验” (lean back experience)。

如果汽车看到了乘客看不到的某个东西,并因此突然刹车,我们在这种情况下才会启用声音提示。在情况十分严重时我们会发出较为紧促的声音,让您知道,现在需要采取行动了 (比如车门没关严)。我们会时刻让提示音效与屏幕上的通知同步,这样才会给乘客留下清晰果断的印象。

在距离目的地只剩 1 分钟时,我们会使用语音提示,确保您不会遗忘随身物品。这听起来很无聊,但由于车上并没有别人来做这个提醒的工作,我们发现这种做法确实有帮助。

您最后听到的是一个温和的环境音乐,提示您已到达目的地,并继续播放 E 调音乐,与行程开始时的音乐首尾呼应。

我们在设计过程中投入了大量精力来理解人们对我们的技术产品的反应模式,特别是当他们是汽车中唯一的乘客的时候。乘客的 “抬头观察时刻” (指乘客开始对车内外的状况感到好奇的时候) 会在何时发生?肯定比我们想象的要更多,而且每个场景都有独特的复杂性。那这时人们想知道多少信息,我们又需要主动告诉他们多少?我们正在筛选从乘客那里得到的反馈信息,试图从中总结出一定的规律。

人们倾向于很快掌握和信任技术产品,但 Waymo 汽车的驾驶方式毕竟不同于人类驾驶员。我们的汽车有时会谨小慎微,从而引发乘客的误解,但有一点值得强调,那就是即便是谨小慎微的决策,也需要极大的计算量。人们在亲身体验到新技术之前并不总能够理解它,因此我们需要,也可以通过设计来帮助他们实现这一目标。

参与评论

请输入你的评论!
请在这里输入你的名字