《卫报》的报道 显示,苹果 Siri”评分”计划中的人类听到了私人和非法活动,苹果 已暂停该计划 以进行审核。它还致力于软件更新,让用户能够选择退出(或者可能选择加入)。
Apple 发表了一份简单的声明:”我们致力于提供出色的 Siri 体验,同时保护用户隐私。在我们进行彻底审查的同时,我们将在全球范围内暂停 Siri 评分。此外,作为未来软件更新的一部分,用户将能够选择参与评分。”
这是正确的做法,但这让我想知道前进的道路应该是什么。因为,虽然大多数人没有意识到,机器学习 (ML) 和人工智能是建立在人类”评分”的基础上的,而且目前还没有好的替代方案。由于 Siri 经常被批评落后竞争对手一两年,苹果要想在保护我们的隐私的同时迎头赶上并不容易。
每个人都这样做
这个 Siri 评分计划是关于什么的?基本上,每次你说”嘿 Siri…”时,你发出的命令都会在你的设备上进行处理,但也会半匿名并发送到云端。其中一小部分用于帮助训练神经网络,使 Siri(以及 Apple 的听写功能)能够准确理解您所说的内容。世界某个地方的某个人正在听一些”Hey Siri”命令,并记下 Siri 是否正确理解了这个人的意思。
然后机器学习网络通过数百万次排列进行调整、重新调整、再调整。这些更改会根据这些”分级”样本自动进行测试,直到新的机器学习算法产生更准确的结果。然后该神经网络成为新的基线,并且重复该过程。
如果没有人工训练,就无法训练机器学习算法(用于语音识别或照片识别或确定您的安全摄像头是否看到了人或汽车)。 旁>
如果没有人类以这种方式进行训练,就无法训练 ML 算法(用于语音识别或照片识别或确定您的安全摄像头是否看到了人或汽车)。如果有一种计算机算法能够始终准确地判断AI是对还是错,那就是AI算法!
苹果、谷歌、亚马逊、微软以及其他任何使用机器学习算法来识别语音或检测照片或视频中的对象或几乎其他任何东西来生产人工智能助手的人都在这样做。他们正在监听您的助理询问,他们正在查看您的照片,他们正在观看您的安全摄像头。
有点。
(事实上,Google 还 苹果
如果 Facebook 的使用情况有任何迹象的话,大多数人都会同意他们的数据被用来训练人工智能算法。
但通常需要超出实际录音或照片/视频之外的一定量的数据,因此不能完全匿名。
例如,如果我说:”嘿 Siri,Greenback Lane 的 UPS 商店几点关门?” Siri 认为我说的是”格伦布鲁克巷的 UPS 商店几点关门?”我会得到一个不好的结果。我附近没有 Glenn Brook Lane,当然也没有 UPS 商店。但自动化系统无法知道其转录是错误的,因为这肯定是人可以说的。
因此,人们必须审查这些事情,他们需要大致知道我提出请求时我在哪里。如果没有足够的位置数据来知道我附近没有格伦布鲁克巷,这些人类”评分者”不会知道格伦布鲁克巷是错误的,对吗?
类似地,一个人查看环视频片段以区分移动的汽车和人可能需要知道他们正在查看来自室外摄像机(可以看到很多汽车)还是室内摄像机(应该只能通过窗户看到汽车)的镜头)。
充分披露是关键
如果消费者确切地知道人工智能算法的工作原理以及为保护他们的隐私而采取的措施,他们会如何反应。我有一种感觉,大多数人都会同意(如果人们都那么关心个人信息和隐私,Facebook 就不会被 12 亿人使用)。
但他们不知道,而且所涉及的公司似乎都没有兴趣解释这一点。向科技媒体发表简短声明与告知数亿用户不同。在密集的服务条款协议中隐藏 4,000 字的许可声明不算数。缺乏披露是一个关键的失败。
最大的问题之一是虚拟助手经常记录他们不应该记录的事情。 Siri、Alexa 和 Google Assistant 基本上总是在录音。他们在不断循环的设备缓冲区中一次收听几秒钟,在听到唤醒短语之前不会向任何地方发送任何信息:Hey Siri、Alexa 或 OK Google / Hey Google。只有在此之后,他们才会激活网络连接并将您的数据发送到云端。
众所周知,有时这些唤醒短语不起作用,有时即使没有人说,它们也会被触发。这些错误的触发因素最终导致人类”评分者”听到私人谈话、毒品交易、性活动等片段。
同样,没有简单的解决方案。这些助手无法完美地听到他们的唤醒短语,除非人类在他们听错时真正告诉他们。
我们自己做工作
这并不一定意味着我们必须将我们的数据传递给其他人。我们可以自己进行培训和评分。苹果可以改变 iPhone,以便每次调用 Siri 时,我们都会看到简单的”正确”或”不正确”按钮。如果用户标记错误,也许他们可以提供更多信息 – 正确的短语,或者给出的答案不是预期的方式。
智能扬声器可以被赋予关键短语,使我们能够用我们的声音做同样的事情,也许可以使用链接的手机进行更正。
然后,调整后的算法(但没有我们的个人数据)可以发送回母公司,与其他人的数据合并并合并到下一个软件版本中。一些公司已经将这种方法用于某些类型的机器学习算法,例如键盘中的智能预测文本(就其本质而言,我们都会纠正错误)。
当然,绝大多数用户永远不会费心去评分和纠正他们的虚拟助手。他们的全部目的是避免这种单调乏味,谁想在智能安全摄像头上查看每一个误诊的运动触发器或在人工智能驱动的相册中错误标记的照片?这就是工作。这与人工智能的目的相反。
但有了足够多的受众,苹果当然可以声称拥有超过十亿台正在使用的设备,即使是训练设备的活跃用户的一小部分也将是一个巨大的样本。它甚至可能足以使 Siri 成为出色的人工智能助手,但目前它绝对不是。
像苹果这样的公司愿意付出更多努力吗?用一个易于访问的界面来玷污其光滑的设计和”它只是工作”的外观,就其存在而言,意味着某些东西不能经常工作?可能不会。苹果可能会很快完成对其评分计划的审查,并通过隐私设置中的切换开关选择退出来恢复该计划。这件事做起来很简单,但却错失了将数亿 Siri 用户中的至少一小部分转变为活跃 Siri 改进者的机会。