趋势:看见有价值:首先看看Jeff Bezos'报道了荷兰造船厂的500米超级游艇
华盛顿大学的Rachael Tatman和Emily M. Bender教授。(华盛顿大学的照片)

编者按:这是一篇由华盛顿大学教授撰写的客座文章艾米莉M. Bender.Rachael Tatman.,uw毕业,在监狱环境中使用ai。

汤姆森路透基金会报道8月9日,美国众议院的一个小组要求司法部探索使用所谓的“人工智能”(AI)技术来监控囚犯的电话交流,表面上的目的是防止暴力犯罪和自杀。

这不是一个假设的练习:Leo Technologies,一家公司“由警察为警察建造”,已经为被亲人作为服务的亲人进行了自动监测。

作为研究语音识别和其他语言技术的发展和应用的语言学家,包括这些技术对不同语言的作用(或不作用)的方式,我们想要清楚而强烈地声明,无论从技术上还是伦理上来说,这都是一个糟糕的想法。

我们反对以任何方式进行大规模监测,特别是在未征得弱势群体同意或无法选择退出的情况下对他们进行监测。即使这种监视可以被证明符合被监禁者和他们所属的社区的最大利益——我们不认为这是可能的——试图将这一过程自动化也会增加潜在的危害。

该技术的主要假设益处为监禁的人,预防自杀,不可行的使用“基于关键字和短语”(如Leo Technologies)描述其产品).甚至Facebook的自杀预防项目也面临同样的问题来自法律和伦理学者的审视,发现关键词是一种无效的方法不考虑环境因素.此外,人类经常把计算机程序的输出看作是“客观的”,因此根据错误的信息做出决定,而不知道它是错误的。

即使预防自杀的能力是具体的和可证明的,但事实并非如此,它也有巨大的潜在危害。

自动转录是这些产品的关键部分。The effectiveness of speech recognition systems is dependent on a close match between their training data and the input they receive in their deployment context, and for most modern speech recognition systems this means that the further a person’s speech is from newscaster standard, the less effective the system will be at correctly transcribing their words.

此类系统不仅毫无疑问地输出不可靠的信息(似乎高度客观),系统也将更频繁地失败,因为美国司法系统最常失败。

2020年的研究其中包括Leo技术用于语音转录的亚马逊服务,其特殊的发现,非洲裔美国英语发言者的错误率大致两倍于白色发言者。鉴于非洲裔美国人以税率被监禁大五倍比白人美国人,这些工具深受他们的应用,并有可能增加已经不可接受的种族差异。

这种监视不仅包括被监禁者,也包括与他们交谈的人,是对隐私不必要的侵犯。加上所谓的“人工智能”只会让情况变得更糟:这些机器甚至无法准确地转录家庭温暖舒适的语言,同时也会给不准确的转录带来“客观性”的虚假光环。那些有被监禁的亲人的人,是否应该承担基于错误的谈话记录进行辩护的责任?这种侵犯隐私的行为尤其令人恼火,因为被监禁的人及其家人经常不得不这样做首先支付电话的过度费用

我们敦促国会和司法部放弃这条道路,避免将自动预测纳入我们的法律体系。低轨道技术公司声称要“将执法模式从反应式转变为预测式”,这种模式似乎与必须证明有罪的司法系统不一致。

最后,我们敦促每个人都仍然对“AI”应用仍然非常持怀疑态度。当它对人们的生命产生真正的影响时,这尤其如此,甚至更有,因为这些人就像被监禁的人一样,特别是脆弱的人。

就像你正在读的一样?订阅GeekWire的免费时事通讯,抓住每一个标题

GeekWork上的工作列表

在网上找到更多工作GeekWork.雇主,在这里发布工作
Baidu