爱尔兰德国比分直播警务中的人工智能——用例、伦理问题和趋势

库马拉斯Madhavan
《阿凡达》

Radhika Madhavan涵盖了Emerj的AI Innovation。Radhika以前在三种技术公司的内容营销中工作,毕业于斯里克里斯纳工程技术学院,具有信息技术的学位。

爱尔兰德国比分直播人工智能在警务中的应用

2018年7月,丹尼尔·法盖拉说话在国际刑警组织 - 联合国(UNICRI)全球会议上关于人工情报和执法机器人的机会和风险。爱尔兰德国比分直播这是联合国和国际刑警组织在警务,安全和执法方面使用AI的第一次事件。

自从事件以来,丹尼尔并被呼吁其他联合国和国际刑警组织事件发生变异,因为EMERJ继续涵盖AI的应用程序国防和反恐。

区域间犯罪和司法研究所计划起草一份关于爱尔兰德国比分直播人工智能和执法机器人他们试图为对人工智能近期应用感兴趣的警察领导人打造一套入门课程。Daniel和Emerj团队帮助充实了用例部分,但完整的报告涵盖了各种各样的主题,值得任何对执法和AI的交集感兴趣的人考虑。本文总结了该报告的内容,以及Emerj在执法过程中对真实AI用例的覆盖。

UNICRI报告和本文涉及以下一些重要问题:

  1. 将人工智能融入执法有什么好处?
  2. 执法部门能做些什么来预测和缓解人工智能和机器人的武器化?
  3. 执法如何成功实施现实世界中的AI和机器人的某些用例?
  4. 如何在隐私和安全之间的警务平衡中使用AI系统?
  5. 为什么要将人工智能的道德使用明确归类,并在执法中强制执行,作为其他领域和行业的参考框架?

以下部分介绍了Unicri报告的主要观点综合摘要,并详细介绍了执法人员在执法中的申请,并将其与EMERJ的其他用例覆盖有关的参考。

AI应用程序和威胁的细分

该报告将执法部门的人工智能和机器人应用分为四大类:预测和分析,识别,探索,通讯-如下图所示:

interpol 1

图片来源:执法中的四类人工智能使用案例

(报告:人工智能和爱尔兰德国比分直播执法机器人)

该报告称,由于人工智能的一些局限性,目前执法部门将只关注狭窄的人工智能和半自治代理,以增强执法人员。下一节将详细讨论一些可以被视为AI在执法中的好处的用例。

认为人工智能和机器人技术很可能突破它可以执行在犯罪预防治安好,该报告指出,“最近的一份报告26作者来自14个机构(包括学术界、公民社会和行业)研究问题的深度和暗示,许多相同的功能可能会使人工智能和机器人呼吁执法(如规模、速度、性能距离)可能会让人工智能和机器人对犯罪分子和恐怖组织同样具有吸引力。”

本报告称,根据报告识别三个主要攻击域名:

  1. 数字攻击,如自动矛网络钓鱼,自动发现和对网络漏洞的开发。
  2. 政治攻击例如,假新闻或媒体的扩散,以制造混乱或冲突,或换脸和欺骗工具,以操纵视频,危及对政治人物的信任,甚至导致证据的有效性在法庭上受到质疑。
  3. 物理攻击,如面部识别武装无人机或无人驾驶走私违禁品。在数字攻击的背景下,报告进一步指出,可以使用AI来直接执行有害行为或通过中毒数据集来颠覆另一个AI系统。“

该报告警告说,尽管AI和机器人的武器化并未尽可能多地扩散社会,但未来几年将看到利用AI和机器人的使用,犯罪和恐怖主义的目的使用。

例如,该报告提供了过去的实时恶意事件,如用于向东京的日本首相办公室分发放射源的无人机,以及伊拉克和黎凡特伊斯兰国(ISIL)用作无人机的简易爆炸装置等。

为了打击这种潜在的犯罪行为,报告建议执法部门现在就采取行动,谨慎地实施战略方针,有意识地在人工智能警务方面投入精力和资源。

AI入门1200x200@2x

机器人技术和人工智能在警察-用例探索

Emerj很荣幸能够帮助区域间犯罪和司法研究所提供人工智能和机器人案例研究和执法应用的实时实例,但将用例分类的有用框架来自报告的作者和国际刑警组织的工作人员。

Unicri和Interpol用例图形

虽然在分析执法领域的人工智能应用方面存在许多潜在的有用“镜头”,但该报告使用了上述四个大类,并结合了有关应用程序相对成熟的标准。以下是完整报告的示例图表:

Interpol 2.

图片来源:用例会话的结果

(报告:人工智能和爱尔兰德国比分直播执法机器人)

在未来两年内,我们希望看到更多的新型计算机视觉应用程序进入第一届世界警察部队的主流 - 以预测政策在高级资助国家资助的城市中发挥着越来越大的作用。采用的一些增加将归因于自然,缓慢升级IT工具 - 但其中一些采用将归因于能够建立具有更简单和直观的用户界面的启用AI供应商生态系统。

在EMERJ上的警务相关的AI用例覆盖范围

有关这些主题的详细探索,我们建议读者探讨以下主题更深入的使用案例探索:

在道德上取得平衡——隐私和安全

《人工智能和执法机器人》报告指出,随着用例日益扩展到增强监视能力,对道德和隐私权的担忧不可避免地会出现。

考虑到决定人工智能和机器人在执法中的道德使用所涉及的若干哲学、语境和情境复杂性,该报告列出了“在安全和隐私之间取得平衡”的四个基本特征:

  • 公平:避免侵犯言论自由、无罪推定等权利。
    • 例子如果人工智能系统判定男性(或特定种族的男性)更有可能是暴力犯罪的实施者,那么在跟踪潜在实施者时,是否应该考虑培训数据?
  • 问责制:人和机器必须在制度和组织层面负责。
    • 例子:如果AI系统在不法控制中的助资,或者AI监控工具中的错误导致个人损失对无辜的个人来说 - 谁将对错误以及如何解决如何解决?将提出系统的创造者是否有权,这些算法负责的是对公众的某种方式 - 以及如何?
  • 透明度:AI系统采取的决策必须是透明的,而不是“黑匣子”。
    • 例子:如果一个人工智能系统指示警察应该在哪里巡逻以防止暴力犯罪,这些建议的基础(可能是权衡的因素,以及它们是如何权衡的)对人类用户来说会清楚吗?
  • Explainability:人工智能系统做出的决定必须能够被人类理解。
    • 例子:如果AI系统标记某些通信渠道,那么高风险或值得调查,它可以铺设一条消息(或人)被标记的原因 - 但不是另一条消息?用户可以问“为什么” - 或促使机器的结论细分?

这些原则在不同的国家会有不同的解释。然而,对于几乎所有的国家来说,随着人工智能的出现,几乎所有的监控模式都有可能得到改善,而这一不可避免的浪潮是每个个体社会都要应对的问题

该报告引用了一些参与开发人工智能伦理原则的较大国际机构,包括:

  • “电气和电子工程师协会(IEEE),他们发表了一篇关于自主和智能系统伦理(伦理一致的设计)的全球论文,使技术与道德价值和伦理原则相一致……IEEE的符合伦理的设计工作以前的深入文章)。
  • “欧洲议会也有提出了一项咨询行为准则对于机器人工程师来指导伦理设计,生产和使用机器人,以及考虑机器人的法律地位,以确保某些权利和责任的法律框架。“

报告的作者坚持执法AI用例可以被视为重要的测试用例,可以设置道德的规范和机构使用人工智能和机器人技术对其他行业和组织中,并采用值得考虑在这个相对新生的阶段。

我们要特别感谢区域间犯罪和司法研究所和国际刑警组织的工作人员,他们创建了一个论坛来探讨人工智能在执法中的作用,并努力编写了本文所依据的原始报告(链接在本文开头)。

*有关此主题的进一步详细信息,这是一个播客人工智能伦理如何影响底线——对实际问题的概述,或者看看丹尼尔在YouTube上名为人工智能伦理:透明度、问责制和超越美德信号

标题图片来源:CUInsight

保持领先于AI曲线

发现在未来商业中区分赢家和输家的关键AI趋势和应用。

注册“AI Advantage”通讯:

" data-trigger="manual" data-title="Notice" data-placement="bottom" data-content="Thanks - check your inbox for a confirmation email">
" data-trigger="manual" data-title="Notice" data-placement="bottom" data-content="Error - There was some problem.">
订阅
订阅镜像
保持领先于机器学习曲线

加入超过20,000名以上的可调性的商业领袖,并收到每周提供的最新的AI研究和趋势。

感谢您订阅Emerj的“人工智能优势”通讯,请查看您的电子邮件收件箱确认。