解释大赦国际的道德影响:仔细研究即将面临的挑战

人工智能伦理围绕着人工智能的启动和实施,对几个考虑的兴趣,来自 数据礼节 工具开发风险, 也在上一篇文章中讨论了它。在本文中,当我们忽略国际大赦国际的道德考虑时,我们将探索一些通过人工智能系统(尤其是机器学习系统)引起的道德问题。

人工智能的5个常见道德问题

1。巴黎传播

尽管人们坚信算法的偏见不如人类偏见,但众所周知,人工智能系统传播了我们有意识和无意识的偏见。

例如,有众所周知的招聘工具“学习”了“拒绝”候选人的“算法”,因为他们知道男人喜欢技术劳动力中的男人。

甚至由于少数群体和有色人种的不兼容错误,即使是臭名昭著的面部识别系统。例如,当研究人员乔伊·布拉姆维尼(Joy Bulamwini)研究了来自不同公司的面部识别系统的准确性时,我发现男性错误率更轻不超过1%。但是,对于女性的深色皮肤,错误更为重要,达到35%。即使是最著名的人工智能系统也无法准确识别五颜六色的名人。

那么,人工智能偏见的主要原因是什么?

数据。当今的人工智能系统仅作为对其进行训练的数据的好。如果数据是非代表性的,或者倾向于特定群体,或者以一种或另一种方式不平衡,人工智能系统将学习这种非代表性的偏见和传播。

数据偏见的原因可能是一组因素。例如,如果从历史上看是歧视的,则将区分某些人群,该歧视将在数据中得到很好的记录。

数据偏见的另一个原因可能是存储或缺乏公司数据,这会导致人工智能系统从偏差数据而不是该表示形式中学到。即使使用快照来训练型号也可能意味着您已经学会了该镜头中的偏见。这就是为什么在自我主题上审问时LLMS模型没有偏见的原因。

偏见也可以是数据 发展错误 由于用于开发模型的数据的样本不正确,因此导致子组样本中的缺陷。

底线: 当对典型培训的数据质量的监督有限时,必须发生意外偏见。我们可能不知道何时何地,尤其是在多个不受限制的任务(例如LLMS)中。

2。意想不到的窃

AI产科工具(例如GPT-3和CHATGPT)从大量的Web数据中学习。这些工具会产生有意义的内容生产。执行此操作时,人工智能工具可能会在Web一词上重复此内容,而无需任何传输链。

我们怎么知道创建的内容实际上是独一无二的?如果独特创建的文本与网络上的源相同,该怎么办?消息人士可以声称假冒吗?

我们已经在艺术商业生成器中看到了这个问题,这些问题是从属于不同艺术家的大量艺术作品中学习的。 AI工具可能以结合了来自多位艺术家的作品的艺术结束。

最后,谁完全拥有艺术艺术的版权?如果艺术品与现有作品非常相似,则可能导致侵犯版权。

底线: 利用在线数据收集和一般数据组,以开发出意想不到的模型。但是,由于世界各地的一些人工智能组织,我们目前缺乏实施。

3。滥用技术

不久前,乌克兰国家的领导人被描绘成说话他们没有说的话,使用一种称为的工具 深击。这个AI工具可以创建视频或图片,这些人说的话尚未说过。同样,图像生成器工具可以从人工智能(例如dall.e和稳定的传播)中使用,以创建从未发生过的事件的令人难以置信的现实图像。

这样的智能工具可以用作战争中的武器(正如我们已经看到的),以传播错误的信息以获得政治特征,操纵公众舆论,遵守欺诈等。

在所有这些中,人工智能 坏演员,他做了为做的事情。坏演员是滥用人工智能的人类。此外,这些创建和分发这些人工智能工具的公司或团队尚未考虑到这些工具可能对社会产生的更广泛影响,这也代表了一个问题。

底线: 尽管滥用技术并不是国际特赦组织的独特之处,但由于人工智能工具在重复人类能力方面非常出色,因此可能不会发现滥用人工智能,并且对我们对世界的看法产生了永久的影响。

4。

这些算法很容易被欺骗,并且适用于与人工智能材料一起使用的软件,您可以在其中欺骗基本算法以获得不公平的功能。

在LinkedIn帖子中,我讨论了人们如何在检测系统在决策过程中使用的功能时如何欺骗人工智能的工具。

尽管施加步骤来检测就业中人工智能的决策过程是提高透明度的自我密集一步,但人们已经能够进行游戏系统。例如,候选人可能会了解到在招聘过程中首选某些关键字,并且他们将其简历带有这些关键字,因为它们是从合格的候选人中归类的。

我们看到这一规模更大,经济经济官员的行业估计超过600亿美元。如今,在Google的眼中获得很高的排名不仅是值得阅读的有意义的内容的函数。但是,“ SEO是好的”的功能,因此,该行业的普及。

搜索引擎(SEO)使机构能够拥有巨大的预算来控制排名,因为他们能够在创建大量内容,进行关键字改进以及获得有关网络的广泛债券方面进行大量投资。

尽管某些搜索引擎(SEO)实践只是内容的改进,但搜索算法的某些“欺骗”认为,他们的网站是课堂上最好的网站,最可靠的,并且将为读者提供最佳价值。这可能是或不正确的。排名高的公司可能只有 我投资了更多的高级经济官员

底线: 人工智能游戏是获得商业,职业,有影响力的船只和政治特征的最简单方法之一。发现算法如何“起作用”并做出决定的人可以滥用和播放系统。

5。奇妙的大尺度信息

由于我们越来越依靠产科人工智能系统产生的答案和内容,因此可以假设“这些系统产生的事实是最终的事实。 “詹姆斯·韦伯(James Web)望远镜的新发现是我可以告诉我的9岁孩子的空间的?” 有一个观点指出,望远镜“在太阳系以外拍摄了行星的第一张照片”。但是,天文学家后来以非常一般的方式表明这不是。直接使用这些系统可以突出显示广泛的亮点。

不幸的是,如果没有适当的报价,就不容易验证事实并确定信心的答案,哪些否。虽然更多的人接受毫无疑问的内容,但这可能会导致错误的信息传播比传统搜索引擎所显示的要宽得多。

人工智能系统编写的内容也是如此。以前,两个人类的作家不得不从可信赖的来源中搜索信息,以有意义的方式将它们聚集在一起,并在出版前引用了来源。但是现在,他们可以通过人工智能系统为他们写完整的文章。不幸的是,如果在没有验证事实的情况下发布了由人工智能系统创建的文章,则错误的信息必须传播。

底线: 由于我们长期消耗的无限信息,对没有人类验证部分而没有人类验证部分的AI所创建的内容会对我们的全球观点产生永久影响。

解释大赦国际的道德影响:仔细研究即将面临的挑战

概括

在本文中,我们探讨了一些潜在的道德问题,这些问题可能来自人工智能系统,尤其是机器学习系统。我们讨论了:

  • 人工智能系统可以传播种族,性,年龄,社会和经济偏见
  • 人工智能可能侵犯版权法律
  • 人工智能可以以不道德的方式使用来伤害他人
  • 人工智能可以被欺骗,除了体育场级别
  • 对人工智能系统的盲人答案的信心可能会导致广泛的错误信息

非常重要的是要注意,其中许多问题是 不是 它们是创建的,但它们是这些系统如何在实践中开发,传播和使用的副作用。

尽管我们不能完全摆脱这些道德问题,但我们绝对可以朝着正确的方向采取步骤,以减少总体上由技术引起的问题,在这种情况下为人工智能。

通过大赦国际的智力道德外观,让我们专注于制定策略,以开发更负责任和传播人工智能系统。我们将在即将发表的一篇文章中不再等待政府法规,而是在探索公司如何以责任进行起诉的道路。

通过人工智能继续学习和成功

  • 加入AI的综合新闻通讯,这消除了人工智能的混乱,并教您如何成功整合人工智能以实现您的工作中的盈利能力和增长。
  • 阅读人工智能工作的问题 要学习必须通过人工智能成功的应用程序,策略和最佳实践(选择使用本书的公司:政府机构,诸如梅赛德斯-Benz之类的汽车公司,饮料制造商和E -Commerchans(例如Flipkart))。
  • 直接与我一起工作 为了提高组织中人工智能的理解,加快人工智能策略的发展,并从每个大赦国际倡议中获得有意义的结果。

Source link

Similar Posts