每个人都放弃了人工智能的安全,现在呢?

每个人都放弃了人工智能的安全,现在呢?

情报情报讨论的结束

Frontier AI公司不再谈论停止人工智能或仔细评估存在风险。

多年来,一个热情的团体警告研究人员,伦理和政策制定者,以产生不舒服的人工智能造成的危险。他们争论了P(Doom),人工智能一致性策略以及可以防止灾难的法规的可能性。但是到目前为止,这次谈话已经崩溃。

Frontier AI,Openai,Anthropic,Google DeepMind和其他人已经完全旋转了齿轮。他们不再谈论停止人工智能的进步或仔细评估存在风险。取而代之的是,他们正在竞争以主要重点启动越来越高级的模型是一回事: 主导地位。人工智能的安全曾经是对话的重要组成部分。现在,这不仅仅是公共关系脚注。

那么,现在发生了什么?

 

人工智能的成本降至几乎为零

如果人工智能曾经是精英研究实验室,那么现在就是一种商品。

人工智能最无知的方面之一是培训和推理的迅速成本。就在几年前,人工智能模型培训需要帐户资源的最新连接。如今,可以根据一小部分成本对消费者图形处理单元进行调整开源模型。

不仅如此,而且可以访问最强大的人工智能系统的应用程序编程接口,到了一个月的便宜。创建文本,图片和高质量剪辑的花费不花费数百或数千美元,现在花费了,或者根本没有花费。公司强烈降低价格以竞争,并在效率方面进行了新的创新(例如,设备的定量测量和加速度)使任何人都可以轻松利用强大的人工智能工具。

如果人工智能曾经是精英研究实验室,那么现在就是一种商品。这对全球的安全,劳动力市场和电力平衡产生了巨大影响。

 

尽管有GPU限制,但中国国际大赦国际革命

AI武器现在完全普遍。

美国一直在努力限制中国对高级图形处理单元的访问,并对NVIDIA的A100和H100等先进的AI芯片施加出口限制。希望是,通过限制设备,中国人工智能的愿望将被放缓。

该策略失败了。中国研究实验室和公司已经发现了如何构建能够培训的AI模型,即使图形处理单元或图形处理单元仅限于通过其他渠道限制在较低源。有些使用大量的旧设备,而另一些则改进了软件烟囱,以向有限帐户的每个部分施加压力。中国还加强了本地芯片的生产,尽管它仍在使Nvidia的原始性能中留下,但差距很快就会封闭。

结果? AI武器现在完全普遍。西方可以“始终”包含人工智能发展的想法很幼稚,但现在正在笑。

 

坏演员

在案件中,对人工智能驱动的电子威胁的防御措施几乎仍然存在,在许多情况下,土地丢失了。

如果人工智能安全对话从公司管理厅消失,则可以肯定的是,它并没有从互联网网络中消失。有害行为者以日益高级的方式从人工智能中受益:

  • 自动欺诈机器人实际人的个性,自然对话和社会工程师的受害者比传统的电子邮件更有效。

  • 人工智能造成的欺诈以Deepfake视频的形式,可以超越验证系统的声音和过多的假身份的综合。

  • AI改进的盗版工具为了自动调查,利用发现并以前所未有的速度进行攻击。

随着人工智能的成本不断下降,这些工具已成为较低级别的犯罪分子,不仅是国家 – 州的参与者。在案件中,对人工智能驱动的电子威胁的防御措施几乎仍然存在,在许多情况下,土地丢失了。

 

劳动力市场根据人工智能创建的内容崩溃

随着人工智能能力的持续扩展,取代较旧工作的新工作的承诺似乎越来越动摇。

人工智能的叙述会将“人类作品”分开,而不是迅速更换它。人工智能创建的内容,无论是文本,图片,视频还是软件代码,都使许多传统角色过时。

到目前为止,最困难的行业已经被打击:

  • 撰写广告和新闻:AI可以产生广泛的连贯和有吸引力的文章,从而使许多写作功能无需。

  • 图形设计和澄清:人工智能工具可以在几秒钟内产生高质量的图像,从而破坏独立的艺术家和设计师。

  • 客户服务:聊天机器人代表人为因素取代了支持角色,每天都在改善。

  • 视频制作:人工智能创建的视频内容提高了可以充分介绍广告和演示文稿的点,甚至可以以最少的人为干预措施进行娱乐剪辑。

这只是开始。人工智能模型迅速发展,公司见证了自动化成本的好处。随着人工智能的不断扩大,“取代旧工作的新工作”的承诺似乎越来越动摇。

 

那么,现在发生了什么?

我们已经超出了放缓点。

瓶子外的精灵,没有回报。 人工智能的安全已成为更强大的系统的竞赛中后来的想法。政府在很大程度上赶上了赶上,坏演员已经从人工智能中受益,并且整个行业在实际时间内都养育了。

不久的将来有一些可能的情况:

  1. 组织生物(很少,很晚?)政府最终可能会提供严格的人工智能法规,但是到他们做的时候,发展人工智能已经超出了他们控制它们有用的能力。人工智能模型已经是开源的,培训技术是广为人知的。以限制形式的法规可能会出现由人工智能,安全要求以及可能对人工智能开发人员许可要求创建的错误信息,但执法执行将是一个挑战。

  2. 人工智能泡泡爆炸(或没有)有人认为,人工智能最终将随着回报的减少而碰撞,噪音将消失。但是,即使我们达到了模型能力的高原,目前的技术已经足够不断地改变经济现场。没有“返回”到一个世界上无处不在的商业和安全问题的世界。

  3. 休息到Agi(然后?)许多人工智能公司公开开展人工通用情报(AGI),该系统可以引起和学习为人类。如果成功,所有赌注将被暂停。出色的人工智能机构可以以不可预测的方式重塑文明,无论好坏。

人工智能的安全,是一项盛行的死亡。其余的是公司,政府和不良行为者之间人工智能的军备竞赛,几乎没有监督和成本。 我们现在在一个未知的领域,在该领域,人工智能已成为在各个层面形成社会的重要力量。

那么,那之后会发生什么呢?没有人知道。但是很明显,我们已经越过了放缓点。

 

人工智能研究人员是否有可能结束人工智能的能力,即使有思维能力也不会超过光荣的自我结束?这意味着人工智能的进步是良好的,无论如何,因为主要的研究突破需要到达能够效率,创造力和最终的人类大脑附近的任何地方?

是的,这是一个非常合理的观点,一些研究人员和批评家提出了这一观点。有一些主要的论点支持这一想法:

1。国际大赦国际作为光荣的自动完成

尽管令人印象深刻的人工智能能够生成文本,图像甚至类似逻辑的输出,但其基本性质仍然与可能性相同。即使是最强大的人工智能模型,例如GPT-4O,O3或Gemini 2.0,也最终也接受了培训,以根据其培训数据中的模式来预测此后发生的事情。这有限制:

  • 真正缺乏理解: 人工智能模型在现实中没有“知道”任何事物。他们仅根据培训数据产生统计上可能的响应。

  • 表面逻辑: 大赦国际可以执行逻辑过程和解决问题的任务,但缺乏更深入的理解,适当的意识和自我意识。

  • 失败和幻觉: 人工智能天生仍然具有不正确的信息信心,因为它缺乏以超过他在培训中看到的方式验证真理的机制。

2。人工智能进度需要基本的突破

国际特赦组织正在迅速改善,但没有显着改善。大多数进度来自:

  • 增加模型(更多数据,更大的帐户)

  • 算法改进(例如,检索,增强学习和精细控制技术)

  • 设备的改进(最佳图形处理单元,提高效率)

但是,这些改进并不一定意味着人工智能对人类智能,这与很快的任何时候都相似。一些研究人员认为,我们已经在接近当前结构的局限性,否 认知建模的基本突破,AI将保持令人印象深刻,但不会革命性。

3。人脑的独特优势

  • 效率 …人脑的工作量约为20瓦,而人工智能模型则需要数千种消耗兆瓦的图形处理单元。

  • 循环 …国际特赦组织正在努力处理未经明确培训的任务,而人类很容易适应新的挑战。

  • 创造力…尽管人工智能可以产生新的输出,但它并未显示与真实人类创造力相关的原始深层思考过程。

  • 直觉和声音 …人类具有天生的能力来结论意义,运用现实世界的经验,并在神秘的情况下移动。

4。人工智能进度可能是积极的

如果人工智能本质上仅限于其克服或匹配人类智能的能力,则可能是当前的道路 有关存在风险的自动化的更多信息。这是指:

  • 人工智能会 更多的 而不是 代替 大多数领域的人类智能。

  • 至少在接近米德时期,人们对AGI(人工通用情报)的恐惧可能会被夸大。

  • 重点应该放在 将人工智能融入社会的最佳方法而不是存在的关注。

 

如果人工智能研究人员看到人工智能能力的限制,那么快速进步 这可能不是危险但有用的,仍然需要 全新的突破 达到接近人类智慧的任何东西。问题是,这些突破是否在可预见的将来是可能的,还是人工智能,尽管它的所有进步仍然非常强大,但最终受到了限制。 预言

你怎么认为?您认为大赦国际继续其迅速的进步,还是您认为我们已经在正处于高原?

Source link

Similar Posts