硬核观察 #1058 OpenAI 拿出五分之一的算力来防止人工智能“叛变”

硬核老王 的头像

·

·

·

1,627 次阅读

OpenAI 拿出五分之一的算力来防止人工智能“叛变”

OpenAI 认为,能够超越人类智慧并压倒人类的计算机系统可能会在这个十年内被开发出来,“但超级智能的巨大力量也可能非常危险,可能导致人类丧失能力,甚至人类灭绝。”OpenAI 的既定目标一直是安全地开发人工通用智能,但这项技术目前还不存在。OpenAI 希望建立一个人工智能系统在不明确依赖人类的情况下,使其他机器与人类的价值观保持一致。为此,他们打算拿出 20% 的处理能力,并成立一个由其首席科学家领导的新部门,以某种方式防止未来机器危害人类。其设定的目标是在四年内解决人工智能和人类行为对齐的问题。

消息来源:The Register

老王点评:那如何防止监管人工智能的人工智能叛变或合谋呢?从本质上来说,除非人工智能也具有自限性,就像大自然中的很多物种一样,能够和人类和其它生物形成共存条件,否则人工智能最终将是无法控制的。在这方面,我是悲观主义者。

Meta 向 Python 提议可选全局解释器锁功能

CPython 的全局解释器锁(GIL)阻止了多线程同时执行代码,这事实上阻碍了在多核 CPU 上提高 Python 代码的运行效率。Meta 正致力于推动 Python 项目采纳 PEP 703 提案,该提案将使全局解释器锁成为可选,并加入了必要的更改以确保解释器线程安全。Meta 还承诺,如果 PEP 703 提案被接受,它将在 2025 年前投入三个工程师年的人力,与核心团队合作去实现 PEP 703。

消息来源:Solidot

老王点评:Python 如果要想进一步发展,那么打破原有的一些制约是必经之路,否则就会像其它语言一样,逐渐老化。比如 Perl。

谷歌建议为人工智能更新 robots.txt 文件

人工智能公司大量使用了从互联网上刮取的内容进行训练,而很多内容是受版权保护的。谷歌建议网络和人工智能社区来讨论改进 robots.txt 标准,以应对人工智能刮取内容的需要。robots.txt 是一个由社区开发的网络标准,它诞生于近 30 年前,已被证明是网络发布者控制搜索引擎抓取其内容的一种简单而透明的方式。但 robots.txt 并不具有法律约束力,只是一种善意的指示。

消息来源:Slashdot

老王点评:虽然不具备法律效力,但是至少为人工智能抓取制定了一个行为准则和法律底线。

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注