硬核观察 #579 AI 学会了“谷歌一下”

硬核老王 的头像

·

·

·

4,755 次阅读

AI 学会了“谷歌一下”

DeepMind 创建了一个新的 AI 语言模型 GopherCite,它可以像人类一样,学会“Google 一下”,回答问题同时还能给出论据。当你问它:“GopherCite 是如何找到论据来源的?”它会回答:“通过 Google 搜索检索相关文档。”在遇到实在不懂的问题,它会说不懂而不会强行给一个错误答案。训练结果显示,该模型在自然问题数据集、ELI5 数据集上的正确率分别可以达到 90%、80%,接近人类水平。

老王点评:这 AI 越来越“聪明”了。

AI 六小时内就提出了 4 万种新的潜在化学武器

研究人员将通常用于搜索有用药物的 AI 放入一种 “坏人” 模式,只用了不到六个小时就提出了 4 万个潜在的致命分子结构。研究人员调整他们的方法,以寻找而不是剔除毒性,AI 想出了数以万计的新物质,其中一些与有史以来开发的最强的神经毒剂 VX 相似。

老王点评:AI 如果用于不好的方面,也许就是放出来的潘多拉魔鬼。

Canonical 为 Snap 包提速,但仍不够快

Canonical 在 Snap 包中改用 LZO 压缩取代 xz 压缩,以加快启动时间。通过使用 LZO 重新生成 Snap,可以减少冷启动时间,如果用 LZO 对 KDE 框架 Snap 进行压缩,则收益更大。而一旦 Snap 包已经加载,其热启动时间就相当低了,大约为 1.1 秒。

老王点评:Snap 有好处也有坏处,就看怎么权衡了。

2 条回复

  1. 来自四川南充的 Chrome 85.0|Windows 10 用户 的头像
    来自四川南充的 Chrome 85.0|Windows 10 用户

    Snap 包不够快的底层逻辑是什么?顶层设计在哪?最终提速时间是什么?过程的抓手在哪?如何保证回答闭环?
    Snap 比 Flatpak 的亮点在哪?优势在哪?Snap 的思考和沉淀是什么?这个问题换成 RedHat 来实现是否会不一样?
    在这之前,有自己的思考和沉淀吗?这些问题的颗粒度是怎样拆分的,能作为爆点,实现了用户对速度巨量提升的愿景吗?

    来自南充
  2. 来自上海的 Safari 15.0|Fedora 用户 的头像
    来自上海的 Safari 15.0|Fedora 用户

    阿里P8你好

    来自上海

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注