一起用AI-5月19日AIGC晨报

AI精选日报1个月前发布 bleedline
267 0 0
一起用AI-5月19日AIGC晨报

1、OpenAI宫斗第二集

近日,OpenAI面对高管离职引发的关注,公司联合创始人Sam Altman和OpenAI高层分别做出了回应。这些声明不仅展示了公司对内部政策的持续改进,也反映了其对未来人工智能发展的深思熟虑。

 

Sam Altman的声明:

Sam Altman针对关于前员工股权处理的争议做出澄清。他明确表示,OpenAI从未收回任何前员工的股权,即使是那些拒绝签署分离协议或非诋毁协议的员工。他承认以前的退出文件中存在关于潜在股权注销的规定,但这是一个错误,他对此表示遗憾,并承诺已进行修正。Altman还邀请任何对此有疑虑的前员工与他直接联系,以解决任何相关问题。

 

OpenAI高层的回应:

对于Jan Leike的离职,OpenAI高层表示感谢他为公司做出的贡献,并认为他将继续为使命做出贡献。在策略上,公司强调了对AGI(人工通用智能)风险的重视,展示了其在确保新技术安全部署方面的努力,包括对GPT-4模型的不断改进。公司承认,随着模型功能的增强,未来的挑战将更加复杂,需要更高级别的安全措施和国际合作。

 

通过这些回应,OpenAI不仅解释了其对内部政策的立场,也透露了公司面向未来的战略方向。公司领导层的这些表态,反映了其在面对公众和员工关切时的开放态度和透明原则,同时也突显了对技术伦理和安全的持续承诺。

一起用AI-5月19日AIGC晨报一起用AI-5月19日AIGC晨报

译文:

sam的回应:

关于最近 openai 如何处理股权的事情: 我们从来没有收回任何人的既得股权,如果人们不签署分居协议(或不同意不贬低协议),我们也不会这样做。既得权益就是既得权益,句号。 我们之前的退出文件中有关于潜在股权取消的规定;尽管我们从未追回任何东西,但它绝不应该是我们在任何文件或通信中拥有的东西。这是我的事,也是我为数不多的几次运行 openai 感到尴尬的事之一;我不知道会发生这种事,但我应该知道。 在过去一个月左右的时间里,该团队已经开始修复标准退出文件。如果任何签署了这些旧协议的前雇员对此感到担心,他们可以联系我,我们也会解决这个问题。对此感到非常抱歉。

OpenAI高层回应:

我们非常感谢 Jan 为 OpenAI 所做的一切,我们知道他将继续从外部为这项使命做出贡献。鉴于他的离职引发的问题,我们想解释一下我们如何看待我们的整体战略。

首先,我们提高了对通用人工智能风险和机遇的认识,以便世界能够更好地做好准备。我们反复证明了扩大深度学习的难以置信的可能性,并分析了它们的影响;在此类呼吁流行之前呼吁对 AGI 进行国际治理;并帮助开创了评估人工智能系统灾难性风险的科学。

其次,我们一直在为安全部署功能日益强大的系统奠定基础。首次弄清楚如何确保新技术的安全并不容易。例如,我们的团队做了大量工作,以安全的方式将 GPT-4 推向世界,此后根据部署中吸取的经验教训,不断改进模型行为和滥用监控。

第三,未来将比过去更加艰难。我们需要不断提高安全工作水平,以适应每种新车型的风险。我们去年采用了准备框架,以帮助系统化我们的做法。

现在似乎是讨论我们如何看待未来的最佳时机。

随着模型的能力不断增强,我们预计它们将开始更深入地与世界融合。用户将越来越多地与由许多多模式模型和工具组成的系统进行交互,这些系统可以代表他们采取行动,而不是仅通过文本输入和输出与单个模型对话。

我们认为这样的系统将对人们非常有益和有帮助,并且可以安全地交付它们,但这需要大量的基础工作。这包括对他们在训练时所涉及的事物的深思熟虑、解决可扩展监督等难题以及其他新型安全工作。当我们朝着这个方向构建时,我们还不确定何时会达到发布的安全标准,如果推迟发布时间表也没关系。

我们知道我们无法想象未来所有可能的场景。因此,我们需要有一个非常紧密的反馈循环、严格的测试、每一步都仔细考虑、世界一流的安全性以及安全性和功能的和谐。我们将继续针对不同时间尺度进行安全研究。我们还继续与政府和许多利益相关者在安全方面进行合作。

对于如何走上通用人工智能之路,目前还没有经过验证的剧本。我们认为实证理解可以帮助指明前进的方向。我们相信,既能带来巨大的好处,又能努力减轻严重的风险;我们非常重视我们在这里的角色,并仔细权衡对我们行动的反馈。

— 萨姆和格雷格

原文地址链接:

https://twitter.com/gdb/status/1791869138132218351

sam回应事件的地址链接:

https://x.com/sama/status/1791936857594581428

2、LeCun教授认为对OpenAI员工离职不用过于紧张

LeCun教授认为在探讨如何控制超越人类智能的人工智能系统之前,我们实际上应该首先开发出智力稍高于家猫的机器。许多人对这个话题感到紧迫,但这种感觉可能有些过度。

以飞机的发展为例,人们无法在飞机被发明之前就知道如何安全地飞行。飞机的安全飞行是通过多年的技术改进和试验得来的。同样,让机器变得更聪明,也是一个需要长期学习和逐步改进的过程。

因此,发展高度智能的机器不是一蹴而就的事情,而是需要时间和持续的技术发展来逐步实现。我们需要有耐心,通过不断的试验和改进,逐步提升机器的智能水平。这样的进步过程将更加稳健和可控。

一起用AI-5月19日AIGC晨报

 

译文:

在我看来,在“紧急弄清楚如何控制比我们聪明得多的人工智能系统”之前,我们需要开始暗示一个比家猫更聪明的系统设计。

这种紧迫感揭示了对现实的极度扭曲的看法。

难怪该组织中基础更广的成员试图将超级对齐小组边缘化。

就好像有人在 1925 年说过:“我们迫切需要弄清楚如何控制能够以接近音速在海洋上运送数百名乘客的飞机。

在涡轮喷气发动机发明之前,在任何飞机不停地穿越大西洋之前,很难使长途客机安全。

然而,我们现在可以完全安全地乘坐双引擎喷气式飞机环游半个地球。

它不需要某种神奇的安全配方。

它花了几十年的精心设计和迭代改进。

对于智能系统,这个过程将类似。

他们需要数年时间才能变得像猫一样聪明,而要像人类一样聪明需要更多年,更不用说更聪明了(不要将当前LLMs超人的知识积累和检索能力与实际智力混为一谈)。

随着它们变得越来越智能,它们需要数年时间才能部署和微调以提高效率和安全性。

原文地址链接:

https://twitter.com/ylecun/status/1791890883425570823

3、机器人+OpenAI,语音到语音推理

一起用AI-5月19日AIGC晨报

译文:

Figure 在他们的机器人中安装了 ChatGPT,结果很疯狂。

原文地址链接:

https://x.com/CarlBMenger/status/1791779003541397921

4、RenderNet推出模特生图功能

RenderNet最近在其功能套件中增加了一个“角色实验室”,使得创建角色后在任何环境中一致地放置该角色变得非常简单。这一新功能让设计和整合角色进入不同环境的过程更为直接。效果类似于生成一个模特,可以使用这个模特在各种场景中生成图片,优点是人物一致性更高,效果更好,缺点是目前只能控制模特的一致性,服装一致性不高。

一起用AI-5月19日AIGC晨报

 

译文:

将您的主题/模特置于任何环境中 – 简单! RenderNet 在他们的功能套件中添加了一个角色实验室,使创建角色然后始终如一地将该角色放置在任何环境中变得非常容易。 就是这样。

原文地址链接:

https://x.com/aliejules/status/1791862822479036892

RenderNet地址链接:

https://rendernet.ai/login

5、骚操作跳过验证,使用ChatGPT 的 Mac 版

  1. 下载ChatGPT客户端:

    https://persistent.oaistatic.com/sidekick/public/ChatGPT_Desktop_public_latest.dmg…

  2. 登陆账户
  3. 在登录成功之后,未出现“无法使用”的提示之前,有大概3秒的菊花
  4. 此时快速按下「command + Q」杀死验证程序
  5. 重新打开ChatGPT客户端,就可以使用了!

目前疑似修复了,可以多尝试几次看看

一起用AI-5月19日AIGC晨报

译文:

原文地址链接:

https://twitter.com/oran_ge/status/1791825374143488160

© 版权声明

相关文章