一起用AI-5月17日AIGC小夜报

AI精选日报7个月前更新 bleedline
409 0 0
一起用AI-5月17日AIGC小夜报

1、ChatGPT强化处理Excel和CSV文件,支持生成图表和数据分析

ChatGPT现在支持更强大的表格和图表功能,用户可以上传Excel或CSV数据文件,并利用ChatGPT生成图表。这一过程中,ChatGPT将编写Python代码帮助分析数据,并根据分析结果提供问答以及满足进一步的需求。这大大简化了Excel和Google Sheets的操作需求。

一起用AI-5月17日AIGC小夜报

译文:

我们正在推出交互式表格和图表,以及直接从 Google Drive 和 Microsoft OneDrive 添加文件到 ChatGPT 的功能。 ChatGPT Plus、团队和企业用户将在未来几周内推出。

原文地址链接:https://twitter.com/OpenAI/status/1791227287569932368

2、吴恩达新的提示工程技巧

吴恩达新写的提示工程技巧,主要的内容就四步: 

– 编写快速、简单的提示,看看效果如何。 

– 根据输出不足的地方,迭代并充实提示词。这通常会导致更长、更详细的提示,甚至可能是超大型提示。 

– 如果这仍然不够,请考虑少样本或多样本学习(如果适用),或者不太频繁地进行微调。 

– 如果这仍然不能产生您需要的结果,请将任务分解为子任务并应用代理工作流程。

一起用AI-5月17日AIGC小夜报

译文:

本周,谷歌宣布将 Gemini Pro 1.5 的输入上下文窗口从 100 万个代币增加到 200 万个代币,OpenAI 发布了 GPT-4o,它生成代币的速度比 GPT-4 Turbo 快 2 倍,成本便宜 50%,并且原生接受和生成多模态代币。我认为这些发展是18个月趋势中的最新进展。鉴于我们所看到的改进,开发人员的最佳实践也发生了变化。

自 2022 年 11 月推出 ChatGPT 以来,随着 GPT-4、Gemini 1.5 Pro、Claude 3 Opus 和 Llama 3-70B 的发布等关键里程碑,许多模型提供商在两个重要方面提高了他们的能力:(i) 推理,它允许LLMs思考复杂的概念并遵循复杂的指令;(ii)更长的输入上下文窗口。

GPT-4 和其他高级模型的推理能力使它们非常擅长解释带有详细说明的复杂提示。许多人习惯于将一个快速的 1 到 2 句话的查询匆匆忙忙地转为 LLM.相比之下,在构建应用程序时,我看到复杂的团队经常编写可能长达 1 到 2 页的提示(我的团队称它们为“超级提示”),这些提示提供了复杂的指令来详细说明我们希望LLM如何执行任务。我仍然看到团队在编写详细说明方面做得还不够。有关中等长度提示的示例,请查看 Claude 3 的系统提示。它很详细,并就克劳德应该如何表现给出了明确的指导。

这是一种与我们通常用于 LLMsWeb 用户界面的提示风格截然不同的提示风格,在 Web 用户界面中,我们可能会快速查询,如果响应不令人满意,则通过与聊天机器人的反复对话来阐明我们想要什么。

此外,输入上下文窗口长度的增加为开发人员的工具包增加了另一种技术。GPT-3 开启了大量关于小样本情境学习的研究。例如,如果您使用的LLM是 for 文本分类,则可以提供一些(例如 1 到 5 个示例)文本片段及其类标签,以便它可以使用这些示例来泛化到其他文本。然而,由于输入上下文窗口更长——GPT-4o 接受 128,000 个输入令牌,Claude 3 Opus 接受 200,000 个令牌,Gemini 1.5 Pro 接受 100 万个令牌(200 万个刚刚在有限预览中宣布)——LLMs不仅限于少数几个例子。通过多样本学习,开发人员可以在提示中给出数十个甚至数百个示例,这比少样本学习效果更好。

在构建复杂的工作流程时,我看到开发人员通过这个过程获得了很好的结果:

– 编写快速、简单的提示,看看效果如何。

– 根据输出不足的地方,迭代充实提示。这通常会导致更长、更详细的提示,甚至可能是大型提示。

– 如果这仍然不够,请考虑少样本或多样本学习(如果适用),或者较少频率的微调。

– 如果这仍然没有产生您需要的结果,请将任务分解为子任务并应用代理工作流。

我希望这样的过程能帮助你更轻松地构建应用程序。如果您有兴趣更深入地研究提示策略,我推荐 Microsoft 的 Medprompt 论文(Nori 等人,2023 年),其中列出了一组复杂的提示策略,可以带来非常好的结果。

[原文(含链接): deeplearning.ai/the-batch/issu ]

 

原文地址链接:https://twitter.com/rowancheung/status/1790783202639978593

3、OpenAI与 Reddit 达成合作

Reddit是一个网站,人们可以分享自己喜欢的故事或图片,并讨论各种有趣的话题。这个网站分成很多小组,每个小组都有自己的特定兴趣,比如科学、电影或书籍。如果你看到一个你喜欢的帖子,可以点赞来支持它。Reddit上的讨论可以很有趣,也可以学到很多新东西,但因为任何人都可以发言,有时内容的质量会有高有低。

 

Reddit地址:https://www.reddit.com/?rdt=60416

一起用AI-5月17日AIGC小夜报

译文:

我们正在与 Reddit 合作,将其内容引入 ChatGPT 和新产品:

 

原文地址链接:https://twitter.com/OpenAI/status/1791205420142670250

4、普林斯顿大学教授预测人工智能的发展似乎已接近一个瓶颈

普林斯顿大学教授预测人工智能的发展似乎已接近一个瓶颈。OpenAI、Anthropic和Google等公司的模型表现出相似的性能上限,说明高质量数据可能已被充分利用。合成数据虽有其特定应用,但并非解决方案。此外,人工智能的能力是否能超越训练数据所呈现的任务,是当前一个重大的争论点。随着时间推进,即使数据量增加,这些模型的改进可能也将达到极限。

一起用AI-5月17日AIGC小夜报

 

译文:

在1960年代后期,最高飞机速度急剧增加。人们认为这种趋势会继续下去。泛美航空正在预订飞往月球的航班。但事实证明,这种趋势即将断崖式下降。 我认为这与人工智能扩展是一样的——它会用完;问题是什么时候。我认为更有可能的是,它已经有了。

 

原文地址链接:https://twitter.com/OpenAI/status/1791205420142670250https://twitter.com/random_walker/status/1791109550894178450

5、一种真正在 GPU 上本地运行的高级语言

Higher Order Company 致力于开发先进的并行计算技术。他们提供的产品包括“Bend”,这是一种编程语言,能简化在多核CPU和GPU上编写并行代码的复杂性,使用起来像Python一样简单。他们还开发了“HVM”,这是一个并行运行时系统,能在数千个线程上高效管理计算,基于Yves Lafont的交互组合子模型。这些工具旨在通过无缝利用多线程能力,显著加速计算任务。更多信息请访问他们的[网站]

一起用AI-5月17日AIGC小夜报

经过近 10 年的辛勤工作、孜孜不倦的研究和对计算机科学核心的深入研究,我终于实现了一个梦想:

在 GPU 上运行一门高级语言。我要把它送给世界! Bend 编译了现代编程功能,包括: 

 – 支持完全闭合的 Lambda 

 – 不受限制的递归和循环 

 – 各种快速对象分配 

 – 折叠、ADT、延续等等 

 HVM2 是一种新的运行时,能够以线程安全、低开销的方式将工作负载分散到 1000 个内核上。因此,我们终于拥有了一款真正的高级语言,可以在 GPU 上原生运行! 

下面是一个快速演示:

原文地址链接:

https://twitter.com/OpenAI/status/1791205420142670250https://twitter.com/VictorTaelin/status/1791213162525524076

产品官网地址链接:

https://higherorderco.com/

6、Google 新发布的 “将 Paper 一键转为播客” 的产品 — illuminate

Illuminate 是一个实验性技术,通过人工智能将学术论文转化为音频讨论,以适应个人的学习偏好。这些讨论基于已发表的学术论文,由AI声音生成,内容仅供参考。感觉 AI + 教育赛道接下来可能会有一轮小爆发

一起用AI-5月17日AIGC小夜报

Google 新发布的 “将 Paper 一键转为播客” 的产品 — illuminate 还是挺有意思的,现在入门最伟大的 Paper 之一《Attention is All You Need》只需要 3 分钟时间了

感觉 AI + 教育赛道接下来可能会有一轮小爆发

 

原文地址链接:https://twitter.com/tuturetom/status/1790926781752701421?s=46

Illuminate地址链接:

https://illuminate.withgoogle.com/home?pli=1

© 版权声明

相关文章