查看原文
其他

智能晚报|OpenAI大幅更新API,或导致与微软矛盾加剧;Google提出新的AI监管模式,与OpenAI截然相反...

徐弢 新皮层NewNewThing 2023-08-02

「每天重要的新闻不会超过五条」


整理:徐   

编辑:王杰夫

Key Points


OpenAI大幅更新API,或导致与微软矛盾加剧。


Google提出新的AI监管模式,与OpenAI截然相反。


AMD发布新GPU,对标英伟达H100。


Google Bard遭欧盟审查,将推迟上线。


麦肯锡说AIGC将创造最高4.4万亿美元的价值。


OpenAI大幅更新API,赋予开发者更多权利的同时,与微软的矛盾更尖锐

6月13日,OpenAI大幅更新了其大语言模型的API产品,包括推出新的函数调用功能、支持更长tokens的API,以及降低使用价格等等。API(应用程序接口)是一种软件中介,它允许两个不相关的应用程序相互通信。

具体都有哪些更新?

  • 增加了函数调用功能

    开发者现在可以在调用GPT的API时增加一个新参数(函数:Function),通过调用函数可以更精确地控制GPT的回答。举例来说,「天气怎么样」这样的提问会自动转换为适当的函数调用,如「get_current_weather (location: string, unit: 'celsius' | 'fahrenheit')」,而用户可以自定义这个函数的数据来源,例如你可以告诉GPT,被问到天气信息时,可以从「高德天气」那里获取数据,这样就可以避免GPT在没有数据时编造一个答案来回复你。

    这个函数调用(function calling)功能其实跟「插件」功能类似,都是让GPT能够连接到模型以外的软件或数据,从而在回答特定问题时给出更准确的答案。区别在于,「之前的插件功能只能在OpenAI的ChatGPT里使用,而函数调用功能更加灵活,开发者甚至可以直接使用自己公司的内部API。」即刻的算法负责人徐昳昶告诉新皮层。

    需要注意的是,该功能要通过gpt-3.5-turbo-0613、gpt-4-0613、gpt-4-32k-0613这3个新模型的API来使用。

  • 支持更长tokens的API

    OpenAI为最受欢迎的API,也就是gpt-3.5-turbo,提供了拥有更长上下文的版本gpt-3.5-turbo-16k。原来的版本只支持4k长度的tokens,新版本的长度是之前的4倍,意味着它一次可以处理约20页长度的英文文本。

    其实OpenAI此前已经开发了支持32k tokens的版本gpt-4-32k,但GPT-4仅对部分资深用户开放,本次更新的16k版本则是对所有用户开放。

  • 多个API降价

    OpenAI将最流行的嵌入模型text-embedding-ada-002的价格降低75%,至每1k tokens的价格为0.0001美元。

    同时,他们还将最流行的聊天模型gpt-3.5-turbo的tokens输入价格下调25%,每1k tokens的输入价格为0.0015美元。输出价格保持不变,为每1k tokens 0.002美元。

  • 一些API将被弃用

    OpenAI表示gpt-3.5-turbo-0301、gpt-4-0314和gpt-4-32k-0314这3个API将于2023年9月13日停止支持。

OpenAI与微软的关系最近出现了裂缝

一直以来,OpenAI与微软的关系都很紧密,OpenAI长期优先向微软云提供独家技术支持,同时也利用微软Azure提供的算力来训练模型。看上去双方各取所需,可谓是天作之合。但近期多家媒体报道称,OpenAI与微软的关系似乎没有看上去那么甜蜜。

  • The Information于今年3月的文章中指出,两家公司其实存在争抢客户的矛盾。微软Azure的销售人员在拓展客户时,称OpenAI的授权更适合实验项目,而Azure相比之下可以提供更多企业级功能,包括更好的安全和隐私功能。此外OpenAI还延迟向Azure授予新产品的使用权限,包括语音识别模型Whisper等等。

  • 《华尔街日报》在6月13日的文章中称,微软员工抱怨公司与OpenAI合作后开始削减内部的AI研究支出,但同时OpenAI又不允许微软员工接触其技术。此外,一些微软高管对OpenAI去年推出ChatGPT的时机颇有微词。当时微软正尝试将OpenAI的技术集成到其 Bing 搜索引擎中,他们担心ChatGPT会抢走新Bing的风头——事实也确实如此。

从OpenAI CEO萨姆·奥特曼(Sam Altman)最近一系列的活动来看,他与OpenAI并不甘于待在幕后。奥特曼奔走于欧亚各个国家与当地的政要会面,接受各种媒体的访谈,很大一部分是为了树立个人的影响力与OpenAI的品牌。并且从业务角度看,OpenAI走向台前的欲望也很明显:

  • 个人业务方面,对标微软的Bing,OpenAI有ChatGPT;

  • 企业业务方面,OpenAI与客户关系管理服务公司Salesforce合作推出了Einstein GPT;

  • 此次OpenAI的更新赋予了开发者更多的权利,这自然也会导致微软Azure云的吸引力下降。

虽然微软向OpenAI提供了数百亿美元的投资,但作为一家目标是千亿甚至万亿美元的公司,这些投资自然是无法满足OpenAI的野心的。「伟大的平台公司历史上都有一款杀手级应用程序,ChatGPT的愿景是成为超级智能助手,」萨姆·奥特曼这样说道。


参考链接

https://openai.com/blog/function-calling-and-other-api-updates

https://www.wsj.com/articles/microsoft-and-openai-forge-awkward-partnership-as-techs-new-power-couple-3092de51?mod=tech_lead_pos5


Google提出新的AI监管模式,与OpenAI截然相反


针对美国商务部提出的人工智能问责政策征求意见,Google连同DeepMind一起作出了回复。Google方面提出,AI治理需要一种多层次、兼顾多方利益的方法,反对一个集中化的管理机构——Google反对的,正是OpenAI创始人兼CEO萨姆·奥特曼提出的AI监管设想。

Google版本的AI监管设想

Google对于这种多层次、兼顾多方利益的方法有具体阐述,包括三个方面:

  • 行业、民间以及学术专家针对负责任的人工智能开发与分享最佳实践,包括安全和错误信息问题在内的技术标准;

  • 国家监管层面,一套中心化的轮辐模式。Google呼吁美国商务部下属美国国家标准与技术研究院 (NIST) 向各机构发布应对人工智能风险的技术指南;

  • 联盟和伙伴之间的国际协调,包括地缘政治安全、竞争以及监管方法的一致性。

在接受《华盛顿邮报》的采访时,Google全球事务总裁Kent Walker认为,由于AI将影响各个行业,AI行业也需要熟悉各个领域的监管者。因而,相比创建单一机构负责监管的「一刀切」方式,上述监管方式是更好的方案。

Google对监管设想的反面:OpenAI与微软

在5月的国会听证上,OpenAI创始人兼CEO萨姆·奥特曼认为,需要设立新的政府机构负责AI治理,包括管理大型AI模型许可证、减少小型公司和研究人员面对的监管负担、为AI模型创建安全标准。只有在对模型表现的独立审计上,奥特曼认为,需要与独立专家合作。

微软公司同样支持这样的管理设想。5月,微软总裁Brad Smith在公司发布的《AI治理:未来蓝图》中表示,他支持设立一个新的政府机构来监督AI的发展,也赞成建立「安全制动器」来管理那些控制关键基础设施的AI,包括电网、供水系统和城市交通流量。他曾经在2017年的达沃斯世界经济论坛上预测,各国政府将在大约5年内讨论如何监管AI。


参考链接

https://www.washingtonpost.com/documents/51c2e856-1542-4cec-b49a-5dde9c9224ae.pdf?itid=lk_inline_manual_6

https://www.cnbc.com/2023/06/13/google-challenges-openais-calls-for-government-ai-czar.html

https://www.washingtonpost.com/politics/2023/06/13/google-bucks-calls-new-ai-regulator/

https://mp.weixin.qq.com/s/j1ayw2LgQF3eUR747oAkvA


AMD发布新GPU,对标英伟达H100

在6月13日的发布会上,AMD带来了一系列新产品,包括数据中心处理器、AI芯片以及芯片软件等。

其中,GPU芯片Instinct MI300X及其CDNA架构专为大型语言模型和其他AI模型设计。此外,AMD也在推出多款硬件产品的同时推出了自己的芯片软件ROCm。看上去,这款芯片就是AMD拿来对抗英伟达H100芯片的手段。MI300X将于今年秋季向客户提供样品,明年开始大批量出货。

AMD的新GPU强在哪里?

Instinct MI300X这款芯片由多个名为CDNA 3的GPU「小芯片」构成,拥有192 GB的HBM3 DRAM内存和每秒5.2 TB的内存带宽。作为对比,英伟达热门GPU芯片H100支持120GB内存。

更高的内存意味着可以容纳更大的AI模型。AMD表示,Instinct MI300X是唯一能够在内存中处理多达800亿个参数的大语言模型的芯片。现场,AMD用了400亿个参数的大语言模型Falcon-40B作为演示案例。

AMD董事会主席及CEO苏姿丰表示,越来越大的大语言模型需要多个GPU来运行,但随着AMD芯片上增加的内存,开发人员将不需要更多的GPU。

英伟达通过GPU+CUDA占据了AI计算的主流

根据聚焦半导体、LED、显示面板等领域的研究机构集邦咨询(TrendForce)此前的测算,英伟达GPU目前在AI服务器市场中的占有率为60%至70%,主要都是搭载英伟达A100及H100芯片的服务器。

英伟达在AI芯片产业中获得今天地位,依靠的是CUDA(计算统一设备架构)+GPU这套软件与硬件的组合。2006年推出的CUDA可以帮助程序员重新编译代码来利用GPU的计算能力。


参考链接

https://www.zdnet.com/article/amd-unveils-mi300x-ai-chip-as-generative-ai-accelerator/

https://mp.weixin.qq.com/s/xXhu4WkMNyIYXb1vwEzUUw


Google Bard遭欧盟审查,将推迟上线

Google原计划本周在欧洲上线聊天机器人Bard。但爱尔兰数据保护委员会(Data Protection Commission)表示,Google没有对其生成式AI工具在保护欧洲人隐私方面提供充分的信息,无法让Bard在欧洲上线。爱尔兰数据保护委员会是爱尔兰的通用数据保护条例(GDPR)监管机构,负责维护欧盟中个人数据的基本权利。

Bard的全球扩张版图里,少了欧洲和加拿大

今年5月的Google I/O开发者大会上,Google宣布Bard将开始向180个国家和地区扩张,但名单里缺少欧洲和加拿大。

监管可能是最直接的影响因素。GDPR已经实施,此外,欧洲还在推动《人工智能法》(AI Act)的落地。加拿大也在2022年6月提议颁布《人工智能和数据法案》(AIDA)以加强对AI的监管。

一名Google发言人向商业新闻网站Business Insider表示,最近几周,Google已经在与爱尔兰数据保护委员会商谈并提供了相关文件,但没有解释Bard推迟上线的具体原因。

ChatGPT也有相似的困扰

今年4月,欧洲数据保护委员会(EDPB)成立了新的工作组,专注于协助多家欧洲监管机构针对ChatGPT的调查。

OpenAI创始人兼CEO萨姆·奥特曼在今年5月底表示没有将ChatGPT撤出欧洲的计划,为此他在一周内会见了多位欧洲政治领导人,但目前还是被意大利全面下架。


参考链接

https://www.politico.eu/article/google-postpone-bard-chatbot-eu-launch-privacy-concern/

https://www.businessinsider.com/google-bard-chatbot-blocked-in-the-eu-postponed-rollout-2023-6


麦肯锡说AIGC将创造最高4.4万亿美元的价值

麦肯锡全球研究院发布报告称,生成式AI每年将为全球经济增加2.6 万亿至4.4万亿美元的经济价值。

报告称,生成式人工智能的绝大部分经济价值很可能来自于帮助员工实现客户运营、销售、软件工程和研发方面任务的自动化。ChatGPT等生成式AI通过增加工作自动化,将节省员工60%到70%的时间,从而提高生产力。根据预估,在2030年至2060年,所有工作的一半将实现自动化,相比更早前的预期提前了数年时间。

麦肯锡是如何制作报告的?

麦肯锡对AI的报告是少数量化生成式人工智能对经济的长期影响的报告之一。在制作这份报告时,麦肯锡的分析师调查了47个国家的850种职业和2100项详细的工作活动,它们占据全球劳动力的80%以上。

麦肯锡的报告发现,客户运营、营销和销售、软件工程和研发这几种工作可能贡献生成式AI带来的附加值的75%。

相比2017年的预测,麦肯锡的新报告认为AI推动的经济增加量将提升15%到40%,主要是受到大型公司和小型企业快速接受生成式AI工具推动。

咨询公司自身也在拥抱AI

麦肯锡自身也在拥抱AI。麦肯锡有大约半数员工已经取得公司许可使用生成式AI,但具体使用的产品、使用目的都不清晰。同时,麦肯锡为使用生成式 AI 的员工设置了护栏,阻止员工上传机密信息。目前,麦肯锡在67个国家拥有超过3万名员工。

在3月决定裁员1.9万人后,埃森哲开始增加AI方向的投资。6月13日,埃森哲计划3年内向数据和AI项目投资30亿美元,推动使用尖端技术的员工人数增加一倍,目标是未来有8万名员工从事AI工作。目前,埃森哲拥有近74万名员工。

此外,普华永道今年也表示将在未来3年内在AI方面投资10亿美元。


参考链接

https://www.nytimes.com/2023/06/14/technology/generative-ai-global-economy.html

https://www.nytimes.com/2023/06/13/business/dealbook/accenture-ai-billion-consulting.html

-END-


我们是一个诞生于GPT浪潮、由《第一财经》YiMagazine孵化的全新内容IP。

和每一位关心技术、关照人的命运的读者一样,我们希望在这个有史以来不确定性最高的时代,更好地理解快速变化的科技世界,也更好地理解生而为「高级智能」的我们自己。

在这个目标下,我们计划从学术、商业、伦理、监管等多个角度报道和讨论与「智能」相关的议题。请注意,我们说的是智能,不只是AI。


若想了解更多当日资讯,请点击阅读往期智能晚报

智能晚报|英特尔计划成为ARM上市的锚定投资者;亚马逊开始用AI总结用户评论;甲骨文也要推出生成式AI...


与记者交流,可添加微信(请备注公司名称和姓名):

王杰夫 微信号: wjfsty

张司钰 微信号: helianthus351

吴洋洋 微信号: qitianjiuye

 

喜欢就关注我们吧,记得设为星标」


您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存