给生成式AI加点泡沫 | AI周

栏目:热点资讯  时间:2023-08-17
手机版

  AI没有为微软生成一份比谷歌更好的财报。

  微软云业务业绩表现平平。该公司第四财季(美国的会计年度的起始时间,并非强制性的统一规定)营收同比增长8%,至562亿美元,低于去年同期的12%;最赚钱的Azure和其他云服务业务营收,同比增速为27%,较上季度31%进一步放缓。聊以安慰的是,Azure OpenAI的客户数量大幅增长,从5月末时的4500个,增长到6月末的11000个。

  Alphabet的搜索还没被ChatGPT颠覆。该公司第二财季营收同比增长7%,至746亿美元;最赚钱的广告终于止跌,营收同比增长3.3%;而谷歌云收入同比增长约28%,继续盈利。

  扎克伯格大手笔裁员,比去年同期少了14%员工,换回了股东的部分耐心。该公司第二财季营收同比增长11%,至320亿美元;最赚钱的广告同比增长12%。

  

  广告这一稍显传统的商业模式,至今仍是很多互联网巨头企业的基本面。当然,谷歌与Meta都夸赞了自家的AI技术对广告推荐系统的提升。谷歌提到了自己的SGE(搜索生成体验功能),Meta则提到自动生成广告服务Advantage+大受好评。

  分析师还看到了Meta更多的将AI货币化的机会,在财报电话会议上,问了很多开源模型的问题。扎克伯格再次定义了Llama2的开源免费商用,大型公司尤其是有计划发布公共云产品的公司不行,合作对象用于转售目的要收入分成。

  生成式AI人工智能的商业落地,还需要这些高管们用心微调。他们接下去要砸更多的钱,抢人,抢GPU,从客户反馈中强化自己的产品与服务。

  Meta说,裁员紧缩会持续到2024年,那样,就可以把更多的钱,向“成本较高的技术岗位”加薪。事实上,其他几个巨头,今年裁员力度比Meta更狠。半年时间,亚马逊裁掉了16080人,谷歌12000 人,微软11158人,被开除出万亿美元市值俱乐部的Meta,裁了10000人。

  英伟达是这一轮AI最大的受益者。就像20多年前,互联网泡沫的时候,大量互联网应用企业涌现,喂饱了卖硬件与搞基建的。为了抓住这次AI的机会,谷歌、Meta和微软还会继续加大资本开支。不光是下半年,谷歌明确还这一趋势将延续至2024年。

  AI的泡沫还不够多。韦德布什证券公司将现在类比为“1995年时刻”,而不是“1999年时刻”或“2000年时刻”。1995年前后,美国市场诞生了Java、JavaScript、Internet Explorer 1、Navigator、Windows 95、Linux 95;中国电信开通了北京、上海两个接入Internet的节点。

  听上去似乎有点道理。从去年底开始到现在,中国移动牵头建设算力终端产业联盟,上海联通牵头成立了上海市算力产业联盟,中国电信启动了大模型生态合作联盟。本周,深圳数交所联合近50家单位,成立了“开放算料联盟”。

  对中国的AI应用也要有信心。这次,中国几乎应用与基建同时推进。中国的互联网应用已经是美国抄袭的对象。马斯克不仅对xAI有野心,还把推特改名为X,要照搬微信。Meta广告复苏要归功于Reels,这款美国人自己的TikTok,目前每天播放量超过 2000 亿次,年化收入规模(annual revenue run rate)预计100亿美元。

  本周,国内终于出现了现象级的应用妙鸭相机,虽然这款AI写真小程序争议不断,但终归触及了最广泛的消费级群体。这下国内创新者可以放心了,不是受众出了问题。先拿出产品来试试,这是生成式AI企业下半年最该做的。

  本周,还有这些发生在AI领域的事件值得关注:

  一、风险、监管与伦理

  AI四巨头成立前沿模型论坛。该行业机构由Anthropic、谷歌、微软和OpenAI成立,准备展开大模型评测标准等方面的研究,也将就负责任与安全的人工智能问题,与美国、欧洲与G7进行沟通。该机构还将建立一个咨询委员会,也欢迎满足标准的组织的加入。

  Hugging Face等呼吁欧盟保护开源创新。呼吁者还包括GitHub、EleutherAI、Creative Commons、LAION和Open Future等开源AI利益相关者。他们建议AI法案的讨论过程中,为开源开发者提供更清晰的信息,让开源开发者在政策制定过程中发挥更大作用。

  二、中美科技巨头

  阿里云支持Llama2全系列训练部署。阿里云机器学习平台PAI在国内率先对Llama2系列模型进行深度适配,推出了轻量级微调、全参数微调、推理服务等场景的实践方案。开发者可在魔搭社区Llama2模型页面点击“Notebook快速开发”,在其他平台下载的Llama2模型,也可使用阿里云PAI进行开发。

  亚马逊云推出AI代理功能。在AWS纽约峰会上,多项发布都紧紧围绕生成式人工智能,包括生成式AI服务Amazon Bedrock的Agents(代理)功能,助力基础模型完成复杂任务,这类似于OpenAI最近为GPT-4和ChatGPT推出的插件系统;还包括编程助手Amazon CodeWhisperer正式可用,用于在患者就诊后生成临床记录Amazon HealthScribe,以及分析服务Amazon Entity Resolution等。

  Bing聊天上线谷歌/苹果浏览器。但目前,在Chrome和Safari浏览器上使用Bing Chat仍存在一些限制,用户输入的文字不能超过2000个字符,低于Edge上的4000个字符,且对话只能持续五轮。

  OpenAI正开发开源大模型。原计划2个月前发布,但目前没有更多细节,只披露了内部代号为G3PO。最近,与OpenAI深度捆绑的微软,与Meta在开源模型Llama2上有了合作。

  三、大模型和行业应用

  Cohere推出企业知识助手Coral。它是一个企业聊天机器人,可以与用户对话,帮助他们完成业务任务。它基于Cohere的Command模型,经过了聊天、推理和写作能力的训练,通过数据连接增强其知识库,并私下部署以保护敏感数据,实现企业定制。

  网易有道正式发布“子曰”大模型。这是专注于教育领域的垂直大模型。有道同时发布了基于“子曰”大模型的六款应用,对应翻译、文档问答,以及虚拟人的口语教练、作文指导、语法精讲等场景。

  四、资金流向

  AutogenAI获2230万美元融资。这家伦敦的初创公司,自营业不到一年以来,已为28家企业提供了服务。它基于大型语言模型,结合客户专有数据,以及自己开发的界面,帮助用户查询招投标信息,然后结合成功的中标经验,生成合适的招投标文书。

  Protect AI 完成 3500 万美元融资。该公司专注于发现人工智能和机器学习供应链(例如开源模型和外部第三方训练数据集)中的实际威胁,以及这些模型的构建方式,并提供工具来抵御某些类型的人工智能攻击。

  光轮智能完成天使+轮融资。这家合成数据公司成立于2023年1月,为行业提供3D、物理真实、可泛化的合成数据,已经服务数家自动驾驶和机器人公司,目前累计融资达数千万元人民币。该公司创始人兼CEO谢晨曾在英伟达、Cruise、蔚来等企业担任自动驾驶仿真负责人。

  微软全球合伙人姜大昕大模型创业。他在微软工作16年有余,曾任微软必应搜索引擎和Cortana智能助手自然语言理解负责人。与他一起创业的还有两位微软系的旧友。

  五、基础设施

  AWS EC2 P5实例正式可用。它包括8个最新的英伟达H100 GPU,640GB高带宽GPU内存,2TB系统内存,30 TB本地NVMe存储,3200 Gbps的聚合网络带宽。它将帮助客户降低高达40%的培训成本。此前,亚马逊未公开大规模出租H100算力的云服务。

  深圳成立开放算料联盟。深圳数交所及腾讯云、华大基因等企业,北大深圳研究生院、哈工大(深圳)、港理工等大学,以及相关协会、智库及研究机构共同发起。该联盟将围绕高质量中文训练数据和多模态训练数据,协调数据要素、数据治理、训练数据、数据标注、合成数据等相关标准制定,协助数据交易所增加大模型相关的新品类和新专区。

  六、开源生态

  北交大开源交通大模型,免费可商用。这个通用常识交通大模型名为TransGPT,拥有70亿个参数,对学术研究完全开放,邮件申请并获许可后即可免费商用。它能够实现交通情况预测、智能咨询助手、公共交通服务、交通规划设计、交通安全教育、协助管理、交通事故报告和分析、自动驾驶辅助系统等功能。

  代码模型CodeGeeX2-6B开源。基于 ChatGLM2-6B 基座语言模型,CodeGeeX2-6B 进一步经过了 600B 代码数据预训练,相比一代模型,支持超过 100 种编程语言,新增上下文补全、跨文件补全等实用功能,在代码能力上全面提升。CodeGeeX2-6B 权重对学术研究完全开放。

  英特尔推出34个开源AI参考套件。该芯片巨头与埃森哲合作,向开源社区提供了包含34 个开源 AI 参考套件的产品组合。每个套件都包含了模型代码、训练数据、机器学习管道指令、相关库和oneAPI 组件等内容,可以帮助开发者和数据科学家更快更轻松地部署人工智能,为多种架构的本地、云端和边缘计算环境提供 AI 服务。

  七、论文

  视觉-语言-(机器人)动作模型:这个被称为RT-2的模型,能把网络上的知识,转化为机器人的控制。因为动作可以被表示为文本字符串,就能将其视为操作机器人的另一种语言。这种简单的表示,使得对任何现有的视觉-语言模型进行微调,并将其转化为视觉-语言-动作模型变得简单直接。在推理过程中,文本标记被还原为机器人动作,实现闭环控制,这样就能够利用视觉-语言模型的主干和预训练,在学习机器人策略时传递部分泛化能力、语义理解和推理能力到机器人控制。

  

  用自己生成的数据训练自己,越训练越傻?研究人员对简单多元高斯和高斯混合模型的分析和实证表明,使用合成训练数据训练AI,模型会产生“模型自噬障碍”(MAD),而且发现经过第5次迭代训练后,偏差不断放大,模型就会患上MAD。尚未确认会影响所有AI模型。

  

  生物医学通用人工智能:谷歌研究团队首先整理了一个新的多模态生物医学基准MultiMedBench,涵盖了14个不同的任务,如医学问答、乳腺X光和皮肤病学图像解释、放射科报告生成和摘要以及基因组变体调用等。然后引入了Med-PaLM M,一个大型多模态生成模型,可以灵活地对临床语言、影像和基因组等生物医学数据进行编码和解释,而使用相同的一组模型权重。在所有MultiMedBench任务上,Med-PaLM M的性能与最先进水平相当或超过最先进水平,通常以很大优势超过专家模型。尽管在真实使用案例中验证这些模型还需要做大量工作,但这一结果代表了发展通用生物医学AI系统的一个里程碑。

  

  核查大模型生成内容的真实性:FACTOOL是一个任务和领域无关的框架,用于检测大型语言模型(例如,ChatGPT)生成的文本的事实错误。在四个不同的任务(基于知识的问答,代码生成,数学推理,和科学文献审查)上的实验显示了所提方法的有效性。

  自治代理在真实网络环境中完成任务不理想:随着生成式AI的进步,自治代理通过自然语言命令管理日常任务的潜力令人向往,然而,当前的代理主要是在简化的合成环境中创建和测试的,这极大地限制了真实世界场景的再现。在一个高度逼真和可复制的代理命令和控制环境中,如电子商务、社交论坛讨论、协作软件开发和内容管理,研究人员设计并实现了几个自治代理。结果表明,最好的基于GPT-4的代理只实现了10.59%的端到端任务成功率。

  

  八、人才与其他

  搜狗原CMO入职百川智能。至此,搜狗前CEO王小川、前COO茹立云和前CMO洪涛,都在百川智能重新聚首。洪涛将负责商业化工作。按此前计划,百川智能将在年内发布一个千亿级闭源大模型。

  OpenAI信任与安全负责人离职。戴夫?威尔纳(Dave Willner)表示在担任 OpenAI 信任与安全高管期间,始终处于“高强度状态”下,而他本身是个家庭观念很深的人,在 ChatGPT 推出几个月后,他表示越来越难兼顾到家庭。此前,他在Facebook和Airbnb领导信任和安全团队。

上一篇:非人灵长类动物的伦理问题①-科学与社会.pdf
下一篇:原创住在风景里是什么感受,黄山悦榕庄给了我答案