AIGC时代谷歌能够避免MapReduce和TensorFlow的历史重演吗?

本文部分内容翻译和引用自MATTHEW LYNLEY

可以说,Transformer已经成为现代AI技术背后的基石,它的出现和发展推动了AI技术的创新和变革,并在自然语言处理(BERT)、计算机视觉(ViT)、机器翻译、语音识别、推荐系统等任务中取得了令人瞩目的成果。

此外,Transformer的研究也在不断推动AI技术的前沿,诸如GPT等展示了在生成式任务、多模态任务等方面的巨大潜力。

然而,随着GPT的成功,也让我们意识到Google可能面临着第三次提出创造性的技术,但又被后来者居上的风险。

前两次分别是在2004年MapReduce论文的发布,它使我们进入了大数据时代,以及2015年TensorFlow的发布,掀起了深度学习的第一波浪潮。

Google正在试图避免重蹈覆辙,其将大量的资金注入Vertex AI上,并推出多种可用模型,通过谷歌云提供服务。

MapReduce和TensorFlow的辉煌与没落

Google 的大部分技术成就都源于其管理海量数据能力的计算突破:MapReduce框架。

目前仍在 Google 工作的 Jeff Dean 和 Sanjay Ghemawat 在 2000 年代初期共同撰写了 一篇关于MapReduce: Simplified Data Processing on Large Clusters技术的论文,该技术旨在有效地创建一个管理海量数据集的框架,而这正是 Google 搜索引擎所需要的。

然而,谷歌并没有向公众公开这项技术,而是基本上将这项技术保留在内部。

该团队由工程师领导,在当时并没有将这项工作开源并商业化,他们没有预见到即将到来的开源浪潮。

这是谷歌不重视通过维护开源社区而建立标准和商业化所犯的第一个错误。

因为Doug Cutting 和 Mike Cafarella 在 2006 年以 Hadoop 的形式复制了该技术。并且随后该开源工具成为管理大量数据的通用标准,这对谷歌来说是一个巨大的错失良机。

2015年TensorFlow 的一经发布,其用户量就指数级的上升,这次的完全开源使得它为机器学习工具的事实上的标准,它启用并激发了新一代人工智能产品和用例。

然而,它缺少许多对算法开发人员更友好的部分,而且允许 Meta 凭借自己的深度学习框架 PyTorch 进军。Google 再次发现自己措手不及,并迅速尝试添加一些使 PyTorch 流行的功能(例如eager 模式)。

但它在开发者社区中的主导地位在很大程度上让给了 PyTorch。

尽管现在仍有许多组织在使用 TensorFlow,但 PyTorch 已经抓住了机器学习开发者社区的势头。

Transformer谷歌失去主导的危险

2017 年Google发布了Transformer,为现代生成式人工智能铺平了道路,自 ChatGPT 公开发布以来,现代生成式人工智能迅速爆发。

Transformer 被广泛认为是人工智能的一步变革,使得大型语言模型的创建和部署在计算上变得可行和实用。

随着 OpenAI 推出直至 GPT-3 的 GPT 系列模型,谷歌让它在人工智能领域的主导地位(至少目前如此)被打破。去年 11 月,随着 ChatGPT 及其继任者 GPT-4 的推出,人工智能的闸门打开了。

这个故事现在听起来应该很熟悉。

不仅仅是 OpenAI,Meta 使用与 Google 首创的相同技术发布了一个非常强大的语言模型(Llama 2)。如今,由于google急匆匆发布的 Bard 等人工智能工具,使它正处于错失人工智能良机的悬崖边缘。

向 AI 发力

虽然说这几年,Google云一直在犯错,但是它仍然是地球上最强大的人工智能公司。

Vertex AI是Google Cloud推出的一项全面的机器学习(ML)平台,旨在简化和加速机器学习模型开发、训练和部署的过程。它提供了一个集成的端到端解决方案,帮助开发者和数据科学家更轻松地构建、部署和管理ML模型。

谷歌想通过Vertex 提供多种模型并服务于各种用例,谷歌正押注于其在人工智能领域的首屈一指的经验和专业知识,以在其生死存亡的第一场真正的战斗中击败微软和亚马逊。

与此同时,它正在与 OpenAI 进行一场复杂的棋局,以构建强大的基础模型,并通过 PaLM 2 使其广泛可用,然后最终推出其多模态下一代模型 Gemini。

此外,谷歌和 Nvidia宣布将一起合作开发新的语言模型开发框架 PaxML,该框架构建在谷歌尖端机器学习框架 JAX 及其加速线性代数框架(或 XLA)之上。

JAX学习框架在去年10月份也小规模开源,它依赖于内部的TPU 和 XLA。在硬件短缺和训练成本不断膨胀的情况下,能够在各种硬件上并行有效地分配大量训练任务。

PyTorch 在很大程度上依赖于 Nvidia 的机器学习开发框架 Cuda,这让 Nvidia 坐上了 AI 的王座。但目前也有很多公司在开发深度学习框架,来打破 AI 对 Cuda 的依赖。可以说,PaxML 对于 Nvidia 来说也是一种非常有趣的对冲。

对于Google来说,PaxML 很可能是 Google 试图通过 Nvidia 将 JAX 打入主流的尝试。当前一些 AI 模型在发布时会同时提供 PyTorch 和 JAX 版本,但还属于早期阶段。

通过更统一的Vertex AI 的形式为多种人工智能模型提供支持,同时对JAX 进行重大押注,在经历了去年的困境后,它将重新陷入直接竞争,现在我们来看看这是否足以阻止它在人工智能中第三次失败。


如果觉得这篇文章对你有所帮助,
请点一下或者,是对我的肯定和支持~


请使用浏览器的分享功能分享到微信等