Hugging Face 是一个用于数据科学和机器学习的开源平台。它是一个面向人工智能专家和爱好者的中心枢纽,类似于人工智能项目的 GitHub。Clément Delangue、Julien Chaumond 和 Thomas Wolf 是 Hugging Face 的联合创始人。 [1]
Hugging Face 是一个综合性的机器学习 (ML) 和数据科学平台。它使用户能够构建、训练和部署 AI 模型,提供从初始代码到实时应用程序部署的基础设施。用户可以浏览和使用他人共享的模型和数据集,并测试演示项目。Hugging Face 以其 Transformers Python 库而闻名,简化了 ML 模型的下载和训练,促进了高效的工作流程集成。该平台的开源性质和部署工具促进了资源共享,减少了模型训练时间、资源消耗以及 AI 开发对环境的影响。 [2]
Hugging Face Inc. 由法国企业家Clément Delangue、Julien Chaumond和Thomas Wolf于2016年在纽约市创立,是 Hugging Face 平台的幕后推手。 最初,他们开发了一款面向青少年的聊天机器人应用程序,但在开源聊天机器人模型后,后来将重点转移到成为一个机器学习平台。 [3]
Hugging Face Hub是一个在线平台,拥有超过350,000个模型、75,000个数据集和150,000个演示应用程序(Spaces),所有这些都是开源且公开可用的。它为用户提供了一个中心场所,用于探索、实验、协作和使用机器学习构建技术。Hugging Face Hub上的模型、Spaces和数据集都托管为Git存储库,这使得版本控制和协作成为关键特性。存储库(repo)是用于存储代码和资产的存储空间,允许用户备份他们的工作、与社区分享以及与团队协作。 [4][5]
Hugging Face 允许用户在其平台上创建和托管自己的 AI 模型,用户可以管理版本、添加信息和上传必要的文件。用户可以选择公开或私有模型,并通过模型页面上的讨论和拉取请求进行协作。模型可以直接从 Hugging Face 运行,并将输出集成到任何应用程序中。该平台为各种任务提供超过 20 万个模型,包括自然语言处理、音频任务、计算机视觉和多模态模型。Transformers 库可以轻松连接到这些模型,以执行任务、使用个人数据进行模型训练或快速创建演示空间。 [2][6]
Hugging Face 上的模型中心是一个存储库,社区成员可以在其中托管其模型检查点,以进行存储、发现和共享。用户可以使用 huggingface_hub 客户端库、Hugging Face Transformers 库进行微调,或使用 15 个以上的集成库来下载预训练模型。该平台还提供无服务器推理 API 和推理端点,用于在生产环境中使用模型。 [6]
Hugging Face Transformers 是一个用于自然语言处理 (NLP)、计算机视觉以及音频和语音处理任务的预训练的最先进模型库。它包括 Transformer 和非 Transformer 模型,例如用于计算机视觉任务的现代卷积网络。深度学习技术是这些模型的基础,通常应用于智能手机和应用程序等流行的消费产品中。自 2017 年推出以来,最初的 Transformer 模型激发了许多 NLP 以外的新模型,包括蛋白质结构预测、猎豹训练和时间序列预测。所有这些模型都基于原始 Transformer 架构,有些仅使用编码器或解码器,而另一些则同时使用两者,从而为 Transformer 系列中的高级差异进行分类和检查提供了分类法。 [7][8]
数据集是通过机器学习训练 AI 模型所使用的数据集合。这些数据集包含示例和标签,用于指导模型解释每个示例。在训练过程中,模型学习理解示例和标签之间的模式和关系。训练完成后,模型可以根据新的提示生成输出。创建高质量的数据集具有挑战性,需要准确地表示真实世界的数据,以防止模型出错。Hugging Face 托管了超过 30,000 个数据集,用于各种任务,包括自然语言处理、计算机视觉和音频。用户还可以贡献他们的数据集,并在新数据集可用时访问它们。 [2][9]
Hugging Face 允许用户托管模型和浏览数据集进行训练,但 Spaces 为更广泛的受众创建展示和独立的演示。该平台提供基本的计算资源(16 GB 内存,2 个 CPU 核心和 50 GB 磁盘空间)用于运行这些演示,并提供升级选项以获得更好的性能。Spaces 有助于推广项目和吸引贡献者。许多 Spaces 用户友好,无需技术技能,使任何人都可以使用。 [2][10]
Hugging Face Hub 提供组织功能,允许用户对账户进行分组,并管理数据集、模型和 Spaces。管理员可以设置用户角色来管理对存储库的访问,并管理其组织的付款方式和账单信息。 [11]
企业中心通过高级功能增强组织能力,为 Hugging Face 上的团队和公司促进安全、合规和受管理的协作。它包括审计日志、私有数据集查看器和资源组。 [12]
一些使用企业模式的组织包括: [15]
2021年3月23日,Hugging Face 宣布与 Amazon 建立战略合作伙伴关系,旨在简化最先进的机器学习模型的利用,并加速为公司部署尖端的 NLP 功能。作为此次合作的一部分,Hugging Face 选择利用 Amazon Web Services (AWS) 作为其首选云提供商来提供客户服务。为了促进这种合作关系,Hugging Face 和 Amazon 推出了新的 Hugging Face 深度学习容器 (DLC),旨在简化在 Amazon SageMaker 中训练 Hugging Face Transformer 模型的过程。 [16]
2023 年 2 月 21 日,Hugging Face 和 Amazon Web Services (AWS) 宣布扩大长期战略合作伙伴关系,以加速下一代机器学习模型的可用性。该合作伙伴关系旨在使这些模型更容易被机器学习社区访问,同时帮助开发人员以最低的成本实现最佳性能。通过此次扩大的合作,Hugging Face 和 AWS 旨在通过利用 Hugging Face 上托管的最新模型以及 Amazon SageMaker 的高级功能来加速机器学习的采用。现在,客户只需点击几下,即可在 Amazon SageMaker 和 Amazon Elastic Computing Cloud (EC2) 上轻松微调和部署最先进的 Hugging Face 模型,并利用专用机器学习加速器(如 AWS Trainium 和 AWS Inferentia)。 [17]
2021年9月14日,在2021年AI硬件峰会上,Hugging Face推出了其新的硬件合作伙伴计划,该计划以设备优化模型和软件集成为特色。Graphcore是该计划的创始成员之一,以其智能处理单元(IPU)而闻名。Graphcore详细阐述了他们与Hugging Face的合作,强调了这将如何使开发人员能够无缝地增强最先进的Transformer模型的性能。 [18]
2022年4月12日,Habana Labs和Hugging Face宣布合作,以提高高质量Transformer模型训练的效率。通过将Habana的SynapseAI软件套件与Hugging Face Optimum开源库集成,数据科学家和机器学习工程师能够以最少的代码调整,加速在Habana处理器上的Transformer训练任务,从而提高生产力并节省成本。 [19]
2023年3月6日,Kakao Brain和Hugging Face宣布发布一个新的开源图像-文本数据集,名为COYO,包含7亿个配对,以及基于该数据集训练的两个新的视觉语言模型ViT和ALIGN。这标志着ALIGN模型首次公开免费开源使用,也是ViT和ALIGN模型首次伴随训练数据集发布。 [20]
2023年3月23日,Hugging Face宣布增强了对Hugging Face Hub上托管的Jupyter Notebook的支持。除了托管模型、数据集和演示之外,Hub现在还托管了超过7,000个notebook,提供了有价值的开发过程文档,并为利用资源提供了教程。notebook托管方面的改进对Hugging Face社区来说是一项重大发展。 [21]
2024年1月25日,Hugging Face 宣布与谷歌云建立战略合作伙伴关系,以普及机器学习。此次合作涉及在开放科学、开源、云和硬件方面的合作,旨在使公司能够使用 Hugging Face 的最新开放模型以及谷歌云的先进云和硬件功能来开发其人工智能。 [22]
2024年3月18日,Hugging Face 宣布在 Hugging Face Hub 上推出一项新服务:Train on DGX Cloud,该服务适用于企业 Hub 组织。Train on DGX Cloud 通过利用 NVIDIA DGX Cloud 的加速计算基础设施,简化了开放模型的使用。此次合作旨在为企业 Hub 用户提供对最新 NVIDIA H100 Tensor Core GPU 的轻松访问,使他们只需点击几下即可在 Hugging Face Hub 中微调流行的生成式 AI 模型,如 Llama、Mistral 和 Stable Diffusion。 [23]
2024年4月2日,Hugging Face推出了在Cloudflare Workers AI上部署的功能,这是一个Hugging Face Hub上的新集成。该集成简化了将开源模型用作无服务器API的过程,利用部署在Cloudflare边缘数据中心的最先进的GPU。这使得开发者能够构建强大的生成式AI应用程序,而无需管理GPU基础设施和服务器,并通过仅为使用的计算资源付费来最大限度地降低运营成本。 [24]