Hugging Face 是一个用于数据科学和机器学习的开源平台。它是一个面向人工智能专家和爱好者的中心枢纽,类似于人工智能项目的 GitHub。Clément Delangue、Julien Chaumond 和 Thomas Wolf 是 Hugging Face 的联合创始人。 [1]
Hugging Face 是一个综合性的机器学习 (ML) 和数据科学平台。它使用户能够构建、训练和部署 AI 模型,提供从初始代码到实时应用程序部署的基础设施。用户可以浏览和使用其他人共享的模型和数据集,并测试演示项目。Hugging Face 以其 Transformers Python 库而闻名,简化了 ML 模型的下载和训练,促进了高效的工作流程集成。该平台的开源性质和部署工具促进了资源共享,减少了模型训练时间、资源消耗以及 AI 开发对环境的影响。 [2]
Hugging Face Inc.由法国企业家Clément Delangue、Julien Chaumond和Thomas Wolf于2016年在纽约市创立,是Hugging Face平台的幕后推手。 最初,他们开发了一款面向青少年的聊天机器人应用程序,但在开源聊天机器人模型后,他们将重点转移到成为一个机器学习平台。 [3]
Hugging Face Hub是一个在线平台,拥有超过350,000个模型、75,000个数据集和150,000个演示应用程序(Spaces),所有这些都是开源且公开可用的。它为用户提供了一个中心场所,用于探索、实验、协作和使用机器学习构建技术。Hugging Face Hub上的模型、Spaces和数据集都托管为Git存储库,这使得版本控制和协作成为关键特性。存储库(repo)是用于存储代码和资产的存储空间,允许用户备份他们的工作、与社区分享以及与团队协作。 [4][5]
Hugging Face 允许用户在其平台上创建和托管自己的 AI 模型,用户可以管理版本、添加信息和上传必要的文件。用户可以选择公开或私有模型,并通过模型页面上的讨论和拉取请求进行协作。模型可以直接从 Hugging Face 运行,并将输出集成到任何应用程序中。该平台提供超过 200,000 个模型,用于各种任务,包括自然语言处理、音频任务、计算机视觉和多模态模型。Transformers 库可以轻松连接到这些模型,以执行任务、使用个人数据进行模型训练或快速创建演示 Spaces。 [2][6]
Hugging Face 上的 Model Hub 是一个存储库,社区成员可以在其中托管其模型检查点,以进行存储、发现和共享。用户可以使用 huggingface_hub 客户端库、Hugging Face Transformers 库进行微调,或使用 15 多个集成库中的任何一个来下载预训练模型。该平台还提供 Serverless Inference API 和 Inference Endpoints,用于在生产环境中使用模型。 [6]
Hugging Face Transformers 是一个预训练的先进模型库,用于自然语言处理 (NLP)、计算机视觉以及音频和语音处理任务。它包括 Transformer 和非 Transformer 模型,例如用于计算机视觉任务的现代卷积网络。深度学习技术是这些模型的基础,通常应用于智能手机和应用程序等流行的消费产品中。自 2017 年推出以来,最初的 Transformer 模型激发了许多 NLP 之外的新模型,包括蛋白质结构预测、猎豹训练和时间序列预测。所有这些模型都基于最初的 Transformer 架构,有些只使用编码器或解码器,有些则同时使用两者,从而为分类和检查 Transformer 系列中的高级差异提供了分类法。 [7][8]
数据集是通过机器学习训练 AI 模型所使用的数据集合。这些数据集包含示例和标签,指导模型在解释每个示例。在训练过程中,模型学习理解示例和标签之间的模式和关系。训练完成后,模型可以根据新的提示生成输出。创建高质量的数据集具有挑战性,需要准确地表示真实世界的数据,以防止模型出错。Hugging Face 托管了超过 30,000 个数据集,用于各种任务,包括自然语言处理、计算机视觉和音频。用户还可以贡献他们的数据集,并在新数据集可用时访问它们。 [2][9]
Hugging Face允许用户托管模型和浏览数据集进行训练,但Spaces为更广泛的受众创建展示和自包含的演示。该平台提供基本的计算资源(16 GB RAM,2个CPU核心和50 GB磁盘空间)来运行这些演示,并提供升级选项以获得更好的性能。Spaces对于推广项目和吸引贡献者非常有用。许多Spaces用户友好,不需要技术技能,使任何人都可以使用。 [2][10]
Hugging Face Hub 提供组织功能,允许用户对账户进行分组,并管理数据集、模型和 Spaces。管理员可以设置用户角色来管理对存储库的访问,并管理组织的付款方式和账单信息。 [11]
企业中心通过高级功能增强组织能力,为 Hugging Face 上的团队和公司促进安全、合规和受管理的协作。它包括审计日志、私有数据集查看器和资源组。 [12]
一些使用企业模式的组织包括: [15]
2021年3月23日,Hugging Face宣布与亚马逊建立战略合作伙伴关系,旨在简化最先进的机器学习模型的使用,并加速为公司部署尖端的NLP功能。作为此次合作的一部分,Hugging Face选择利用Amazon Web Services (AWS) 作为其首选云提供商来提供客户服务。为了促进这种合作,Hugging Face和亚马逊推出了新的Hugging Face深度学习容器 (DLC),旨在简化在Amazon SageMaker中训练Hugging Face Transformer模型的过程。 [16]
2023年2月21日,Hugging Face和Amazon Web Services (AWS) 宣布扩大长期战略合作伙伴关系,以加速下一代机器学习模型的可用性。该合作伙伴关系旨在使这些模型更容易被机器学习社区访问,同时帮助开发人员以最低的成本实现最佳性能。通过此次扩大的合作,Hugging Face和AWS旨在通过利用Hugging Face上托管的最新模型以及Amazon SageMaker的先进功能来加速机器学习的采用。现在,客户只需点击几下,即可在Amazon SageMaker和Amazon Elastic Computing Cloud (EC2) 上轻松微调和部署最先进的Hugging Face模型,并利用专门构建的机器学习加速器,如AWS Trainium和AWS Inferentia。 [17]
在2021年9月14日举行的2021年AI硬件峰会上,Hugging Face推出了其新的硬件合作伙伴计划,该计划以设备优化的模型和软件集成为特色。Graphcore是该计划的创始成员之一,以其智能处理单元(IPU)而闻名。Graphcore详细阐述了他们与Hugging Face的合作,强调了该合作将如何使开发人员能够无缝地提高最先进的Transformer模型的性能。 [18]
2022年4月12日,Habana Labs和Hugging Face宣布合作,以提高训练高质量Transformer模型的效率。通过将Habana的SynapseAI软件套件与Hugging Face Optimum开源库集成,数据科学家和机器学习工程师能够以最少的代码调整,在Habana处理器上加速其Transformer训练任务,从而提高生产力并节省成本。 [19]
2023年3月6日,Kakao Brain和Hugging Face宣布发布一个新的开源图像-文本数据集,名为COYO,包含7亿个配对,以及基于它训练的两个新的视觉语言模型,ViT和ALIGN。这标志着ALIGN模型首次公开免费开源使用,以及ViT和ALIGN模型首次伴随训练数据集发布。 [20]
2023年3月23日,Hugging Face宣布增强对Hugging Face Hub上托管的Jupyter Notebook的支持。除了托管模型、数据集和演示之外,该Hub现在还托管了超过7,000个notebook,提供了有价值的开发过程文档,并为利用资源提供了教程。notebook托管方面的改进对Hugging Face社区来说是一项重大发展。 [21]
2024年1月25日,Hugging Face 宣布与 Google Cloud 建立战略合作伙伴关系,以普及机器学习。 合作涉及在开放科学、开源、云和硬件方面的合作,以使公司能够使用 Hugging Face 的最新开放模型和 Google Cloud 的高级云和硬件功能来开发其 AI。 [22]
2024年3月18日,Hugging Face 宣布推出 Train on DGX Cloud,这是一项在 Hugging Face Hub 上为企业 Hub 组织提供的新服务。Train on DGX Cloud 通过利用 NVIDIA DGX Cloud 的加速计算基础设施,简化了开放模型的使用。此次合作旨在为企业 Hub 用户提供对最新 NVIDIA H100 Tensor Core GPU 的轻松访问,使他们只需点击几下即可在 Hugging Face Hub 中微调流行的生成式 AI 模型,如 Llama、Mistral 和 Stable Diffusion。 [23]
2024年4月2日,Hugging Face推出了在Cloudflare Workers AI上部署的功能,这是一个Hugging Face Hub上的新集成。该集成简化了将开放模型用作无服务器API的过程,利用部署在Cloudflare边缘数据中心的最先进的GPU。这使得开发者能够构建强大的生成式AI应用,而无需管理GPU基础设施和服务器,并通过仅为使用的计算资源付费来最大限度地降低运营成本。 [24]