OpenBayes 一周速览|Phi-2、Qwen-1.8B、IP-Adapter-FaceID 等多个模型上线公共资源

大家好,这里是 OpenBayes 公众号开设的新栏目,每周一小贝会在这里分享 OpenBayes 平台的最新动态,包含过去一周上新的公共资源(模型、数据集、教程)以及功能更新等动态,你也可以直接访问 OpenBayes.com 直接查看详情~

公共资源速递

This Weekly Snapshots !

5 个模型:

*phi-2

*Qwen-1.8B

*Qwen-1.8B-Chat

*Qwen-72B-Chat-Int8

*IP-Adapter-FaceID

2 个数据集:

*Conceptual Captions 概念数据集

*CrossDock2020 生物分子数据集

小贝快讯:

*NVIDIA RTX A6000 强势上线

*优质创作者招募计划火热进行中

访问官网立即使用:openbayes.com

公共模型

1. Phi-2

Phi 是微软发布的一系列参数规模在几十亿的大模型。Phi-2 是当前最新的 27 亿参数的 Transformer 模型。 在对通识、语言理解和逻辑推理进行基准测试时,Phi-2 在不到 130 亿参数的模型中展现了接近最先进水平的性能。

* 直接使用:https://1lh.cc/I-H5_5

2. Qwen-1.8B

通义千问-1.8B (Qwen-1.8B) 是阿里云研发的通义千问大模型系列的 18 亿参数规模的模型。Qwen-1.8B 是基于 Transformer 的大语言模型, 在超大规模的预训练数据上进行训练得到的。

* 直接使用:https://1lh.cc/Fx9EoV

3. Qwen-1.8B-Chat

该模型是研究团队在 Qwen-1.8B 的基础上,使用对齐机制打造的基于大语言模型的 AI 助手 Qwen-1.8B-Chat。

* 直接使用:https://1lh.cc/siG62p

4. Qwen-72B-Chat-Int8

通义千问-72B (Qwen-72B) 是阿里云研发的通义千问大模型系列的 720 亿参数规模的模型。该模型是在 Qwen-72B 的基础上,使用对齐机制打造的基于大语言模型的 AI 助手 Qwen-72B-Chat。

* 直接使用:https://1lh.cc/uUY-ZU

5. IP-Adapter-FaceID

该模型可以仅通过文本提示,生成多种风格的面部图像。目前推出的是 IP-Adapter-FaceID 的实验版本。

* 直接使用:https://1lh.cc/T7qFyC

公共数据集

1. Conceptual Captions 概念标题数据集

Conceptual Captions 是一个包含(图像-URL、标题)对的数据集,用于训练和评估机器学习图像标题系统。

* 直接使用:https://1lh.cc/gU7_ed

2. CrossDock2020:ResGen 研究处理的数据集

该数据集的初始数据包含超过 2,200 万个蛋白质-小分子配对 (protein–ligand pairs),该数据集可用于蛋白质-小分子相互作用研究,特别是用于评估分子对蛋白质口袋的结合能力。

* 直接使用:https://1lh.cc/XG6C0H

NVIDIA RTX A6000 强势上线

随着大模型参数规模日益膨胀,大显存的 GPU 需求也在持续攀升,为了满足用户在实际场景中的使用需求,OpenBayes 平台现已上线大量单卡、双卡、四卡、八卡 NVIDIA RTX A6000 资源, 即日起只需登录 OpenBayes.com,即可自由租用相关资源。

OpenBayes 优质创作者招募计划

OpenBayes 平台「优质创作者招募计划」火热进行中??。

如果您愿意以图文或视频的形式,分享在 OpenBayes 平台上的实操过程,都可以加入我们~

凡加入「优质创作者招募计划」的开发者,发布内容后将根据内容质量均可获得 10-100 小时 NVIDIA RTX 4090、A6000、RTX 3090、A100 等免费算力资源。

感兴趣的小伙伴可以扫码添加小贝总,了解更多招募详情~

图片