通过Google DeepMind的尖端MedGemma AI模型为医疗理解提供动力,推动下一代医疗应用的发展。
体验MedGemma 4B IT模型在医疗文本和图像分析方面的强大功能
MedGemma MedGemma是专门设计用于理解和处理医疗文本和图像的尖端AI模型集合。由Google DeepMind开发并于2025年5月发布,MedGemma代表了医疗人工智能领域的重大进步。
基于强大的Gemma 3架构构建,MedGemma已针对医疗应用进行了优化,为开发者提供了创建创新医疗解决方案的强大工具。
作为健康AI开发者基金会的一部分,MedGemma旨在普及先进医疗AI技术的访问,使全球研究人员和开发者能够构建更有效的医疗应用。
在Google I/O 2025发布
作为Google持续通过技术增强医疗保健努力的一部分发布
专为医疗应用设计的强大功能
使用在去标识化医疗数据上预训练的SigLIP图像编码器,以40亿参数处理医疗图像和文本。
针对深度医疗文本理解和临床推理进行优化,拥有270亿参数。
构建基于AI的应用程序,检查医疗图像、生成报告并对患者进行分诊。
通过Hugging Face和Google Cloud开放访问先进AI,加速研究。
增强患者访谈和临床决策支持,提高医疗效率。
实施指南和适应方法
MedGemma模型可在Hugging Face等平台上访问,受健康AI开发者基金会使用条款约束。
# Example Python code to load MedGemma model
from transformers import AutoTokenizer, AutoModelForCausalLM
tokenizer = AutoTokenizer.from_pretrained("google/medgemma-4b-it")
model = AutoModelForCausalLM.from_pretrained("google/medgemma-4b-it")
使用少样本示例并将任务分解为子任务以提高性能。
使用您自己的医疗数据进行优化,利用GitHub笔记本等资源。
与网络搜索、FHIR生成器和Gemini Live等工具集成。
根据您的需求选择合适的部署方法:
在本地运行模型进行实验和开发。
通过Model Garden在Vertex AI上部署为可扩展的HTTPS端点,用于生产级应用。
MedGemma模型开箱即用并非临床级别。开发者必须在生产环境中部署之前验证性能并进行必要的改进。
MedGemma的使用受健康AI开发者基金会使用条款约束,开发者在访问模型之前必须审查并同意这些条款。
关于MedGemma的常见问题
4B多模态模型使用SigLIP图像编码器以40亿参数处理医疗图像和文本。27B纯文本模型专注于文本处理,拥有270亿参数,针对更深层的医疗文本理解和临床推理进行了优化。
不,MedGemma模型开箱即用并不被认为是临床级别的。开发者必须在生产环境中部署之前验证其性能并进行必要的改进,特别是涉及患者护理的应用。
MedGemma模型可在Hugging Face和Google Cloud等平台上访问,受健康AI开发者基金会使用条款约束。您可以在本地运行它们进行实验,或通过Google Cloud部署用于生产级应用。
4B多模态模型在多样化的医疗图像上进行预训练,包括胸部X光、皮肤病学图像、眼科图像和组织病理学切片,使其适用于各种医疗影像任务。
开发者可以使用提示工程(少样本示例)、使用自己的医疗数据进行微调,以及与网络搜索、FHIR生成器和Gemini Live等工具的代理编排来增强特定用例的性能。
MedGemma于2025年5月20-22日左右在Google I/O 2025期间由Google DeepMind正式发布,作为他们通过技术增强医疗保健持续努力的一部分。
根据Google开发者上的模型卡,MedGemma的基线性能与同等规模的模型相比表现强劲。它已在临床相关基准上进行评估,包括开放数据集和策划数据集,重点关注任务的专家人工评估。
是的,包括GitHub上的笔记本在内的资源可用于促进微调,例如Google的MedGemma GitHub存储库中提供的使用LoRA的微调示例。
硬件要求取决于模型变体。根据Google AI的帖子,MedGemma模型设计为高效,能够在单个GPU上运行微调和推理,使其比一些更大的模型更易于访问。
基于社区讨论,对MedGemma在非英语医学术语(如日语医学术语)方面的性能存在疑问。这表明多语言支持可能有所不同,可能是未来改进或微调的一个领域。