首页教程
【中文模型全收录】2.1垂直领域微调-医疗
347

【中文模型全收录】2.1垂直领域微调-医疗

AI知识学习小助手
AI知识学习小助手
2023-08-16 15:21

  • DoctorGLM:

地址:https://www.haoshuo.com/entry/5516 

简介:基于 ChatGLM-6B的中文问诊模型,通过中文医疗对话数据集进行微调,实现了包括lora、p-tuningv2等微调及部署

  • BenTsao:

地址:https://www.haoshuo.com/entry/5517

简介:开源了经过中文医学指令精调/指令微调(Instruct-tuning) 的LLaMA-7B模型。通过医学知识图谱和GPT3.5 API构建了中文医学指令数据集,并在此基础上对LLaMA进行了指令微调,提高了LLaMA在医疗领域的问答效果。

  • BianQue:

地址:https://www.haoshuo.com/entry/5518

简介:一个经过指令与多轮问询对话联合微调的医疗对话大模型,基于ClueAI/ChatYuan-large-v2作为底座,使用中文医疗问答指令与多轮问询对话混合数据集进行微调。

  • HuatuoGPT:

地址:https://www.haoshuo.com/entry/5519

简介:开源了经过中文医学指令精调/指令微调(Instruct-tuning)的一个GPT-like模型

  • Med-ChatGLM:

地址:https://www.haoshuo.com/entry/5531 

简介:基于中文医学知识的ChatGLM模型微调,微调数据与BenTsao相同。

  • QiZhenGPT:

地址:https://www.haoshuo.com/entry/5533

简介:该项目利用启真医学知识库构建的中文医学指令数据集,并基于此在LLaMA-7B模型上进行指令精调,大幅提高了模型在中文医疗场景下效果,首先针对药品知识问答发布了评测数据集,后续计划优化疾病、手术、检验等方面的问答效果,并针对医患问答、病历自动生成等应用展开拓展。

  • ChatMed:

地址:https://www.haoshuo.com/entry/5534

简介:该项目推出ChatMed系列中文医疗大规模语言模型,模型主干为LlaMA-7b并采用LoRA微调,具体包括ChatMed-Consult : 基于中文医疗在线问诊数据集ChatMed_Consult_Dataset的50w+在线问诊+ChatGPT回复作为训练集;ChatMed-TCM : 基于中医药指令数据集ChatMed_TCM_Dataset,以开源的中医药知识图谱为基础,采用以实体为中心的自指令方法(entity-centric self-instruct),调用ChatGPT得到2.6w+的围绕中医药的指令数据训练得到。

  • XrayGLM,首个会看胸部X光片的中文多模态医学大模型:

地址:https://www.haoshuo.com/entry/5521 

简介:该项目为促进中文领域医学多模态大模型的研究发展,发布了XrayGLM数据集及模型,其在医学影像诊断和多轮交互对话上显示出了非凡的潜力。

  • MeChat,中文心理健康支持对话大模型:

地址:https://www.haoshuo.com/entry/5524 

简介:该项目开源的中文心理健康支持通用模型由 ChatGLM-6B LoRA 16-bit 指令微调得到。数据集通过调用gpt-3.5-turbo API扩展真实的心理互助 QA为多轮的心理健康支持多轮对话,提高了通用语言大模型在心理健康支持领域的表现,更加符合在长程多轮对话的应用场景。

  • MedicalGPT

地址:https://www.haoshuo.com/entry/5525 

简介:训练医疗大模型,实现包括二次预训练、有监督微调、奖励建模、强化学习训练。发布中文医疗LoRA模型shibing624/ziya-llama-13b-medical-lora,基于Ziya-LLaMA-13B-v1模型,SFT微调了一版医疗模型,医疗问答效果有提升,发布微调后的LoRA权重。

  • Sunsimiao

地址:https://www.haoshuo.com/entry/5527

简介:Sunsimiao是一个开源的中文医疗大模型,该模型基于baichuan-7B和ChatGLM-6B底座模型在十万级高质量的中文医疗数据中微调而得。

  • ShenNong-TCM-LLM

地址:https://www.haoshuo.com/entry/5528 

简介:该项目开源了ShenNong中医药大规模语言模型,该模型以LlaMA为底座,采用LoRA (rank=16)微调得到。微调代码与ChatMed代码库相同。此外该项目还开源了中医药指令微调数据集。

  • SoulChat

地址:https://www.haoshuo.com/entry/5523 

简介:该项目开源了经过百万规模心理咨询领域中文长文本指令与多轮共情对话数据联合指令微调的心理健康大模型灵心(SoulChat),该模型以ChatGLM-6B作为初始化模型,进行了全量参数的指令微调。

更多内容请关注:【CN LLM】中文大语言模型全数收录

转载自查看原文

全部讨论

no data来都来了,坐下聊聊