文章 2025-10-04 来自:开发者社区

Google开源Tunix:JAX生态的LLM微调方案来了

JAX生态这两年在LLM训练这块追赶得挺快。PyTorch虽然还是主流但JAX在并行计算、TPU加速和API组合性上确实有些独特的优势。Google今天放出了Tunix这个库,专门做LLM的后训练——微调、强化学习、知识蒸馏这些都能搞。 Tunix是什么 这是个构建在JAX之上的后训练库,和Flax NNX集成得比较紧密。主要解决三类问题: 监督微调(Supervised Fine-Tuni...

Google开源Tunix:JAX生态的LLM微调方案来了
文章 2024-05-06 来自:开发者社区

Python中Keras微调Google Gemma:定制化指令增强大语言模型LLM

像谷歌、Meta和Twitter这样的大公司正大力推动其大型语言模型(LLM)的开源。最近,谷歌DeepMind团队推出了Gemma——一个由与创建谷歌Gemini模型相同的研究和技术构建的轻量级、开源LLM系列(点击文末“阅读原文”获取完整代码数据报告)。 本文,我们将帮助客户了解Gemma模型,如何使用云GPU和TPU访问它们,以及如何在角色扮演数据集上训练最新的Gemma...

Python中Keras微调Google Gemma:定制化指令增强大语言模型LLM

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。