其他任职要求
1.1年及以上大语言模型(LLM)方向研究经验;
2.熟悉主流大语言模型架构(Transformer、LLaMA、Qwen、DeepSeek、GPT 等),具备大模型 Pre-train、Fine-tune(SFT)、RLHF(含 PPO、DAPO 等)全流程研发与实战经验;
3.熟练掌握至少一类深度学习框架(如 PyTorch),深入理解分布式训练 / 推理加速技术(DeepSpeed、Megatron、vLLM、FlashAttention 等)的原理与实操;
4.具备扎实的大模型工程化能力,熟悉模型训练加速、推理优化、并发调度、资源节降等关键技术,能解决实际部署中的性能、稳定性、成本问题;持续关注 AI Agent、多模态大模型、搜索推荐融合等前沿方向。