岗位职责
1.负责研究AI模型的潜在安全风险,包括对抗攻击、数据投毒、模型窃取等,制定防御方案,提升模型、数据及应用的安全性。
2.制定并持续优化AI全生命周期安全管理制度及规范,涵盖研发、部署、运营各环节,建立模型安全测试、监控、防护与应急响应机制。
3.围绕多模态大模型安全、大模型应用安全等方面进行安全预研,并探索落地应用与业务赋能。
4.对大模型安全攻防领域的前沿技术进行跟踪与分析,并结合业务场景实现高效的攻击验证与防御能力;
5.负责开展大模型安全治理及运营工作。
岗位要求
1.计算机、网络空间安全、大数据、人工智能等相关理工科专业,本科及以上学历,三年以上工作经验。
2.在LLM安全(提示注入、对抗样本、模型后门、投毒攻击、模型窃取等)方向有一定实战积累,了解安全对齐,Red teaming等安全策略落地。
3.熟练掌握至少一种编程语言,如Python、C++、Java等,了解安全工具(如Burp Suite、Metasploit)或AI安全工具(如CleverHans、Foolbox)。
4.具有良好的沟通能力、语言组织和表达能力,文字功底优秀。