岗位职责
1.负责腾讯大模型产品的安全测试工作,提前发现大模型算法安全与基础安全等方面的潜在风险,并提出相应的解决方案;
2.对大模型安全攻防领域的前沿技术进行跟踪与分析,并结合业务场景实现高效的攻击验证与防御能力;
3.围绕多模型态大模型安全、大模型应用安全、大模型赋能安全等方面进行安全预研,并探索落地应用与业务赋能。
岗位要求
1.本科及以上学历,计算机科学、网络安全或AI相关专业;
2.在LLM安全(提示注入、对抗样本、模型后门、投毒攻击、模型窃取等)方向有一定实战积累,了解安全对齐,Red teaming等安全策略落地;
3.熟练掌握至少一种编程语言,如Python、C++、Java等,具有较强的coding能力,能够利用现有SOTA方法进行训练和测试,并进行项目模块开发;
4.关注安全在业务价值上的输出,具备良好的沟通和团队合作能力,较强的分析和解决问题的能力,能够快速识别和解决安全问题,对安全攻防有较高的兴趣;
5.加分项:有AI Red Team相关工作经验优先;在AI或安全顶级会议/期刊上发表过Paper/文章者优先,有大模型开源项目研发、安全比赛得奖经历者优先。
腾讯以技术丰富互联网用户的生活。
通过通信及社交平台微信和 QQ 促进用户联系,并助其连接数字内容和生活服务,尽在弹指间。
通过高效广告平台,协助品牌和市场营销者触达数以亿计的中国消费者。
通过金融科技及企业服务,促进合作伙伴业务发展,助力实现数字化升级。
我们大力投资于人才队伍和推动科技创新,积极参与互联网行业协同发展。
腾讯于 1998 年11月在中国深圳成立,2004 年6月在香港联合交易所主板上市。