【岗位职责】
1.负责对AI、大模型进行安全性评估,识别潜在的安全漏洞和风险,并提出针对性的防护措施;
2.设计并实现针对AI、大模型的安全防护机制,确保模型在实际应用中的安全性与可靠性;
3.研究国内外AI相关的法律法规与行业标准,确保大模型的设计、训练和部署符合数据隐私、算法公平性和伦理要求,同时参与制定企业内部的安全与合规策略;
4.开发自动化AI安全测试工具和验证框架,用于评估AI大模型在不同场景下的安全性表现。
【任职要求】
1.计算机、人工智能相关专业硕士研究生及以上学历,熟悉AI和大模型的基本原理及技术架构。需拥有AI系统安全性评估的实际经验,能够识别潜在的安全漏洞;
2.熟悉AI领域的前沿安全防护技术,包括但不限于模型鲁棒性增强、隐私保护技术(如差分隐私、联邦学习等);
3.深入了解国内外AI相关的法律法规及行业标准;
4.熟练掌握编程语言(如Python、C++等),具备开发自动化AI安全测试工具和验证框架的能力。