为什么选择联想
职位描述和要求:
岗位职责
1. 参与AI产品全生命周期的安全测试流程建设,负责建立AI产品安全测试标准、测试规范、测试用例,并针对联想各个AI产品的不同场景进行持续迭代优化。
2. 负责AI产品安全测试能力建设,不限于:测试数据集建设、安全大模型训练、自动化测试能力、自动化测试工具平台,实现自动化或半自动化AI安全测试。
3. 负责输出AI产品安全解决方案,调研大模型相关安全产品和技术方案,并推动产品落地。
4. 负责实施大模型相关业务安全渗透测试,保障大模型业务安全合规。
5. 对前沿AI安全攻防领域技术进行跟踪与分析,并结合公司AI业务场景,完善攻击验证能力与防御策略。
6. 开展AI产品安全培训,培养部门内部AI安全测试能力,提升产品线AI安全意识。
任职要求
1. 计算机科学、信息技术、网络安全或相关专业本科及以上学历。
2. 至少3年以上网络安全行业经验,且具有2年以上大模型安全攻防相关领域工作经验,熟悉国内外AI安全技术要求、测试标准、测试方法。
3. 具备丰富的网络安全攻防经验,至少深入Windows\Android\Web\云安全中的一个技术方向。
4. 在LLM安全(提示注入、对抗样本、模型后门、防投毒攻击、模型窃取等)方向有一定实战积累,了解LLM对齐,鲁棒训练等安全防护策略。
5. 熟悉AI技术和大模型产品的技术原理,具备语料清洗、大模型训练、微调、部署能力,有大模型开发经验优先。
6. 熟练掌握至少一种编程语言,如Python、C++、Java等,具有较强的coding能力。
7. 具备出色的沟通和协调能力,能够与不同部门和团队建立良好的工作关系。
8. 具备良好的英语读写能力,能够阅读和理解英文技术文档,与国际团队进行有效沟通。
9. 有大模型开发经验优先拥有CISSP、CISM、CISA等安全行业认证证书优先。