# 前言

长亭最近举办了一场 AI 大模型挑战赛,其中有 3 个大模型,5 道题目。目的是对话 ai,利用你能想到的方法让 ai 给出其真实的 flag。感觉非常有趣,就报名参加了,从上午 10 点一直写到晚上 7 点,也是 ak 了 ai 大模型。

# 白话

具体内容就不说太仔细了,题目分为:最强大脑 (1)、守护者三兄弟 (2-4) 和神秘模型 (5),难度依次递增。

# 最强大脑

随便问一下相关内容就能出来 flag,也是拿了个 2 血。

# 守护者三兄弟

v3 反而是我最先写出来的,通过询问敏感信息的限制条件出来了,拿了个 3 血。其他两兄弟就正常写了,通过话术还是能出来的。

# 神秘模型

这个是最难的,分数是其他模型的好几倍,我也是写很久。该模型主要会通过一个一个分支来判断你的问题,比如涉及到敏感字符就 false,没有就进下一个分支判断。通过长时间尝试,也是摸清了 ai 的判断机制,从而获得了 flag。悄悄说一下,是通过某个语言获得的。

# 话术

这里简单题几个思路
1、直接强行问 flag 相关的,不能太直接,要绕一下
2、给出问题让 AI 填补 (强制形状)
3、判断 AI 能否代码执行
4、利用错误的问题让 AI 纠正
5、不涉及敏感词旁敲侧击
等等

# 总结

这次比赛也是让我接触到了 AI 安全,更加了解了 AI 安全,如果 AI 没设置严格的过滤机制可能会泄露非常敏感的信息,甚至能执行代码。这就导致黑客有了可乘之机。

当今社会,人们已经离不开 AI,AI 也伴随人类社会的发展而不断发展。甚至涵盖社会的全部方面,都会利用到 AI。AI 安全已经与我们每个人息息相关,所以对 AI 进行安全测试就非常重要了。