第61章 挽回与警示

“怎么可能?我儿子的声音我还能听错?”一位老人不相信地说。

李飞播放了一段经过处理的案例录音:“请大家听一下这个。”

音箱里传出一个年轻男子的声音:“妈,我出车祸了,急需五万块钱交住院押金,千万别告诉我爸...”

台下一位老阿姨突然站起来:“这、这和我上个月接到的电话简直一模一样!当时我还真以为是儿子出事了!”

李飞点头道:“这就是AI语音模仿技术。骗子通过获取您子女的语音样本,能够模仿出非常相似的声音。但是,”他加重语气,“这种技术也有破绽。”

他继续讲解:“第一,这类诈骗通常发生在您子女确实不方便接电话的时间;第二,对方会强调事情紧急,要求立即转账;第三,通常会要求您保密,不让告诉其他人。”

周强补充道:“最重要的是,无论电话里的声音多么像,一定要通过您原来存的号码打回去确认,或者联系子女的同事、朋友核实。真正有急事,不会因为您多确认一遍就耽误了。”

老人们纷纷点头,有人拿出小本子认真记录。

“那我怎么知道手机那头是不是真是我儿子?”一位老人问。

“问一个只有您和儿子知道的问题,比如他小时候的趣事,或者家庭内部的昵称。”秦风建议道,“AI能模仿声音,但不知道这些私人信息。”

现场民警还发放了印有防范提示和紧急联系电话的小卡片,方便老人随身携带。

回到局里,特诈小组正在撰写结案报告。技术滥用风险分析部分由王媛主要负责。

“AI语音合成技术原本用于语音助手、有声读物、配音等行业,但现在被犯罪分子利用,成为了诈骗工具。”

王媛在报告中写道,“这类犯罪的危害性在于打破了传统的身份验证方式,受害人基于对熟悉声音的信任而放松警惕。”

报告提出了多项建议:加强对语音合成技术的监管,实行开发备案制;

应用程序商店加强对相关应用的审核;电信运营商监测异常通话模式;

金融机构对大额转账加强身份验证等。

小组内部也就此案展开了热烈讨论。