news-details
「深伪技术」成为诈骗集团的现代犯罪手法。(图 / shutterstock)

有别以往的眼见为凭,现在已不復见!「深伪技术」(Deepfake)的进步带来划时代意义,运用先进科技在电影拍摄还塬或改变演员容貌,能创作出更多元精采影视作品,然而,若遭不肖人士将此科技用于「诈骗」,对民众肖像隐私之人格权及财产法益,会是一大威胁。

早期,Deepfake专用于替换人脸的软体名称,以「自动生成编码器」的深度学习系统为基础,透过AI掌握对象特徵点,训练判别生成高度相似的脸孔影像或声音。

 

目前,Deepfake已成为利用深度生成技术,生成影像、声音、文字等多媒体内容的总称,包括脸部特徵变换、性别与年龄转换、图像风格转换。

 

深伪内容氾滥,成诈骗犯罪手法

近期,有诈骗方利用Deepfake影片来诈骗金钱、感情的案例,演变成另一场科技犯罪风暴。

 

案例中,一间外商公司的执行长,因接到英国母公司上司一通电话,要求他紧急将新臺币620万元匯至指定供应商帐户,而该执行长自认对上司声音相当熟悉,便不疑有它,随即派人转帐。

 

然而,上司声音是透过声音转换(Voice Conversion)技术伪造而成,单纯的「声音深伪」犯罪手法,对嫌犯而言更加容易,使民众降低戒心而上当受骗。

  • news-details
  • 深伪技术获取门槛变低,有更容易取得、伪造时间缩短的趋势。(图 / shutterstock)

拨打165,防深伪技术诈骗

随着近年来深度学习技术、模型技术的快速发展,大幅提升做出高仿真内容伪造的效能,深伪技术变得更容易取得、伪造时间缩短、技术获取门槛变低的趋势。

 

在AI时代中,民众遇到亲友或陌生人,以影片或电话请求借钱、威胁匯款等,应以其他方式联繫当事亲友,以多方联繫管道或拨打165反诈骗谘询专线查证,才能避免AI科技造成的危害或财产损失。

 

相关报导》

诈骗战场AI变脸、台湾六大诈骗知多少? 人人当学习「善」科技影响力

  • news-details
  • 拨打165反诈骗谘询专线查证,才能避免AI科技造成的危害或财产损失。(图 / 刑事局 提供)
分享
意见反应