เลือกภาษา
close
How to จับผิด เมื่อมิจฉาชีพใช้ AI
เคล็ด (ไม่) ลับ น่ารู้ - พรูเด็นเชียล ประกันชีวิต

How to จับผิด เมื่อมิจฉาชีพใช้ AI ลวง หน้า-เสียง เหมือน แต่อาจไม่ใช่ตัวจริง

แม้จะมีการแจ้งเตือนและปราบปรามจากภาครัฐอย่างต่อเนื่อง เพื่อไม่ให้ประชาชนตกเป็นเหยื่อของพวกมิจฉาชีพ แต่ทุกวันนี้เรายังคงได้รับสายจาก แก๊งคอลเซ็นเตอร์ที่โทรมาหลอกลวง และยังมีรูปแบบ เทคนิคกลโกงใหม่ ๆ เพื่อสร้างความน่าเชื่อถือ ทำให้หลายคนหลงเชื่อ ตกเป็นเหยื่อ และสูญเงินเป็นจำนวนไม่น้อย ข้อมูลจาก State of scam in Thailand 2024 โดย Whoscall และองค์กรต่อต้านกลโกงระดับโลก ปี 2567 พบว่า กว่า 60% ของคนไทย ได้รับข้อความหลอกลวง ที่สร้างโดย AI ไม่ว่าจะจากช่องทาง SMS หรือโซเชียลมีเดีย

 

กลโกงใหม่! สร้างโดย AI รู้ไว้ไม่เสียที

 

กลโกงใหม่! สร้างโดย AI รู้ไว้ไม่เสียที

  • การปลอมเสียง (Voice Cloning)

Voice Cloning คือ การใช้ AI เพื่อเลียนแบบเสียงของบุคคลหนึ่ง ๆ ให้เหมือนจริง โดยใช้ตัวอย่างเสียงเพียงไม่กี่วินาที AI สามารถสร้างเสียงพูดของบุคคลนั้นขึ้นใหม่ ซึ่งมิจฉาชีพใช้เทคนิคนี้ในการแอบอ้างเป็นคนในครอบครัว ญาติ เพื่อน คนรู้จัก คนในที่ทำงาน หรือบุคคลที่มีชื่อเสียงน่าเชื่อถือ เพื่อให้เหยื่อหลงเชื่อและคล้อยตาม โดยจะหลอกขอความช่วยเหลือ เช่น โอนเงิน หรือให้ข้อมูลสำคัญต่าง ๆ เป็นต้น

  • การปลอมภาพและวิดีโอ (AI Deepfake)

AI Deepfake คือ เทคโนโลยีที่ใช้ AI สร้างภาพหรือวิดีโอปลอมที่ดูเหมือนจริงอย่างมาก โดยสามารถสร้างสื่อสังเคราะห์ ทั้งภาพนิ่ง เสียง ภาพเคลื่อนไหวพร้อมเสียง ที่เหมือนเป็นคนมาพูดคุยจริง ๆ จนแทบแยกไม่ออก ด้วยระบบการเรียนรู้ (Deep Learning) จากลักษณะภายนอกของบุคคล หรือใช้โปรแกรม Face Swap สลับสับเปลี่ยนหน้าตา จึงทำให้การสร้างภาพและเสียงมีความเหมือนราวกับว่า คน ๆ นั้นเป็นคนพูดจริง ๆ มิจฉาชีพจึงใช้เทคนิคนี้ในการสร้างภาพหรือวิดีโอเพื่อหลอกลวง เช่น ปลอมเป็นผู้มีชื่อเสียง หรือเจ้าหน้าที่ของรัฐ เพื่อทำให้ตกใจกลัว และหลอกให้โอนเงินไปเพื่อตรวจสอบ หลอกยืมเงิน หรือทำวิดีโอปลอมเพื่อแบล็กเมลเหยื่อ เป็นต้น

 

ตัวจริงหรือ AI จับพิรุธยังไง ไม่ให้โดนมิจฉาชีพหลอก

 

สังเกตและเอะใจ จะได้ไม่โดนมิจฉาชีพใช้ AI มาหลอก

จับจุดสังเกตเหล่านี้ให้ดี! เมื่อเราไม่แน่ใจว่าปลายสายหรือคลิปที่เห็นนี้เป็นคนจริง หรือ AI ลองดูข้อสังเกตเหล่านี้ที่มิจฉาชีพมักจะใช้บ่อย ๆ เช่น

  1. โทรมาไม่พูด ปล่อยให้เราพูดคนเดียว แล้ววางสายไป อาจเป็นสัญญาณไม่ดี ที่เราอาจจะโดนอัดเสียง เพื่อนำเสียงไปให้ AI ลอกเลียนแบบ แล้วนำไปหลอกคนใกล้ชิด หรือครอบครัว

  2. ปลายสาย เสียงเหมือนคนรู้จัก แต่ใช้เบอร์แปลกโทรมา หรืออ้างว่าเปลี่ยนเบอร์ใหม่ ให้สงสัยไว้ก่อนเลยว่ามิจฉาชีพแน่นอน

  3. พูดเรื่องประเด็นเงิน ๆ ทอง ๆ มาก่อนเรื่องอื่น หรือสร้างสถานการณ์ที่ต้องการเงินด่วน ปิดท้ายด้วยการขอยืมเงิน

  4. มักพูดประโยคสุดคลาสสิก “จำเราได้ไหม?” เพื่อให้เหยื่อเดา และพูดชื่อคนรู้จักออกมา แล้วมิจฉาชีพก็จะสวมรอยเป็นคนรู้จักทันที หากเหยื่อคล้อยตามก็จะชวนคุย และโน้มน้าวให้โอนเงิน

  5. เมื่อมีเจ้าหน้าที่ตำรวจใส่เครื่องแบบเต็มยศ โทรหรือวีดีโอคอลมาแจ้งข้อกล่าวหา สอบปากคำทางไลน์ และให้โอนเงินมาตรวจสอบว่าผิดกฎหมาย หรือให้โอนเงินทุกกรณี สงสัยไว้เลยว่าเป็นมิจฉาชีพ

  6. เสียงจาก AI มักจะเว้นวรรคคำพูดผิดเพี้ยน ไม่มีจังหวะหายใจ ใช้คำพูดแปลก ๆ น้ำเสียงราบเรียบ ไม่มีการเน้นน้ำหนักเสียง ใช้คำพูดฟุ่มเฟือย พูดคำศัพท์เฉพาะไม่ค่อยชัด บางคำออกเสียงผิดเพี้ยน เป็นต้น

  7. ใบหน้าจาก AI มักดูไม่เป็นธรรมชาติ ใบหน้าผิดสัดส่วนเมื่อหันซ้าย-ขวา ขยับปากไม่ตรงจังหวะ สีผิวไม่สม่ำเสมอ มักอ่อนหรือเข้มเป็นหย่อม ๆ แสงเงาบริเวณผิวไม่สอดคล้องกับการเคลื่อนไหว และกระพริบตาถี่หรือน้อยเกินไป

 

ป้องกันอย่างไร ไม่ให้ตกเป็นเหยื่อ

  • อย่าเชื่อในทันที เมื่อได้รับสายจากคนที่อ้างว่าเป็นญาติหรือเพื่อน ควรกดวางสายแล้วตรวจสอบข้อมูลให้แน่ชัด

  • ควรมีรหัสลับ หรือข้อมูลที่รู้กันเฉพาะบุคคล เป็นคำถามเชิงลึกเพื่อยืนยันตัวตน เช่น วันเกิดของพ่อแม่ ชื่อสัตว์เลี้ยง ชื่อเล่นของพี่น้อง ชื่อโรงเรียนเดิม ชื่อสถานที่ทำงาน หรือตัดบทขอติดต่อกลับเอง เพื่อเปิดช่องให้ได้ตรวจสอบกับแหล่งข้อมูลหรือช่องทางอื่น ๆ ก่อน

  • ไม่รับสายเบอร์แปลก แต่ถ้าจำเป็นต้องรับสาย ควรปล่อยให้อีกฝ่ายพูดก่อน เพื่อป้องกันการถูกอัดเสียง หากได้ยินเสียงแล้วไม่ลื่นไหลเหมือนเสียงมนุษย์ ก็อาจจะตีความได้ว่ากำลังคุยกับ AI อยู่ ให้รีบกดวางสาย

  • หลีกเลี่ยงการแชร์ข้อมูลส่วนตัว ภาพ หรือวิดีโอ ซึ่งอาจถูกนำไปใช้โดยมิชอบ เช่น นำไปตัดต่อ ดัดแปลง ทำให้เกิดความเสียหาย และหลอกลวงผู้อื่น

  • ไม่ส่งข้อมูลทางการเงิน ผ่านทางโทรศัพท์หรือออนไลน์ หากไม่แน่ใจในความปลอดภัย

  • ตั้งสติ และตรวจสอบความถูกต้อง หากได้รับการติดต่อจากหน่วยงานของรัฐ หรือติดต่อเรื่องคดีความ เรื่องผิดกฎหมายต่าง ๆ ตั้งสติให้ดี อย่าตกใจ แล้วแจ้งว่าขอติดต่อกลับเอง รีบวางสาย ปรึกษากับครอบครัว และติดต่อกลับไปยังหน่วยงานหรือบุคคลที่เกี่ยวข้องผ่านช่องทางทางการที่เชื่อถือได้

  • ติดตามข่าวสาร และเรียนรู้เกี่ยวกับกลโกงรูปแบบใหม่ เพื่อเพิ่มความระมัดระวังในการป้องกันตนเอง

  • ตรวจสอบวิดีโอ deepfake เบื้องต้นได้ในเว็บไซต์ > https://scanner.deepware.ai/

  • ลองฝึกแยกภาพจริงกับภาพที่สร้างด้วย AI ได้บนเว็บไซต์ > https://detectfakes.media.mit.edu/

  • เช็กเว็บไซต์ปลอม เบอร์ต้องสงสัย บัญชีธนาคาร แจ้งเบาะแสออนไลน์ ได้ที่เว็บไซต์กองบัญชาการตำรวจสืบสวนสอบสวนอาชญากรรมทางเทคโนโลยี > https://www.checkgon.com/

 

เมื่อตกเป็นเหยื่อมิจฉาชีพต้องทำอย่างไร?

หากตกเป็นเหยื่อแก๊งคอลเซ็นเตอร์ สามารถแจ้งความได้ตลอด 24 ชั่วโมง โดยแจ้งความออนไลน์ได้ที่ กองบัญชาการตำรวจสืบสวนสอบสวนอาชญากรรมทางเทคโนโลยี (บช.สอท.) ที่เว็บไซต์ https://thaipoliceonline.go.th/ หรือ โทร. 1441 เพื่อให้เจ้าหน้าที่ตำรวจประสานงานไปยังธนาคารที่เกี่ยวข้องในการร่วมกันยับยั้งความเสียหายที่เกิดขึ้น และติดตามผู้ก่อเหตุได้รวดเร็วยิ่งขึ้น ทั้งนี้ หลังจากแจ้งความ และดำเนินการอายัดบัญชีเสร็จสิ้น สามารถติดตามการอัปเดตสถานะคดี และการดำเนินการ ทั้งจากธนาคารและตำรวจได้

 

อ้างอิง

ระวัง! ตร.แนะวิธีสังเกตมิจฉาชีพใช้ "AI" ปลอมเป็น "คน" แอบอ้างหลอกลวงเหยื่อ

มุกใหม่มิจฉาชีพ โทรไม่พูด อัดเสียงเรา เทรน AI ปลอมเสียงหลอกคนอื่น

วิธีจับผิด AI ไม่ให้โดนหลอก! อันไหนของจริง อันไหน AI ดูยังไง? รู้ทันมิจฉาชีพยุคเอไอ

ขั้นตอนที่ต้องทำ หากพลาดโอนเงินให้มิจฉาชีพ

เว็บไซต์บริการเช็กข้อมูลและแจ้งบัญชีต้องสงสัย