DEVELOP WEBSITE & MOBILE APPLICATION PLATFORMS FOR ALL

เคยสงสัยกันไหมคะว่า เทคโนโลยี AI ที่เราใช้กันอยู่ทุกวัน อาจมีด้านที่ไม่ดีซ่อนอยู่ด้วย? ไม่ว่าจะเป็นปัญหาเรื่องการละเมิดความเป็นส่วนตัว ไปจนถึงการแพร่กระจายของข้อมูลเท็จ ทั้งหมดนี้ล้วนเป็นส่วนหนึ่งของ “มุมมืดของการใช้ AI ในทางที่ผิด” ที่เราควรทำความเข้าใจ ในบทความนี้ Launch Platform จะพาคุณไปสำรวจตัวอย่างที่เกิดขึ้นจริงเกี่ยวกับการนำ AI ไปใช้ในทางที่ไม่เหมาะสม เพื่อให้เห็นภาพชัดเจนและเข้าใจถึงความเสี่ยงที่อาจเกิดขึ้น ไปดูพร้อมเลยค่ะ

กดเลือกอ่านหัวข้อที่คุณสนใจ

รวม 4 ตัวอย่างมุมมืดของการใช้ AI ในทางที่ผิด

หลายครั้งที่เราได้ยินแต่เรื่องราวความสำเร็จของ AI แต่ในอีกมุมหนึ่ง ก็ยังมีการนำเทคโนโลยีนี้ไปใช้ในทางที่ไม่เหมาะสม หรือที่เรียกว่า มุมมืดของการใช้ AI ในทางที่ผิด เพื่อหลีกเลี่ยงผลกระทบที่อาจเกิดขึ้นในอนาคต เราจำเป็นต้องเรียนรู้และเข้าใจข้อผิดพลาดจากกรณีที่เคยเกิดขึ้นจริงในช่วงที่ผ่านมา เพราะสิ่งเหล่านี้อาจกลายเป็นบทเรียนสำคัญในการใช้งาน AI อย่างปลอดภัยและมีความรับผิดชอบมากขึ้นค่ะ

ขอบคุณวิดีโอจาก : VOICE TV

1. การแพร่กระจายภาพลามกปลอมของ Taylor Swift

ในปี 2024 ที่ผ่านมา ภาพลามกอนาจารของ Taylor Swift ที่สร้างขึ้นโดยใช้เทคโนโลยี Deepfake ซึ่งเป็นรูปแบบหนึ่งของ AI ได้ถูกเผยแพร่บนโลกออนไลน์ ทำให้เธอตกเป็นเหยื่อของการใช้ AI ในทางที่ผิด ข่าวนี้เป็นอีกหนึ่งตัวอย่างที่ชัดเจนของการใช้เทคโนโลยี AI ในทางที่ผิด เพื่อสร้างเนื้อหาที่ไม่เหมาะสมและเป็นการละเมิดสิทธิส่วนบุคคล ส่งผลให้เกิดกระแสเรียกร้องให้มีกฎหมายควบคุมการใช้ AI ในการสร้างเนื้อหาลามกปลอมค่ะ

สำหรับในกรณีนี้การใช้ AI สร้างภาพลามกอนาจารปลอมของ Taylor Swift เรียกได้ว่าเป็นมุมมืดของการใช้ AI ในทางที่ผิดมาก ๆ เพราะเป็นการละเมิดสิทธิส่วนบุคคลอย่างร้ายแรง ก่อให้เกิดความเสียหายทางจิตใจและชื่อเสียงจากการสร้างและเผยแพร่เนื้อหาที่ไม่เหมาะสมโดยไม่ได้รับความยินยอม และทำให้เห็นถึงความจำเป็นในการมีกฎหมายควบคุมการใช้ AI ในลักษณะนี้อย่างเร่งด่วน เพื่อป้องกันผลกระทบทางจิตใจต่อเหยื่อและการขาดการคุ้มครองทางกฎหมายที่เพียงพอค่ะ

บทความที่เกี่ยวข้อง : Ethics in AI คืออะไร ทำไมเราควรให้ความสำคัญกับจริยธรรม AI

2. Deepfake ปลอมภาพและเสียง หลอกให้โอนเงิน

พนักงานฝ่ายการเงินของบริษัทข้ามชาติในฮ่องกงถูกหลอกให้โอนเงิน 25 ล้านดอลลาร์สหรัฐ ให้กับมิจฉาชีพ โดยคนร้ายใช้เทคโนโลยี Deepfake สร้างภาพและเสียงปลอมของประธานเจ้าหน้าที่ฝ่ายการเงิน (CFO) และเพื่อนร่วมงานอื่น ๆ ในการประชุมทางวิดีโอคอล ทำให้พนักงานเชื่อว่าทุกคนที่เข้าร่วมประชุมเป็นบุคคลจริงและหลงเชื่อโอนเงินในที่สุด กลโกงนี้ถูกค้นพบเมื่อพนักงานตรวจสอบกับสำนักงานใหญ่ของบริษัทค่ะ

เคสการใช้ AI ในทางที่ผิด

ในกรณีของข่าวนี้การใช้เทคโนโลยี Deepfake นั้นสามารถสร้างภาพปลอมเป็นคนอื่นได้เหมือนจริงมาก ๆ จนหลอกได้แม้กระทั่งคนที่รู้จักกันดีและความน่ากลัวกว่านั้นก็คือคนร้ายไม่ได้แค่สร้างภาพหรือเสียงปลอมคนเดียว แต่สร้างสถานการณ์จำลองการประชุมวิดีโอที่มีคนเข้าร่วมหลายคนเป็นของปลอมทั้งหมด ทำให้เหยื่อเชื่อสนิทใจแล้วโดนหลอกเอาเงินไปเยอะมาก เรื่องนี้ทำให้เห็นว่า AI เก่งในการสร้างเรื่องหลอกลวงที่ซับซ้อนและเนียนมาก จนเราดูด้วยตาหรือแค่คุ้นเคยก็อาจจะจับผิดไม่ได้เลยค่ะ

3. หญิงฝรั่งเศสถูกหลอก มิจฉาชีพใช้ AI ปลอมเป็น แบรด พิตต์ สูญเงินกว่า 29 ล้านบาท

หญิงชาวฝรั่งเศสชื่อ Anne ตกเป็นเหยื่อมิจฉาชีพที่ปลอมตัวเป็นนักแสดงชื่อดัง "แบรด พิตต์" ผ่านการติดต่อทางออนไลน์ คนร้ายอ้างว่ากำลังประสบปัญหาทางการเงินและต้องการเงินช่วยเหลือค่ารักษาโรคมะเร็ง พร้อมแนบรูปภาพที่สร้างขึ้นจาก AI เพื่อเพิ่มความน่าเชื่อถือ ทำให้ Anne หลงเชื่อและโอนเงินให้ถึง 830,000 ยูโร หรือประมาณ 29 ล้านบาท ซึ่งเป็นเงินเก็บทั้งหมดของเธอ แต่พอความจริงเปิดเผยก็ทำให้เธอต้องเผชิญกับกระแสเยาะเย้ยในสังคมออนไลน์อย่างหนักค่ะ

เคสนี้ถือเป็นอีกหนึ่งตัวอย่างที่สะท้อนถึงมุมมืดของการใช้ AI ในทางที่ผิด โดยการนำ AI มาใช้สร้างหลักฐานเท็จที่แนบเนียนเพื่อหลอกลวงเหยื่อให้เชื่อถือเรื่องราวที่สร้างขึ้น ในกรณีนี้ คนร้ายใช้ภาพที่สร้างด้วย AI ของ แบรด พิตต์ ในสภาพป่วยบนเตียงโรงพยาบาล เพื่อตอกย้ำคำโกหกเรื่องค่ารักษาพยาบาล ทำให้เหยื่อที่อาจจะเริ่มสงสัยคล้อยตามและโอนเงินให้ แสดงให้เห็นว่า AI สามารถถูกนำมาใช้เพื่อสร้างความน่าเชื่อถือให้กับกลลวงได้อย่างมีประสิทธิภาพ ซึ่งถือเป็นภัยคุกคามที่ร้ายแรงมาก ๆ ต่อความปลอดภัยทางการเงินของคนในสังคมค่ะ

เป็นอย่างไรเมื่อมีคนใช้ AI ผิดกฎหมาย

4. ขายภาพลามกที่สร้างจาก AI ในญี่ปุ่น

ในกรณีของเคสนี้ตำรวจญี่ปุ่นได้จับกุมผู้ต้องหา 4 คน ฐานขายภาพลามกอนาจารที่สร้างจาก AI ฟรี โดยสร้างภาพผู้หญิงเปลือยที่ไม่มีอยู่จริง และขายโปสเตอร์เหล่านั้นทางออนไลน์ในราคาหลายพันเยน ทำให้เข้าข่ายผิดกฎหมายเกี่ยวกับเนื้อหาลามกอนาจารค่ะ

ซึ่งมุมมืดของการใช้ AI ในทางที่ผิดจากข่าวนี้ คือการที่ใช้ AI สร้างเนื้อหาลามกอนาจารที่ไร้ตัวตนจริงเพื่อแสวงหาผลกำไร ซึ่งแสดงให้เห็นถึงศักยภาพของ AI ในการสร้างและเผยแพร่สื่อที่ไม่เหมาะสมและอาจนำไปสู่การสร้าง Deepfake ที่เป็นอันตรายต่อบุคคลจริงในอนาคต ถึงแม้ภาพจะไม่ใช่บุคคลจริง แต่การผลิตและจำหน่ายสื่อลามกโดยใช้เทคโนโลยีนี้ก็ยังคงเป็นปัญหาด้านศีลธรรมและกฎหมาย และสะท้อนถึงความเสี่ยงที่ AI จะถูกนำไปใช้ในทางที่ผิด เพื่อสร้างความเสียหายและแสวงหาประโยชน์ที่ไม่ถูกต้องได้ค่ะ

สรุป

แม้ว่าเทคโนโลยี AI จะช่วยให้ชีวิตของเราสะดวกสบายและมีประสิทธิภาพมากขึ้น แต่ก็ไม่สามารถปฏิเสธได้ว่า AI ก็มีด้านมืดที่อาจส่งผลกระทบทั้งในด้านสังคมและความเป็นส่วนตัว การรับมือกับมันจึงต้องใช้ความระมัดระวังมาก ๆ เลยค่ะ และควรมีมาตรการควบคุมที่ชัดเจนจากทุกภาคส่วน เพื่อให้เทคโนโลยีนี้สามารถใช้ได้อย่างปลอดภัยและเกิดประโยชน์สูงสุดค่ะ 

บทความอื่น ๆ ที่น่าสนใจ

ที่มาข้อมูล : 

  1. Nation Thailand : Taylor Swift's fans fight against the spread of deepfake images on social media

  2. CNN : Finance worker pays out $25 million after video call with deepfake ‘chief financial officer’

  3. BBC : AI Brad Pitt dupes French woman out of €830,000

  4. The Straits Times : Four arrested for sale of obscene AI images in first such Japan crackdown: Local media


16 May 2025
Tags :



Writer
LAUNCHPLATFORM
Content Writer

บทความแนะนำที่เกี่ยวกับบริการ