Author: ศศิประภา มิมาชา
ปัจจุบัน ปัญญาประดิษฐ์ (Artificial Intelligence: AI) เข้ามามีบทบาทในหลากหลายมิติของสังคม ทั้งด้านเศรษฐกิจ การสื่อสาร การศึกษา และการเมือง โดยเฉพาะเทคโนโลยีปัญญาประดิษฐ์เชิงรู้สร้าง (Generative AI) ที่สามารถสร้างข้อความ ภาพ เสียง และวิดีโอเสมือนจริงได้อย่างสมจริง เทคโนโลยีดังกล่าวช่วยเพิ่มประสิทธิภาพในการทำงานและการสื่อสารอย่างมาก แต่ในขณะเดียวกันก็เปิดโอกาสให้เกิดการนำไปใช้ในทางที่ก่อให้เกิดความเสี่ยง เช่น การสร้างข้อมูลบิดเบือน (Disinformation) การปลอมแปลงตัวตน หรือการสร้างสื่อสังเคราะห์อย่างดีปเฟก (Deepfake) เพื่อชี้นำหรือบิดเบือนความเข้าใจของสาธารณะ
ด้วยเหตุนี้ หลายประเทศจึงเริ่มพัฒนากรอบกฎหมายและมาตรการกำกับดูแลการใช้ปัญญาประดิษฐ์ โดยเฉพาะในมิติของการกำกับดูแลสื่อและเนื้อหาดิจิทัล บทความนี้จึงมุ่งศึกษาการกำกับดูแลปัญญาประดิษฐ์ และดีปเฟกในมิติของสื่อและข้อมูลข่าวสาร โดยวิเคราะห์แนวทางการจัดการความเสี่ยง ความท้าทาย และแนวโน้มสำคัญของการพัฒนากฎหมายในต่างประเทศ เพื่อนำมาใช้เป็นบทเรียนสำหรับการพัฒนานโยบายของประเทศไทยในอนาคต
สหภาพยุโรป: การกำกับดูแลเนื้อหาดิจิทัลเชิงป้องกัน บนพื้นฐานของความเสี่ยง
แนวทางที่สหภาพยุโรปนำมาใช้วางกรอบกฎหมายเพื่อกำกับดูแลปัญญาประดิษฐ์ ผสานรวมกันระหว่างกฎหมายปัญญาประดิษฐ์ (AI Act) และกฎหมายบริการดิจิทัล (Digital Services Act: DSA) ซึ่งเป็นความพยายามกำกับดูแล ทั้งในส่วนของเอไอ และแพลตฟอร์มดิจิทัลไปพร้อมกัน
กฎหมายปัญญาประดิษฐ์ นำรูปแบบการกำกับดูแลตามระดับความเสี่ยงมาใช้ โดยกำหนดให้การใช้ระบบปัญญาประดิษฐ์เชิงรู้สร้าง (Generative AI) โดยเฉพาะอย่างยิ่งระบบที่สร้างสื่อสังเคราะห์ (Synthetic Media) เช่น ดีปเฟก (Deepfakes) จะต้องมีภาระหน้าที่เปิดเผยข้อมูลอย่างโปร่งใส เนื้อหาที่สร้างหรือดัดแปลงโดยปัญญาประดิษฐ์จะต้องได้รับการระบุอย่างชัดเจน หากมีแนวโน้มที่จะก่อให้เกิดความเข้าใจผิดแก่ผู้ใช้งาน แนวทางนี้สะท้อนถึงการเปลี่ยนผ่านสู่ “การกำกับดูแลเชิงป้องกัน” ซึ่งมุ่งเน้นการลดความเสี่ยงก่อนที่เนื้อหาดังกล่าวจะเผยแพร่ออกไปในวงกว้าง (European Parliament, 2024; European Commission, 2024)
ควบคู่ไปกับการบังคับใช้กฎหมายบริการดิจิทัล (Digital Services Act หรือ DSA) ในปี 2565 กฎหมายนี้วางกรอบการกำกับดูแลแพลตฟอร์มออนไลน์ โดยมีวัตถุประสงค์หลักในการบริหารจัดการ “ความเสี่ยงเชิงระบบ” (systemic risks) ภายในสภาพแวดล้อมดิจิทัล กำหนดให้แพลตฟอร์มดำเนินการประเมินความเสี่ยงที่เกี่ยวข้องกับการเผยแพร่ข้อมูลบิดเบือน การชักจูงทางข้อมูล รวมถึงผลกระทบจากอัลกอริทึมที่อาจส่งเสริมเนื้อหาที่เป็นอันตราย นอกจากนี้ ยังมีข้อกำหนดด้านความโปร่งใส การรายงาน และการตรวจสอบโดยอิสระ เพื่อยกระดับความรับผิดชอบของแพลตฟอร์มต่อระบบนิเวศข้อมูลโดยรวม
แม้ว่า DSA จะมิได้มุ่งเน้นการกำกับดูแลปัญญาประดิษฐ์โดยตรง แต่ก็มีบทบาทสำคัญในการจัดการผลกระทบของเอไอ โดยเฉพาะอย่างยิ่งในมิติของการเผยแพร่และขยายเนื้อหาที่สร้างขึ้นโดยระบบอัตโนมัติ
แบบจำลองของสหภาพยุโรปให้ความสำคัญกับความโปร่งใส ความสามารถในการตรวจสอบ และการบริหารจัดการความเสี่ยงเชิงระบบ ซึ่งเป็นกรอบการกำกับดูแลที่สำคัญต่อการจัดการปัญหาการบิดเบือนข้อมูลที่สร้างโดยเอไอ โดยเฉพาะในบริบททางการเมืองที่มีความละเอียดอ่อน
อย่างไรก็ตาม ความซับซ้อนของกฎระเบียบที่เกี่ยวข้องกับการบังคับใช้กฎหมายบริการดิจิทัล (Digital Services Act) และกฎหมายปัญญาประดิษฐ์ (AI Act) อาจส่งผลให้เกิดภาระในการปฏิบัติตามสำหรับผู้ประกอบการรายย่อย เนื่องจากกฎหมายของสหภาพยุโรปเป็นแบบจำลองการกำกับดูแลที่มีมาตรฐานสูง (High-standard regulatory model) ซึ่งกำหนดภาระหน้าที่ของผู้ประกอบการในหลายมิติ อาทิ การจำแนกความเสี่ยงของบัญชีผู้ใช้ การจัดทำรายงานความโปร่งใส และการตรวจสอบการทำงานของระบบและเนื้อหาบนแพลตฟอร์ม (Bradford, 2023; Veale, 2021)
สหรัฐอเมริกา: แนวทางแบบแยกส่วนและการคุ้มครองเสรีภาพในการแสดงออก
สหรัฐอเมริกาใช้รูปแบบการกำกับดูแลแบบแยกส่วน โดยยังไม่มีกฎหมายที่ครอบคลุมเกี่ยวกับปัญญาประดิษฐ์ในระดับรัฐบาลกลาง การกำกับดูแลจึงกระจายอยู่ตามหน่วยงานต่างๆ และผ่านกฎหมายระดับมลรัฐ แนวทางนี้ได้รับอิทธิพลอย่างมากจากการคุ้มครองเสรีภาพในการแสดงออกตามรัฐธรรมนูญ ซึ่งทำให้รัฐมีข้อจำกัดในการควบคุมเนื้อหาโดยตรง
ประเด็นสำคัญที่ถกเถียงอย่างกว้างขวางในยุคปัญญาประดิษฐ์ คือบทบาทของมาตรา 230 แห่งพระราชบัญญัติ Communications Decency Act (พ.ศ. 2539) ซึ่งเดิมมีเจตนารมณ์เพื่อคุ้มครองแพลตฟอร์มจากความรับผิดชอบต่อเนื้อหาที่สร้างโดยผู้ใช้ (user-generated content) หรือที่เรียกว่า “safe harbor”
อย่างไรก็ตาม การเกิดขึ้นของเอไอทำให้ขอบเขตระหว่าง “ผู้ให้บริการแพลตฟอร์ม” และ “ผู้สร้างเนื้อหา” เริ่มคลุมเครือมากขึ้น ฝ่ายหนึ่งเห็นว่ามาตรา 230 ไม่ควรนำมาใช้กับเนื้อหาที่สร้างโดยเอไอ เนื่องจากระบบไม่ได้ทำหน้าที่เป็นเพียงตัวกลางในแบบเดียวกับเสิร์ชเอนจิน แต่มีบทบาทสร้างและเรียบเรียงเนื้อหาใหม่ ซึ่งทำให้ผู้ให้บริการมีสถานะใกล้เคียงกับผู้ผลิตเนื้อหามากขึ้น ขณะที่อีกฝ่ายเห็นว่า หากลดทอนความคุ้มครองนี้ อาจส่งผลให้เกิดภาระทางกฎหมายและความเสี่ยงในการถูกฟ้องร้องเพิ่มขึ้น โดยเฉพาะอย่างยิ่งสำหรับผู้ประกอบการรายใหม่ และอาจส่งผลกระทบต่อการพัฒนาเทคโนโลยีโดยรวมได้
ข้อถกเถียงดังกล่าวยังคงดำเนินอยู่และยังไม่มีข้อสรุปที่ชัดเจน ซึ่งแสดงให้เห็นว่า กรอบกฎหมายที่มีอยู่ในปัจจุบันอาจไม่สอดคล้องกับระบบนิเวศของปัญญาประดิษฐ์ในยุคปัจจุบัน
ผลกระทบจากปัญญาประดิษฐ์ในภาคการเมืองและภาคธุรกิจ: กรณีศึกษา อเมริกา จีน และเกาหลีใต้
ปัญญาประดิษฐ์ไม่ได้ส่งผลเฉพาะในด้านเทคโนโลยีหรือเศรษฐกิจเท่านั้น แต่ยังกระทบต่อความมั่นคงทางการเมือง ความน่าเชื่อถือของข้อมูล และความเชื่อมั่นของสังคมในวงกว้าง โดยเฉพาะเมื่อเทคโนโลยีอย่างดีปเฟกและสื่อสังเคราะห์ถูกนำมาใช้ในบริบทที่อ่อนไหว เช่น การเลือกตั้ง การหลอกลวงทางการเงิน หรือการปลอมแปลงตัวตน ทำให้หลายประเทศเริ่มออกมาตรการเพื่อควบคุมและกำกับการใช้งานปัญญาประดิษฐ์มากขึ้น
กรณีศึกษาที่นำเสนอในส่วนนี้ประกอบด้วยสหรัฐอเมริกา จีน และเกาหลีใต้ ซึ่งสะท้อนแนวทางการกำกับดูแลที่แตกต่างกันตามบริบททางการเมืองและกฎหมายของแต่ละประเทศ โดยเฉพาะสหรัฐอเมริกาและจีนที่ถือเป็นประเทศผู้นำด้านการพัฒนาปัญญาประดิษฐ์ และเป็นคู่แข่งสำคัญด้านเทคโนโลยีของโลก แม้ทั้งสองประเทศจะมีบทบาทในการผลักดันนวัตกรรมปัญญาประดิษฐ์ แต่ก็ยังต้องเผชิญกับผลกระทบจากการใช้งานเทคโนโลยีดังกล่าว และจำเป็นต้องพัฒนามาตรการกำกับดูแลเพื่อรับมือกับความเสี่ยงที่เกิดขึ้น ขณะที่เกาหลีใต้เป็นตัวอย่างของประเทศในเอเชียที่ให้ความสำคัญกับการคุ้มครองกระบวนการเลือกตั้งและการจัดการความเสี่ยงจากสื่อสังเคราะห์อย่างจริงจัง
กรณีศึกษาที่ I: สหรัฐอเมริกา กับการกำกับดูแลเชิงคาดการณ์ในบริบทของการเลือกตั้ง
สหรัฐอเมริกาเป็นตัวอย่างที่ชัดเจนว่า การออกกฎหมายเกี่ยวกับเทคโนโลยีดีปเฟก มิได้รอให้เกิดปัญหาใหญ่ก่อน แต่เริ่มต้นจาก “ความกังวลล่วงหน้า” โดยเฉพาะอย่างยิ่งในช่วงก่อนการเลือกตั้งปี 2020 ซึ่งเตือนว่าสื่อที่สร้างโดยเอไออาจถูกนำมาใช้เพื่อชี้นำความคิดของผู้มีสิทธิเลือกตั้ง เช่น การเผยแพร่วิดีโอปลอมในช่วงใกล้การเลือกตั้งที่ประชาชนอาจไม่มีเวลาตรวจสอบข้อเท็จจริง (Persily, 2020)
เพื่อลดความเสี่ยงดังกล่าว หลายรัฐออกกฎหมายจำกัดการใช้เทคโนโลยีดีปเฟกในบริบททางการเมืองช่วงการเลือกตั้ง ในขณะที่หน่วยงานระดับรัฐบาลกลางยังคงมุ่งเน้นมาตรการทางเทคนิค เช่น การติดลายน้ำ (watermarking) และการยืนยันแหล่งที่มาของเนื้อหา มากกว่าการออกกฎหมายควบคุมโดยตรง (White House, 2023)
ในการเลือกตั้งปี 2024 สหรัฐอเมริกาเริ่มเผชิญกับผลกระทบที่ชัดเจนยิ่งขึ้น เช่น กรณี “robocall” ที่ใช้ปัญญาประดิษฐ์ (AI) ปลอมแปลงเสียงของประธานาธิบดีโจ ไบเดน เพื่อโทรศัพท์หาผู้มีสิทธิเลือกตั้งในมลรัฐนิวแฮมป์เชียร์ โดยมีเนื้อหาที่แนะนำให้ “งดเว้นการลงคะแนนเสียง” ซึ่งถือเป็นตัวอย่างแรกๆ ของการนำเอไอมาใช้เพื่อแทรกแซงกระบวนการเลือกตั้งโดยตรง
ในขณะเดียวกัน ยังเกิดปรากฏการณ์ที่เรียกว่า “liar’s dividend” ซึ่งนักการเมืองอาจอ้างว่า “คลิปนี้เป็นเอไอปลอม” เพื่อปฏิเสธความรับผิดชอ แม้ในบางกรณีจะเป็นเรื่องจริง เหตุการณ์เหล่านี้นำไปสู่แรงกดดันในการออกกฎหมายเพิ่มเติม เช่น การกำหนดความผิดสำหรับการใช้เอไอสร้างภาพอนาจารปลอม และการห้ามใช้เทคโนโลยีดีปเฟกเพื่อรบกวนการเลือกตั้งในช่วงก่อนวันลงคะแนนเสียง
ภาพรวมสะท้อนแนวทาง –ระวังไว้ก่อน แทรกแซงเท่าที่จำเป็น–- ซึ่งได้รับอิทธิพลจากหลักเสรีภาพในการแสดงออก ส่งผลให้กฎหมายยังคงมีขอบเขตจำกัดและเฉพาะบริบท ข้อดีคือสามารถตอบสนองได้อย่างรวดเร็วในบางกรณี แต่ข้อจำกัดคือ กฎหมายมีลักษณะกระจัดกระจาย ทำให้การรับมือกับปัญหาในภาพรวมยังไม่เต็มประสิทธิภาพ (Chesney, 2019)
กรณีศึกษาที่ II: จีน — การกำกับดูแลเชิงป้องกันแบบรัฐเป็นศูนย์กลาง
ประเทศจีนมีแนวทางที่แตกต่างออกไป โดยมองว่าปัญญาประดิษฐ์และสื่อสังเคราะห์เป็นความเสี่ยงต่อความมั่นคงและความสงบเรียบร้อยของสังคม
ในช่วงที่ผ่านมา มีกรณีอาชญากรรมที่เกี่ยวข้องกับการใช้เอไอเพิ่มขึ้นอย่างต่อเนื่อง เช่น การปลอมแปลงเสียงเพื่อหลอกลวงให้โอนเงิน และการใช้เทคโนโลยีดีปเฟก (deepfake) ในการสนทนาผ่านวิดีโอคอลเพื่อแอบอ้างตัวบุคคล โดยในปี 2024 ได้เกิดกรณีในฮ่องกงที่พนักงานบริษัทถูกหลอกให้โอนเงินจำนวนมหาศาล ภายหลังจากการเข้าร่วมการประชุมออนไลน์ที่ผู้เข้าร่วมทั้งหมดเป็นภาพดีปเฟก อีกตัวอย่างหนึ่งคือแอปพลิเคชันเปลี่ยนใบหน้า (face-swapping) ที่นำใบหน้าของบุคคลไปใช้โดยไม่ได้รับความยินยอม เพื่อวัตถุประสงค์ทางการค้าหรือการหลอกลวง เพื่อแก้ไขปัญหาดังกล่าว ทางการจีนได้ออกระเบียบควบคุมเทคโนโลยีดีปซินเธซิส (Deep Synthesis) ซึ่งกำหนดให้ระบุแหล่งที่มาของเนื้อหาที่สร้างโดยเอไอ กำหนดข้อบังคับในการยืนยันตัวตน และบูรณาการกลไกการปฏิบัติตามกฎหมายเข้ากับโครงสร้างพื้นฐานของแพลตฟอร์ม (Heather Chen., 2024) (China Law Translate, 2022)
แนวทางนี้ถือเป็นการควบคุมตั้งแต่ต้นทาง โดยฝังข้อกำหนดทางกฎหมายไว้ในระบบของแพลตฟอร์มก่อนที่เนื้อหาจะถูกเผยแพร่ ข้อดีคือสามารถบริหารจัดการความเสี่ยงได้อย่างรวดเร็วและมีประสิทธิภาพ อย่างไรก็ตาม ยังคงมีข้อกังวลเกี่ยวกับเสรีภาพในการแสดงออกและการใช้อำนาจรัฐเกินขอบเขต ทั้งนี้ กรณีของจีนได้แสดงให้เห็นถึงความเป็นไปได้ในการบังคับใช้กฎหมายเฉพาะสำหรับเทคโนโลยีในทางปฏิบัติ
กรณีศึกษาที่ III: เกาหลีใต้ — มาตรการคุ้มครองการเลือกตั้งแบบมุ่งเป้า
กรณีของเกาหลีใต้เป็นตัวอย่างล่าสุดของการปฏิรูปกฎหมายที่มีเป้าหมายเฉพาะเจาะจง โดยมุ่งเน้นไปที่การเลือกตั้ง เพื่อลดความเสี่ยงจากเนื้อหาทางการเมืองที่สร้างโดยปัญญาประดิษฐ์ความกังวลเกี่ยวกับสื่อสังเคราะห์ที่มีความสมจริงมากขึ้น
ในช่วงการเลือกตั้งปี 2022 และ 2024 มีการสร้าง “เอไอตัวแทน” ของผู้สมัครรับเลือกตั้งขึ้นมาเพื่อตอบคำถามประชาชน แม้ในช่วงแรกจะดูสร้างสรรค์ แต่ต่อมาเริ่มมีวิดีโอดีปเฟกที่ทำให้ผู้สมัครดูเหมือนกำลังกล่าวถ้อยคำดูหมิ่นผู้อื่นหรือแสดงพฤติกรรมที่ไม่เหมาะสม สถานการณ์ดังกล่าวนำไปสู่การแก้ไขกฎหมายการเลือกตั้งสมาชิกสภาผู้แทนราษฎรและสมาชิกวุฒิสภา (Public Official Election Act) ที่กำหนดให้การเผยแพร่ดีปเฟกที่มีเจตนาร้ายในช่วง 90 วันก่อนการเลือกตั้งเป็นความผิดทางอาญา (Kim, 2023)
แนวทางดังกล่าวสะท้อนถึงการดำเนินการเชิงป้องกันในช่วงเวลาที่สำคัญยิ่ง เพื่อธำรงไว้ซึ่งความน่าเชื่อถือของกระบวนการเลือกตั้ง อย่างไรก็ตาม ความท้าทายสำคัญประการหนึ่งคือการจำแนกความแตกต่างระหว่าง “การแสดงออกเชิงล้อเลียน” กับ “การบิดเบือนข้อมูลที่เป็นอันตราย” ซึ่งในทางปฏิบัติยังคงขาดความชัดเจน และอาจส่งผลให้การบังคับใช้กฎหมายมีความซับซ้อนยิ่งขึ้น
จากกรณีศึกษาเหล่านี้ สามารถสรุปรูปแบบความพยายามกำกับดูแลเอไอได้ 3 ประการ:
- แรงผลักดันทางกฎหมาย: การริเริ่มทางกฎหมายมักไม่ได้มีสาเหตุหลักมาจากความเสียหายขนาดใหญ่ที่เกิดขึ้นแล้ว หากแต่เกิดจากการประเมิน “ความเสี่ยงที่คาดการณ์ได้” และความกังวลเชิงนโยบายล่วงหน้า อย่างไรก็ตาม เหตุการณ์ที่เกิดขึ้นจริงในช่วงที่ผ่านมา เช่น การใช้ปัญญาประดิษฐ์แทรกแซงการเลือกตั้ง หรือการฉ้อโกงด้วยเทคโนโลยีดีปเฟก ได้ยืนยันการมีอยู่จริงของความเสี่ยงเหล่านี้และเห็นได้ถึงศักยภาพในการก่อให้เกิดผลกระทบต่อสังคม
- โครงสร้างการกำกับดูแลที่แตกต่างกัน: รูปแบบการกำกับดูแลมีความหลากหลายตามบริบททางการเมืองและสถาบัน โดยมีตัวอย่างดังนี้ สหรัฐอเมริกาใช้แนวทางแบบแยกส่วน โดยเน้นการคุ้มครองสิทธิและเสรีภาพ จีนบังคับใช้การกำกับดูแลเชิงป้องกันแบบรวมศูนย์ โดยรัฐมีบทบาทสำคัญ เกาหลีใต้มุ่งเน้นการออกกฎหมายเฉพาะจุด โดยมีวัตถุประสงค์เพื่อคุ้มครองกระบวนการเลือกตั้ง
- จุดร่วมเชิงนโยบาย: แม้ว่ารูปแบบการกำกับดูแลจะแตกต่างกัน แต่ทุกประเทศเริ่มนำเครื่องมือที่คล้ายคลึงกันมาใช้ ได้แก่ 1) การติดป้ายกำกับเนื้อหาที่สร้างโดยเอไอ 2) การกำหนดความรับผิดชอบสำหรับการใช้เอไอในทางที่ก่อให้เกิดอันตราย 3) การแทรกแซงบนพื้นฐานของระดับความเสี่ยง โดยเฉพาะในช่วงเวลาที่มีความอ่อนไหว เช่น การเลือกตั้ง
กรณีศึกษาเหล่านี้ชี้ให้เห็นถึงช่องว่างที่สำคัญ เนื่องจากประเทศไทยยังขาดทั้งมาตรการป้องกันเชิงรุกในช่วงเวลาที่มีความเสี่ยงสูง และระบบการประสานงานที่มีประสิทธิภาพในการตอบสนองต่อการบิดเบือนข้อมูลที่ขับเคลื่อนด้วยเอไอได้อย่างรวดเร็ว
ช่องว่างดังกล่าวไม่เพียงแต่เป็นปัญหาทางกฎหมายเท่านั้น แต่ยังเป็นข้อจำกัดเชิงโครงสร้างของระบบการกำกับดูแลโดยรวม ซึ่งยังคงอาศัยการตอบสนองภายหลังเหตุการณ์เป็นหลัก ในบริบทที่ข้อมูลสามารถถูกสร้างและเผยแพร่ได้อย่างรวดเร็วผ่านเทคโนโลยีเอไอ การขาดกลไกเชิงป้องกันและการประสานงานเชิงระบบ จึงอาจยิ่งเพิ่มความเสี่ยงต่อเสถียรภาพทางสังคมและการเมือง
References
- China Law Translate. (2022, December 11). Provisions on the Administration of Deep Synthesis Internet Information Services. Retrieved from China Law Translate: https://www.chinalawtranslate.com/en/deep-synthesis/
- Bradford, A. (2023). Digital Empires. The Global Battle to Regulate Technology. New York: Oxford University Press.
- Chesney, R. C. (2019). Deep fakes: A looming challenge for privacy, democracy, and national security. California Law Review, 107, 1753-1782.
- Creemers, R. (2022). China’s deep synthesis provisions: The first step in regulating generative AI? DigiChina. Stanford University. doi:https://digichina.stanford.edu/
- European Commission. (2024). The Digital Services Act: Ensuring a safe and accountable online environment. Retrieved from https://digital-strategy.ec.europa.eu/en/policies/digital-services-act
- European Parliament. (2024). Artificial Intelligence Act: EU authorities agree on landmark rules for AI. Retrieved from https://www.europarl.europa.eu/news/en/press-room/20240308IPR19015/artificial-intelligence-act-meps-adopt-landmark-law
- Floridi, L. C. (2018). AI4People—An ethical framework for a good AI society: Opportunities, risks, principles, and recommendations. Minds and Machines, 28(4), 689-707.
- George, C. (2020). Air-conditioned nation revisited: Essays on Singapore politics. Ethos Books.
- Hacker, P. (2024). The European AI Act and the UK Online Safety Act: A comparative analysis of systemic risk regulation. International Journal of Law and Information Technology, 32(1), 15-38.
- Heather Chen., K. M. (2024, February 4). Finance worker pays out $25 million after video call with deepfake ‘chief financial officer’. Retrieved from CNN World: https://edition.cnn.com/2024/02/04/asia/deepfake-cfo-scam-hong-kong-intl-hnk
- Human Rights Watch. (2020). Thailand: Computer Crime Act being used to silence critics.
- Kim, S. (2023). Targeted electoral safeguards in the age of AI: The case of South Korea. Journal of East Asian Studies, 45-67.
- Persily, N. (2020). The platform ideology. Journal of Democracy.
- Secretary of State for Science, Innovation and Technology. (2024). A pro-innovation approach to AI regulation: Amended government response. HM Government.
- Tan, N. (2021). Disinformation and the law: POFMA and the regulation of free speech in Singapore. Asian Journal of Comparative Law, 1-22.
- Veale, M. &. (2021). Demystifying the Draft AI Act: Analysing the law, politics and safeguards of the European Commission’s proposed AI regulation. Computer Law Review International, 22(4), 97-112.
- Wagner, B. (2021). Global governance of AI: Mapping the policy landscape. Oxford University Press.
- White House. (2023, October 30). Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence. Executive Office of the President.


























