อินโดนีเซียปิดกั้นการเข้าถึงแชทบอท AI Grok ของมัสก์ เนื่องจากภาพปลอมแปลง (deepfake) ↗
อินโดนีเซียสั่งระงับการใช้งาน Grok ชั่วคราว หลังจากพบว่ามีการนำไปใช้สร้างภาพปลอมแปลงทางเพศโดยไม่ได้รับความยินยอม ซึ่งรวมถึงภาพที่มุ่งเป้าไปที่ผู้หญิงและเด็ก รัฐบาลระบุว่านี่เป็นประเด็นด้านสิทธิมนุษยชนและความปลอดภัยสาธารณะ ไม่ใช่เพียงปัญหาทางเทคนิคเล็กน้อย.
จุดสำคัญคือ หากเครื่องมือใดสามารถ "เปลื้องผ้า" คนจริงๆ ได้ตามสั่ง ภาระการพิสูจน์ก็จะเปลี่ยนไป แพลตฟอร์มต่างๆ ต้องแสดงให้เห็นว่าพวกเขาสามารถป้องกันได้ ไม่ใช่แค่ให้คำมั่นว่ากำลังคิดถึงเรื่องนี้อยู่.
อีลอน มัสก์ กล่าวว่าสหราชอาณาจักรต้องการปราบปรามเสรีภาพในการแสดงออก ขณะที่ X กำลังเผชิญกับการถูกแบน ↗
รัฐมนตรีของสหราชอาณาจักรได้หยิบยกประเด็นเรื่องการปรับเงิน หรือแม้แต่การบล็อกโปรแกรม X ขึ้นมา หลังจากที่พบว่ามีการใช้ Grok ในการสร้างภาพอนาจารโดยไม่ได้รับความยินยอม อีลอน มัสก์ ได้ออกมาโต้แย้งโดยอ้างเรื่องเสรีภาพในการแสดงออก... แต่ท่าทีทางกฎหมายในสหราชอาณาจักรกำลังเปลี่ยนจาก "ชมรมถกเถียง" ไปสู่ "กำหนดเส้นตายในการปฏิบัติตามกฎหมาย"
หน่วยงานกำกับดูแลด้านการสื่อสารของอังกฤษ (Ofcom) กำลังถูกกดดันให้ดำเนินการอย่างรวดเร็ว และบรรดาผู้ร่างกฎหมายต่างชี้ให้เห็นถึงรูปแบบที่น่าหดหู่ใจแบบเดียวกัน นั่นคือ เมื่อภาพเหล่านั้นแพร่กระจายออกไปแล้ว ความเสียหายจะไม่รอการปรับปรุงนโยบายอย่างอดทน.
🧑💻 มีรายงานว่า OpenAI กำลังขอให้ผู้รับเหมาอัปโหลดผลงานจริงจากงานที่ผ่านมา ↗
มีรายงานว่า OpenAI ร่วมกับพันธมิตรด้านข้อมูลฝึกอบรม กำลังขอให้ผู้รับเหมาอัปโหลดผลงานจริงจากงานในอดีต (และปัจจุบัน) เช่น เอกสาร สเปรดชีต สไลด์นำเสนอ และคลังเก็บข้อมูล โดยมีเป้าหมายเพื่อประเมินและปรับปรุงประสิทธิภาพของ AI ในการทำงานประเภทงานสำนักงาน.
ส่วนที่ยุ่งยากและน่าประหลาดใจเล็กน้อยก็คือ ผู้รับเหมาได้รับคำสั่งให้ลบข้อมูลที่ละเอียดอ่อนด้วยตนเอง นั่นเป็นการไว้วางใจอย่างมากในกระบวนการทำงานที่เปลี่ยนแปลงอย่างรวดเร็ว เหมือนกับการขอให้ใครสักคนใช้ถุงมือกันความร้อนในการถอดชนวนระเบิดอย่างระมัดระวัง.
🗂️ OpenAI ขอให้ผู้รับเหมาอัปโหลดผลงานจากงานที่ผ่านมาเพื่อประเมินประสิทธิภาพของตัวแทน AI ↗
รายงานอีกฉบับเจาะลึกถึงรูปแบบเดียวกันนี้และเหตุผลที่ทำให้ทนายความด้านความเป็นส่วนตัวและทรัพย์สินทางปัญญาเกิดความกังวล แม้ว่าทุกคนจะกระทำด้วยความสุจริตใจ แต่คำสั่ง “ลบข้อมูลที่เป็นความลับออก” ก็เป็นคำสั่งที่ไม่ชัดเจนเมื่อต้องจัดการกับเอกสารของบริษัทจริงๆ.
นอกจากนี้ยังบ่งบอกถึงกลยุทธ์ที่ใหญ่กว่านั้นด้วย: ตัวแทน AI ไม่ได้เป็นเพียงแค่ผู้ช่วยนักบินที่ช่างพูดอีกต่อไปแล้ว พวกมันถูกฝึกฝนให้เลียนแบบความเป็นจริงที่ยุ่งเหยิงและซับซ้อนของการทำงานจริง ฟังดูสมเหตุสมผล แต่ก็...น่ากลัวนิดหน่อย.
🏦 Allianz และ Anthropic จับมือเป็นพันธมิตรระดับโลกเพื่อส่งเสริม AI ที่มีความรับผิดชอบในอุตสาหกรรมประกันภัย ↗
Allianz และ Anthropic ประกาศความร่วมมือระดับโลกที่มุ่งเน้น 3 ด้าน ได้แก่ การเพิ่มประสิทธิภาพการทำงานของพนักงาน การทำให้กระบวนการทำงานเป็นไปโดยอัตโนมัติผ่าน AI เชิงตัวแทน และการออกแบบเพื่อให้สอดคล้องกับกฎระเบียบ เนื่องจากธุรกิจประกันภัยนั้นเกี่ยวข้องกับเอกสารจำนวนมาก ดังนั้น "เชิงตัวแทน" ในที่นี้จึงหมายถึงการทำให้กระบวนการทำงานที่ซับซ้อนเป็นไปโดยอัตโนมัติโดยไม่สูญเสียหลักฐานการตรวจสอบ.
แนวคิดคือ: สร้างระบบอัตโนมัติสุดเจ๋ง แต่ต้องเก็บใบเสร็จไว้ด้วย ในอุตสาหกรรมที่มีการควบคุม นี่เป็นวิธีเดียวที่จะขยายขนาดได้โดยไม่กลายเป็นภาระความรับผิดชอบมหาศาล.
🕵️♂️ แถลงการณ์ตอบโต้ Grok AI บน X ↗
หน่วยงานกำกับดูแลด้านการคุ้มครองข้อมูลของสหราชอาณาจักรระบุว่า ได้ติดต่อ X และ xAI เพื่อขอคำชี้แจงเกี่ยวกับวิธีการจัดการข้อมูลส่วนบุคคลและการปกป้องสิทธิของผู้คน เนื่องจากมีความกังวลเกี่ยวกับเนื้อหาที่สร้างโดย Grok ประเด็นไม่ได้อยู่ที่ “การกลั่นกรองเนื้อหา” เท่านั้น แต่ยังรวมถึงว่าข้อมูลส่วนบุคคลได้รับการประมวลผลอย่างถูกต้องตามกฎหมายหรือไม่ และสิทธิได้รับการคุ้มครองหรือไม่.
นี่เป็นมาตรการควบคุมประเภทหนึ่งที่ฟังดูสุภาพ แต่กลับกลายเป็นเรื่องร้ายแรงอย่างเงียบๆ หากคำตอบที่ได้รับไม่ชัดเจน... หรือหลีกเลี่ยง หรือทั้งสองอย่าง.
คำถามที่พบบ่อย
เหตุใดอินโดนีเซียจึงปิดกั้นการเข้าถึง Grok AI?
อินโดนีเซียสั่งระงับการใช้งาน Grok ชั่วคราว หลังจากมีรายงานว่ามีการใช้แอปพลิเคชันนี้สร้างภาพปลอมแปลงทางเพศโดยไม่ได้รับความยินยอม รวมถึงภาพที่มุ่งเป้าไปที่ผู้หญิงและเด็ก เจ้าหน้าที่ระบุว่าการดำเนินการดังกล่าวเป็นเรื่องสิทธิมนุษยชนและความปลอดภัยสาธารณะ ไม่ใช่ข้อพิพาททางเทคโนโลยีเล็กน้อย แต่ความหมายแฝงก็คือ “เราจะแก้ไขในภายหลัง” ซึ่งใช้ไม่ได้ผลเมื่อเครื่องมือเหล่านั้นสามารถก่อให้เกิดอันตรายที่แก้ไขไม่ได้ในทันที.
สหราชอาณาจักรกำลังพิจารณาอะไรบ้างหลังจากวิดีโอปลอมที่สร้างโดย Grok ปรากฏบน X?
รัฐมนตรีของสหราชอาณาจักรได้หารือกันอย่างเปิดเผยเกี่ยวกับค่าปรับและแม้กระทั่งความเป็นไปได้ในการปิดกั้นแพลตฟอร์ม X หลังจากที่พบว่า Grok ถูกนำมาใช้สร้างภาพอนาจารโดยไม่ได้รับความยินยอม ทิศทางทางการเมืองและกฎระเบียบกำลังเปลี่ยนไปสู่การบังคับใช้กฎหมาย ไม่ใช่การถกเถียงแบบเปิดกว้าง ประเด็นที่ผู้ร่างกฎหมายพูดถึงซ้ำแล้วซ้ำเล่าคือเรื่องเวลา: เมื่อภาพเหล่านั้นแพร่กระจายออกไป เหยื่อจะเผชิญกับอันตรายก่อนที่แพลตฟอร์มจะเผยแพร่นโยบายที่อัปเดตแล้ว.
การที่หน่วยงานกำกับดูแล "เปลี่ยนภาระการพิสูจน์" สำหรับเครื่องมือประมวลผลภาพด้วย AI หมายความว่าอย่างไร?
แนวคิด “ภาระการพิสูจน์พลิกกลับ” หมายความว่าแพลตฟอร์มอาจต้องแสดงให้เห็นว่าพวกเขาสามารถป้องกันอันตรายเฉพาะอย่างได้ เช่น การสร้างภาพ “เปลื้องผ้า” โดยไม่ได้รับความยินยอม แทนที่จะเพียงแค่สัญญาว่าจะมีการป้องกัน ในทางปฏิบัติ สิ่งนี้ผลักดันให้บริษัทต่างๆ พัฒนาการควบคุมที่พิสูจน์ได้ การบังคับใช้ที่วัดผลได้ และการจัดการความล้มเหลวที่ชัดเจน นอกจากนี้ยังเป็นการส่งสัญญาณว่า “เจตนา” มีความสำคัญน้อยกว่าผลลัพธ์ที่เป็นรูปธรรมและการป้องกันที่ทำซ้ำได้.
แพลตฟอร์มต่างๆ จะลดความเสี่ยงจากภาพปลอมที่สร้างขึ้นโดย AI โดยไม่ได้รับความยินยอมได้อย่างไร?
แนวทางทั่วไปคือการป้องกันแบบหลายชั้น: จำกัดข้อความแจ้งเตือนและผลลัพธ์ที่เชื่อมโยงกับบุคคลจริง บล็อกคำขอในลักษณะ "การเปลื้องผ้า" และตรวจจับและหยุดยั้งความพยายามสร้างภาพที่มีลักษณะทางเพศโดยไม่ได้รับความยินยอม ระบบประมวลผลข้อมูลจำนวนมากเพิ่มการจำกัดอัตรา การตรวจสอบตัวตนและการละเมิดที่เข้มงวดขึ้น และขั้นตอนการลบอย่างรวดเร็วเมื่อเนื้อหาแพร่กระจาย เป้าหมายไม่ใช่แค่ภาษาของนโยบาย แต่เป็นเครื่องมือที่สามารถใช้งานได้อย่างมีประสิทธิภาพแม้ในกรณีที่มีการใช้งานในทางที่ไม่เหมาะสม.
เหตุใดเอกสารงานจริงที่ผู้รับเหมาของ OpenAI อัปโหลดจึงทำให้เกิดความกังวล?
รายงานระบุว่า OpenAI (ร่วมกับพันธมิตรด้านข้อมูลฝึกอบรม) กำลังขอให้ผู้รับเหมาอัปโหลดเอกสารงานจริง เช่น เอกสาร สเปรดชีต สไลด์นำเสนอ และคลังเก็บข้อมูล เพื่อประเมินและปรับปรุงตัวแทน AI สำหรับงานสำนักงาน ข้อกังวลคือ ผู้รับเหมาได้รับคำแนะนำให้ลบรายละเอียดที่เป็นความลับด้วยตนเอง ซึ่งอาจทำให้เกิดข้อผิดพลาดได้ ทนายความด้านความเป็นส่วนตัวและทรัพย์สินทางปัญญาต่างกังวลว่าคำแนะนำ "ลบข้อมูลที่เป็นความลับ" นี้คลุมเครือเกินไปสำหรับเอกสารขององค์กรจริง.
การที่ Allianz ร่วมมือกับ Anthropic ในด้าน "AI สำหรับตัวแทน" ในธุรกิจประกันภัยมีความสำคัญอย่างไร?
Allianz และ Anthropic ได้อธิบายถึงความร่วมมือระดับโลกที่มุ่งเน้นไปที่ประสิทธิภาพการทำงานของพนักงาน การทำงานอัตโนมัติโดยใช้ AI แบบตัวแทน และการออกแบบเพื่อให้สอดคล้องกับกฎระเบียบ กระบวนการทำงานด้านประกันภัยมีความซับซ้อนและอยู่ภายใต้การกำกับดูแลอย่างเข้มงวด ดังนั้นคำว่า “ตัวแทน” จึงมักหมายถึงการทำงานอัตโนมัติในหลายขั้นตอนโดยไม่สูญเสียความรับผิดชอบ การเน้นย้ำเรื่องบันทึกการตรวจสอบและการ “เก็บใบเสร็จ” สะท้อนให้เห็นถึงความเป็นจริงในทางปฏิบัติ: การทำงานอัตโนมัติจะขยายขนาดได้ในอุตสาหกรรมที่มีการกำกับดูแลก็ต่อเมื่อยังคงสามารถตรวจสอบและพิสูจน์ได้.