🤖 หัวหน้าฝ่ายฮาร์ดแวร์ของ OpenAI ลาออกหลังจากทำข้อตกลงกับกระทรวงกลาโหมสหรัฐฯ ↗
เคทลิน คาลินอฟสกี หัวหน้าฝ่ายฮาร์ดแวร์และหุ่นยนต์ของ OpenAI ลาออกจากตำแหน่งหลังจากที่บริษัททำข้อตกลงกับกระทรวงกลาโหมสหรัฐฯ โดยกล่าวว่าการตัดสินใจดังกล่าวไม่ได้มีการพิจารณาภายในอย่างเพียงพอก่อนที่จะอนุมัติให้ใช้งานโมเดลในเครือข่ายป้องกันประเทศที่เป็นความลับ ข้อกังวลหลักของเธอค่อนข้างตรงไปตรงมา นั่นคือ การกำกับดูแลโดยมนุษย์ ขอบเขตการเฝ้าระวัง และความเสี่ยงที่ระบบอัตโนมัติที่อาจถึงแก่ชีวิตจะพัฒนาเร็วเกินไป ( รอยเตอร์ )
OpenAI ระบุว่าข้อตกลงดังกล่าวมีมาตรการคุ้มครองเพิ่มเติมและยังคงห้ามการสอดแนมภายในประเทศและการใช้อาวุธไร้คนขับ อย่างไรก็ตาม การลาออกทำให้เรื่องทั้งหมดดูไม่เหมือนการปรับปรุงนโยบายที่ราบรื่น แต่กลับดูเหมือนประตูหนีไฟที่ปิดลงกลางที่ประชุมมากกว่า ( รอยเตอร์ )
🏗️ สำนักข่าวบลูมเบิร์กรายงานว่า Oracle และ OpenAI ยกเลิกแผนขยายศูนย์ข้อมูลในรัฐเท็กซัส ↗
มีรายงานว่า Oracle และ OpenAI ได้ยกเลิกแผนการขยายศูนย์ข้อมูล AI ขนาดใหญ่ในเมืองอะบิเลน รัฐเท็กซัส หลังจากที่การเจรจาเรื่องการเงินยืดเยื้อและความต้องการด้านการประมวลผลของ OpenAI เปลี่ยนแปลงไป ศูนย์แห่งนี้เป็นส่วนหนึ่งของโครงการโครงสร้างพื้นฐาน Stargate ที่ใหญ่กว่า ดังนั้นนี่จึงไม่ใช่เรื่องเล็กน้อย ( รอยเตอร์ )
วิทยาเขตเดิมยังคงเปิดดำเนินการอยู่ และบริษัทต่างๆ กล่าวว่าการขยายกำลังการผลิตหลายกิกะวัตต์ในวงกว้างยังคงดำเนินต่อไปในที่อื่นๆ ในขณะเดียวกัน การขยายที่ถูกทิ้งร้างอาจเปิดโอกาสให้กับ Meta ซึ่งมีรายงานว่าได้หารือเกี่ยวกับการเช่าพื้นที่ดังกล่าวแทน โครงสร้างพื้นฐานด้าน AI ยังคงเคลื่อนไหวอย่างต่อเนื่องเหมือนปูนเปียก – หนัก แพง และไม่เคยหยุดนิ่งเสียที ( รอยเตอร์ )
⚖️ กระทรวงกลาโหมสหรัฐฯ ระบุว่า Anthropic เป็นบริษัทที่มีความเสี่ยงในห่วงโซ่อุปทาน ↗
กระทรวงกลาโหมสหรัฐฯ ประกาศอย่างเป็นทางการว่าบริษัท Anthropic มีความเสี่ยงในห่วงโซ่อุปทาน และจำกัดการใช้งานระบบ Claude ในสัญญาของกระทรวงกลาโหม หลังจากที่บริษัทปฏิเสธที่จะผ่อนปรนมาตรการป้องกันอาวุธไร้คนขับและการสอดแนมในวงกว้าง นี่คือประเด็นสำคัญ – การต่อสู้ด้านการจัดซื้อจัดจ้างที่กลายเป็นการต่อสู้ด้านค่านิยมที่ใหญ่กว่ามาก ( รอยเตอร์ )
บริษัท Anthropic กล่าวว่าการกระทำดังกล่าวไม่ถูกต้องตามกฎหมายและวางแผนที่จะยื่นฟ้องต่อศาล การกำหนดสถานะดังกล่าวถือว่ารุนแรงผิดปกติสำหรับห้องปฏิบัติการ AI ของสหรัฐฯ และเกิดขึ้นท่ามกลางความขัดแย้งในวงกว้างว่าบริษัทในรูปแบบบุกเบิกควรเขียนกฎเกณฑ์ที่เข้มงวดมากขึ้นในสัญญาด้านการป้องกันประเทศ หรือควรเชื่อมั่นในกฎหมายที่มีอยู่แล้ว...ซึ่งไม่ใช่ทุกคนที่พร้อมจะทำเช่นนั้น ( รอยเตอร์ )
💬 Meta เตรียมอนุญาตให้คู่แข่งที่ใช้ AI เข้ามาใช้งานบน WhatsApp เพื่อยับยั้งการดำเนินการของสหภาพยุโรป ↗
Meta ระบุว่าจะอนุญาตให้แชทบอท AI ของคู่แข่งใช้งานบน WhatsApp ในยุโรปได้เป็นเวลาหนึ่งปี โดยใช้ Business API หลังจากถูกกดดันจากหน่วยงานกำกับดูแลการแข่งขันทางการค้าของสหภาพยุโรป คู่แข่งได้ร้องเรียนว่า Meta จงใจกีดกันพวกเขาในขณะที่ให้ความสำคัญกับผู้ช่วยของตนเองมากกว่า ซึ่งเป็นรายละเอียดที่สำคัญมาก เนื่องจากปัจจุบันการกระจายอำนาจเข้าสู่ศูนย์กลางในด้าน AI นั้นมีความสำคัญอย่างยิ่ง ( รอยเตอร์ )
ข้อเสียคือการเข้าถึงนั้นต้องเสียค่าธรรมเนียม และนักวิจารณ์โต้แย้งว่านั่นยังคงทำให้คู่แข่งรายเล็กเสียเปรียบอยู่ดี หน่วยงานกำกับดูแลกำลังตัดสินใจว่าการผ่อนปรนนั้นเพียงพอหรือไม่ ดังนั้นนี่จึงดูเหมือนไม่ใช่สนธิสัญญาแห่งสันติภาพ แต่เป็นเพียงปุ่มหยุดชั่วคราวที่ห่อหุ้มด้วยเอกสาร ( รอยเตอร์ )
📜 xAI พ่ายแพ้ในการยื่นคำร้องเพื่อระงับกฎหมายการเปิดเผยข้อมูล AI ของรัฐแคลิฟอร์เนีย ↗
บริษัท xAI ประสบความพ่ายแพ้ในการพยายามขัดขวางกฎหมายของรัฐแคลิฟอร์เนียที่กำหนดให้บริษัท AI ต้องเปิดเผยข้อมูลเพิ่มเติมเกี่ยวกับข้อมูลที่ใช้ในการฝึกฝนโมเดลของตน การที่ศาลปฏิเสธที่จะระงับกฎหมายดังกล่าวหมายความว่าขณะนี้ xAI ต้องเผชิญกับแรงกดดันด้านความโปร่งใสเช่นเดียวกับผู้สร้างโมเดลรายอื่นๆ ที่พยายามหลีกเลี่ยงมาโดยตลอด ( รอยเตอร์ )
เรื่องนี้สำคัญเพราะการต่อสู้เรื่องข้อมูลการฝึกอบรมไม่ได้เป็นเพียงเรื่องทางวิชาการหรือเรื่องที่เกี่ยวข้องกับลิขสิทธิ์อีกต่อไปแล้ว แต่กำลังกลายเป็นประเด็นด้านการปฏิบัติตามกฎระเบียบอย่างแท้จริง สำหรับ xAI ซึ่งกำลังเผชิญกับข้อโต้แย้งด้านความปลอดภัยซ้ำแล้วซ้ำเล่าเกี่ยวกับ Grok เรื่องนี้ก็ยิ่งเพิ่มภาระด้านกฎระเบียบเข้าไปอีก ( รอยเตอร์ )
คำถามที่พบบ่อย
เหตุใดหัวหน้าฝ่ายฮาร์ดแวร์และหุ่นยนต์ของ OpenAI จึงลาออกหลังจากข้อตกลงกับกระทรวงกลาโหมสหรัฐฯ?
Caitlin Kalinowski ลาออกเพราะเธอเชื่อว่าการตัดสินใจอนุมัติโมเดลสำหรับเครือข่ายป้องกันประเทศที่เป็นความลับนั้น ไม่ได้รับการพิจารณาภายในอย่างเพียงพอ ข้อกังวลของเธออยู่ที่การกำกับดูแลโดยมนุษย์ ข้อจำกัดในการสอดแนม และความเสี่ยงที่ระบบอัตโนมัติที่สามารถสังหารได้จะพัฒนาเร็วเกินไป OpenAI กล่าวว่าข้อตกลงยังคงห้ามการสอดแนมภายในประเทศและการใช้อาวุธอัตโนมัติ แต่การลาออกแสดงให้เห็นว่าการถกเถียงภายในยังไม่ได้รับการแก้ไขอย่างสมบูรณ์.
การที่เพนตากอนระบุว่า Anthropic เป็นความเสี่ยงในห่วงโซ่อุปทานนั้นหมายความว่าอย่างไรกันแน่?
นั่นหมายความว่า Claude จะถูกจำกัดการใช้งานในสัญญาของกระทรวงกลาโหม ซึ่งถือเป็นอุปสรรคสำคัญในการจัดซื้อจัดจ้าง ตามบทความระบุว่า ข้อพิพาทมีศูนย์กลางอยู่ที่การที่ Anthropic ปฏิเสธที่จะลดมาตรการคุ้มครองที่เกี่ยวข้องกับอาวุธไร้คนขับและการเฝ้าระวังมวลชน Anthropic กล่าวว่าการกำหนดดังกล่าวไม่ถูกต้องตามกฎหมายและวางแผนที่จะคัดค้าน ดังนั้นเรื่องนี้อาจกลายเป็นทั้งการต่อสู้ในศาลและการทดสอบนโยบาย.
เหตุใดการยกเลิกโครงการขยายศูนย์ข้อมูลในรัฐเท็กซัสจึงมีความสำคัญต่อข่าวสารในอุตสาหกรรม AI?
การยกเลิกโครงการขยายศูนย์ข้อมูล Abilene นั้นมีความสำคัญ เพราะเป็นส่วนหนึ่งของแผนโครงสร้างพื้นฐาน Stargate ที่ใหญ่กว่า ซึ่งเชื่อมโยงกับการวางแผนการประมวลผล AI ในระยะยาว สำนักข่าวรอยเตอร์รายงานว่า ศูนย์ข้อมูลเดิมยังคงดำเนินการอยู่ แต่ความล่าช้าด้านการเงินและความต้องการการประมวลผลที่เปลี่ยนแปลงไป ทำให้ Oracle และ OpenAI ต้องยกเลิกการขยายโครงการ นอกจากนี้ยังแสดงให้เห็นว่าการลงทุนด้านโครงสร้างพื้นฐาน AI ครั้งใหญ่สามารถเปลี่ยนแปลงได้อย่างรวดเร็ว แม้ว่าการสร้างศูนย์ข้อมูลในวงกว้างจะยังคงดำเนินต่อไปในที่อื่นก็ตาม.
เหตุใด Meta จึงปล่อยให้แชทบอท AI ของคู่แข่งเข้ามาใช้งาน WhatsApp ในยุโรป?
Meta ตัดสินใจทำเช่นนี้หลังจากถูกกดดันจากหน่วยงานกำกับดูแลการแข่งขันทางการค้าของสหภาพยุโรป และมีข้อร้องเรียนว่าบริษัทให้ความสำคัญกับผู้ช่วยของตนเองในขณะที่จำกัดคู่แข่ง การเข้าถึงนี้เป็นเพียงชั่วคราวและดำเนินการผ่าน Business API ดังนั้นจึงไม่ใช่การเปิดกว้างอย่างเต็มที่ ยังคงมีค่าธรรมเนียมอยู่ ซึ่งหมายความว่าคู่แข่งรายเล็กอาจยังคงเผชิญกับข้อเสียเปรียบในทางปฏิบัติแม้ว่าจะได้รับการผ่อนปรนแล้วก็ตาม.
กฎหมายการเปิดเผยข้อมูลการฝึกอบรม AI ของรัฐแคลิฟอร์เนียมีความหมายอย่างไรต่อ xAI?
การที่ศาลปฏิเสธที่จะระงับกฎหมายดังกล่าว หมายความว่าขณะนี้ xAI ต้องเผชิญกับข้อกำหนดด้านความโปร่งใสเพิ่มเติมเกี่ยวกับข้อมูลการฝึกฝน ซึ่งเป็นเรื่องสำคัญเพราะผู้พัฒนาโมเดลมักพยายามหลีกเลี่ยงการเปิดเผยรายละเอียด โดยเฉพาะอย่างยิ่งเมื่อแหล่งที่มาของข้อมูลมีความละเอียดอ่อนหรือเป็นที่ถกเถียงกัน ในทางปฏิบัติ ข้อมูลการฝึกฝนกำลังกลายเป็นประเด็นด้านการปฏิบัติตามกฎระเบียบอย่างจริงจัง มากกว่าที่จะเป็นเพียงการถกเถียงเกี่ยวกับบรรทัดฐานการวิจัยหรือความเสี่ยงด้านลิขสิทธิ์.
ประเด็นสำคัญที่สุดจากข่าวสารวงการ AI ในสัปดาห์นี้คืออะไร?
ประเด็นร่วมกันคือ ปัญญาประดิษฐ์ (AI) กำลังถูกกำหนดทิศทางน้อยลงจากการเปิดตัวผลิตภัณฑ์เพียงอย่างเดียว แต่มากขึ้นด้วยการกำกับดูแล โครงสร้างพื้นฐาน และกฎระเบียบ ความร่วมมือด้านการป้องกันประเทศกำลังสร้างความขัดแย้งภายใน การขยายขีดความสามารถด้านการประมวลผลกำลังมีราคาแพงและเปลี่ยนแปลงได้ง่าย และหน่วยงานกำกับดูแลกำลังกดดันมากขึ้นในเรื่องการเข้าถึงและการเปิดเผยข้อมูล บทความนี้ชี้ให้เห็นว่า ในบรรดา OpenAI, Anthropic, Meta และ xAI อุตสาหกรรมนี้กำลังถูกบังคับให้เปิดเผยข้อแลกเปลี่ยนต่างๆ มากขึ้น.