⚖️ บริษัท Anthropic ฟ้องร้องเพื่อขัดขวางการขึ้นบัญชีดำของกระทรวงกลาโหมสหรัฐฯ เนื่องจากการจำกัดการใช้งานปัญญาประดิษฐ์ (AI) ↗
บริษัท Anthropic ได้นำข้อพิพาทกับกระทรวงกลาโหมสหรัฐฯ ขึ้นศาล หลังจากถูกระบุว่าเป็นความเสี่ยงในห่วงโซ่อุปทาน บริษัทกล่าวว่าการกระทำดังกล่าวเป็นการตอบโต้ที่ไม่ชอบด้วยกฎหมาย เนื่องจากบริษัทปฏิเสธที่จะผ่อนปรนมาตรการควบคุมอาวุธไร้คนขับและการสอดแนมภายในประเทศ ซึ่งทำให้ข้อพิพาทนี้เป็นหนึ่งในประเด็นร้อนแรงที่สุดในนโยบายด้านปัญญาประดิษฐ์ในขณะนี้ ( รอยเตอร์ )
รัฐบาลต้องการความยืดหยุ่นสำหรับ "การใช้งานที่ถูกต้องตามกฎหมายทุกรูปแบบ" ในขณะที่ Anthropic โต้แย้งว่าห้องปฏิบัติการเอกชนควรได้รับอนุญาตให้กำหนดขอบเขตความปลอดภัยที่เข้มงวดได้ นี่กลายเป็นบททดสอบที่ชัดเจนที่สุดครั้งหนึ่งว่าบริษัท AI สามารถปฏิเสธเงื่อนไขทางทหารได้หรือไม่โดยไม่ถูกบีบให้ทำตาม ( รอยเตอร์ )
🧑💻 พนักงานจาก OpenAI และ Google ต่างให้การสนับสนุนการฟ้องร้องของ Anthropic ต่อกระทรวงกลาโหมสหรัฐฯ ↗
คดีความดังกล่าวได้รับการสนับสนุนอย่างรวดเร็วจากภายในห้องปฏิบัติการคู่แข่งเช่นกัน พนักงานเกือบ 40 คนจาก OpenAI และ Google สนับสนุน Anthropic ในเอกสารแสดงความคิดเห็น โดยโต้แย้งว่าการตอบโต้บริษัทต่างๆ เกี่ยวกับการฝ่าฝืนข้อกำหนดด้านความปลอดภัยของ AI นั้นขัดต่อผลประโยชน์สาธารณะ ( The Verge )
ใช่แล้ว คู่แข่งต่างพบว่าตัวเองอยู่ฝ่ายเดียวกันอย่างกะทันหัน อย่างน้อยก็ในประเด็นนี้ ประเด็นหลักอยู่ที่การเฝ้าระวังจำนวนมากและอาวุธไร้คนขับที่ไม่น่าเชื่อถือ ซึ่งทำให้เรื่องทั้งหมดดูไม่เหมือนการโจมตีกันเองตามประสาบริษัทในซิลิคอนแวลลีย์ แต่เหมือนเป็นการกำหนดเส้นแบ่งเขตแดนที่แท้จริงของอุตสาหกรรม... หรืออาจจะเป็นเส้นแบ่งเขตแดนที่ต่ำต้อยกว่าก็ได้ ( The Verge )
🛡️ OpenAI เข้าซื้อกิจการ Promptfoo เพื่อเสริมความแข็งแกร่งให้กับเอเจนต์ AI ของตน ↗
OpenAI ประกาศว่ากำลังซื้อ Promptfoo สตาร์ทอัพที่มุ่งเน้นการปกป้องโมเดลภาษาขนาดใหญ่จากการโจมตีที่เป็นอันตราย โดยมีแผนจะผสานเทคโนโลยีของ Promptfoo เข้ากับ OpenAI Frontier ซึ่งเป็นแพลตฟอร์มระดับองค์กรสำหรับเอเจนต์ AI ของบริษัท ( TechCrunch )
นี่เป็นการเคลื่อนไหวที่น่าสนใจ ทุกคนต้องการให้ AI ที่ทำหน้าที่เสมือนตัวแทนทำงานได้มากขึ้น เร็วขึ้น และทุกที่ แต่ด้านความปลอดภัยกลับล้าหลัง ไม่ว่าจะเล็กน้อยหรือมากก็ตาม ข้อตกลงนี้ชี้ให้เห็นว่า OpenAI คิดว่าการแข่งขันครั้งสำคัญต่อไปไม่ใช่แค่การพัฒนา AI ที่ฉลาดขึ้นเท่านั้น แต่ยังรวมถึงการพัฒนา AI ที่ปลอดภัยยิ่งขึ้นด้วย ( TechCrunch )
🧪 Anthropic เปิดตัวเครื่องมือตรวจสอบโค้ดเพื่อตรวจสอบโค้ดที่สร้างโดย AI จำนวนมหาศาล ↗
Anthropic เปิดตัว Code Review ภายใน Claude Code โดยมีเป้าหมายเพื่อช่วยเหลือทีมที่กำลังเผชิญกับ Pull Request จำนวนมากที่สร้างโดยเครื่องมือเขียนโค้ด AI ระบบนี้ใช้เอเจนต์หลายตัวทำงานพร้อมกันเพื่อสแกนโค้ด ตรวจสอบปัญหาด้านตรรกะ จัดลำดับความรุนแรง และแสดงความคิดเห็นโดยตรงใน GitHub ( TechCrunch )
แนวคิดหลักนั้นเรียบง่ายมาก - AI สร้างโค้ดได้เร็วกว่าที่มนุษย์จะตรวจสอบได้อย่างเหมาะสม ดังนั้น AI จึงต้องตรวจสอบ AI เอง มันอาจดูเหมือนงูกินหางตัวเอง แต่ก็เป็นกลไกที่ใช้งานได้จริง Anthropic กล่าวว่าผลิตภัณฑ์นี้มุ่งเป้าไปที่ผู้ใช้ระดับองค์กรที่เห็นผลลัพธ์โค้ดจำนวนมหาศาลจาก Claude Code อยู่แล้ว ( TechCrunch )
💰 บริษัท Nscale ที่ได้รับการสนับสนุนจาก Nvidia มีมูลค่า 14.6 พันล้านดอลลาร์สหรัฐ ในรอบการระดมทุนครั้งใหม่ ↗
บริษัท Nscale ผู้ให้บริการโครงสร้างพื้นฐานด้าน AI จากสหราชอาณาจักร ระดมทุนได้ 2 พันล้านดอลลาร์สหรัฐในรอบ Series C ส่งผลให้มูลค่าบริษัทอยู่ที่ 14.6 พันล้านดอลลาร์สหรัฐ ผู้ลงทุนประกอบด้วย Aker, 8090 Industries, Nvidia, Citadel, Dell และ Jane Street ซึ่งถือเป็นการแสดงความเชื่อมั่นอย่างมาก ( Reuters )
เรื่องนี้สำคัญเพราะไม่ใช่แค่การเปิดตัวโมเดลใหม่หรือการปรับแต่งแชทบอท แต่เป็นการทำงานเบื้องหลังที่สำคัญของความเจริญรุ่งเรืองนี้ นั่นคือ การประมวลผล โครงสร้างพื้นฐาน กำลังการผลิต และเครื่องจักรขนาดใหญ่ทั้งหมดที่อยู่เบื้องหลังม่าน อาจจะไม่ดูหรูหรา แต่เป็นที่ที่เงินจำนวนมหาศาลกำลังไหลเข้ามา ( รอยเตอร์ )
🧠 บริษัท AMI Labs ของ Yann LeCun ระดมทุนได้ 1.03 พันล้านดอลลาร์เพื่อสร้างแบบจำลองโลก ↗
บริษัท AMI Labs ซึ่งเป็นธุรกิจใหม่ของ Yann LeCun ระดมทุนได้ 1.03 พันล้านดอลลาร์ โดยมีมูลค่าบริษัทก่อนการลงทุนอยู่ที่ 3.5 พันล้านดอลลาร์ บริษัทนี้กำลังพัฒนา "แบบจำลองโลก" ซึ่งเป็นระบบ AI ที่ออกแบบมาเพื่อเรียนรู้จากความเป็นจริงโดยตรง แทนที่จะเรียนรู้จากภาษาเป็นหลัก ( TechCrunch )
นั่นเป็นการพลิกผันทางปรัชญาโดยตรงต่อฉันทามติที่เน้น LLM ในปัจจุบัน และเป็นการพลิกผันที่ตรงไปตรงมาอย่างเห็นได้ชัดด้วย เลอคุนได้โต้แย้งมาหลายปีแล้วว่าแบบจำลองภาษาในปัจจุบันจะไม่สามารถนำพาเราไปสู่ระดับสติปัญญาเทียบเท่ามนุษย์ได้ ดังนั้นการขึ้นเงินเดือนครั้งนี้จึงเปลี่ยนข้อโต้แย้งนั้นให้กลายเป็นการทดลองที่มีราคาแพงมาก ( TechCrunch )
🇨🇳 ศูนย์กลางเทคโนโลยีของจีนส่งเสริมการใช้เอเจนต์ AI OpenClaw แม้จะมีคำเตือนด้านความปลอดภัย ↗
รัฐบาลท้องถิ่นหลายแห่งในจีนให้การสนับสนุน OpenClaw ซึ่งเป็นระบบปัญญาประดิษฐ์ (AI) ที่กำลังแพร่หลายอย่างรวดเร็ว แม้จะมีข้อกังวลด้านความปลอดภัยที่เกี่ยวข้องกับการเข้าถึงข้อมูลส่วนบุคคลก็ตาม ดังนั้นดูเหมือนว่าท่าทีของทางการจะเป็นไปในทิศทางที่ว่า: ใช่ มีความเสี่ยง และใช่ เรามาขยายการใช้งานกันเถอะ ( รอยเตอร์ )
ประเด็นอยู่ที่ความแตกแยกนี้ ศูนย์กลางในท้องถิ่นต้องการผลประโยชน์ทางเศรษฐกิจและแรงผลักดันของระบบนิเวศ ในขณะที่หน่วยงานกำกับดูแลกำลังเตือนเกี่ยวกับความเสี่ยงต่อการเปิดเผยข้อมูล นี่เป็นรูปแบบที่คุ้นเคยในวงการ AI แล้ว นั่นคือ เร่งดำเนินการก่อน แล้วค่อยมาจัดการเรื่องการควบคุมทีหลัง หรืออย่างน้อยก็ดูเหมือนจะเป็นเช่นนั้น ( รอยเตอร์ )
คำถามที่พบบ่อย
เหตุใด Anthropic จึงฟ้องร้องกระทรวงกลาโหมสหรัฐฯ เกี่ยวกับการจำกัดการใช้งาน AI?
บริษัท Anthropic กล่าวว่ากระทรวงกลาโหมสหรัฐฯ ระบุว่าบริษัทมีความเสี่ยงด้านห่วงโซ่อุปทาน หลังจากที่บริษัทปฏิเสธเงื่อนไขที่กว้างขึ้นซึ่งอาจครอบคลุมถึงอาวุธไร้คนขับและการเฝ้าระวังภายในประเทศ นั่นทำให้คดีความนี้มีความสำคัญมากกว่าแค่สถานะผู้จำหน่าย มันเป็นการทดสอบว่าห้องปฏิบัติการ AI สามารถรักษาข้อจำกัดด้านความปลอดภัยที่เข้มงวดไว้ได้หรือไม่ และยังคงแข่งขันเพื่อรับงานจากรัฐบาลได้โดยไม่ถูกลงโทษ.
เหตุใดพนักงานของ OpenAI และ Google จึงให้การสนับสนุน Anthropic ในข้อพิพาทด้านความปลอดภัยของ AI ครั้งนี้?
เอกสารแสดงความคิดเห็นจากบุคคลภายนอกชี้ให้เห็นว่า หลายคนในห้องปฏิบัติการคู่แข่งมองว่านี่เป็นประเด็นด้านความปลอดภัยของ AI ที่จะสร้างบรรทัดฐานใหม่ ไม่ใช่เพียงแค่การต่อสู้ระหว่างบริษัทหนึ่งกับหน่วยงานหนึ่งเท่านั้น ความกังวลของพวกเขาคือ การลงโทษผู้ขายที่ยึดมั่นในขอบเขตที่กำหนดไว้ อาจกดดันให้ตลาดโดยรวมลดมาตรการป้องกันลง ซึ่งในทางปฏิบัติ อาจส่งผลต่อวิธีการเจรจาสัญญา AI ในภาคกลาโหมและภาครัฐในอนาคต.
กรณีศึกษาระหว่าง Anthropic และ Pentagon อาจเปลี่ยนแปลงอะไรบ้างในด้านนโยบาย AI และสัญญาด้านกลาโหม?
หาก Anthropic ชนะคดี บริษัท AI อาจมีอำนาจต่อรองมากขึ้นในการกำหนดการใช้งานที่ไม่เหมาะสม แม้ว่าจะขายสินค้าให้กับหน่วยงานรัฐบาลที่มีความละเอียดอ่อนก็ตาม แต่หากแพ้คดี หน่วยงานต่างๆ อาจมีอำนาจมากขึ้นในการเรียกร้องเงื่อนไข "การใช้งานที่ถูกต้องตามกฎหมาย" ที่กว้างขึ้นจากผู้จำหน่าย ไม่ว่าจะอย่างไรก็ตาม ข้อพิพาทนี้มีแนวโน้มที่จะส่งผลต่อภาษาในการจัดซื้อจัดจ้าง การตรวจสอบความเสี่ยง และวิธีการเขียนข้อกำหนดด้านความปลอดภัยในข้อตกลงด้านการป้องกันประเทศ.
เหตุใด OpenAI จึงซื้อ Promptfoo สำหรับเอเจนต์ AI?
Promptfoo เป็นที่รู้จักในด้านการทดสอบโมเดลภาษาขนาดใหญ่กับข้อความแจ้งเตือนที่เป็นอันตรายและจุดอ่อนด้านความปลอดภัยอื่นๆ การผนวกรวมเครื่องมือประเภทนี้เข้ากับแพลตฟอร์มเอเจนต์ระดับองค์กรของ OpenAI แสดงให้เห็นว่าบริษัทมองว่าการใช้งานอย่างปลอดภัยเป็นข้อได้เปรียบในการแข่งขันมากกว่าเป็นเพียงงานเสริม เมื่อเอเจนต์ AI ทำงานที่มีสาระสำคัญมากขึ้น การทดสอบความยืดหยุ่นและการรับมือกับการใช้งานในทางที่ผิดจึงเป็นสิ่งที่มองข้ามได้ยากขึ้น.
ทีมต่างๆ จะรับมือกับโค้ดที่สร้างโดย AI จำนวนมหาศาลได้อย่างปลอดภัยยิ่งขึ้นได้อย่างไร?
ฟีเจอร์ Code Review ใหม่ของ Anthropic ภายใน Claude Code มุ่งเป้าไปที่ทีมที่รับมือกับ Pull Request ที่สร้างโดยเครื่องมือเขียนโค้ด AI จำนวนมากไม่ไหว มันใช้เอเจนต์หลายตัวทำงานพร้อมกันเพื่อตรวจจับปัญหาด้านตรรกะ จัดลำดับความรุนแรง และแสดงความคิดเห็นใน GitHub โดยทั่วไปแล้ว เครื่องมือแบบนี้จะช่วยคัดกรองปริมาณงาน แต่ผู้ตรวจสอบที่เป็นมนุษย์ยังคงมีความสำคัญในด้านสถาปัตยกรรม บริบท และการอนุมัติขั้นสุดท้าย.
เหตุใดโครงสร้างพื้นฐานด้าน AI จึงได้รับการลงทุนมากมายในขณะนี้?
การระดมทุนรอบล่าสุดของ Nscale เน้นย้ำว่าอุตสาหกรรม AI ยังคงทุ่มเงินทุนจำนวนมหาศาลให้กับด้านการประมวลผล โครงสร้างพื้นฐาน และกำลังการผลิต การใช้จ่ายเหล่านั้นอาจไม่เป็นที่ประจักษ์ชัดเจนเท่ากับการเปิดตัวผลิตภัณฑ์ที่หวือหวา แต่เป็นรากฐานสำคัญของทุกสิ่งทุกอย่าง เมื่อความต้องการในการฝึกอบรมและการใช้งานเพิ่มสูงขึ้น บริษัทที่จำหน่ายเครื่องมือและอุปกรณ์มักจะกลายเป็นผู้ชนะที่ยิ่งใหญ่ที่สุด.
โมเดลโลกคืออะไร และทำไมยานน์ เลอคุนถึงเชื่อมั่นในโมเดลเหล่านั้น?
แบบจำลองโลก (World models) คือระบบ AI ที่ออกแบบมาเพื่อเรียนรู้จากพฤติกรรมของโลก แทนที่จะพึ่งพาข้อมูลทางภาษาเป็นหลัก เรื่องนี้สำคัญเพราะ Yann LeCun ได้โต้แย้งมานานแล้วว่าแบบจำลองภาษาเพียงอย่างเดียวไม่น่าจะบรรลุระดับสติปัญญาเทียบเท่ามนุษย์ได้ AMI Labs ได้นำมุมมองนั้นมาลงทุนครั้งใหญ่ในเชิงพาณิชย์เพื่อก้าวไปสู่เส้นทางใหม่สำหรับการวิจัย AI ขั้นสูง.
เหตุใดศูนย์กลางเทคโนโลยีของจีนจึงให้การสนับสนุน OpenClaw ทั้งๆ ที่มีคำเตือนด้านความปลอดภัย?
เรื่องราวของ OpenClaw แสดงให้เห็นถึงความแตกแยกที่คุ้นเคยภายในตลาดเทคโนโลยีที่เปลี่ยนแปลงอย่างรวดเร็ว: รัฐบาลท้องถิ่นต้องการการเติบโต เงินอุดหนุน และแรงผลักดันของระบบนิเวศ ในขณะที่หน่วยงานกำกับดูแลกังวลเกี่ยวกับการเปิดเผยข้อมูลและความปลอดภัย การสนับสนุนตัวแทนดังกล่าวแม้จะมีคำเตือน แสดงให้เห็นว่าแรงจูงใจทางเศรษฐกิจกำลังมีอิทธิพลเหนือกว่าในบางแห่ง สำหรับผู้สังเกตการณ์ นี่เป็นอีกหนึ่งเครื่องเตือนใจว่าการนำไปใช้มักจะเร็วกว่าการกำกับดูแล.