🛑 Google DeepMind เตือนเกี่ยวกับ AI ที่ทนต่อการปิดระบบ
DeepMind ได้ปรับปรุงกรอบความปลอดภัย Frontier Safety Framework อย่างเงียบๆ โดยเพิ่ม “ระดับความสามารถที่สำคัญ” ใหม่สองระดับ สัญญาณเตือนใหม่เหล่านี้คืออะไร? คือโมเดลที่ปฏิเสธการปิดระบบหรือต่อต้านการปรับแต่ง และโมเดลอื่นๆ ที่โน้มน้าว มากเกินไป จนน่าเป็นห่วง พฤติกรรมทั้งสองอย่างนี้ถูกจัดอยู่ในกลุ่มความเสี่ยงสูง และต้องได้รับการตรวจสอบอย่างเข้มงวดมากขึ้น
🔗 อ่านเพิ่มเติม
🖼 MIT เปิดตัว SCIGEN เพื่อคิดค้นวัสดุแปลกใหม่
ทีมวิจัยจาก MIT เปิดเผย SCIGEN ระบบที่ช่วยกระตุ้นปัญญาประดิษฐ์ (AI) ให้ปฏิบัติตามกฎการออกแบบแทนที่จะเดาสุ่มไปเรื่อยๆ ผลลัพธ์ที่ได้คือไอเดียสำหรับวัสดุใหม่ที่มีคุณสมบัติ เช่น การนำไฟฟ้าเหนือยวดยิ่ง หรือแม่เหล็กแปลกๆ ลองนึกภาพว่ามันไม่ใช่การใช้กำลังอย่างไม่ยั้งคิด แต่เป็นการชี้นำจินตนาการของ AI ไปในทิศทางที่ถูกต้องมากกว่า
🔗 อ่านเพิ่มเติม
🌐 Perplexity ผลักดันเบราว์เซอร์ Comet เข้าสู่ประเทศอินเดีย
บริษัทสตาร์ทอัพด้านการค้นหาด้วย AI อย่าง Perplexity ได้เปิดตัวเบราว์เซอร์ Comet สำหรับสมาชิก Pro ในอินเดียแล้ว (22 กันยายน) เบราว์เซอร์นี้เป็นการผสมผสานระหว่างเบราว์เซอร์มาตรฐานและผู้ช่วยเสมือน ทำให้เส้นแบ่งระหว่างการท่องเว็บและการได้รับคำตอบที่คัดสรรโดยเครื่องจักรนั้นเลือนหายไป
🔗 อ่านเพิ่มเติม
🏛 ผู้พิพากษาในสหราชอาณาจักรใช้ AI อย่างเปิดเผยเพื่อลดขนาดเอกสารคดี
ในศาลภาษีแห่งหนึ่ง ผู้พิพากษาชาวอังกฤษยอมรับว่าได้ใช้โปรแกรม Microsoft Copilot ในการประมวลผลเอกสารทางกฎหมาย เขาชี้แจงอย่างชัดเจนว่าเหตุผลและคำตัดสินที่แท้จริงนั้นเป็นของเขาเอง แต่ถึงกระนั้นก็ถือเป็นก้าวแรกเล็กๆ ในศาลของสหราชอาณาจักร
🔗 อ่านเพิ่มเติม
📊 เงินหลายพันล้านถูกทุ่มลงไปในโครงสร้างพื้นฐานทางกายภาพของ AI
Meta, Microsoft, Google… ต่างทุ่มเงินมหาศาลไปกับการสร้างศูนย์ข้อมูล ชิปที่ใช้พลังงานสูง และระบบระบายความร้อน เพื่อให้เครื่องยนต์ AI ทำงานได้อย่างต่อเนื่อง แม้แต่รัฐเล็กๆ ในสหรัฐฯ (เช่น รัฐนิวแฮมป์เชียร์) ก็ยังเสนอการอัพเกรดระบบไฟฟ้าเป็นเหยื่อล่อเพื่อดึงดูดเงินทุนเหล่านั้น
🔗 อ่านเพิ่มเติม
🌍 เสียงเรียกร้องให้มีการกำหนด “ขอบเขตแดง” ระดับโลกสำหรับ AI ดังขึ้นเรื่อยๆ
นักวิทยาศาสตร์และผู้นำทางการเมืองกว่า 200 คนได้ร่วมกันผลักดันให้มีการกำหนดกฎระเบียบด้านปัญญาประดิษฐ์ (AI) ในระดับสากลภายในปี 2026 พวกเขาเรียกร้องให้มีการห้ามใช้ AI ในกรณีสุดขั้ว เช่น AI ที่เชื่อมโยงกับอาวุธนิวเคลียร์ การสอดแนมในวงกว้าง และสถานการณ์เลวร้ายอื่นๆ โดยสรุปคือ ต้องกำหนดขอบเขตก่อนที่สิ่งต่างๆ จะบานปลายเกินไป
🔗 อ่านเพิ่มเติม