💰 แหล่งข่าวระบุว่า SoftBank ได้ลงทุน 40 พันล้านดอลลาร์ใน OpenAI เรียบร้อยแล้ว ↗
มีรายงานว่า SoftBank ได้ให้เงินทุนครบจำนวน 40 พันล้านดอลลาร์สหรัฐฯ แก่ OpenAI แล้ว ซึ่งเป็นตัวเลขที่มหาศาลจนน่าตกใจ.
เรื่องราวนี้เสนอให้เห็นว่าเป็นการลงทุนที่ได้รับการสนับสนุนอย่างเต็มที่ ซึ่งเชื่อมโยงเข้ากับการแข่งขันในวงกว้างเรื่อง "การขยายขนาดการประมวลผล" ซึ่งกลายเป็นประเด็นหลักของปัญญาประดิษฐ์ (AI).
🧠 รายงานระบุว่า Nvidia กำลังเจรจาขั้นสูงเพื่อซื้อกิจการ AI21 Labs ของอิสราเอล ด้วยมูลค่าสูงถึง 3 พันล้านดอลลาร์ ↗
มีรายงานว่า Nvidia กำลังเจรจาขั้นสูงเพื่อเข้าซื้อกิจการ AI21 Labs โดยมีราคาที่กล่าวถึงไว้สูงถึง 3 พันล้านดอลลาร์ ดูเหมือนจะเป็นการตัดสินใจที่กล้าหาญหรืออาจไม่น่าแปลกใจเลย ขึ้นอยู่กับว่าคุณมองกระบวนการประมวลผลจาก GPU ไปสู่ทุกสิ่งอย่างไร.
นี่เป็นส่วนหนึ่งของความพยายามอย่างต่อเนื่องของ Nvidia ในการดึงดูดบุคลากรที่มีความสามารถและศักยภาพด้านผลิตภัณฑ์ให้เข้ามาใกล้ชิดกับระบบนิเวศหลักของบริษัทมากขึ้น.
🇪🇺 โปแลนด์เรียกร้องให้บรัสเซลส์ตรวจสอบ TikTok เกี่ยวกับเนื้อหาที่สร้างโดยปัญญาประดิษฐ์ (AI) ↗
โปแลนด์กำลังเรียกร้องให้คณะกรรมาธิการยุโรปตรวจสอบ TikTok หลังจากวิดีโอที่สร้างโดย AI ซึ่งมีข้อความต่อต้านสหภาพยุโรปแพร่กระจายและถูกลบออกในภายหลัง เหตุการณ์นี้แสดงให้เห็นอย่างชัดเจนว่า "นี่คือเหตุผลที่กฎระเบียบของแพลตฟอร์มมีอยู่".
แนวคิดนี้ตั้งอยู่บนพื้นฐานที่ว่าแพลตฟอร์มหลัก ๆ ควรตอบสนองต่อความเสี่ยงจากข้อมูลเท็จที่ถูกขยายผลโดย AI ได้รวดเร็วและสม่ำเสมอยิ่งขึ้น โดยเฉพาะอย่างยิ่งเมื่อสถานการณ์ทางการเมืองร้อนแรงขึ้น.
🏛️ รัฐเท็กซัสเตรียมจัดตั้งสภาเพื่อตรวจสอบการใช้งานปัญญาประดิษฐ์บางประเภท ↗
รัฐเท็กซัสเตรียมจัดตั้งสภาที่มุ่งเน้นการตรวจสอบการใช้งานปัญญาประดิษฐ์ (AI) ของภาครัฐบางด้าน นี่คือการปกครองโดยคณะกรรมการ ซึ่งเป็นการกระทำโดยเจตนา และอาจเป็นการกระทำโดยเจตนาเมื่อเทคโนโลยีล้ำหน้าเกินกว่าสามัญสำนึก.
สิ่งสำคัญคือการกำกับดูแล การให้คำแนะนำ และการเปิดเผยการใช้งานที่มีความเสี่ยง รวมถึงอคติและผลลัพธ์ที่เป็นอันตรายอื่นๆ ที่อาจแฝงตัวเข้ามาภายใต้ภาพลักษณ์ที่ดูดีของ "ระบบอัตโนมัติ"
🧯 อาคารสำนักงานที่เหล่า "ผู้ทำนายวันสิ้นโลก" ที่ใช้ AI มารวมตัวกันเพื่อทำนายการล่มสลายของโลก ↗
รายงานฉบับนี้กล่าวถึงกลุ่มผู้เชี่ยวชาญด้านความปลอดภัยของ AI กลุ่มหนึ่งที่ใช้เวลาทั้งวันในการวิเคราะห์รูปแบบความล้มเหลวที่อาจก่อให้เกิดความเสียหายร้ายแรง เช่น การหลอกลวง การใช้ในทางที่ผิด ความเสี่ยงทางไซเบอร์ และโมเดลที่ทำงานในสิ่งที่เราไม่ได้ร้องขออย่างชัดเจน (ซึ่งเป็นหัวใจสำคัญของความกังวล).
สิ่งที่โดดเด่นคือความรู้สึกที่ว่ามันใกล้เคียงกับกระแสหลักมาก ไม่ใช่การหวาดระแวงเกินเหตุ แต่เป็นเหมือน "ห้องทดลองความเสี่ยง" มากกว่า เหมือนกับการซ้อมหนีไฟขณะที่อาคารยังสร้างไม่เสร็จ.
🕵️♀️ ข่าวสารล่าสุดเกี่ยวกับ AI ที่ Google ประกาศในเดือนธันวาคม ↗
Google ได้เน้นย้ำถึงการอัปเดตใหม่ที่เกี่ยวข้องกับ Gemini รวมถึงเครื่องมือสำหรับการระบุสื่อที่สร้างหรือแก้ไขโดย AI โดยใช้สัญญาณ SynthID นัยยะที่สื่อออกมานั้นชัดเจน: การตรวจสอบแหล่งที่มาของข้อมูลกำลังกลายเป็นคุณสมบัติหนึ่งของผลิตภัณฑ์.
นอกจากนี้ ยังดูเหมือนจะเป็นการเริ่มต้นของความปกติแบบใหม่ ที่ทุกคลิปวิดีโอจะมีเครื่องหมายดอกจันกำกับไว้เงียบๆ เว้นแต่ว่าระบบตรวจจับจะพัฒนาจนสามารถทำให้สถานการณ์คลี่คลายได้ อย่างไรก็ตาม ไม่มีอะไรรับประกันได้เลย.