ข่าว AI ประจำวันที่ 28 มกราคม 2026

สรุปข่าว AI ประจำวันที่ 28 มกราคม 2569

🧬 DeepMind เปิดตัว AlphaGenome เพื่อตรวจหาปัจจัยทางพันธุกรรมที่ก่อให้เกิดโรค

DeepMind เปิดตัว AlphaGenome ระบบ AI ที่มุ่งเป้าไปที่การทำนายว่าการกลายพันธุ์ของ DNA จะเปลี่ยนแปลงการควบคุมยีนอย่างไร กล่าวคือ ยีนจะเปิดทำงานเมื่อใด ที่ไหน และมากน้อยเพียงใด ระบบนี้สามารถสแกน DNA ในส่วนที่เป็นบริเวณกว้างใหญ่ได้ในคราวเดียว รวมถึงบริเวณที่ไม่เข้ารหัสซึ่งมักถูกมองว่าเป็นเหมือนสสารมืดทางชีววิทยา.

แนวคิดหลักนั้นตรงไปตรงมามาก: คือการระบุการกลายพันธุ์ที่มีความสำคัญอย่างแท้จริงต่อสิ่งต่างๆ เช่น ความเสี่ยงต่อโรคมะเร็งและโรคทางพันธุกรรมที่ซับซ้อนได้เร็วขึ้น หากได้ผลตามที่โฆษณาไว้ นักวิจัยจะใช้เวลาน้อยลงในการคาดเดาและใช้เวลามากขึ้นในการทดสอบสิ่งที่ถูกต้อง ซึ่งฟังดูเป็นเรื่องพื้นฐาน แต่ก็เป็นหัวใจสำคัญของเรื่องนี้เลยทีเดียว.

🧑💼 ลิซ เคนดัลล์ ยอมรับว่าปัญญาประดิษฐ์จะทำให้คนตกงาน

รัฐมนตรีกระทรวงเทคโนโลยีของสหราชอาณาจักรกล่าวอย่างเปิดเผยว่า การนำปัญญาประดิษฐ์มาใช้จะทำให้เกิดการสูญเสียงาน ไม่ใช่ท่าทีแบบเดิมๆ ที่ว่า “มันจะไม่เป็นไรหรอก รับรองได้” เธอชี้ให้เห็นถึงความกังวลเกี่ยวกับตำแหน่งงานสำหรับผู้จบการศึกษาใหม่ในสาขาต่างๆ เช่น กฎหมายและการเงิน และไม่ได้แสร้งทำเป็นว่าจะมีจำนวนตำแหน่งงานที่แน่นอนที่ใครๆ ก็สามารถเสนอได้.

ในขณะเดียวกัน รัฐบาลก็กำลังผลักดันอย่างหนักไปสู่การปรับตัว: ผลักดันครั้งใหญ่ในการฝึกอบรมแรงงานหลายล้านคนให้มีทักษะพื้นฐานด้าน AI โดยมีเป้าหมายที่จะทำให้สหราชอาณาจักรเป็นประเทศที่นำ AI มาใช้ได้เร็วขึ้น นี่คือความตึงเครียดแบบคลาสสิก – ใช่ งานหายไป ใช่ งานเกิดขึ้นใหม่ แต่ช่วงกลางจะไม่ราบรื่นนัก.

🗞️ สหราชอาณาจักรกำลังผลักดันให้ Google อนุญาตให้เว็บไซต์ต่างๆ สามารถเลือกที่จะไม่เข้าร่วมในการแสดงภาพรวม AI ได้

หน่วยงานกำกับดูแลการแข่งขันของสหราชอาณาจักรเสนอการเปลี่ยนแปลงที่จะอนุญาตให้ผู้เผยแพร่เลือกที่จะไม่ให้เนื้อหาของตนถูกนำไปใช้ในส่วน AI Overview ของ Google หรือเพื่อฝึกฝนโมเดล AI แบบสแตนด์อโลน โดยไม่ได้รับผลกระทบในด้านการจัดอันดับการค้นหาปกติ และส่วนที่ว่า "โดยไม่ได้รับผลกระทบ" นั้นมีความสำคัญอย่างมากในที่นี้.

แนวคิดคือการปรับสมดุลอำนาจใหม่ เนื่องจากบทสรุป AI กำลังเปลี่ยนแปลงวิธีการที่ผู้คนคลิก (หรือไม่คลิก) คำตอบของ Google โดยพื้นฐานแล้วคือ: พฤติกรรมการค้นหาเปลี่ยนแปลงไป เรากำลังพิจารณาการควบคุมเพิ่มเติม แต่ขออย่าแบ่งผลิตภัณฑ์ออกเป็นเวอร์ชันที่กระจัดกระจายจนใช้งานยาก... ซึ่งก็สมเหตุสมผล แต่ก็สะดวกเกินไปเช่นกัน.

🛡️ การรักษาข้อมูลของคุณให้ปลอดภัยเมื่อตัวแทน AI คลิกลิงก์

OpenAI ได้อธิบายถึงความเสี่ยงด้านความปลอดภัยของเอเจนต์โดยเฉพาะอย่างหนึ่ง นั่นคือ การขโมยข้อมูลผ่าน URL ซึ่งผู้โจมตีจะหลอกให้ AI โหลด URL ที่ฝังข้อมูลส่วนตัวไว้ในสตริงคำค้นหาโดยไม่ให้ผู้ใช้รู้ตัว แม้ว่าโมเดลจะไม่เคย "พูด" ข้อมูลลับนั้นออกมา แต่คำขอเองก็สามารถเปิดเผยข้อมูลได้ เป็นเรื่องที่ร้ายกาจและใช้เทคโนโลยีที่เรียบง่ายอย่างน่าตกใจ.

มาตรการบรรเทาผลกระทบของพวกเขาคือ กฎง่ายๆ ที่มีขอบเขตชัดเจน: เอเจนต์ควรดึง URL อัตโนมัติเฉพาะ URL ที่เปิดเผยต่อสาธารณะและทราบว่ามีอยู่จริงผ่านดัชนีเว็บอิสระเท่านั้น หากลิงก์ไม่ได้รับการตรวจสอบว่าเป็นสาธารณะ ระบบควรทำงานช้าลงและให้ผู้ใช้ควบคุมอีกครั้งด้วยคำเตือน - การสร้างความยุ่งยากโดยเจตนา แต่เป็นสิ่งที่ดี.

🇪🇺 บทบาทต่อไปของ AI ในสหภาพยุโรป

OpenAI ได้เผยแพร่แผนงานที่มุ่งเน้นไปที่สหภาพยุโรป โดยระบุถึงปัญหา "ความสามารถที่เกินความจำเป็น" กล่าวคือ โมเดลต่างๆ สามารถทำงานได้มากกว่าที่ผู้คนและธุรกิจกำลังใช้งานอยู่ในปัจจุบัน และช่องว่างนี้อาจทำให้เกิดผลประโยชน์ที่ไม่เท่าเทียมกันในแต่ละประเทศ มันเหมือนกับการเป็นเจ้าของรถแข่ง แต่ขับไปแค่ร้านค้าใกล้บ้าน... ยกเว้นว่าร้านค้าใกล้บ้านนั้นคือเศรษฐกิจทั้งหมดของคุณ.

นอกเหนือจากถ้อยคำที่สวยหรูแล้ว ยังมีส่วนที่เป็นรูปธรรมอยู่ด้วย เช่น โครงการฝึกอบรมทักษะด้าน AI ให้แก่ SMEs ในยุโรปหลายพันแห่ง เงินทุนสนับสนุนงานวิจัยด้านความปลอดภัยและสวัสดิภาพของเยาวชน และแนวทางการ “ทำงานร่วมกับรัฐบาล” ที่ขยายวงกว้างขึ้น มันเป็นทั้งบันทึกนโยบายและแคมเปญส่งเสริมการนำไปใช้ ซึ่งทั้งสองอย่างนี้ก็ผสมผสานกันไป.

🔐 ความเสี่ยงจาก AI กับการกำกับดูแลด้านความปลอดภัยทางไซเบอร์: ร่างรายงาน Cyber ​​AI Profile ของ NIST

ร่างเอกสารแนวทางปฏิบัติฉบับใหม่จาก NIST (จากการวิเคราะห์บทความของสำนักงานกฎหมาย) เน้นไปที่วิธีการที่องค์กรควรบูรณาการ AI เข้ากับการกำกับดูแลด้านไซเบอร์ ทั้งในด้านการรักษาความปลอดภัยของระบบ AI เอง และการใช้ AI เพื่อปรับปรุงการป้องกันภัยไซเบอร์ แม้ว่าในทางทฤษฎีจะเป็นไปโดยสมัครใจ แต่ "การสมัครใจ" ก็มีแนวโน้มที่จะกลายเป็นสิ่งที่คาดหวังได้ในที่สุด.

กลุ่มร่างเอกสารทำงานภายใต้หัวข้อต่างๆ เช่น การรักษาความปลอดภัยของส่วนประกอบ AI และการใช้งานระบบป้องกันที่ขับเคลื่อนด้วย AI รวมถึงการพิจารณาห่วงโซ่อุปทานและการทำงานอัตโนมัติแบบตัวแทนในกระบวนการตอบสนอง แนวคิดคือ ให้มอง AI เป็นทั้งช่องทางโจมตีใหม่และชุดเครื่องมือใหม่ และอย่าแสร้งทำเป็นว่าสิ่งเหล่านี้หักล้างกันได้.

คำถามที่พบบ่อย

AlphaGenome ของ DeepMind คืออะไร และมันพยายามแก้ปัญหาอะไร?

AlphaGenome คือระบบ AI ที่ DeepMind กล่าวว่าสามารถทำนายได้ว่าการกลายพันธุ์ของ DNA ส่งผลต่อการควบคุมยีนอย่างไร เช่น ยีนจะเปิดทำงานเมื่อใด เกิดขึ้นที่ใด และมีความรุนแรงเพียงใด ระบบนี้ถูกสร้างขึ้นเพื่อสแกน DNA ในปริมาณมากพร้อมกัน รวมถึงบริเวณที่ไม่ใช่ส่วนที่เข้ารหัส ซึ่งเป็นส่วนที่ตีความได้ยากมาก เป้าหมายคือการช่วยให้นักวิจัยระบุว่าการกลายพันธุ์ใดมีแนวโน้มที่จะก่อให้เกิดโรคมากที่สุด เพื่อให้การทดสอบในห้องปฏิบัติการสามารถมุ่งเน้นไปที่เบาะแสที่น่าสนใจที่สุดได้.

AlphaGenome จะช่วยให้นักวิจัยค้นหาปัจจัยทางพันธุกรรมที่ก่อให้เกิดโรคได้เร็วขึ้นได้อย่างไร?

ในกระบวนการทำงานทางพันธุศาสตร์หลายๆ กระบวนการ ปัญหาคอขวดมักเกิดจากการคัดกรองรายการตัวแปรจำนวนมหาศาลให้เหลือเพียงไม่กี่ตัวแปรที่น่าจะเปลี่ยนแปลงการทำงานของยีนได้ AlphaGenome สัญญาว่าจะลดการคาดเดาเหล่านั้นลงโดยการคาดการณ์ว่าการกลายพันธุ์เฉพาะเจาะจงอาจเปลี่ยนแปลงการควบคุมในลำดับดีเอ็นเอที่ยาวได้อย่างไร หากการคาดการณ์เหล่านั้นถูกต้อง ทีมงานสามารถจัดลำดับความสำคัญของการทดลองเกี่ยวกับตัวแปรที่น่าจะเกี่ยวข้องกับความเสี่ยงต่อโรคมะเร็งหรือโรคทางพันธุกรรมที่ซับซ้อนได้ และใช้เวลาน้อยลงกับสิ่งที่ไม่มีผล.

การนำ AI มาใช้จะส่งผลให้งานในสหราชอาณาจักรลดลงจริงหรือไม่ และตำแหน่งงานใดบ้างที่มีความเสี่ยงมากที่สุด?

ลิซ เคนดัล รัฐมนตรีว่าการกระทรวงเทคโนโลยีของสหราชอาณาจักร กล่าวว่า การนำปัญญาประดิษฐ์ (AI) มาใช้จะทำให้เกิดการสูญเสียงาน และเน้นย้ำถึงความกังวลเกี่ยวกับตำแหน่งงานสำหรับบัณฑิตจบใหม่ โดยเฉพาะอย่างยิ่งในสาขากฎหมายและการเงิน ซึ่งงานในช่วงเริ่มต้นอาชีพอาจสามารถใช้ระบบอัตโนมัติเข้ามาช่วยได้ ในขณะเดียวกัน รัฐบาลก็เน้นย้ำถึงการปรับตัวผ่านการฝึกอบรมทักษะ AI ขั้นพื้นฐานในวงกว้าง โดยยอมรับว่าการเปลี่ยนแปลงอาจดูไม่ราบรื่นนัก แม้ว่าจะมีตำแหน่งงานใหม่ๆ เกิดขึ้นก็ตาม.

สำนักพิมพ์ในสหราชอาณาจักรสามารถเลือกที่จะไม่เข้าร่วมการตรวจสอบโดย AI ของ Google โดยไม่เสียอันดับการค้นหาได้หรือไม่?

หน่วยงานกำกับดูแลการแข่งขันของสหราชอาณาจักรได้เสนอการเปลี่ยนแปลงที่จะอนุญาตให้ผู้เผยแพร่เลือกที่จะไม่ให้เนื้อหาของตนถูกนำไปใช้ในส่วนสรุป AI ของ Google หรือเพื่อฝึกฝนโมเดล AI แบบสแตนด์อโลน โดยไม่ได้รับผลกระทบต่อการจัดอันดับการค้นหามาตรฐาน เป้าหมายคือการปรับสมดุลอำนาจ เนื่องจากบทสรุป AI เปลี่ยนแปลงพฤติกรรมการคลิก Google ได้ส่งสัญญาณว่ากำลังพิจารณาการควบคุมเพิ่มเติม พร้อมทั้งเตือนถึงประสบการณ์การค้นหาที่กระจัดกระจาย.

ตัวแทน AI สามารถรั่วไหลข้อมูลส่วนตัวได้อย่างไรเพียงแค่คลิกลิงก์?

OpenAI อธิบายถึงความเสี่ยงในการรั่วไหลของข้อมูลผ่าน URL โดยที่ผู้โจมตีจะสั่งให้ตัวแทน AI ดึงลิงก์ที่ฝังข้อมูลสำคัญไว้ในสตริงคำค้นหาโดยไม่ให้ผู้ใช้รู้ตัว แม้ว่าโมเดลจะไม่แสดงข้อมูลลับนั้นซ้ำในผลลัพธ์ แต่คำขอเองก็สามารถส่งข้อมูลนั้นไปได้ วิธีการแก้ไขที่ใช้กันทั่วไปคือการเพิ่ม "อุปสรรคโดยเจตนา" เช่น การแจ้งเตือนและการขอให้ผู้ใช้ยืนยันเมื่อลิงก์นั้นไม่ได้รับการตรวจสอบอย่างอิสระว่าเป็นลิงก์สาธารณะ.

ร่างเอกสาร Cyber ​​AI Profile ของ NIST คืออะไร และจะเปลี่ยนแปลงการกำกับดูแลด้านไซเบอร์อย่างไร?

ร่างเอกสารมาตรฐาน NIST (ที่กล่าวถึงในการวิเคราะห์ทางกฎหมาย) ระบุว่า AI เป็นทั้งสิ่งที่ต้องรักษาความปลอดภัยและสิ่งที่ใช้ในการป้องกันภัยไซเบอร์ โดยแบ่งงานออกเป็นหัวข้อต่างๆ เช่น การรักษาความปลอดภัยของส่วนประกอบ AI การจัดการความเสี่ยงในห่วงโซ่อุปทาน และการใช้งานระบบป้องกันที่ใช้ AI รวมถึงเวิร์กโฟลว์การตอบสนองแบบอัตโนมัติมากขึ้น แม้ว่าจะมีชื่อเรียกที่ดูเป็นไปโดยสมัครใจ แต่กรอบการทำงานเช่นนี้มักกลายเป็นความคาดหวังโดยปริยาย ผลักดันให้องค์กรต่างๆ ต้องนำ AI มาผนวกเข้ากับการกำกับดูแลและการควบคุมอย่างเป็นทางการ.

ข่าวสารด้าน AI เมื่อวานนี้: 27 มกราคม 2026

ค้นหา AI รุ่นล่าสุดได้ที่ร้านค้าผู้ช่วย AI อย่างเป็นทางการ

เกี่ยวกับเรา

กลับไปที่บล็อก