บทบาทของบริษัทเทคโนโลยีขนาดใหญ่ในด้านปัญญาประดิษฐ์คืออะไร?

บทบาทของบริษัทเทคโนโลยีขนาดใหญ่ในด้านปัญญาประดิษฐ์คืออะไร?

คำตอบสั้นๆ: บริษัทเทคโนโลยีขนาดใหญ่มีความสำคัญในด้าน AI เพราะพวกเขามีอำนาจควบคุมสิ่งจำเป็นที่ไม่โดดเด่นนัก เช่น การประมวลผล แพลตฟอร์มคลาวด์ อุปกรณ์ ร้านค้าแอป และเครื่องมือสำหรับองค์กร การควบคุมนี้ทำให้พวกเขาสามารถให้เงินทุนสนับสนุนโมเดลล้ำสมัยและส่งมอบฟีเจอร์ต่างๆ ให้กับผู้คนหลายพันล้านคนได้อย่างรวดเร็ว หากการกำกับดูแล การควบคุมความเป็นส่วนตัว และการทำงานร่วมกันอ่อนแอ อำนาจต่อรองเดียวกันนี้ก็จะกลายเป็นการผูกขาดและการกระจุกตัวของอำนาจ

ประเด็นสำคัญ:

โครงสร้างพื้นฐาน: พิจารณาการควบคุมระบบคลาวด์ ชิป และ MLOps เป็นจุดคอขวดหลักของ AI.

การเผยแพร่: คาดว่าการอัปเดตแพลตฟอร์มจะเป็นตัวกำหนดความหมายของ “AI” สำหรับผู้ใช้ส่วนใหญ่

การคัดกรอง: กฎของแอปสโตร์และข้อกำหนด API เป็นตัวกำหนดอย่างเงียบๆ ว่าฟีเจอร์ AI ใดบ้างที่จะถูกปล่อยออกมา

การควบคุมโดยผู้ใช้: เรียกร้องให้มีการยกเลิกการใช้งานที่ชัดเจน การตั้งค่าที่คงทน และการควบคุมโดยผู้ดูแลระบบที่ใช้งานได้จริง

ความรับผิดชอบ: กำหนดให้มีการบันทึกการตรวจสอบ การเปิดเผยข้อมูล และช่องทางการอุทธรณ์สำหรับผลลัพธ์ที่เป็นอันตราย

บทบาทของบริษัทเทคโนโลยีขนาดใหญ่ในด้านปัญญาประดิษฐ์คืออะไร? (อินโฟกราฟิก)

🔗 อนาคตของ AI: แนวโน้มและสิ่งที่จะเกิดขึ้นต่อไป
นวัตกรรมสำคัญ ความเสี่ยง และอุตสาหกรรมต่างๆ จะได้รับการปรับเปลี่ยนโฉมในทศวรรษหน้า.

🔗 แบบจำลองพื้นฐานในปัญญาประดิษฐ์เชิงสร้างสรรค์: คู่มือฉบับย่อ
ทำความเข้าใจว่าแบบจำลองพื้นฐานขับเคลื่อนแอปพลิเคชัน AI เชิงสร้างสรรค์สมัยใหม่ได้อย่างไร.

🔗 บริษัท AI คืออะไร และทำงานอย่างไร
เรียนรู้คุณลักษณะ ทีมงาน และผลิตภัณฑ์ที่กำหนดนิยามของธุรกิจที่ขับเคลื่อนด้วย AI เป็นหลัก.

🔗 โค้ด AI ในโปรเจ็กต์จริงมีหน้าตาอย่างไร
ดูตัวอย่างรูปแบบการเขียนโค้ด เครื่องมือ และเวิร์กโฟลว์ที่ขับเคลื่อนด้วย AI.

มาพูดกันตรงๆ สักหน่อย – บทสนทนาเกี่ยวกับ AI ส่วนใหญ่ มักมองข้ามส่วนที่ไม่น่าดึงดูดใจอย่างเช่น การประมวลผล การกระจาย การจัดซื้อ การปฏิบัติตามกฎระเบียบ และความจริงที่น่าอึดอัดใจที่ว่าใครสักคนต้องจ่ายค่า GPU และค่าไฟฟ้า บริษัทเทคโนโลยีขนาดใหญ่ทำงานอยู่ในส่วนที่ไม่น่าดึงดูดใจเหล่านั้น ซึ่งนั่นเป็นเหตุผลว่าทำไมมันถึงสำคัญมาก 😅 ( IEA - พลังงานและ AI , NVIDIA - ภาพรวมแพลตฟอร์มการอนุมาน AI )


บทบาทของ AI ในบริษัทเทคโนโลยียักษ์ใหญ่ อธิบายง่ายๆ 🧩

เมื่อคนพูดว่า "บริษัทเทคโนโลยียักษ์ใหญ่" พวกเขามักหมายถึงบริษัทแพลตฟอร์มขนาดใหญ่ที่ควบคุมส่วนสำคัญของระบบคอมพิวเตอร์สมัยใหม่:

ดังนั้นบทบาทของพวกเขาจึงไม่ใช่แค่ "พวกเขาสร้าง AI" เท่านั้น แต่เหมือนกับว่าพวกเขาสร้างทางหลวง ขายรถยนต์ บริหารด่านเก็บค่าผ่านทาง และยังตัดสินใจด้วยว่าทางออกควรอยู่ตรงไหน อาจจะพูดเกินจริงไปหน่อย...แต่ก็ไม่มากนัก.


บทบาทของบริษัทเทคโนโลยีขนาดใหญ่ในด้าน AI: งานหลัก 5 อย่าง 🏗️

หากคุณต้องการภาพจำที่ชัดเจน บริษัทเทคโนโลยีขนาดใหญ่มีแนวโน้มที่จะทำหน้าที่ซ้ำซ้อนกัน 5 อย่างในโลกของ AI:

  1. ผู้ให้บริการโครงสร้างพื้นฐาน
    ศูนย์ข้อมูล คลาวด์ เครือข่าย ความปลอดภัย เครื่องมือ MLOps สิ่งต่างๆ ที่ทำให้ AI สามารถใช้งานได้จริงในระดับใหญ่ ( เอกสาร Amazon SageMaker AI , IEA - พลังงานและ AI )

  2. เครื่องมือสร้างแบบจำลองและวิจัย
    ไม่เสมอไป แต่บ่อยครั้ง - ห้องปฏิบัติการ การวิจัยและพัฒนาภายใน การวิจัยประยุกต์ และ "วิทยาศาสตร์ที่นำไปสู่ผลิตภัณฑ์" ( กฎการปรับขนาดสำหรับแบบจำลองภาษาประสาท (arXiv) การ ฝึกอบรมแบบจำลองภาษาขนาดใหญ่ที่เหมาะสมที่สุดสำหรับการคำนวณ (Chinchilla) (arXiv) )

  3. ผู้จัดจำหน่าย
    พวกเขาสามารถผลักดัน AI เข้าสู่ช่องค้นหา โทรศัพท์ โปรแกรมอีเมล ระบบโฆษณา และเครื่องมือในที่ทำงานได้ การจัดจำหน่ายคือพลังอันยิ่งใหญ่

  4. ผู้ดูแลและผู้กำหนด
    กฎเกณฑ์ นโยบายของ App Store, กฎของแพลตฟอร์ม, ข้อกำหนด API, การกลั่นกรองเนื้อหา, เกณฑ์ความปลอดภัย, การควบคุมระดับองค์กร ( แนวทางการตรวจสอบแอปของ Apple , ความปลอดภัยของข้อมูล Google Play )

  5. ผู้จัดสรรเงินทุน
    พวกเขาให้เงินทุน เข้าซื้อกิจการ ร่วมมือ และบ่มเพาะธุรกิจ พวกเขาเป็นผู้กำหนดว่าอะไรจะอยู่รอดต่อไป

นั่นคือบทบาทของบริษัทเทคโนโลยียักษ์ใหญ่ในด้านปัญญาประดิษฐ์ในเชิงปฏิบัติ: พวกเขาสร้างเงื่อนไขให้ปัญญาประดิษฐ์เกิดขึ้นได้ แล้วจึงตัดสินใจว่าปัญญาประดิษฐ์จะเข้าถึงคุณได้อย่างไร.


อะไรคือสิ่งที่ทำให้บทบาทของ AI ในบริษัทเทคโนโลยีขนาดใหญ่เป็นไปในทางที่ดี ✅😬

“เวอร์ชันที่ดี” ของบริษัทเทคโนโลยีขนาดใหญ่ในด้าน AI ไม่ได้หมายถึงความสมบูรณ์แบบ แต่หมายถึงการประนีประนอมอย่างมีความรับผิดชอบ และลดปัญหาที่ไม่คาดคิดสำหรับทุกคน.

ต่อไปนี้คือสิ่งที่มักจะแยกแยะความรู้สึกแบบ "ยักษ์ใหญ่ใจดี" ออกจากความรู้สึกแบบ "แย่แล้ว บริษัทผูกขาด":

  • ความโปร่งใสโดยไม่ใช้ศัพท์เฉพาะทางที่เข้าใจ
    ยาก การระบุคุณสมบัติ ข้อจำกัด และข้อมูลที่ใช้ของ AI อย่างชัดเจน ไม่ใช่เอกสารนโยบายยาวเหยียด 40 หน้า ( NIST AI RMF 1.0 , ISO/IEC 42001:2023 )

  • การควบคุมของผู้ใช้อย่างแท้จริง
    : การยกเลิกการใช้งานที่ได้ผล การตั้งค่าความเป็นส่วนตัวที่ไม่ถูกรีเซ็ตโดยไม่ทราบสาเหตุ และการควบคุมของผู้ดูแลระบบที่ไม่ยุ่งยาก ( GDPR - ระเบียบ (EU) 2016/679 )

  • ความสามารถในการทำงานร่วมกันและความเปิดกว้าง - บางครั้ง
    ไม่จำเป็นต้องเป็นโอเพนซอร์สทุกอย่าง แต่การผูกมัดทุกคนไว้กับผู้จำหน่ายรายเดียวตลอดไปนั้น...ก็เป็นทางเลือกหนึ่ง

  • ความปลอดภัยที่มีประสิทธิภาพ
    การตรวจสอบการละเมิด การทดสอบเจาะระบบ การควบคุมเนื้อหา และความเต็มใจที่จะบล็อกกรณีการใช้งานที่มีความเสี่ยงอย่างเห็นได้ชัด ( NIST AI RMF 1.0 , โปรไฟล์ NIST GenAI (คู่มือประกอบ AI RMF) )

  • ระบบนิเวศที่แข็งแรง
    สนับสนุนสตาร์ทอัพ พันธมิตร นักวิจัย และมาตรฐานแบบเปิด เพื่อให้นวัตกรรมไม่กลายเป็น “เช่าแพลตฟอร์มหรือหายไป” ( หลักการ AI ของ OECD )

ผมจะพูดตรงๆ เลยว่า “เวอร์ชั่นที่ดี” ให้ความรู้สึกเหมือนเป็นสาธารณูปโภคที่มั่นคงและมีรสชาติสินค้าที่ยอดเยี่ยม ส่วนเวอร์ชั่นที่แย่ให้ความรู้สึกเหมือนคาสิโนที่เจ้ามือเป็นคนกำหนดกฎเอง 🎰


ตารางเปรียบเทียบ: “ช่องทาง AI” ชั้นนำของบริษัทเทคโนโลยียักษ์ใหญ่ และเหตุผลที่มันได้ผล 📊

เครื่องมือ (เลน) ผู้ชม ราคา เหตุผลที่มันได้ผล
แพลตฟอร์ม AI บนคลาวด์ องค์กรขนาดใหญ่, สตาร์ทอัพ อิงตามการใช้งานโดยประมาณ ปรับขนาดได้ง่าย ออกใบแจ้งหนี้เพียงครั้งเดียว มีตัวเลือกมากมาย (เยอะเกินไป)
API ของโมเดล Frontier นักพัฒนา ทีมผลิตภัณฑ์ จ่ายตามจำนวนโทเค็น / แบบแบ่งระดับ ผสานรวมได้รวดเร็ว คุณภาพพื้นฐานดี รู้สึกเหมือนโกงเลย 😅
ปัญญาประดิษฐ์แบบฝังตัวในอุปกรณ์ ผู้บริโภค ผู้ผลิตและผู้บริโภค มัดรวม ความหน่วงต่ำ เป็นมิตรต่อความเป็นส่วนตัวในบางครั้ง และใช้งานได้แบบออฟไลน์ในระดับหนึ่ง
ชุดโปรแกรมเพิ่มประสิทธิภาพ AI ทีมงานสำนักงาน ส่วนเสริมต่อที่นั่ง ใช้ชีวิตอยู่กับขั้นตอนการทำงานประจำวัน - เอกสาร อีเมล การประชุม และงานบ้านต่างๆ
โฆษณา + AI กำหนดเป้าหมาย นักการตลาด เปอร์เซ็นต์ของยอดใช้จ่าย ข้อมูลขนาดใหญ่ + การกระจายข้อมูล = มีประสิทธิภาพ แถมยังดูน่ากลัวนิดหน่อยด้วย 👀
AI ด้านความปลอดภัยและการปฏิบัติตามกฎระเบียบ อุตสาหกรรมที่อยู่ภายใต้การกำกับดูแล พรีเมียม ขาย "ความสบายใจ" - แม้ว่าจะเป็นเพียงการแจ้งเตือนที่น้อยลงก็ตาม
ชิป AI + ตัวเร่งความเร็ว ทุกคนต้นน้ำ การลงทุนด้านทุนสูง ถ้าคุณมีพลั่ว คุณก็ชนะการล่าทอง (เป็นคำเปรียบเทียบที่ฟังดูไม่ค่อยดี แต่ก็เป็นความจริง)
การเล่นในระบบนิเวศแบบเปิด ผู้สร้าง นักวิจัย แพ็กเกจแบบฟรีและแบบเสียค่าใช้จ่าย แรงผลักดันจากชุมชน การพัฒนาที่รวดเร็วขึ้น และความสนุกที่บางครั้งก็เกินขอบเขต

สารภาพตามตรงเลยว่า คำว่า “เกือบฟรี” นั้นมีความหมายลึกซึ้งมาก ฟรีจนกระทั่งมันไม่ฟรีอีกต่อไป… คุณก็คงเข้าใจใช่ไหม.


ภาพระยะใกล้: จุดคอขวดด้านโครงสร้างพื้นฐาน (การประมวลผล, คลาวด์, ชิป) 🧱⚙️

นี่คือส่วนที่คนส่วนใหญ่ไม่อยากพูดถึง เพราะมันดูไม่น่าดึงดูดใจ แต่เป็นหัวใจสำคัญของปัญญาประดิษฐ์ (AI).

บริษัทเทคโนโลยีขนาดใหญ่มีอิทธิพลต่อ AI โดยการควบคุม:

  • การจัดหาทรัพยากรการประมวลผล (การเข้าถึง GPU, คลัสเตอร์, การจัดตารางเวลา) ( IEA - ความต้องการพลังงานจาก AI )

  • ระบบเครือข่าย (การเชื่อมต่อความเร็วสูง, โครงสร้างพื้นฐานที่มีความหน่วงต่ำ)

  • ระบบจัดเก็บข้อมูล (ดาต้าเลค, ระบบเรียกค้นข้อมูล, ระบบสำรองข้อมูล)

  • ไปป์ไลน์ MLOps (การฝึกอบรม การปรับใช้ การตรวจสอบ การกำกับดูแล) ( MLOps บน Vertex AI สถาปัตยกรรม Azure MLOps )

  • ความปลอดภัย (การระบุตัวตน, บันทึกการตรวจสอบ, การเข้ารหัส, การบังคับใช้นโยบาย) ( NIST AI RMF 1.0 , ISO/IEC 42001:2023 )

ถ้าคุณเคยลองนำระบบ AI ไปใช้งานในบริษัทจริง ๆ คุณคงรู้แล้วว่า "โมเดล" นั้นเป็นส่วนที่ง่าย ส่วนที่ยากคือ: การอนุญาต การบันทึกข้อมูล การเข้าถึงข้อมูล การควบคุมต้นทุน เวลาการทำงาน การรับมือกับเหตุการณ์ฉุกเฉิน... เรื่องที่ซับซ้อนกว่านั้น 😵💫

เนื่องจากบริษัทเทคโนโลยียักษ์ใหญ่เป็นเจ้าของสิ่งเหล่านี้เป็นจำนวนมาก พวกเขาจึงสามารถกำหนดรูปแบบเริ่มต้นได้:

  • เครื่องมือใดบ้างที่จะกลายเป็นมาตรฐาน

  • เฟรมเวิร์กใดบ้างที่ได้รับการสนับสนุนชั้นหนึ่ง

  • ฮาร์ดแวร์ใดจะได้รับความสำคัญเป็นอันดับแรก

  • รูปแบบการกำหนดราคาแบบใดที่จะกลายเป็น “เรื่องปกติ”

นั่นไม่ได้หมายความว่าชั่วร้ายโดยอัตโนมัติ แต่มันคืออำนาจ.


ภาพระยะใกล้: ผลการวิจัยแบบจำลองเทียบกับความเป็นจริงของผลิตภัณฑ์ 🧪➡️🛠️

นี่คือความขัดแย้ง: บริษัทเทคโนโลยีขนาดใหญ่สามารถให้ทุนสนับสนุนการวิจัยเชิงลึกได้ และยังต้องการผลิตภัณฑ์ที่ประสบความสำเร็จในแต่ละไตรมาส การผสมผสานนี้ก่อให้เกิดความก้าวหน้าที่น่าทึ่ง แต่ก็ยังก่อให้เกิด... การเปิดตัวฟีเจอร์ใหม่ที่น่าสงสัยด้วยเช่นกัน.

โดยทั่วไปแล้ว บริษัทเทคโนโลยีขนาดใหญ่จะขับเคลื่อนความก้าวหน้าของ AI ผ่านทาง:

  • การทดลองฝึกฝนขนาดใหญ่ (ขนาดมีความสำคัญ) ( กฎการปรับขนาดสำหรับแบบจำลองภาษาประสาท (arXiv) )

  • กระบวนการประเมินภายใน (การเปรียบเทียบประสิทธิภาพ การทดสอบความปลอดภัย การตรวจสอบการถดถอย) ( โปรไฟล์ NIST GenAI (คู่มือ AI RMF) )

  • การวิจัยประยุกต์ (การนำผลงานวิจัยไปสู่พฤติกรรมของผลิตภัณฑ์)

  • การปรับปรุงเครื่องมือ (การกลั่น การอัด การเพิ่มประสิทธิภาพในการเสิร์ฟ)

แต่แรงกดดันด้านผลิตภัณฑ์ทำให้ทุกอย่างเปลี่ยนไป:

  • ความเร็วชนะความสง่างาม

  • การจัดส่งสินค้าดีกว่าการอธิบาย

  • คำว่า “ดีพอแล้ว” ดีกว่าคำว่า “เข้าใจอย่างถ่องแท้”

บางครั้งก็ไม่เป็นไร ผู้ใช้ส่วนใหญ่ไม่ต้องการความถูกต้องทางทฤษฎี พวกเขาต้องการผู้ช่วยที่เป็นประโยชน์ในขั้นตอนการทำงานของพวกเขา แต่ความเสี่ยงคือ "ดีพอแล้ว" อาจถูกนำไปใช้ในบริบทที่ละเอียดอ่อน (สุขภาพ การจ้างงาน การเงิน การศึกษา) ซึ่ง "ดีพอแล้ว" นั้น...ไม่ดีพอจริงๆ ( กฎหมาย AI ของสหภาพยุโรป - ระเบียบ (EU) 2024/1689 )

นี่เป็นส่วนหนึ่งของบทบาทของบริษัทเทคโนโลยีขนาดใหญ่ในด้าน AI นั่นคือ การแปลงความสามารถล้ำสมัยให้เป็นฟีเจอร์ที่เข้าถึงได้ง่ายสำหรับตลาดมวลชน แม้ว่าบางส่วนอาจยังไม่สมบูรณ์ก็ตาม 🔪


ภาพระยะใกล้: การกระจายสินค้าคือพลังอำนาจที่แท้จริง 🚀📣

หากคุณสามารถนำ AI เข้าไปใช้ในพื้นที่ดิจิทัลที่ผู้คนใช้ชีวิตอยู่แล้วได้ คุณก็ไม่จำเป็นต้อง "โน้มน้าว" ผู้ใช้ คุณก็จะกลายเป็นตัวเลือกมาตรฐานไปโดยปริยาย.

ช่องทางการจัดจำหน่ายของบริษัทเทคโนโลยีขนาดใหญ่ ได้แก่:

นี่คือเหตุผลที่บริษัท AI ขนาดเล็กมักร่วมมือกับบริษัทเทคโนโลยีขนาดใหญ่ แม้ว่าพวกเขาจะรู้สึกกังวลก็ตาม การกระจายสินค้าเปรียบเสมือนออกซิเจน หากปราศจากมัน คุณอาจมีโมเดลที่ดีที่สุดในโลก แต่ก็ยังเหมือนกับการตะโกนอยู่ในความว่างเปล่า.

นอกจากนี้ยังมีผลข้างเคียงที่มองไม่เห็นอีกอย่างหนึ่งคือ การเผยแพร่มีผลต่อความหมายของ "AI" ในสายตาของสาธารณชน หาก AI ปรากฏในฐานะเครื่องมือช่วยในการเขียนเป็นหลัก ผู้คนก็จะคิดว่า AI เกี่ยวกับการเขียน หากปรากฏในฐานะการแก้ไขภาพ ผู้คนก็จะคิดว่า AI เกี่ยวกับภาพ แพลตฟอร์มเป็นตัวกำหนดบรรยากาศโดยรวม.


เจาะลึก: ข้อมูล ความเป็นส่วนตัว และข้อตกลงเรื่องความไว้วางใจ 🔐🧠

ระบบ AI มักจะมีประสิทธิภาพมากขึ้นเมื่อได้รับการปรับแต่งให้เหมาะสมกับแต่ละบุคคล การปรับแต่งให้เหมาะสมกับแต่ละบุคคลมักต้องการข้อมูล และข้อมูลก็ก่อให้เกิดความเสี่ยง สามเหลี่ยมนี้ไม่มีวันหายไป.

บริษัทเทคโนโลยียักษ์ใหญ่ครองส่วนแบ่งตลาด:

  • ข้อมูลพฤติกรรมผู้บริโภค (การค้นหา การคลิก ความชอบ)

  • ข้อมูลระดับองค์กร (อีเมล เอกสาร แชท ตั๋วงาน ขั้นตอนการทำงาน)

  • ข้อมูลแพลตฟอร์ม (แอปพลิเคชัน การชำระเงิน สัญญาณยืนยันตัวตน)

  • ข้อมูลอุปกรณ์ (ตำแหน่งที่ตั้ง เซ็นเซอร์ รูปภาพ ข้อมูลเสียง)

แม้ว่า "ข้อมูลดิบ" จะไม่ได้ถูกนำมาใช้โดยตรง แต่ระบบนิเวศโดยรอบก็มีส่วนในการกำหนดรูปแบบการฝึกอบรม การปรับแต่ง การประเมินผล และทิศทางของผลิตภัณฑ์.

ข้อตกลงเรื่องความไว้วางใจมักมีลักษณะดังนี้:

  • ผู้ใช้ยินยอมให้เก็บข้อมูลเนื่องจากผลิตภัณฑ์ใช้งานสะดวก 🧃

  • หน่วยงานกำกับดูแลจะออกมาต่อต้านเมื่อมันเริ่มน่ากลัว 👀 ( GDPR - ระเบียบ (EU) 2016/679 )

  • บริษัทต่างๆ ตอบสนองด้วยการควบคุม นโยบาย และข้อความที่เน้น “ความเป็นส่วนตัวเป็นอันดับแรก”

  • ทุกคนต่างถกเถียงกันว่า “ความเป็นส่วนตัว” หมายถึงอะไร

กฎง่ายๆ ที่ผมเคยเห็นว่าได้ผลคือ: ถ้าบริษัทสามารถอธิบายแนวทางการใช้ข้อมูล AI ของตนได้ภายในบทสนทนาเดียว โดยไม่ต้องใช้ศัพท์ทางกฎหมายที่ซับซ้อน โดยทั่วไปแล้วบริษัทนั้นมักจะทำได้ดีกว่าค่าเฉลี่ย ไม่ใช่ว่าสมบูรณ์แบบ แต่ดีกว่าแน่นอน.


เจาะลึก: การปกครอง ความปลอดภัย และเกมแห่งอิทธิพลที่ซ่อนเร้น 🧯📜

นี่คือบทบาทที่ไม่ค่อยปรากฏให้เห็น: บริษัทเทคโนโลยีขนาดใหญ่มักมีส่วนช่วยกำหนดกฎเกณฑ์ที่ทุกคนปฏิบัติตาม.

พวกเขามีส่วนในการกำหนดรูปแบบการปกครองผ่านทาง:

บางครั้งสิ่งนี้ก็มีประโยชน์อย่างแท้จริง บริษัทเทคโนโลยีขนาดใหญ่สามารถลงทุนในทีมความปลอดภัย เครื่องมือสร้างความน่าเชื่อถือ การตรวจจับการละเมิด และโครงสร้างพื้นฐานด้านการปฏิบัติตามกฎระเบียบ ซึ่งผู้เล่นรายเล็กไม่สามารถลงทุนได้.

บางครั้งมันก็เป็นการเห็นแก่ประโยชน์ส่วนตน ความปลอดภัยอาจกลายเป็นปราการที่เฉพาะผู้เล่นรายใหญ่ที่สุดเท่านั้นที่สามารถ "จ่าย" เพื่อปฏิบัติตามได้ นี่คือภาวะกลืนไม่เข้าคายไม่ออก: ความปลอดภัยเป็นสิ่งจำเป็น แต่ความปลอดภัยที่มีราคาแพงอาจทำให้การแข่งขันหยุดชะงักโดยไม่ตั้งใจ ( กฎหมาย AI ของสหภาพยุโรป - ระเบียบ (EU) 2024/1689 )

ตรงนี้แหละที่ความแตกต่างเล็กน้อยมีความสำคัญ ไม่ใช่ความแตกต่างเล็กน้อยที่สนุกสนานนะ แต่เป็นความแตกต่างเล็กน้อยที่น่ารำคาญต่างหาก 😬


เจาะลึก: การแข่งขัน ระบบนิเวศแบบเปิด และแรงดึงดูดของสตาร์ทอัพ 🧲🌱

บทบาทของบริษัทเทคโนโลยีขนาดใหญ่ในด้านปัญญาประดิษฐ์ยังรวมถึงการกำหนดรูปแบบของตลาดด้วย:

  • การเข้าซื้อกิจการ (บุคลากร เทคโนโลยี การจัดจำหน่าย)

  • ความร่วมมือ (โมเดลที่โฮสต์บนระบบคลาวด์ ข้อตกลงร่วมทุนระหว่างองค์กร)

  • การสนับสนุนระบบนิเวศ (สินเชื่อ โครงการบ่มเพาะ ตลาดซื้อขาย)

  • เครื่องมือแบบเปิด (เฟรมเวิร์ก ไลบรารี เวอร์ชันที่ "ค่อนข้างเปิด")

มีรูปแบบหนึ่งที่ฉันสังเกตเห็นซ้ำแล้วซ้ำเล่า:

  1. บริษัทสตาร์ทอัพคิดค้นนวัตกรรมได้อย่างรวดเร็ว

  2. บริษัทเทคโนโลยีขนาดใหญ่บูรณาการหรือลอกเลียนแบบรูปแบบที่ประสบความสำเร็จ

  3. บริษัทสตาร์ทอัพปรับเปลี่ยนกลยุทธ์ไปสู่ตลาดเฉพาะกลุ่ม หรือกลายเป็นเป้าหมายของการถูกซื้อกิจการ

  4. ชั้น "แพลตฟอร์ม" หนาขึ้น

นั่นไม่ได้แย่เสมอไป แพลตฟอร์มสามารถลดอุปสรรคและทำให้ AI เข้าถึงได้ง่ายขึ้น แต่ก็อาจลดความหลากหลายลงได้เช่นกัน หากทุกผลิตภัณฑ์กลายเป็น "ตัวห่อหุ้มรอบ API ไม่กี่ตัวเดิมๆ" นวัตกรรมก็จะเริ่มรู้สึกเหมือนกับการจัดเรียงเฟอร์นิเจอร์ใหม่ในอพาร์ตเมนต์เดิมๆ.

การแข่งขันที่ไม่เป็นระเบียบเล็กน้อยนั้นเป็นสิ่งที่ดี เหมือนกับหัวเชื้อขนมปังซาวร์โดว์ ถ้าคุณฆ่าเชื้อทุกอย่าง มันก็จะหยุดขึ้นฟู คำเปรียบเทียบนี้อาจไม่สมบูรณ์แบบนัก แต่ฉันก็ยังจะใช้มันต่อไป 🍞


ใช้ชีวิตด้วยความตื่นเต้นและความระมัดระวังไปพร้อมๆ กัน 😄😟

ทั้งสองความรู้สึกเข้ากันได้ดี ความตื่นเต้นและความระมัดระวังสามารถอยู่ร่วมกันได้.

เหตุผลที่น่าตื่นเต้น:

  • การนำเครื่องมือที่เป็นประโยชน์มาใช้งานได้อย่างรวดเร็วยิ่งขึ้น

  • โครงสร้างพื้นฐานและความน่าเชื่อถือที่ดีกว่า

  • ลดอุปสรรคสำหรับธุรกิจในการนำ AI มาใช้

  • การลงทุนด้านความปลอดภัยและการกำหนดมาตรฐานที่มากขึ้น ( NIST AI RMF 1.0 , หลักการ AI ของ OECD )

เหตุผลที่ควรระมัดระวัง:

  • การรวมศูนย์การประมวลผลและการกระจาย ( IEA - ความต้องการพลังงานจาก AI )

  • การผูกขาดผ่านการกำหนดราคา API และระบบนิเวศ

  • ความเสี่ยงด้านความเป็นส่วนตัวและผลลัพธ์ที่เกี่ยวข้องกับการสอดส่อง ( GDPR - ระเบียบ (EU) 2016/679 )

  • นโยบายของบริษัทหนึ่งกำลังกลายเป็นความจริงของทุกคน

มุมมองที่สมจริงคือ: บริษัทเทคโนโลยีขนาดใหญ่สามารถเร่งการพัฒนา AI ให้กับโลกได้ ในขณะเดียวกันก็ทำให้เกิดการกระจุกตัวของอำนาจ ซึ่งทั้งสองอย่างนี้สามารถเป็นจริงได้พร้อมกัน ผู้คนไม่ชอบคำตอบนี้เพราะมันดูขาดความน่าสนใจ แต่ก็สอดคล้องกับหลักฐานที่มีอยู่.


ข้อคิดที่นำไปใช้ได้จริงสำหรับผู้อ่านหลากหลายกลุ่ม 🎯

หากคุณเป็นผู้ซื้อเพื่อธุรกิจ 🧾

  • สอบถามว่าข้อมูลของคุณไปอยู่ที่ไหน มีการแยกข้อมูลอย่างไร และผู้ดูแลระบบสามารถควบคุมอะไรได้บ้าง ( GDPR - ระเบียบ (EU) 2016/679 , กฎหมาย AI ของสหภาพยุโรป - ระเบียบ (EU) 2024/1689 )

  • ให้ความสำคัญกับการบันทึกการตรวจสอบ การควบคุมการเข้าถึง และนโยบายการเก็บรักษาข้อมูลที่ชัดเจน ( ISO/IEC 42001:2023 )

  • ระวังต้นทุนแฝง (การคิดราคาตามการใช้งานอาจเปลี่ยนแปลงอย่างรวดเร็ว)

ถ้าคุณเป็นนักพัฒนา 🧑💻

  • ออกแบบโดยคำนึงถึงความสามารถในการพกพา (เลเยอร์นามธรรมช่วยได้)

  • อย่าทุ่มทุกอย่างไปกับฟีเจอร์เดียวของผู้จำหน่าย เพราะมันอาจหายไปได้

  • ติดตามข้อจำกัดด้านอัตราการใช้งาน การเปลี่ยนแปลงราคา และการอัปเดตนโยบายต่างๆ ราวกับเป็นส่วนหนึ่งของงานของคุณ (เพราะมันคืองานของคุณจริงๆ) ( หลักเกณฑ์การตรวจสอบแอปของ Apple , ความปลอดภัยของข้อมูลใน Google Play )

หากคุณเป็นผู้กำหนดนโยบายหรือหัวหน้าฝ่ายกำกับดูแล 🏛️

ถ้าคุณเป็นผู้ใช้งานประจำ 🙋

  • เรียนรู้ว่าฟีเจอร์ AI อยู่ที่ใดในแอปของคุณ

  • ควรใช้การควบคุมความเป็นส่วนตัว แม้ว่ามันจะสร้างความรำคาญบ้างก็ตาม ( GDPR - ระเบียบ (EU) 2016/679 )

  • อย่าเชื่อผลลัพธ์ที่ดูเหมือน "มหัศจรรย์" มากเกินไป - AI มั่นใจ แต่ไม่ได้ถูกต้องเสมอไป 😵


บทสรุป: บทบาทของบริษัทเทคโนโลยียักษ์ใหญ่ในด้านปัญญาประดิษฐ์ 🧠✨

บทบาทของบริษัทเทคโนโลยียักษ์ใหญ่ในด้านปัญญาประดิษฐ์ (AI) ไม่ได้มีแค่เรื่องเดียว แต่เป็นบทบาทที่หลากหลาย ได้แก่ เจ้าของโครงสร้างพื้นฐาน ผู้สร้างแบบจำลอง ผู้จัดจำหน่าย ผู้ควบคุมการเข้าถึง และผู้กำหนดทิศทางตลาด พวกเขาไม่ได้แค่มีส่วนร่วมใน AI เท่านั้น แต่ยังเป็นผู้กำหนดสภาพแวดล้อมที่ AI จะเติบโตขึ้นด้วย.

ถ้าคุณจำได้แค่ประโยคเดียว ขอให้จำประโยคนี้ไว้:

บทบาทของบริษัทเทคโนโลยีขนาดใหญ่ในด้านปัญญาประดิษฐ์
คือการสร้างโครงสร้างพื้นฐาน กำหนดค่าเริ่มต้น และชี้นำวิธีการที่ปัญญาประดิษฐ์เข้าถึงมนุษย์ ในระดับมหาศาล ซึ่งส่งผลกระทบอย่างใหญ่หลวง ( NIST AI RMF 1.0 , กฎหมายปัญญาประดิษฐ์ของสหภาพยุโรป - ระเบียบ (EU) 2024/1689 )

ใช่แล้ว คำว่า “ผลที่ตามมา” ฟังดูรุนแรงไปหน่อย แต่ AI ก็เป็นหนึ่งในหัวข้อที่บางครั้งความรุนแรงก็…ถูกต้องเสียด้วยซ้ำ 😬🤖


คำถามที่พบบ่อย

บทบาทของบริษัทเทคโนโลยีขนาดใหญ่ในด้านปัญญาประดิษฐ์ในทางปฏิบัติคืออะไร?

บทบาทของบริษัทเทคโนโลยีขนาดใหญ่ในด้าน AI นั้นไม่ใช่แค่ "พวกเขาสร้างโมเดล" แต่เป็น "พวกเขาดำเนินการกลไกที่ทำให้ AI ทำงานได้ในวงกว้าง" พวกเขาให้บริการโครงสร้างพื้นฐานบนคลาวด์ ส่งมอบ AI ผ่านอุปกรณ์และแอปพลิเคชัน และกำหนดกฎเกณฑ์ของแพลตฟอร์มที่กำหนดรูปแบบของสิ่งที่จะถูกสร้างขึ้น นอกจากนี้พวกเขายังให้ทุนสนับสนุนการวิจัย การเป็นพันธมิตร และการเข้าซื้อกิจการ ซึ่งมีอิทธิพลต่อแนวทางที่จะอยู่รอด ในหลายตลาด พวกเขาเป็นผู้กำหนดประสบการณ์การใช้งาน AI มาตรฐานโดยปริยาย.

เหตุใดการเข้าถึงทรัพยากรประมวลผลจึงมีความสำคัญอย่างยิ่งต่อผู้ที่สามารถสร้าง AI ในระดับขนาดใหญ่ได้?

AI สมัยใหม่ไม่ได้พึ่งพาเพียงแค่เพียงอัลกอริทึมที่ชาญฉลาดเท่านั้น แต่ยังพึ่งพาคลัสเตอร์ GPU ขนาดใหญ่ เครือข่ายความเร็วสูง พื้นที่จัดเก็บข้อมูล และไปป์ไลน์ MLOps ที่เชื่อถือได้ด้วย หากคุณไม่สามารถคาดการณ์กำลังการผลิตได้ การฝึกอบรม การประเมินผล และการใช้งานก็จะเปราะบางและมีราคาแพง บริษัทเทคโนโลยีขนาดใหญ่มักควบคุม "แกนหลัก" (คลาวด์ ความร่วมมือด้านชิป การจัดตารางเวลา ความปลอดภัย) ซึ่งสามารถกำหนดสิ่งที่เป็นไปได้สำหรับทีมขนาดเล็กได้ อำนาจนั้นอาจเป็นประโยชน์ แต่ก็ยังคงเป็นอำนาจอยู่ดี.

การจัดจำหน่ายของบริษัทเทคโนโลยีขนาดใหญ่มีอิทธิพลต่อความหมายของ "ปัญญาประดิษฐ์" สำหรับผู้ใช้ทั่วไปอย่างไร?

การกระจายการใช้งานเป็นพลังมหาศาล เพราะมันเปลี่ยน AI ให้กลายเป็นฟีเจอร์พื้นฐาน แทนที่จะเป็นผลิตภัณฑ์แยกต่างหากที่คุณต้องเลือกใช้ เมื่อ AI ปรากฏในแถบค้นหา โทรศัพท์ อีเมล เอกสาร การประชุม และแอปสโตร์ มันก็จะกลายเป็น "สิ่งที่ AI เป็น" สำหรับคนส่วนใหญ่ นอกจากนี้ยังช่วยลดความคาดหวังของสาธารณชนด้วย: หาก AI ส่วนใหญ่เป็นเครื่องมือช่วยเขียนในแอปของคุณ ผู้ใช้ก็จะคิดว่า AI เท่ากับการเขียน แพลตฟอร์มต่างๆ จะกำหนดโทนเสียงอย่างเงียบๆ.

กฎของแพลตฟอร์มและแอปสโตร์ทำหน้าที่เป็นผู้ควบคุมดูแล AI ในรูปแบบหลัก ๆ อย่างไรบ้าง?

นโยบายการตรวจสอบแอป ข้อกำหนดของแพลตฟอร์มแอปพลิเคชัน กฎเกี่ยวกับเนื้อหา และข้อจำกัดของ API สามารถกำหนดได้ว่าฟีเจอร์ AI ใดบ้างที่ได้รับอนุญาตและต้องทำงานอย่างไร แม้ว่ากฎเหล่านั้นจะถูกกำหนดขึ้นเพื่อความปลอดภัยหรือความเป็นส่วนตัว แต่ก็ยังส่งผลต่อการแข่งขันโดยการเพิ่มต้นทุนในการปฏิบัติตามและการใช้งาน สำหรับนักพัฒนาแล้ว นั่นหมายความว่าการอัปเดตนโยบายอาจมีความสำคัญพอๆ กับการอัปเดตโมเดล ในทางปฏิบัติแล้ว “สิ่งที่วางจำหน่าย” มักจะเป็น “สิ่งที่ผ่านการตรวจสอบ”

แพลตฟอร์ม AI บนคลาวด์ เช่น SageMaker, Azure ML และ Vertex AI มีบทบาทอย่างไรในบริบทของบริษัทเทคโนโลยีขนาดใหญ่ในวงการ AI?

แพลตฟอร์ม AI บนคลาวด์รวมการฝึกอบรม การใช้งาน การตรวจสอบ การกำกับดูแล และความปลอดภัยไว้ในที่เดียว ซึ่งช่วยลดความยุ่งยากสำหรับสตาร์ทอัพและองค์กรต่างๆ เครื่องมืออย่าง Amazon SageMaker, Azure Machine Learning และ Vertex AI ช่วยให้การขยายขนาดและการจัดการต้นทุนทำได้ง่ายขึ้นผ่านความสัมพันธ์กับผู้ให้บริการรายเดียว ข้อเสียคือความสะดวกสบายอาจทำให้เกิดการผูกขาดมากขึ้น เนื่องจากเวิร์กโฟลว์ สิทธิ์ และการตรวจสอบถูกผสานรวมเข้ากับระบบนิเวศนั้นอย่างลึกซึ้ง.

ผู้ซื้อทางธุรกิจควรพิจารณาอะไรบ้างก่อนที่จะนำเครื่องมือ AI ของบริษัทเทคโนโลยีขนาดใหญ่มาใช้?

เริ่มต้นด้วยข้อมูล: ข้อมูลไปอยู่ที่ไหน แยกอย่างไร และมีการควบคุมการเก็บรักษาและการตรวจสอบอย่างไรบ้าง สอบถามเกี่ยวกับการควบคุมของผู้ดูแลระบบ การบันทึกข้อมูล ขอบเขตการเข้าถึง และวิธีการประเมินความเสี่ยงของโมเดลในโดเมนของคุณ นอกจากนี้ ควรทดสอบราคาอย่างละเอียด เพราะค่าใช้จ่ายตามการใช้งานอาจพุ่งสูงขึ้นเมื่อการใช้งานเพิ่มขึ้น ในสภาพแวดล้อมที่มีกฎระเบียบ ควรปรับความคาดหวังให้สอดคล้องกับกรอบการทำงานและข้อกำหนดด้านการปฏิบัติตามกฎระเบียบที่องค์กรของคุณใช้งานอยู่แล้ว.

นักพัฒนาจะหลีกเลี่ยงการผูกขาดจากผู้ให้บริการเมื่อพัฒนาแอปพลิเคชันบน API AI ของบริษัทเทคโนโลยีขนาดใหญ่ได้อย่างไร?

แนวทางทั่วไปคือการออกแบบให้สามารถพกพาได้: ห่อหุ้มการเรียกใช้โมเดลไว้เบื้องหลังเลเยอร์นามธรรม และเก็บรักษาข้อความแจ้งเตือน นโยบาย และตรรกะการประเมินไว้ในรูปแบบที่มีเวอร์ชันและสามารถทดสอบได้ หลีกเลี่ยงการพึ่งพาคุณสมบัติ "พิเศษ" ของผู้จำหน่ายรายใดรายหนึ่งที่อาจเปลี่ยนแปลงหรือหายไป ติดตามข้อจำกัดอัตรา การอัปเดตราคา และการเปลี่ยนแปลงนโยบายเป็นส่วนหนึ่งของการบำรุงรักษาอย่างต่อเนื่อง การพกพาได้นั้นไม่ใช่เรื่องฟรี แต่โดยทั่วไปแล้วจะมีค่าใช้จ่ายน้อยกว่าการย้ายระบบแบบบังคับ.

ความเป็นส่วนตัวและการปรับแต่งเฉพาะบุคคลสร้าง "ข้อตกลงด้านความไว้วางใจ" กับคุณสมบัติของ AI ได้อย่างไร?

การปรับแต่งให้เหมาะสมกับแต่ละบุคคลมักช่วยเพิ่มประโยชน์ใช้สอยของ AI แต่โดยทั่วไปแล้วจะเพิ่มการเปิดเผยข้อมูลและความรู้สึกไม่ปลอดภัย บริษัทเทคโนโลยีขนาดใหญ่เข้าถึงข้อมูลพฤติกรรม ข้อมูลองค์กร ข้อมูลแพลตฟอร์ม และข้อมูลอุปกรณ์ต่างๆ อย่างใกล้ชิด ดังนั้นผู้ใช้และหน่วยงานกำกับดูแลจึงตรวจสอบอย่างละเอียดว่าข้อมูลเหล่านั้นมีอิทธิพลต่อการฝึกอบรม การปรับแต่ง และการตัดสินใจเกี่ยวกับผลิตภัณฑ์อย่างไร เกณฑ์มาตรฐานที่ใช้ได้จริงคือ บริษัทสามารถอธิบายแนวทางการใช้ข้อมูล AI ได้อย่างชัดเจนโดยไม่ต้องหลบอยู่หลังภาษาทางกฎหมายหรือไม่ การควบคุมที่ดีและการให้ทางเลือกในการไม่เข้าร่วมอย่างแท้จริงนั้นมีความสำคัญ.

มาตรฐานและข้อบังคับใดที่มีความเกี่ยวข้องมากที่สุดกับการกำกับดูแลและความปลอดภัยของ AI ในอุตสาหกรรมเทคโนโลยีขนาดใหญ่?

ในระบบท่อส่งข้อมูลจำนวนมาก การกำกับดูแลจะผสมผสานนโยบายความปลอดภัยภายในเข้ากับกรอบการทำงานและกฎหมายภายนอก องค์กรมักอ้างอิงถึงแนวทางการบริหารความเสี่ยง เช่น AI RMF ของ NIST มาตรฐานการจัดการ เช่น ISO/IEC 42001 และกฎระเบียบระดับภูมิภาค เช่น GDPR และกฎหมาย AI ของสหภาพยุโรปสำหรับกรณีการใช้งานบางอย่าง สิ่งเหล่านี้มีอิทธิพลต่อการบันทึกข้อมูล การตรวจสอบ การกำหนดขอบเขตข้อมูล และสิ่งที่จะถูกบล็อกหรืออนุญาต ความท้าทายคือการปฏิบัติตามกฎระเบียบอาจมีค่าใช้จ่ายสูง ซึ่งอาจเอื้อประโยชน์ให้กับผู้เล่นรายใหญ่กว่า.

อิทธิพลของบริษัทเทคโนโลยีขนาดใหญ่ที่มีต่อการแข่งขันและระบบนิเวศนั้นเป็นสิ่งที่ไม่ดีเสมอไปหรือไม่?

ไม่ใช่โดยอัตโนมัติ แพลตฟอร์มสามารถลดอุปสรรค สร้างมาตรฐานเครื่องมือ และสนับสนุนด้านความปลอดภัยและโครงสร้างพื้นฐานที่ทีมขนาดเล็กไม่สามารถจัดหาได้ แต่ในขณะเดียวกัน พลวัตเดียวกันนี้ก็สามารถลดความหลากหลายได้ หากทุกคนกลายเป็นเพียงส่วนเสริมที่ห่อหุ้ม API คลาวด์ และตลาดหลักเพียงไม่กี่แห่ง ควรจับตาดูรูปแบบต่างๆ เช่น การรวมตัวกันของระบบประมวลผลและการกระจายข้อมูล รวมถึงการเปลี่ยนแปลงด้านราคาและนโยบายที่ยากจะหลีกเลี่ยง ระบบนิเวศที่แข็งแกร่งที่สุดมักจะเปิดโอกาสให้เกิดการทำงานร่วมกันและผู้เข้าร่วมรายใหม่.

เอกสารอ้างอิง

  1. สำนักงานพลังงานระหว่างประเทศ - พลังงานและปัญญาประดิษฐ์ - iea.org

  2. สำนักงานพลังงานระหว่างประเทศ - ความต้องการพลังงานจาก AI - iea.org

  3. NVIDIA - ภาพรวมแพลตฟอร์มการประมวลผล AI แบบอนุมาน - nvidia.com

  4. Amazon Web Services - เอกสารประกอบการใช้งาน Amazon SageMaker AI (SageMaker คืออะไร?) - aws.amazon.com

  5. งาน Microsoft Azure Machine Learning - learn.microsoft.com

  6. Google Cloud - Vertex AI - cloud.google.com

  7. Google Cloud - MLOps บน Vertex AI - cloud.google.com

  8. Microsoft - คู่มือสถาปัตยกรรม Machine learning operations (MLOps) เวอร์ชัน 2 - learn.microsoft.com

  9. Apple Developer - Core ML - developer.apple.com

  10. Google Developers - ML Kit - developers.google.com

  11. แนวทางการตรวจสอบแอป สำหรับ นักพัฒนาของ Apple - developer.apple.com

  12. ความช่วยเหลือเกี่ยวกับ Google Play Console - ความปลอดภัยของข้อมูล - support.google.com

  13. arXiv - กฎการปรับขนาดสำหรับแบบจำลองภาษาประสาท - arxiv.org

  14. arXiv - การฝึกอบรมโมเดลภาษาขนาดใหญ่ที่เหมาะสมที่สุดสำหรับการคำนวณ (ชินชิลลา) - arxiv.org

  15. สถาบันมาตรฐานและเทคโนโลยีแห่งชาติ - กรอบการบริหารความเสี่ยงด้านปัญญาประดิษฐ์ (AI RMF 1.0) - nist.gov

  16. สถาบันมาตรฐานและเทคโนโลยีแห่งชาติ - โปรไฟล์ AI เชิงสร้างสรรค์ของ NIST (คู่มือ AI RMF) - nist.gov

  17. องค์การมาตรฐานสากล - ISO/IEC 42001:2023 - iso.org

  18. EUR-Lex - ระเบียบ (EU) 2016/679 (GDPR) - eur-lex.europa.eu

  19. EUR-Lex - ข้อบังคับ (EU) 2024/1689 (พระราชบัญญัติ AI ของสหภาพยุโรป) - eur-lex.europa.eu

  20. OECD - หลักการ OECD AI - oecd.ai

ค้นหา AI รุ่นล่าสุดได้ที่ร้านค้าผู้ช่วย AI อย่างเป็นทางการ

เกี่ยวกับเรา

กลับไปที่บล็อก