AI Ethics คืออะไร?

AI Ethics คืออะไร?

คำนี้ฟังดูสูงส่ง แต่เป้าหมายที่แท้จริงนั้นใช้งานได้จริงอย่างยิ่ง นั่นคือการสร้างระบบ AI ที่ผู้คนไว้วางใจได้ เพราะระบบเหล่านี้ได้รับการออกแบบ สร้างขึ้น และใช้งานในลักษณะที่เคารพสิทธิมนุษยชน ลดอันตราย และให้ประโยชน์ที่แท้จริง แค่นั้นเอง ส่วนใหญ่ก็ประมาณนี้ 

บทความที่คุณอาจสนใจอ่านต่อหลังจากบทความนี้:

🔗 MCP ใน AI คืออะไร
อธิบายโปรโตคอลการคำนวณแบบโมดูลาร์และบทบาทใน AI

🔗 Edge AI คืออะไร
ครอบคลุมถึงการประมวลผลแบบ Edge ที่ช่วยให้ตัดสินใจเกี่ยวกับ AI ในพื้นที่ได้เร็วขึ้น

🔗 AI เชิงสร้างสรรค์คืออะไร
แนะนำโมเดลที่สร้างข้อความ รูปภาพ และเนื้อหาต้นฉบับอื่นๆ

🔗 เอเจนติกเอไอคืออะไร
อธิบายเกี่ยวกับตัวแทน AI อัตโนมัติที่มีความสามารถในการตัดสินใจโดยมุ่งเป้าหมาย


จริยธรรม AI คืออะไร? คำจำกัดความง่ายๆ 🧭

จริยธรรม AI คือชุดหลักการ กระบวนการ และกรอบแนวทางที่ชี้นำวิธีที่เราออกแบบ พัฒนา ใช้งาน และกำกับดูแล AI เพื่อรักษาสิทธิมนุษยชน ความยุติธรรม ความรับผิดชอบ ความโปร่งใส และความดีงามทางสังคม ลองนึกถึงมันเหมือนกฎเกณฑ์ประจำวันของอัลกอริทึม พร้อมการตรวจสอบเพิ่มเติมสำหรับจุดบกพร่องที่อาจเกิดข้อผิดพลาด

หลักเกณฑ์ระดับโลกสนับสนุนข้อนี้: คำแนะนำของ UNESCO เน้นเรื่องสิทธิมนุษยชน การกำกับดูแลของมนุษย์ และความยุติธรรม โดยยึดหลักความโปร่งใสและความเป็นธรรมที่ไม่สามารถต่อรองได้ [1] หลักการ AI ของ OECD มุ่งเป้าไปที่ ที่เชื่อถือได้ เคารพคุณค่าประชาธิปไตย ในขณะเดียวกันก็ยังคงใช้งานได้จริงสำหรับทีมนโยบายและวิศวกรรม [2]

กล่าวโดยสรุป จริยธรรม AI ไม่ใช่โปสเตอร์ติดผนัง แต่เป็นคู่มือที่ทีมต่างๆ ใช้เพื่อคาดการณ์ความเสี่ยง พิสูจน์ความน่าเชื่อถือ และปกป้องผู้คน กรอบการจัดการความเสี่ยง AI ของ NIST ถือว่าจริยธรรมเป็นเหมือนการจัดการความเสี่ยงเชิงรุกตลอดวงจรชีวิตของ AI [3]

 

จริยธรรมของปัญญาประดิษฐ์

อะไรทำให้มีจริยธรรม AI ที่ดี ✅

นี่คือเวอร์ชันตรงไปตรงมา โปรแกรมจริยธรรม AI ที่ดี:

  • เป็นแบบปฏิบัติจริง ไม่ใช่แบบเคลือบ - นโยบายที่ขับเคลื่อนการปฏิบัติทางวิศวกรรมและการตรวจสอบที่แท้จริง

  • เริ่มต้นที่การกำหนดกรอบปัญหา - หากวัตถุประสงค์ไม่ถูกต้อง การแก้ไขที่ยุติธรรมจะไม่สามารถบันทึกวัตถุประสงค์นั้นได้

  • การตัดสินใจด้านเอกสาร - เหตุใดจึงมีข้อมูลนี้ เหตุใดจึงมีแบบจำลองนี้ เหตุใดจึงมีเกณฑ์นี้

  • การทดสอบที่มีบริบท - ประเมินตามกลุ่มย่อย ไม่ใช่แค่ความแม่นยำโดยรวมเท่านั้น (ธีมหลักของ NIST) [3]

  • แสดงการทำงานของมัน - การ์ดโมเดล เอกสารชุดข้อมูล และการสื่อสารผู้ใช้ที่ชัดเจน [5]

  • สร้างความรับผิดชอบ - เจ้าของที่ได้รับการเสนอชื่อ เส้นทางการยกระดับ ความสามารถในการตรวจสอบ

  • สร้างสมดุลระหว่างการแลกเปลี่ยนแบบเปิด - ความปลอดภัย เทียบกับ ประโยชน์ใช้สอย เทียบกับ ความเป็นส่วนตัว เขียนลงไป

  • เชื่อมโยงกับกฎหมาย - ข้อกำหนดตามความเสี่ยงที่ปรับขนาดการควบคุมที่มีผลกระทบ (ดู EU AI Act) [4]

หากไม่สามารถเปลี่ยนแปลงการตัดสินใจเกี่ยวกับผลิตภัณฑ์ใดๆ ได้เลย ก็ไม่ถือเป็นจริยธรรม แต่ถือเป็นการตกแต่ง


คำตอบอย่างรวดเร็วสำหรับคำถามใหญ่: AI Ethics คืออะไร? 🥤

นั่นคือวิธีที่ทีมตอบคำถามที่เกิดซ้ำสามข้อซ้ำแล้วซ้ำเล่า:

  1. เราควรสร้างสิ่งนี้หรือไม่?

  2. หากใช่ เราจะลดอันตรายและพิสูจน์ได้อย่างไร?

  3. เมื่อเกิดเหตุการณ์ไม่คาดฝัน ใครจะเป็นผู้รับผิดชอบ และจะเกิดอะไรขึ้นต่อไป?

น่าเบื่อแต่ใช้งานได้จริง ยากอย่างน่าประหลาดใจ คุ้มค่า


มินิเคส 60 วินาที (ประสบการณ์ในการปฏิบัติ) 📎

ทีมฟินเทคนำเสนอแบบจำลองการฉ้อโกงที่มีความแม่นยำโดยรวมสูง สองสัปดาห์ต่อมา ตั๋วสนับสนุนพุ่งสูงขึ้นจากภูมิภาคใดภูมิภาคหนึ่ง การชำระเงินที่ถูกต้องตามกฎหมายถูกบล็อก การตรวจสอบกลุ่มย่อยแสดงให้เห็นว่าการเรียกคืนข้อมูลสำหรับภูมิภาคนั้นต่ำกว่าค่าเฉลี่ย 12 จุด ทีมได้ตรวจสอบความครอบคลุมของข้อมูลอีกครั้ง ฝึกอบรมใหม่ด้วยการนำเสนอที่ดีขึ้น และเผยแพร่ การ์ดแบบจำลอง ซึ่งบันทึกการเปลี่ยนแปลง ข้อควรระวังที่ทราบ และเส้นทางการอุทธรณ์ของผู้ใช้ ความแม่นยำลดลงหนึ่งจุด แต่ความไว้วางใจของลูกค้าเพิ่มขึ้น นี่คือจริยธรรมในฐานะ การจัดการความเสี่ยง และ การเคารพผู้ใช้ ไม่ใช่การโพสต์ [3][5]


เครื่องมือและกรอบงานที่คุณสามารถใช้งานได้จริง 📋

(มีจุดบกพร่องเล็กๆ น้อยๆ ที่ตั้งใจให้เป็นเช่นนั้น - นั่นคือชีวิตจริง)

เครื่องมือหรือกรอบงาน ผู้ชม ราคา เหตุผลที่มันได้ผล หมายเหตุ
กรอบการจัดการความเสี่ยง AI ของ NIST ผลิตภัณฑ์ ความเสี่ยง นโยบาย ฟรี ฟังก์ชั่นที่ชัดเจน - ปกครอง, แผนที่, วัดผล, จัดการ - จัดทีมให้สอดคล้องกัน สมัครใจ, มีการอ้างอิงอย่างกว้างขวาง [3]
หลักการปัญญาประดิษฐ์ของ OECD ผู้บริหาร ผู้กำหนดนโยบาย ฟรี ค่า + คำแนะนำเชิงปฏิบัติสำหรับ AI ที่เชื่อถือได้ ทิศเหนือของการกำกับดูแลที่มั่นคง [2]
พระราชบัญญัติ AI ของสหภาพยุโรป (ตามความเสี่ยง) กฎหมาย การปฏิบัติตามข้อกำหนด และ CTO ฟรี* ระดับความเสี่ยงกำหนดการควบคุมตามสัดส่วนสำหรับการใช้งานที่มีผลกระทบสูง ต้นทุนการปฏิบัติตามแตกต่างกันไป [4]
การ์ดโมเดล วิศวกร ML, PM ฟรี กำหนดมาตรฐานว่าโมเดลคืออะไร ทำอะไร และล้มเหลวตรงไหน มีเอกสาร + ตัวอย่าง [5]
เอกสารชุดข้อมูล (“แผ่นข้อมูล”) นักวิทยาศาสตร์ข้อมูล ฟรี อธิบายแหล่งที่มาของข้อมูล ความครอบคลุม ความยินยอม และความเสี่ยง ปฏิบัติเหมือนเป็นฉลากโภชนาการ

เจาะลึก 1 - หลักการในการเคลื่อนไหว ไม่ใช่ทฤษฎี 🏃

  • ความยุติธรรม - ประเมินผลการปฏิบัติงานตามกลุ่มประชากรและบริบทต่างๆ ตัวชี้วัดโดยรวมซ่อนอันตราย [3]

  • ความรับผิดชอบ - กำหนดเจ้าของสำหรับการตัดสินใจเกี่ยวกับข้อมูล โมเดล และการปรับใช้ เก็บบันทึกการตัดสินใจ

  • ความโปร่งใส - ใช้การ์ดโมเดล บอกผู้ใช้ว่าการตัดสินใจเป็นแบบอัตโนมัติแค่ไหน และมีแนวทางแก้ไขอย่างไร [5]

  • การกำกับดูแลโดยมนุษย์ - ให้มนุษย์เข้าไปมีส่วนร่วมในการตัดสินใจที่มีความเสี่ยงสูง โดยมีอำนาจในการหยุด/ยกเลิกอย่างแท้จริง (ได้รับการกล่าวถึงอย่างชัดเจนโดย UNESCO) [1]

  • ความเป็นส่วนตัวและความปลอดภัย - ลดและปกป้องข้อมูล พิจารณาการรั่วไหลของเวลาอนุมานและการใช้งานที่ผิดในขั้นตอนต่อไป

  • การทำคุณประโยชน์ - แสดงให้เห็นถึงประโยชน์ต่อสังคม ไม่ใช่แค่เพียง KPI ที่ชัดเจน (OECD กำหนดกรอบความสมดุลนี้) [2]

นอกเรื่องนิดหน่อย: บางครั้งทีมก็ถกเถียงกันเป็นชั่วโมงๆ เกี่ยวกับชื่อตัวชี้วัด โดยไม่สนใจคำถามเกี่ยวกับอันตรายที่แท้จริง น่าตลกที่เรื่องแบบนี้เกิดขึ้น


เจาะลึก 2 - ความเสี่ยงและวิธีการวัดความเสี่ยง 📏

AI ที่มีจริยธรรมจะชัดเจนขึ้นเมื่อคุณปฏิบัติต่ออันตรายเป็นความเสี่ยงที่วัดได้:

  • การแมปบริบท - ใครได้รับผลกระทบทั้งทางตรงและทางอ้อม? ระบบมีอำนาจในการตัดสินใจเท่าใด?

  • ความเหมาะสมของข้อมูล - การแสดง การดริฟต์ คุณภาพการติดฉลาก เส้นทางการยินยอม

  • พฤติกรรมจำลอง - โหมดความล้มเหลวภายใต้การเปลี่ยนแปลงการกระจาย คำเตือนที่เป็นปฏิปักษ์ หรืออินพุตที่เป็นอันตราย

  • การประเมินผลกระทบ - ความรุนแรง × ความน่าจะเป็น การบรรเทา และความเสี่ยงที่เหลืออยู่

  • การควบคุมวงจรชีวิต - จากการกำหนดกรอบปัญหาไปจนถึงการตรวจสอบหลังการปรับใช้

NIST แบ่งฟังก์ชันนี้ออกเป็นสี่ประการที่ทีมสามารถนำมาใช้ได้โดยไม่ต้องประดิษฐ์สิ่งใหม่: ปกครอง, จัดทำแผนที่, วัดผล, จัดการ [3]


Deep dive 3 - เอกสารที่ช่วยคุณบันทึกภายหลัง 🗂️

สิ่งประดิษฐ์อันต่ำต้อยสองชิ้นนี้ทำได้มากกว่าคำขวัญใดๆ:

  • การ์ดโมเดล - โมเดลมีไว้เพื่ออะไร มีการประเมินอย่างไร ล้มเหลวตรงไหน ข้อควรพิจารณาทางจริยธรรม และข้อควรระวัง - สั้น มีโครงสร้าง อ่านง่าย [5]

  • เอกสารประกอบชุดข้อมูล (“แผ่นข้อมูล”) - เหตุใดจึงมีข้อมูลนี้ วิธีการรวบรวม ใครเป็นตัวแทน ช่องว่างที่ทราบ และการใช้งานที่แนะนำ

ถ้าคุณเคยต้องอธิบายให้หน่วยงานกำกับดูแลหรือนักข่าวฟังว่าทำไมนางแบบถึงมีพฤติกรรมไม่ดี คุณจะขอบคุณตัวเองในอดีตที่เขียนเรื่องนี้ขึ้นมา อนาคตคุณจะซื้อกาแฟให้ตัวเองในอดีต


เจาะลึก 4 - ธรรมาภิบาลที่กัดแทะจริงๆ 🧩

  • กำหนดระดับความเสี่ยง - ยืมแนวคิดตามความเสี่ยงมาใช้เพื่อให้กรณีการใช้งานที่มีผลกระทบสูงได้รับการตรวจสอบอย่างละเอียดมากขึ้น [4]

  • ประตูเวที - การตรวจสอบจริยธรรมในช่วงรับเครื่อง ก่อนปล่อย และหลังปล่อย ไม่ใช่แค่สิบห้าประตู แค่สามประตูก็เพียงพอแล้ว

  • การแบ่งแยกหน้าที่ - นักพัฒนาเสนอ พันธมิตรด้านความเสี่ยงตรวจสอบ ผู้นำลงนาม มีเส้นแบ่งที่ชัดเจน

  • การตอบสนองต่อเหตุการณ์ - ใครหยุดโมเดลชั่วคราว ผู้ใช้จะได้รับการแจ้งเตือนอย่างไร แนวทางการแก้ไขเป็นอย่างไร

  • การตรวจสอบอิสระ - ภายในก่อน ภายนอกเมื่อจำเป็น

  • การฝึกอบรมและแรงจูงใจ - ให้รางวัลเมื่อพบปัญหาตั้งแต่เนิ่นๆ ไม่ใช่ปกปิดไว้

พูดตรงๆ นะว่า ถ้าการปกครองไม่เคยพูดว่า ไม่ มันก็ไม่ใช่การปกครอง


Deep Dive 5 - คนในวงจร ไม่ใช่เป็นเพียงอุปกรณ์ประกอบฉาก 👩⚖️

การดูแลของมนุษย์ไม่ใช่เพียงการเลือกช่องกาเครื่องหมาย แต่เป็นทางเลือกในการออกแบบ:

  • เมื่อมนุษย์ตัดสินใจ - กำหนดเกณฑ์ที่ชัดเจนที่บุคคลจะต้องตรวจสอบ โดยเฉพาะอย่างยิ่งสำหรับผลลัพธ์ที่มีความเสี่ยงสูง

  • ความสามารถในการอธิบายสำหรับผู้ตัดสินใจ - ให้มนุษย์ทราบทั้ง เหตุผล และ ความไม่ แน่นอน

  • วงจรข้อเสนอแนะของผู้ใช้ - ช่วยให้ผู้ใช้โต้แย้งหรือแก้ไขการตัดสินใจอัตโนมัติ

  • การเข้าถึง - อินเทอร์เฟซที่ผู้ใช้ที่แตกต่างกันสามารถเข้าใจและใช้งานได้จริง

คำแนะนำของยูเนสโกนั้นเรียบง่ายในที่นี้: ศักดิ์ศรีความเป็นมนุษย์และการกำกับดูแลคือหัวใจสำคัญ ไม่ใช่ทางเลือก สร้างผลิตภัณฑ์เพื่อให้มนุษย์สามารถเข้าแทรกแซงก่อนที่จะเกิดอันตรายต่อดินแดน [1]


หมายเหตุ - ขอบเขตถัดไป: เทคโนโลยีประสาท 🧠

เมื่อปัญญาประดิษฐ์ (AI) เข้ามาเชื่อมโยงกับเทคโนโลยีประสาทวิทยา ความเป็นส่วนตัวทางจิตใจ และ เสรีภาพทางความคิด จึงกลายเป็นประเด็นสำคัญในการออกแบบ แนวทางปฏิบัติเดียวกันนี้สามารถนำมาใช้ได้ ได้แก่ หลักการที่เน้นสิทธิ [1] การบริหารที่ออกแบบอย่างน่าเชื่อถือ [2] และมาตรการป้องกันที่เหมาะสมสำหรับการใช้งานที่มีความเสี่ยงสูง [4] จงสร้างมาตรการป้องกันตั้งแต่เนิ่นๆ แทนที่จะยึดติดในภายหลัง


ว่า AI Ethics คืออะไร อย่างไร - เวิร์กโฟลว์ 🧪

ลองทำตามวิธีง่ายๆ นี้ดูสิ มันอาจจะไม่ได้สมบูรณ์แบบ แต่ได้ผลแน่นอน:

  1. การตรวจสอบจุดประสงค์ - ปัญหาของมนุษย์อะไรที่เราแก้ไข และใครได้รับประโยชน์หรือรับความเสี่ยง?

  2. แผนที่บริบท - ผู้มีส่วนได้ส่วนเสีย สภาพแวดล้อม ข้อจำกัด อันตรายที่ทราบ

  3. แผนข้อมูล - แหล่งที่มา ความยินยอม ความเป็นตัวแทน การเก็บรักษา เอกสารประกอบ

  4. การออกแบบเพื่อความปลอดภัย - การทดสอบเชิงปฏิปักษ์ การทำงานเป็นทีม และความเป็นส่วนตัวโดยการออกแบบ

  5. กำหนดความยุติธรรม - เลือกมาตรวัดที่เหมาะสมกับโดเมน บันทึกการแลกเปลี่ยน

  6. แผนการอธิบาย - จะมีการอธิบายอะไร ให้ใครทราบ และคุณจะตรวจสอบความมีประโยชน์ได้อย่างไร

  7. การ์ดรุ่น - ร่างล่วงหน้า อัปเดตตามการใช้งาน เผยแพร่เมื่อเปิดตัว [5]

  8. ประตูการกำกับดูแล - การตรวจสอบความเสี่ยงกับเจ้าของที่รับผิดชอบ โครงสร้างที่ใช้ฟังก์ชันของ NIST [3]

  9. การตรวจสอบหลังเปิดตัว - เมตริก การแจ้งเตือนการดริฟต์ แผนการรับมือกับเหตุการณ์ การอุทธรณ์ของผู้ใช้

ถ้าขั้นตอนไหนดูหนักเกินไป ให้ปรับตามความเสี่ยง นั่นแหละเคล็ดลับ การออกแบบโปรแกรมตรวจคำผิดมากเกินไปไม่ได้ช่วยอะไร


จริยธรรม vs. การปฏิบัติตาม – ความแตกต่างที่สำคัญแต่สำคัญ 🌶️

  • จริยธรรม ถามว่า: นี่เป็นสิ่งที่ถูกต้องสำหรับผู้คนหรือไม่?

  • การปฏิบัติ ตามถามว่า: สิ่งนี้เป็นไปตามกฎเกณฑ์หรือไม่?

คุณต้องการทั้งสองอย่าง โมเดลที่อิงตามความเสี่ยงของสหภาพยุโรปสามารถเป็นแกนหลักในการปฏิบัติตามกฎระเบียบของคุณได้ แต่โปรแกรมจริยธรรมของคุณควรผลักดันให้เกินขีดจำกัดขั้นต่ำ โดยเฉพาะอย่างยิ่งในกรณีการใช้งานที่คลุมเครือหรือแปลกใหม่ [4]

อุปมาอุปไมยสั้นๆ (ที่ผิดพลาด) ที่ว่า การปฏิบัติตามคือรั้ว จริยธรรมคือผู้เลี้ยงแกะ รั้วกั้นกั้นคุณไว้ในขอบเขต ผู้เลี้ยงแกะคอยดูแลให้คุณเดินไปในเส้นทางที่ถูกต้อง


ข้อผิดพลาดทั่วไป - และสิ่งที่ควรทำแทน 🚧

  • หลุมพราง: ละครจริยธรรม - หลักการหรูหราแต่ไร้ทรัพยากร
    วิธีแก้ไข: อุทิศเวลา เจ้าของ และตรวจสอบจุดตรวจสอบ

  • ข้อผิดพลาด: การหาค่าเฉลี่ยเพื่อหลีกเลี่ยงอันตราย - ตัวชี้วัดโดยรวมที่ดีซ่อนความล้มเหลวของกลุ่มย่อย
    การแก้ไข: ประเมินโดยกลุ่มย่อยที่เกี่ยวข้องเสมอ [3]

  • หลุมพราง: ความลับที่แอบอ้างว่าปลอดภัย - ปกปิดรายละเอียดจากผู้ใช้
    แก้ไข: เปิดเผยความสามารถ ข้อจำกัด และช่องทางแก้ไขด้วยภาษาที่เข้าใจง่าย [5]

  • ข้อผิดพลาด: การตรวจสอบในตอนท้าย - พบปัญหาทันทีก่อนเปิด
    ตัว แก้ไข: เลื่อนไปทางซ้าย - ทำให้จริยธรรมเป็นส่วนหนึ่งของการออกแบบและการรวบรวมข้อมูล

  • ข้อผิดพลาด: รายการตรวจสอบที่ไร้การตัดสิน - ทำตามแบบฟอร์ม ไม่ใช่ความรู้สึก
    แก้ไข: รวมเทมเพลตเข้ากับการตรวจสอบโดยผู้เชี่ยวชาญและการวิจัยผู้ใช้


คำถามที่พบบ่อย - สิ่งที่คุณจะถูกถามอยู่แล้ว ❓

จริยธรรมด้าน AI ต่อต้านนวัตกรรมหรือไม่?
ไม่ใช่ มันคือนวัตกรรมที่เป็นประโยชน์ จริยธรรมหลีกเลี่ยงทางตัน เช่น ระบบที่มีอคติซึ่งก่อให้เกิดปฏิกิริยาโต้กลับหรือปัญหาทางกฎหมาย กรอบของ OECD ส่งเสริมนวัตกรรมโดยคำนึงถึงความปลอดภัยอย่างชัดเจน [2]

เราจำเป็นต้องทำเช่นนี้หรือไม่ หากผลิตภัณฑ์ของเรามีความเสี่ยงต่ำ?
ใช่ แต่เบากว่า ใช้การควบคุมตามสัดส่วน แนวคิดที่อิงตามความเสี่ยงนี้เป็นมาตรฐานในแนวทางของสหภาพยุโรป [4]

เอกสารใดบ้างที่ต้องมี
อย่างน้อยที่สุด: เอกสารชุดข้อมูลสำหรับชุดข้อมูลหลักของคุณ บัตรโมเดลสำหรับแต่ละโมเดล และบันทึกการตัดสินใจเผยแพร่ [5]

ใครเป็นเจ้าของ AI Ethics?
ทุกคนเป็นเจ้าของพฤติกรรม แต่ทีมผลิตภัณฑ์ วิทยาศาสตร์ข้อมูล และความเสี่ยงจำเป็นต้องมีความรับผิดชอบที่ถูกกำหนดไว้ ฟังก์ชันของ NIST ถือเป็นโครงสร้างที่ดี [3]


นานเกินไปแล้วที่ไม่ได้อ่าน - หมายเหตุสุดท้าย 💡

หากคุณอ่านทั้งหมดนี้แบบผิวเผิน นี่คือหัวใจสำคัญ: จริยธรรมด้าน AI คืออะไร? มันคือหลักปฏิบัติที่ใช้ได้จริงสำหรับการสร้าง AI ที่ผู้คนไว้วางใจได้ ยึดตามแนวทางที่ได้รับการยอมรับอย่างกว้างขวาง นั่นคือ มุมมองของ UNESCO ที่เน้นเรื่องสิทธิมนุษยชน และหลักการ AI ที่เชื่อถือได้ของ OECD ใช้กรอบความเสี่ยงของ NIST เพื่อนำไปปฏิบัติจริง และมาพร้อมกับการ์ดแบบจำลองและเอกสารประกอบชุดข้อมูล เพื่อให้ตัวเลือกของคุณอ่านเข้าใจง่าย จากนั้น จงรับฟังผู้ใช้ ผู้มีส่วนได้ส่วนเสีย และการตรวจสอบของคุณเอง แล้วจึงปรับเปลี่ยน จริยธรรมไม่ใช่สิ่งที่ทำครั้งเดียวแล้วจบ แต่มันคือนิสัย

และใช่ บางครั้งคุณก็จะแก้ไขได้ นั่นไม่ใช่ความล้มเหลว แต่มันคือความพยายามต่างหาก 🌱


เอกสารอ้างอิง

  1. UNESCO - คำแนะนำเกี่ยวกับจริยธรรมของปัญญาประดิษฐ์ (2021) ลิงค์

  2. OECD - หลักการ AI (2019) ลิงก์

  3. NIST - กรอบการจัดการความเสี่ยงด้านปัญญาประดิษฐ์ (AI RMF 1.0) (2023) (PDF) ลิงก์

  4. EUR-Lex - ข้อบังคับ (EU) 2024/1689 (AI Act) ลิงก์

  5. Mitchell et al. - “Model Cards for Model Reporting” (ACM, 2019) ลิงก์


ค้นหา AI รุ่นล่าสุดได้ที่ร้านค้าผู้ช่วย AI อย่างเป็นทางการ

เกี่ยวกับเรา

กลับไปที่บล็อก