ฝากถอนไม่มีขั้นต่ำเว็บตรง กุญแจเฝ้าบ้านอิสระเพื่อตรวจสอบปัญญาประดิษฐ์

ฝากถอนไม่มีขั้นต่ำเว็บตรง กุญแจเฝ้าบ้านอิสระเพื่อตรวจสอบปัญญาประดิษฐ์

ฝากถอนไม่มีขั้นต่ำเว็บตรง นักวิชาการอาวุโสสองคนในนิวซีแลนด์กล่าวว่าประเทศต่างๆ ที่ใช้อุปกรณ์ปัญญาประดิษฐ์ (AI) เพื่อช่วยในการตัดสินใจมากขึ้นควรดำเนินการทันทีและนำ ‘ผู้เฝ้าระวังอิสระ’ มาใช้เพื่อติดตามความเสี่ยงที่อาจเกิดขึ้นต่อสาธารณะ

John Zerilli และ Colin Gavaghan ได้เรียกร้องให้รัฐบาลของพวกเขาจัดตั้งหน่วยงาน

กำกับดูแลอิสระเพื่อตรวจสอบ “และจัดการกับความเสี่ยงที่เกี่ยวข้องกับเทคโนโลยีดิจิทัลเหล่านี้”

“เพื่อปกป้องเราจากความเสี่ยงของปัญญาประดิษฐ์ขั้นสูง เราต้องดำเนินการตอนนี้” นักวิชาการจาก Otago University สองคนกล่าว

“ประชาชนควรรู้ว่าระบบ AI ที่รัฐบาลใช้เป็นอย่างไรและทำงานได้ดีเพียงใด ระบบควรได้รับการประเมินอย่างสม่ำเสมอและสรุปผลให้สาธารณชนทราบในรูปแบบที่เป็นระบบ”

นิวซีแลนด์เป็นส่วนหนึ่งของเครือข่ายทั่วโลกของประเทศที่เรียกว่า ‘ ดิจิทัล 9 ‘ ที่ใช้อัลกอริธึมเชิงคาดการณ์ในการตัดสินใจของรัฐบาล เช่นเดียวกับนิวซีแลนด์ ประเทศเหล่านี้รวมถึงสหราชอาณาจักร แคนาดา เอสโตเนีย อิสราเอล เม็กซิโก โปรตุเกส เกาหลีใต้ และอุรุกวัย ใน รายงาน

ความยาว 92 หน้าเกี่ยวกับการนำ AI ของรัฐบาลมาใช้ในนิวซีแลนด์ Zerilli และ Gavaghan กล่าวว่าการใช้ AI ในการช่วยเหลือการดำเนินการของรัฐบาลอาจมีตั้งแต่การจัดตารางเตียงในโรงพยาบาลของรัฐที่เหมาะสมที่สุด และการประมวลผลการเรียกร้องประกันอย่างง่ายอย่างมีประสิทธิภาพ ไปจนถึงการที่ผู้กระทำความผิดควรได้รับ ได้รับการปล่อยตัวจากเรือนจำโดยพิจารณาจากแนวโน้มที่จะกระทำความผิดซ้ำ

แต่ในขณะที่ AI สามารถ “ปรับปรุงความถูกต้อง ประสิทธิภาพ และความยุติธรรมของการตัดสินใจในแต่ละวัน” พวกเขากล่าวว่าข้อกังวลยังได้รับการหยิบยกขึ้นมาเกี่ยวกับความโปร่งใส การควบคุมของมนุษย์อย่างมีความหมาย การปกป้องข้อมูล และอคติ

ประเด็นความโปร่งใส

มีประเด็นสำคัญสามประการเกี่ยวกับความโปร่งใส

หนึ่งเกี่ยวข้องกับ ‘การตรวจสอบได้’ ของอัลกอริธึมเพื่อให้ผู้คนสามารถเข้าใจว่าระบบทำงานอย่างไร “ต่างจากบางประเทศที่ใช้ผลิตภัณฑ์ AI เชิงพาณิชย์ นิวซีแลนด์มีแนวโน้มที่จะสร้างเครื่องมือ AI ของรัฐบาลภายในองค์กร ซึ่งหมายความว่าเรารู้ว่าเครื่องมือทำงานอย่างไร” นักวิจัยกล่าว

‘ความฉลาด’ เป็นอีกประเด็นหนึ่ง การรู้ว่าระบบ AI ทำงานอย่างไรไม่ได้รับประกันว่าการตัดสินใจที่จะเกิดขึ้นนั้นจะเป็นที่เข้าใจโดยผู้ที่ได้รับผลกระทบ ระบบ AI ที่มีประสิทธิภาพดีที่สุดมักจะซับซ้อนอย่างยิ่ง

เพื่อให้คำอธิบายเข้าใจได้ จำเป็นต้องมีเทคโนโลยีเพิ่มเติม ระบบการตัดสินใจสามารถเสริมด้วย “ระบบคำอธิบาย”

ข้อมูลเสริมเหล่านี้เป็นอัลกอริธึมเพิ่มเติม “ติดค้าง” กับอัลกอริทึมหลักที่ประชาชนพยายามทำความเข้าใจ งานของพวกเขาคือสร้างแบบจำลองที่ง่ายกว่าเกี่ยวกับวิธีการทำงานของอัลกอริธึม – ง่ายพอที่จะเข้าใจได้สำหรับผู้คน Zerilli และ Gavaghan กล่าว

“เราเชื่อว่าระบบคำอธิบายจะมีความสำคัญมากขึ้นเรื่อยๆ เมื่อเทคโนโลยี AI ก้าวหน้า”

ความโปร่งใสประเภทสุดท้ายเกี่ยวข้องกับการเข้าถึงข้อมูลสาธารณะเกี่ยวกับระบบ AI ที่ใช้ในรัฐบาล

นักวิจัยให้เหตุผลว่าผู้คนควรรู้ว่าระบบ AI ที่รัฐบาลใช้อยู่เป็นอย่างไร ระบบควรได้รับการประเมินอย่างสม่ำเสมอและผลลัพธ์ควรเผยแพร่สู่สาธารณะ

AI และกฎหมาย

ในรายงานการวิจัยของพวกเขา Zerilli และ Gavaghan ให้ความเห็นว่ากฎหมายของนิวซีแลนด์ในปัจจุบันจัดการกับปัญหาความโปร่งใสได้ดีเพียงใด พวกเขาทราบว่าแม้ว่าประเทศชาติจะไม่มีกฎหมายที่ออกแบบมาโดยเฉพาะสำหรับอัลกอริธึม แต่บางกฎหมายก็มีความเกี่ยวข้อง

“ตัวอย่างเช่น กฎหมายว่าด้วยข้อมูลอย่างเป็นทางการของนิวซีแลนด์ให้สิทธิ์เหตุผลในการตัดสินใจโดยหน่วยงานราชการ และสิ่งนี้มีแนวโน้มที่จะนำไปใช้กับการตัดสินใจเชิงอัลกอริทึมได้มากเท่ากับการตัดสินใจของมนุษย์

“สิ่งนี้ตรงกันข้ามกับออสเตรเลีย อย่างเด่นชัดซึ่งไม่ได้กำหนดหน้าที่ทั่วไปของเจ้าหน้าที่ของรัฐในการให้เหตุผลในการตัดสินใจ”

แต่ถึงแม้จะมีพระราชบัญญัติข้อมูลอย่างเป็นทางการ ผู้เขียนกล่าวว่าจะเกิดขึ้นสั้น ๆ เมื่อทำการตัดสินใจหรือสนับสนุนโดย “ระบบการตัดสินใจที่คลุมเครือ”

“นั่นคือเหตุผลที่เราแนะนำว่าอัลกอริธึมการทำนายที่รัฐบาลใช้ ไม่ว่าจะพัฒนาในเชิงพาณิชย์หรือภายในองค์กร จะต้องแสดงอยู่ในทะเบียนสาธารณะ ต้องเปิดเผยต่อสาธารณะเพื่อตรวจสอบ และหากจำเป็น จะต้องเสริมด้วยระบบคำอธิบาย”

การควบคุมของมนุษย์และการปกป้องข้อมูล

อีกประเด็นหนึ่งที่เกี่ยวข้องกับการควบคุมของมนุษย์ ผู้เขียนกล่าวว่าข้อกังวลบางประการเกี่ยวกับการตัดสินใจด้วยอัลกอริธึมนั้นแก้ไขได้ดีที่สุดโดยทำให้แน่ใจว่ามี “มนุษย์อยู่ในวงจร” โดยที่บุคคลจะเป็นผู้ลงนามในขั้นสุดท้ายในการตัดสินใจที่สำคัญใดๆ

“อย่างไรก็ตาม เราไม่คิดว่านี่น่าจะเป็นวิธีแก้ปัญหาที่เพียงพอในกรณีที่สำคัญที่สุด หัวข้อการวิจัยอย่างต่อเนื่องในด้านจิตวิทยาอุตสาหกรรมคือการที่มนุษย์ไว้วางใจมากเกินไปและไม่วิจารณ์ระบบอัตโนมัติ โดยเฉพาะอย่างยิ่งเมื่อระบบเหล่านั้นเชื่อถือได้เกือบตลอดเวลา”

ดังนั้นเพียงแค่ “การเพิ่มมนุษย์” ไม่ได้ให้ผลลัพธ์ที่ดีกว่าเสมอไป ในความเป็นจริง ในบางบริบท การทำงานร่วมกันของมนุษย์จะสร้างความมั่นใจที่ผิดพลาด ทำให้การตัดสินใจโดยใช้ AI ช่วยมีความแม่นยำน้อยลง นักวิจัยกล่าว

* ในงบประมาณปี 2018-19 ของปีที่แล้ว รัฐบาลออสเตรเลียได้จัดสรรเงิน 30 ล้านดอลลาร์ออสเตรเลีย (21 ล้านดอลลาร์สหรัฐ) เพื่อปรับปรุงความพยายามของออสเตรเลียในด้านปัญญาประดิษฐ์และแมชชีนเลิร์นนิง ส่วนหนึ่งของทุนสนับสนุนรวมถึงการพัฒนากรอบจริยธรรม AI ระดับชาติ ‘แผนงาน’ ด้านเทคโนโลยี และชุดมาตรฐาน ฝากถอนไม่มีขั้นต่ำเว็บตรง