คดีที่น่าสงสัยของ AI และความรับผิดทางกฎหมาย

คดีที่น่าสงสัยของ AI และความรับผิดทางกฎหมาย

แม้ว่าเราจะไม่ได้หวังที่จะให้การวิเคราะห์อย่างละเอียดถี่ถ้วนเกี่ยวกับสถานการณ์ที่การใช้ปัญญาประดิษฐ์อาจส่งผลให้เกิดความรับผิดทางกฎหมาย แต่บทความนี้มีความตั้งใจที่จะกระตุ้นให้เกิดความคิดบางอย่างเกี่ยวกับวิธีที่เราผสานรวม AI เข้ากับชีวิตของเราและ อย่างมีนัยสำคัญมาสู่ธุรกิจของเราในขณะที่แอฟริกาใต้ล้าหลังโลกตะวันตกในแง่ของการยอมรับเทคโนโลยีและการแพร่กระจาย เป็นเรื่องที่รับ

ประกันการมองการณ์ไกลอย่างไม่ต้องสงสัย สิ่งนี้มีความเกี่ยวข้อง

อย่างยิ่งเมื่อรถยนต์ไร้คนขับของ Uber คร่าชีวิตคนเดินถนนในสหรัฐอเมริกาเมื่อต้นปีนี้

ไม่มีข้อกังวลเหล่านี้เกี่ยวกับจุดบรรจบกันของปัญญาประดิษฐ์และความรับผิดทางกฎหมายที่ใช้บังคับได้มากกว่านี้ อย่างไรก็ตาม เป็นที่กล่าวขวัญถึงว่าเราได้ใช้ชีวิตอยู่กับระบบซอฟต์แวร์แล้ว ซึ่งในระดับมากหรือน้อย ได้เข้ามาแทนที่บทบาทของมนุษย์ในกระบวนการที่กำหนด

พิจารณากรณีของ Therac-25 ในช่วงกลางทศวรรษ 1980 ซึ่งเป็นเครื่องจ่ายปริมาณรังสีที่ออกแบบโดยชาวแคนาดา ซึ่งจ่ายรังสีอย่างไม่ถูกต้องให้กับผู้ป่วย 6 รายด้วยปริมาณรังสีที่ร้ายแรงถึงชีวิต

ก้าวไปข้างหน้า

ในทางกลับกัน การใช้ปัญญาประดิษฐ์สมัยใหม่และกระบวนการซอฟต์แวร์เพื่อช่วยเหลือมนุษย์ในความพยายามของพวกเขาได้ก่อให้เกิดประสิทธิภาพและประสิทธิผลเพิ่มขึ้นอย่างนับไม่ถ้วนในขอบเขตการใช้งานนับไม่ถ้วน

อันที่จริง ความไม่แน่นอนเกี่ยวกับความรับผิดในสังคมที่มีการฟ้องร้องมากเกินไปของเรานั้นมีแนวโน้มที่จะขัดขวางการพัฒนาและการทำเชิงพาณิชย์ของโซลูชัน AI จำนวนมากที่อาจปฏิวัติวงการ เพราะกลัวความรับผิดชอบที่อาจเกิดขึ้นตามมาจากการใช้งาน ดังนั้น สงสัยเล็กน้อยว่า Sci-Fi ไม่ได้ทำเพื่อช่วยเหลือผู้เผยแพร่ศาสนา AI มากนัก แล้วเราจะระบุความรับผิดต่อ AI ได้อย่างไร?

ปัญหาเกี่ยวกับความรับผิดทางอาญาและความรับผิดทางแพ่งโดยทั่วไปคือการอาศัยมาตรฐานวัตถุประสงค์เป็นหลัก ความรับผิดทางอาญาในแอฟริกาใต้เรียกร้องให้มีการกระทำ (หรือการละเว้น) ของมนุษย์โดยเฉพาะและต้องเป็นการกระทำโดยสมัครใจ การกำหนดมาตรฐานนี้ให้กับ AI หมายความว่าความรับผิดทางอาญาไม่สามารถตามมาได้สำหรับระบบ AI

ตามปกติแล้ว มีความรับผิดในรูปแบบอื่นๆ แต่สิ่งนี้ — ที่แกนหลัก — เรียกร้องให้มีการตรวจสอบมาตรฐานของสิ่งที่ถือเป็นพฤติกรรมเพื่อวัตถุประสงค์ในการก่ออาชญากรรม สิ่งนี้ไม่ได้เริ่มสัมผัสกับอุปสรรค์ที่พบในการสร้าง “ข้อบกพร่อง” ในส่วนของ AI

การปกครอง AI

คำตอบอยู่ในรายละเอียดของการหาเหตุผลเข้าข้างตนเองของกระบวนการตัดสินใจในการใช้งานเฉพาะของ AI บางที หากเราสามารถแยกแยะวิธีที่ AI มาถึงการตัดสินใจได้ แทนที่จะใช้วิธีการแบบกล่องดำที่ตรวจสอบเฉพาะผลลัพธ์ เราก็กำลังดำเนินการบางอย่างเพื่อยืนยันว่าความรับผิดควรเกิดขึ้นในสถานการณ์ที่กำหนดหรือไม่

สิ่งที่ชัดเจนคือเราจำเป็นต้องมีกรอบสำหรับการประกาศ

ใช้กฎหมายที่เหมาะสมซึ่งจะควบคุม Skynet ที่เป็นที่เลื่องลือและเมื่อความรับผิดควรเกิดขึ้น

สหภาพยุโรปมีความคืบหน้าในเรื่องนี้ โดยเรียกร้องให้มีกรอบกฎหมายทั่วทั้งสหภาพยุโรปที่จะควบคุมการพัฒนาและการใช้งาน AI อย่างมีจริยธรรม และการจัดตั้งความรับผิดต่อผู้กระทำ รวมถึงหุ่นยนต์

อาจฟังดูห่างไกลจากธุรกิจประจำวันของคุณ แต่สิ่งนี้อาจส่งผลกระทบต่อธุรกิจของคุณเร็วกว่าที่คุณคิด — จากแชทบอทที่ทำสัญญา AI ประกันที่ประเมินความเสี่ยงและเบี้ยประกันของคุณ และ AI ด้านกฎหมายที่วินิจฉัยกฎหมายของคุณ คดีที่ใช้กฎหมายคดีประวัติศาสตร์ ไปจนถึง AI ที่ช่วยให้ผู้พิพากษาหลีกเลี่ยงอคติโดยธรรมชาติและตัดสินประโยคที่เหมาะสม อนาคตอยู่ที่นี่มาก

จากแนวหน้า

แอฟริกาใต้มีโอกาสที่จะเป็นผู้นำในกฎระเบียบของเขตแดนใหม่นี้และป้องกันความล้าหลังของกฎหมายที่คุ้นเคยในฝุ่นของเทคโนโลยี จำเป็นต้องมีแนวทางการกำกับดูแลซึ่งการกำหนดสูตรต่างๆ ของความรับผิดต่อผลิตภัณฑ์ ความรับผิดด้านการออกแบบและการเขียนโปรแกรมสามารถเจรจาต่อรองได้โดยผู้มีส่วนได้ส่วนเสียที่ได้รับแจ้ง เพื่อรองรับเทคโนโลยีรูปแบบใหม่เหล่านี้และสถานการณ์ที่ผิดเพี้ยนไป และเพื่อสะท้อนจริยธรรมและข้อกังวลของสังคมของเราได้แม่นยำยิ่งขึ้น .

ไม่ต้องสงสัยเลยว่าเป็นเส้นทางที่ยุ่งยากและมืดมน ไม่มีระบบใดปราศจากข้อผิดพลาดและการทำผิดของ AI นั้นขายยาก แต่ถึงกระนั้นก็เป็นสิ่งที่ต้องสำรวจ ในระหว่างนี้ บริษัทจำเป็นต้องตรวจสอบให้แน่ใจว่ามีการปฏิบัติตามหลักธรรมาภิบาลที่ดีในการตัดสินใจทั้งหมดที่เกี่ยวข้องกับ AI เพื่อบันทึกความเสี่ยงที่ระบุและจัดการการดำเนินการและการนำไปใช้อย่างรอบคอบ

Credit : สล็อตโรม่าเว็บตรง / สล็อตแท้