เศรษฐกิจสีเงิน หุ่นยนต์ ปัญญาประดิษฐ์และกฎหมาย ตอนที่ 4/4 (ภูมินทร์ บุตรอินทร์)
บทนำ
ปัจจุบันประเทศต่าง ๆ มุ่งนำเทคโนโลยีสมัยใหม่มาใช้ในการพัฒนาแบบก้าวกระโดดเพราะเห็นความสำคัญของการพัฒนาในยุคเทคโนโลยี 4.0. โดยเฉพาะการพูดถึง 4 ปัจจัยทางเทคโนโลยีที่พลิกผันสังคม เศรษฐกิจ การเมือง เราเรียกว่า ABCD กล่าวคือ A – Artificial intelligence & Automation / B – Block chain / C – Cybersecurity & Cloud computing / D – Data โดยเฉพาะเทคโนโลยีปัญญาประดิษฐ์และเทคโนโลยีหุ่นยนต์ถูกนำมาเรียกว่าเป็นการพัฒนา *เศรษฐกิจสีเงิน (Silver Economy) [1] อย่างไรก็ตามการพัฒนาประเทศต้องอยู่ภายใต้กรอบของบริบทสังคมโลก นั่นก็คือการพัฒนาที่สอดคล้องกับแนวทางการพัฒนาที่ยั่งยืน (Sustainable development) การนำเอาปัจจัยทางเทคโนโลยีดังกล่าวเข้ามาใช้เพื่อทดแทนแรงงานมนุษย์จะต้องสอดคล้องกับเป้าหมายในการอนุรักษ์สิ่งแวดล้อมและลดการใช้ทรัพยากรอย่างฟุ่มเฟือย ปัจจุบันนี้กลุ่มประเทศต่าง ๆ ได้เห็นความสำคัญของการนำเอาเทคโนโลยีเหล่านี้มาใช้แต่ก็ทราบดีว่าส่งผลกระทบต่อสังคม เศรษฐกิจและสิ่งแวดล้อมอย่างไรบ้าง ยกตัวอย่างเช่น กลุ่มประเทศในสหภาพยุโรปได้มีการทำรายงานชี้แจงภายหลังจากเก็บรวบรวมข้อมูลว่าเทคโนโลยีนั้นจะส่งผลกระทบต่อสังคมเศรษฐกิจการเมืองและกฎหมายอย่างไร
ในส่วนของประเทศไทยนั้น ผู้เขียนขอสรุปเพื่อนำเสนอตามหัวข้อดังต่อไปนี้ 1) ผลกระทบต่อสังคม 2) ผลกระทบต่อเศรษฐกิจและการเมือง 3) ผลกระทบต่อกฎหมายในปัจจุบัน 4) ทิศทางในอนาคต
4. บทสรุปและข้อเสนอแนะ
การเกิดขึ้นของเทคโนโลยีสมัยใหม่ส่งผลต่อความเปลี่ยนแปลงแนวทางในการตรากฎหมายที่เป็นอยู่ รวมถึงแนวนโยบายของรัฐ ปัจจุบันนี้มีอยู่ 3 เรื่องที่ถือว่าเป็นเรื่องสำคัญที่สุดในการนำเอาเทคโนโลยีดังกล่าวมาใช้ประโยชน์ ได้แก่ ประเด็นความเป็นส่วนตัว ประเด็นความมั่นคงปลอดภัยไซเบอร์ และประเด็นแนวทางการบังคับใช้กฎหมายและการกำหนดจริยธรรมที่สอดคล้องกับเทคโนโลยี โดยผู้เขียนขอสรุปเป็นหัวข้อดังต่อไปนี้
ความเป็นส่วนตัว
ปัจจุบันนี้ แม้ว่าเทคโนโลยีจะก้าวหน้าไปมาก แต่กลับกลายเป็นว่าพื้นที่ความเป็นส่วนตัวนั้นลดน้อยลง มีการคาดการณ์อย่างชัดเจนว่ารูปแบบของสังคมในอนาคตจะมีพื้นที่ความเป็นส่วนตัวน้อยลงแต่จะเป็นพื้นที่ของส่วนรวมมากขึ้นเพราะเทคโนโลยีนั้นถูกนำไปใช้ในหลากหลายรูปแบบไม่ว่าจะเป็นทางอุตสาหกรรม พาณิชยกรรม รวมถึงเรื่องของความมั่นคงของชาต ยกตัวอย่างกรณีที่เคยเกิดขึ้นแล้ว เช่น การนำเทคโนโลยีไปใช้สอดแนมทางการทหาร กรณีของ เอ็ดเวิร์ด สโนว์เดน (Edward Snowden) ซึ่งเป็นเรื่องของการแทรกแซงโดยใช้อำนาจของรัฐบาลสหรัฐในการตรวจสอบและแทรกแซงซึ่งไม่เป็นไปตามหลักธรรมาภิบาล
หรือการนำโดรนอากาศยานไร้คนขับที่ชื่อว่า Reaper ไปใช้ในทางที่ไม่ชอบด้วยกฎหมาย ทั้งนี้การใช้อากาศยานไร้คนขับบินผ่านเคหสถาน ย่อมสามารถบันทึกภาพและรายละเอียดของความเป็นส่วนตัวต่าง ๆ ได้และก่อให้เกิดการล่วงล้ำแดนส่วนบุคคล หรือในกรณีของอุปกรณ์เครื่องใช้ในครัวเรือนหรืออุปกรณ์ทางการแพทย์ที่สามารถเก็บข้อมูลส่วนบุคคลของผู้ใช้งาน ย่อมสามารถเข้าถึงข้อมูลความเป็นส่วนตัวในทุกรูปแบบ สิ่งที่จะเกิดขึ้นตามมาและเป็นปัญหาทางสังคมอย่างหลีกเลี่ยงไม่ได้ก็คือ ความเหลื่อมล้ำในการเข้าถึงและใช้ประโยชน์จากเทคโนโลยี ทั้งนี้อาจก่อให้เกิดปัญหาการเลือกปฏิบัติ ยกตัวอย่างเช่น การเลือกรับคนเข้าเรียนในสาขาวิชาต่าง ๆ การเลือกรับคนเข้าทำงานในสายอาชีพต่าง ๆ โดยประเมินจากการเก็บข้อมูลส่วนบุคคล
นอกจากนั้นในอนาคตอันใกล้การนำเทคโนโลยีมาใช้ในการวิเคราะห์พฤติกรรมของคนในสังคมว่าจะกระทำความผิดหรือไม่ก่อนที่จะเริ่มกระทำความผิดก็อาจเกิดขึ้นได้ เนื่องจากความสามารถของเทคโนโลยีสามารถเก็บรวบรวมพฤติกรรมที่ก่อให้เกิดความเสี่ยงต่อการกระทำความผิดได้ทุกรูปแบบ
อย่างไรก็ตามสิ่งที่น่ากังวลยิ่งกว่าการก้าวข้ามไปสู่พื้นที่ส่วนตัวก็คือ การรักษาความปลอดภัยของข้อมูล ดังนั้นประเด็นในเรื่องของความมั่นคงปลอดภัยไซเบอร์จึงเป็นเรื่องที่รัฐบาลต่างๆต้องคำนึงถึงเป็นอย่างยิ่ง
ความมั่นคงปลอดภัยไซเบอร์
ปัจจุบันเราได้ยินข่าวสารมากมายเกี่ยวกับความมั่นคงปลอดภัยไซเบอร์ ยกตัวอย่างเช่น การสอดแนมเพื่อเก็บข้อมูลผ่านอุปกรณ์เครื่องใช้ในครัวเรือน การเจาะเข้าสู่ระบบเครือข่ายของซอฟต์แวร์ที่มีผู้ใช้จำนวนมาก รวมถึงการเจาะเข้าสู่ฐานข้อมูลความมั่นคงของแต่ละประเทศ การก่อให้เกิดความเสียหายรูปแบบใหม่นั้นเป็นปัญหาร่วมกันของทุกประเทศ เนื่องจากการเจาะเข้าระบบฐานข้อมูลของประเทศหนึ่งอาจนำไปสู่การก่อการร้าย หรือการโจรกรรมในประเทศอื่น ๆ โดยเฉพาะถ้ามีการโจรกรรมข้อมูลเกี่ยวกับความมั่นคงทางการทหาร หรือความมั่นคงทางเศรษฐกิจของแต่ละประเทศ รวมถึงความปลอดภัยของข้อมูลในกระบวนการยุติธรรม ดังนั้นในปัจจุบันประเทศต่าง ๆ จึงร่วมกันหาทางออกในการสร้างกฎเกณฑ์สากลร่วมกัน เพื่อให้การใช้เทคโนโลยีมีความปลอดภัยในมาตรฐานเดียวกัน การใช้ภาษาโปรแกรมที่มีลักษณะสามารถเชื่อมโยงในการพัฒนาเทคโนโลยีร่วมกันได้ (Interconnectivity) รวมตลอดถึงมาตรฐานของเทคโนโลยีที่นำมาใช้ หลายประเทศได้มีการสร้างกฎเกณฑ์ขึ้นมา
ยกตัวอย่างเช่น สหภาพยุโรปได้มีการกำหนดกฏเกณฑ์ของเทคโนโลยีหุ่นยนต์เอาไว้ใน Regulating Emerging Robotic Technologies in Europe: Robotics facing Law and Ethics และรายงานผลกระทบจากการนำเทคโนโลยีหุ่นยนต์และปัญญาประดิษฐ์มาใช้ที่ชื่อว่า Report with recommendations to the Commission on Civil Law Rules on Robotics(2015/2103 (INL)) และ Report on a comprehensive European industrial policy on artificial intelligence and robotics (2018/2088(INI)
หรือประเทศเกาหลีใต้ได้มีการตรากฎหมายที่ชื่อว่า INTELLIGENT ROBOTS DEVELOPMENT AND DISTRIBUTION PROMOTION ACT
ยิ่งไปกว่านั้น หลายประเทศได้มีการก่อตั้งองค์กรหรือสมาคมเพื่อกำหนดกฏเกณฑ์สากล อาทิเช่น Japan robotics Association ประเทศญี่ปุ่น หรือ Centre de robotique intégrée d’île de France ประเทศฝรั่งเศส เป็นต้น
4.1 แนวทางการบังคับใช้กฎหมายและการกำหนดจริยธรรมในอนาคตเพื่อการพัฒนาประเทศ
สำหรับหัวข้อดังกล่าวสามารถแยกเป็นประเด็นดังต่อไปนี้
4.1.1 การแบ่งแยกระหว่างนิยามของคำว่า “หุ่นยนต์” และ “ปัญญาประดิษฐ์” เพื่อสร้างกฎเกณฑ์ที่เหมาะสม การกำหนดนิยามของคำว่าหุ่นยนต์และปัญญาประดิษฐ์
ภายหลังจากการศึกษาพบว่าเทคโนโลยีปัญญาประดิษฐ์นั้นเป็นเพียงแค่ส่วนหนึ่งของเทคโนโลยีหุ่นยนต์เท่านั้น ซึ่งเทคโนโลยีหุ่นยนต์คือการนำเอาเทคโนโลยีอัตโนมัติ (Automation) มาพัฒนาเป็นขั้นสูงและการนำเอาเทคโนโลยีปัญญาประดิษฐ์มาหลอมรวมเป็นหนึ่งเดียว ก่อให้เกิดเทคโนโลยีขั้นสูงที่ถูกแบ่งเป็นอีกประเภทหนึ่งซึ่งจะพูดถึงในลำดับถัดไป เบื้องต้นนั้น การแบ่งแยกนิยามของหุ่นยนต์และปัญญาประดิษฐ์ก่อให้เกิดแนวทางในการควบคุมที่แตกต่างกันในรายละเอียด จากผลการศึกษาเปรียบเทียบบทนิยามขององค์กรต่างๆและกฎหมายของกลุ่มประเทศต่าง ๆ ได้ข้อสรุปว่า นิยามของคำว่า “หุ่นยนต์” นั้นประกอบไปด้วยลักษณะดังต่อไปนี้
- หุ่นยนต์ต้องมีลักษณะทางกายภาพหรือมีรูปร่างรูปทรงที่จับต้องได้ องค์ประกอบข้อแรกนั้นทำให้เทคโนโลยีปัญญาประดิษฐ์ที่ไม่มีรูปร่างรูปทรงที่จับต้องได้ไม่อยู่ภายใต้นิยามของคำว่าหุ่นยนต์ ยกตัวอย่างเช่น Chatbot แต่ถ้าเป็นหุ่นยนต์ที่มีขนาดเล็กจนมองไม่เห็น แต่มีรูปร่างที่ชัดเจน เช่น Microrobot Nanorobot หรือการนำเอาระบบควบคุมอัตโนมัติไปใช้กับสัตว์บางประเภทหรือแมลงเพื่อค้นหาผู้ประสบภัย เช่น Biobot นั้นยังอยู่ภายใต้นิยามของคำว่าหุ่นยนต์ เนื่องจากมีรูปร่างสัมผัสที่ชัดเจน
- หุ่นยนต์นั้นจะต้องมีแหล่งพลังงานเป็นของตนเอง การมีแหล่งพลังงานสำรองเป็นของตนเองนั้นอาจเป็นแหล่งพลังงานในรูปแบบของแบตเตอรี่ ยกตัวอย่างเช่น หุ่นยนต์ที่ชื่อว่า Asimo ซึ่งเป็นของบริษัท Honda หรือแหล่งพลังงานสำรองประเภทอื่น ๆ เช่น ก๊าซหรือน้ำมัน รวมถึงการใช้พลังงานสะอาดเช่นน้ำและอากาศ เช่น หุ่นยนต์ที่ชื่อว่า gastrobot หรืออาจจะมีการหาและเก็บพลังงานที่อยู่ในธรรมชาติก็เป็นได้ เช่นหุ่นยนต์ที่ชื่อว่า Solar Impulse ซึ่งเป็นเครื่องบินที่ใช้พลังงานแสงอาทิตย์
- หุ่นยนต์นั้นจะต้องมีความสามารถในการเคลื่อนไหวและสามารถนำออกใช้งานได้จริงในสภาพแวดล้อมเปิด ตัวอย่างของเงื่อนไขในข้อนี้ปรากฏอยู่ในบทบัญญัติมาตรา 2 กฎหมาย INTELLIGENT ROBOTS DEVELOPMENT AND DISTRIBUTION PROMOTION ACT และมาตรฐานอุตสาหกรรม NF EN ISO 8373 ข้อที่ 3.1 ข้อกำหนดดังกล่าวทำให้เทคโนโลยีทันสมัยหลายลักษณะเช่น ระบบปฏิบัติการไม่สามารถเป็นหุ่นยนต์ได้ เช่น ระบบควบคุมการเคลื่อนไหว Kinect ของ บริษัทไมโครซอฟท์
- หุ่นยนต์นั้นต้องมีความสามารถในการสังเกตสิ่งแวดล้อมรอบตัว การสังเกตสิ่งแวดล้อมรอบตัวประกอบไปด้วยการรับรู้จากสิ่งแวดล้อมภายในเครื่องยนต์ของตนเองยกตัวอย่างเช่น ระดับของพลังงานแบตเตอรี่ที่คงเหลือ ตำแหน่งที่ตั้งของหุ่นยนต์โดยสามารถค้นหาได้จาก GPS รวมถึงความเร็วในการเคลื่อนไหวระหว่างการใช้งาน ส่วนการรับรู้จากสิ่งแวดล้อมภายนอกก็คือ การรับรู้ระดับของอุณหภูมิรอบตัว แสง กิริยาท่าทางของมนุษย์หรือสิ่งมีชีวิตที่มีปฏิสัมพันธ์ร่วมกับหุ่นยนต์ สิ่งกีดขวางและระยะทาง รวมถึงสิ่งแวดล้อมที่ไม่ปลอดภัยต่อการใช้งานโดยการรับรู้จากกลิ่น เช่น สารเคมีอันตราย ฯลฯ
- ความสามารถในการตัดสินใจของหุ่นยนต์ ลักษณะข้อนี้เป็นการแบ่งแยกระหว่าง ระบบอัตโนมัติทั่วไป (Automation) กับ หุ่นยนต์ (Robot) ทั้งนี้ความสามารถในการตัดสินใจแก้ปัญหาเป็นลักษณะเฉพาะที่มีในเทคโนโลยีหุ่นยนต์ ยกตัวอย่างเช่น รถไฟอัตโนมัติที่ปรับระดับความเร็วตามขนาดความกว้างของราง และระยะความสั้นความยาวของรางรถไฟ ไม่ถือว่าเป็นหุ่นยนต์ในนิยามที่กำหนดแต่เป็นเพียงระบบอัตโนมัติทั่วไป หรือกรณีของการรักษาด้วยการศัลยกรรมทางไกลด้วยหุ่นยนต์ที่เกิดจากการควบคุมของแพทย์ผู้ผ่าตัด ก็ไม่ถือว่าเป็นหุ่นยนต์ตามนิยามที่กำหนดเพราะยังมีการควบคุมโดยมนุษย์เป็นสาระสำคัญ ปัจจุบันความสามารถในการตัดสินใจนั้นถูกพัฒนาไปสู่ระบบสมองกลที่เรียกว่า Cloud Robotics ซึ่งเป็นการเชื่อมต่อองค์ความรู้ของหุ่นยนต์ทุกตัวที่อยู่ในระบบเครือข่ายข้อมูลเดียวกันเพื่อแชร์ความรู้และประเมินผลเพื่อการตัดสินใจที่ถูกต้อง
- ความสามารถในการเรียนรู้และพัฒนาตนเองของหุ่นยนต์ (Machine learning) ทั้งนี้หุ่นยนต์จะเรียนรู้จากประสบการณ์ครั้งก่อนและพัฒนาให้ดีขึ้น สิ่งใดที่เคยเรียนรู้และผิดพลาด การตัดสินใจครั้งนั้นจะไม่เกิดขึ้นอีก ปัจจุบันได้มีการพัฒนาโดยให้ศึกษาอัลกอริทึมที่แตกต่างกัน ยกตัวอย่างเช่น ระบบการเดินของหุ่นยนต์ โดยให้หุ่นยนต์ศึกษาอัลกอริทึมซึ่งเลียนแบบการเดินของสัตว์ชนิดต่าง ๆ มากกว่า 13,000 วิธีการเพื่อหาวิธีการเดินที่ดีที่สุด ปัจจุบันได้มีการพัฒนาระบบที่เรียกว่า Brain Operating System (BrainOS) และการพัฒนาระบบการเรียนรู้จากสภาพแวดล้อมแบบปิด ยกตัวอย่างเช่น ให้หุ่นยนต์ทดลองการเรียนรู้ในห้องครัวเพื่อศึกษาถึงอุปกรณ์เครื่องครัวต่าง ๆ รวมถึงการเรียนรู้ในสภาพแวดล้อมแบบเปิด เช่น การเรียนรู้ผ่านเครือข่ายอินเตอร์เน็ต เช่น การเรียนรู้ผ่าน YouTube เป็นต้น การเรียนรู้รูปแบบนี้อยู่ในโปรแกรมที่ชื่อว่า Lifelong Robotic Object Discovery (LROD) ทั้งนี้เพื่อหาแนวทางที่ปลอดภัยที่สุดก่อนนำหุ่นยนต์มาใช้ในสภาพแวดล้อมที่แท้จริงสำหรับองค์ประกอบข้อสุดท้ายของนิยามคำว่าหุ่นยนต์นี้ เป็นลักษณะพิเศษที่มีการหลอมรวมเอาเทคโนโลยีปัญญาประดิษฐ์มาร่วมกับเทคโนโลยีอัตโนมัติ ปัจจุบันนี้มีการพัฒนาระบบร่วมกันที่เรียกว่า Robot Operation System (ROS) ซึ่งก่อให้เกิดหุ่นยนต์อัจฉริยะที่สามารถเรียนรู้ และตัดสินใจเองได้ ความสามารถในการตัดสินใจในที่นี้หมายถึง การตัดสินใจเพื่อแก้ปัญหาที่เกิดขึ้น
อย่างไรก็ตามในปัจจุบันยังไม่มีเทคโนโลยหุ่นยนต์ที่พัฒนาไปสู่ความสามารถในการคิดก่อเจตนาจนก่อเจตจำนงเองได้ (Volitionality) ดังที่สังคมเป็นห่วงว่าหุ่นยนต์นั้นจะมาแทนที่มนุษย์เหมือนในภาพยนตร์ ปัจจุบันจึงได้มีการกำหนดกฏเกณฑ์เพื่อควบคุมการผลิตและใช้เทคโนโลยีดังกล่าวในระดับที่เหมาะสมเท่านั้น
4.1.2 แนวทางในการออกกฏหมายและกฎเกณฑ์ต่าง ๆ ในการบังคับใช้เทคโนโลยี
ภายหลังจากได้ทำการศึกษาเปรียบเทียบ ผู้เขียนพบว่าแนวทางในปัจจุบันเราสามารถแยกได้เป็นสองลักษณะดังต่อไปนี้
- การบังคับใช้กฎหมายตั้งแต่ต้นทางของการออกแบบเทคโนโลยี (Law by Design) กรณีดังกล่าวนี้หมายถึง การควบคุมเทคโนโลยีตั้งแต่ต้นทาง การควบคุมดังกล่าวปรากฏอยู่ในเอกสารชิ้นสำคัญของสหภาพยุโรปที่ชื่อว่า Ethics Guidelines for Trustworthy Artificial Intelligence โดยรายละเอียดของกฎเกณฑ์เบื้องต้นแบ่งออกเป็น 7 หัวข้อ ดังต่อไปนี้
-
- การกำหนดภาระหน้าที่ให้กับบุคลากรที่เกี่ยวข้องกับเทคโนโลยี
- ความปลอดภัยและความแน่นอนของเทคโนโลยีที่นำเอามาใช้
- ความเป็นส่วนตัวและการคุ้มครองข้อมูล
- ความโปร่งใสและตรวจสอบได้ของการทำงาน
- การไม่เลือกปฏิบัติ การดำเนินการอย่างยุติธรรมและความเสมอภาคของบุคคลหลักหลายประเภทในการเข้าถึงเทคโนโลยี
- สิ่งแวดล้อมและความปลอดภัยของสังคม
- ความรับผิดชอบของผู้ออกแบบ ผู้ใช้และผู้ประกอบการที่เกี่ยวข้องกับเทคโนโลยี
สำหรับการควบคุมตั้งแต่ต้นทางของการออกแบบเทคโนโลยี สหภาพยุโรปได้มีการศึกษาจากกฎเกณฑ์ข้อบังคับและแนวทางปฎิบัติของสหภาพยุโรปทั้งหมดที่มีมาก่อนเพื่อที่จะมากำหนดไว้ในแนวปฏิบัติฉบับนี้ โดยมีการกำหนดว่าผู้พัฒนาหรือผู้ออกแบบเทคโนโลยีจะต้องดำเนินการตามมาตรฐานขั้นต่ำที่ถูกกำหนดเอาไว้ในแนวปฏิบัติฉบับนี้เพื่อความปลอดภัย และเป็นไปตามวัตถุประสงค์ทั้ง 7 ข้อดังที่กล่าวมา ทั้งนี้ได้มีการศึกษากฎเกณฑ์ต่าง ๆ จากกฎระเบียบดังต่อไปนี้
-
- The general data protection regulation
- The product liability directive
- The regulation on the free flow of non-personal data
- Anti-discrimination directive
- กฎหมายคุ้มครองผู้บริโภค และ Safety and health at work directive
- The UN Human right treaties และ The European convention on human rights
- The medical device regulation in the healthcare
ดังนั้นหลักการพื้นฐานเหล่านี้จึงถูกกำหนดตั้งแต่ต้นทางแล้ว กล่าวคือ การออกแบบอัลกอริทึมในการใช้งานแต่ละเรื่องก่อนที่จะมีการพัฒนาเทคโนโลยี จะต้องผ่านมาตรฐานเหล่านี้ด้วย และที่สำคัญยังต้องออกแบบให้สอดคล้องกับหลักสิทธิขั้นพื้นฐาน หลักนิติรัฐ หลักการไม่เลือกปฏิบัติรวมถึงสิทธิของพลเมืองในรูปแบบต่าง ๆ ที่ถูกกำหนดไว้นอกจากที่กล่าวมายังรวมถึงการจัดทำประมวลจริยธรรมสำหรับผู้คิดค้นและออกแบบเทคโนโลยี รวมถึงการจัดทำโปรแกรมต่าง ๆ ต้องสอดคล้องกับเรื่องดังกล่าวทั้งสิ้น
นอกจากหลักการที่กล่าวไว้ ยังมีหลักการอื่น ๆ ที่สำคัญดังต่อไปนี้
หลักความโปร่งใสตรวจสอบได้ (The Principle of Explicability) หลักการนี้หมายถึง การนำเทคโนโลยีมาใช้นั้นจะต้องสามารถตรวจสอบความถูกต้องของเทคโนโลยีได้ รวมถึงเมื่อมีความบกพร่องเสียหายเกิดขึ้นจะต้องสามารถที่จะตรวจสอบได้ว่ามาจากเหตุผลใด ทั้งนี้ได้มีการกำหนดเอาไว้ในบางเรื่องเช่น ระบบกล่องดำ หรือ กล่องรักษาความปลอดภัย (Black Box) ในกรณีที่มีความเสียหายเกิดขึ้น สามารถตรวจสอบว่าความบกพร่องเกิดจากเหตุใด ซึ่งมีลักษณะใกล้เคียงกับกล่องดำของเครื่องบินนั้นเอง
หลักการแก้ไขปัญหาเมื่อมีความขัดแย้งระหว่างหลักการที่สำคัญ กรณีที่หลักการพื้นฐานมีความขัดแย้งกันเอง การตัดสินใจในการแก้ปัญหานั้นจะเป็นอย่างไร ยกตัวอย่างเช่น ถ้าเกิดว่าหลักการในเรื่องการป้องกันภัย (Principle of Prevention of Harm) เกิดขัดแย้งกับหลักการที่เรียกว่า อิสระเสรีภาพของมนุษย์ (Principle of Human Autonomy) สุดท้ายแล้วเทคโนโลยีปัญญาประดิษฐ์จะตัดสินใจอย่างไร กรณีที่จะเป็นตัวอย่างให้เห็นปัญหาก็คือ สมมุติว่าหน่วยงานความมั่นคงได้นำเทคโนโลยีปัญญาประดิษฐ์มาใช้ในการทำนายความเสี่ยงที่จะเกิดอาชญากรรมและใช้ในการลดอาชญากรรมที่กำลังจะเกิดขึ้นในอนาคต แต่ขณะเดียวกันการดำเนินการจะต้องเข้าไปตรวจสอบกิจกรรมหรือพฤติกรรมของปัจเจกชน ซึ่งแน่นอนว่าบางครั้งก็ก้าวล่วงเข้าไปในแดนเสรีภาพและสิทธิส่วนบุคคล แนวทางดังกล่าวต้องมีความชัดเจนแน่นอน
หลักการแทรกแซงโดยมนุษย์ (Human Oversight) เนื่องจากการนำเทคโนโลยีปัญญาประดิษฐ์และหุ่นยนต์มาใช้นั้น ในบางเรื่องมีความจำเป็นที่จะต้องมีการแทรกแซงโดยการตัดสินใจของมนุษย์ ซึ่งอาจจะมีลักษณะเป็นการตัดสินใจแทนโดยมนุษย์ หรือการตัดสินใจร่วมกันในการดำเนินการ หลักการดังกล่าวนี้เราเรียกว่า HITL-Human in the loop, HOTL-Human on the loop, HIC-Human in common
หลักความปลอดภัยและความแน่นอนของเทคโนโลยี (Technical Robustness and Safety) สำหรับความปลอดภัยของตัวเทคโนโลยีนั้น ถูกกำหนดขึ้นในกรณีที่เกิดการจู่โจมอันก่อให้เกิดความเสียหายต่อความมั่นคงไซเบอร์และทำให้เกิดความเสียหายต่อระบบ กรณีดังกล่าวนี้จะต้องมีการตั้งแผนรองรับการถูกโจมตีทางไซเบอร์ (Resillence to Attack and Security) รวมถึงการวางแผนสำรองเพื่อแก้ปัญหาเฉพาะหน้าในกรณีที่เกิดความเสียหายขึ้นมาและมีผลต่อความปลอดภัย (Fallback Plan and General Safety)
-
- การกำหนดให้ตัวของเทคโนโลยีเป็นนิติบุคคลตามกฎหมายประเภทใหม่ (Electronic Personhood) กรณีดังกล่าวนี้หมายถึงการควบคุมเทคโนโลยีเมื่อมีการนำออกใช้สู่สังคมแล้ว ดังนั้นในกรณีที่เกิดความเสียหายขึ้นและไม่สามารถพิสูจน์เพื่อลงโทษหรือให้ชดใช้ความเสียหายได้ หรือความเสียหายนั้นไม่สามารถที่จะพิสูจน์ได้ว่าเกิดขึ้นจากผู้ออกแบบเทคโนโลยี ผู้ประกอบการที่เกี่ยวข้อง ผู้ควบคุม หรือใช้งานที่เกี่ยวข้อง ความรับผิดในความเสียหายดังกล่าวควรจะเป็นของตัวเทคโนโลยีเองก่อนอื่นต้องเข้าใจก่อนว่าเทคโนโลยีปัญญาประดิษฐ์ที่ถูกนำเอามาใช้งานนั้น ยิ่งมีการใช้งานยาวนานเท่าไหร่ ยิ่งมีข้อมูลที่ถูกประมวลผลจำนวนมากเท่าไหร่ยิ่งเป็นการเพิ่มประสิทธิภาพให้กับเทคโนโลยีดังกล่าว ดังนั้นโดยสมมุติฐานแล้วเทคโนโลยีปัญญาประดิษฐ์นั้นจะมีอายุการใช้งานที่ยาวนานมาก เมื่อถึงเวลาที่มีความเสียหายเกิดขึ้นในอนาคต ความเสียหายนั้นอาจจะเกิดขึ้นในช่วงเวลาที่มีการเปลี่ยนผ่านความเป็นเจ้าของผู้ทรงสิทธิ์ตามกฏหมายของเทคโนโลยีดังกล่าวไปแล้ว เช่น นิติบุคคลที่เป็นเจ้าของเทคโนโลยีได้มีการควบรวมกิจการ หรือมีการเปลี่ยนแปลงนิติบุคคลดังกล่าวในรูปแบบต่าง ๆ ไปหลายทอดแล้ว ดังนั้นจึงมีความคิดว่าตัวของเทคโนโลยีปัญญาประดิษฐ์น่าจะมีสถานภาพทางกฎหมายเป็นนิติบุคคลประเภทใหม่ ในลักษณะเดียวกับการนำเอาหลักกฏหมายว่าด้วยการคุ้มครองนิติบุคคลในปัจจุบันมาปรับใช้ แต่การปรับใช้นั้นอาจจะมีการเพิ่มหลักการบางเรื่องเข้าไป ยกตัวอย่างเช่น มีการกำหนดระบบกองทุนสำรองจากรายรับหรือผลกำไรที่ได้รับส่วนหนึ่งและปันมาเป็นเงินเก็บไว้ในกองทุนเพื่อเยียวยาความเสียหายที่อาจจะเกิดขึ้นในอนาคตอย่างไรก็ตาม แนวทางดังกล่าวยังเป็นเพียงแค่ข้อเสนอแนะและยังรอการปฏิรูปให้เป็นรูปธรรมมากยิ่งขึ้น
รองศาสตราจารย์ ดร. ภูมินทร์ บุตรอินทร์
ที่ปรึกษาด้านกฏหมาย มูลนิธิศูนย์สารสนเทศเครือข่ายไทย
*อ่านย้อนหลัง ตอนที่ 1 – ตอนที่ 2 – ตอนที่ 3 – ตอนที่ 4
[1] *Klimczuk, Andrzej, Economic Foundations for Creative Ageing Policy, Volume I: Context and Considerations, Palgrave Macmillan, New York 2015, pp. 75-107; Klimczuk, Andrzej, “Supporting the Development of Gerontechnology as Part of Silver Economy Building”, Ad Alta: Journal of Interdisciplinary Research 2/2012, pp. 52-56. ศึกษารายละเอียดเพิ่มเติมได้ที่ https://ec.europa.eu/digital-single-market/en/news/silver-economy-study-how-stimulate-economy-hundreds-millions-euros-year