Responsible AI: คู่มือการใช้งาน AI อย่างมีจรรยาบรรณและรับผิดชอบต่อสังคม

Responsible AI: คู่มือการใช้งาน AI อย่างมีจรรยาบรรณและรับผิดชอบต่อสังคม

Responsible AI คืออะไร? ทำไมจริยธรรม AI ถึงเป็นเทรนด์ที่ ผู้บริโภคให้ความสำคัญมากขึ้น

ปัญญาประดิษฐ์ ที่มีความไว้วางใจได้ หรือ Responsible Artificial Intelligence คือ กรอบวิธีการปฏิบัติงานศูนย์ธรรมาภิบาลปัญญาประดิษฐ์ (AI Governance Framework) ที่ประกอบไปด้วยเครื่องมือและกระบวนการต่างๆ ที่ได้รับการออกแบบมาโดยคำนึงถึงมนุษย์เป็นศูนย์กลาง (Human Centered Design) และ สามารถนำไปปรับแต่งให้เข้ากับบริบท เพื่อช่วยองค์กรต่างๆ กำหนดวัตถุประสงค์หลักและกลยุทธ์ในการกำกับดูแลและใช้ประโยชน์ AI ได้อย่างมีจริยธรรม ภายใต้กฎหมาย และมีความรับผิดชอบต่อผู้บริโภคและสังคม

โดยทั่วไป การใช้ AI สามารถสร้างผลประโยชน์และโอกาสในเชิงธุรกิจได้อย่างมหาศาล ไม่ว่าจะเป็นความสามารถในการหา Insight ด้วยการคาดการณ์พฤติกรรมของลูกค้า หรือ การช่วยสร้างคอนเทนต์ใหม่ผ่าน Generative AI แต่ในขณะเดียวกัน AI ก็มาพร้อมกับความเสี่ยงรูปแบบใหม่จากการใช้งานที่สูงขึ้นที่ส่งผลกระทบโดยตรงต่อชีวิตของผู้คน หนึ่งในภาวะกลืนไม่เข้าคายไม่ออกของ AI คือความจำเป็นในการใช้ ข้อมูล Data จำนวนมาก เพื่อเพิ่มประสิทธิภาพและความแม่นยำ ซึ่งนั่นทำให้เกิดคำถามมากมายถึงความรับผิดชอบขององค์กรต่างๆ ในเชิงจริยธรรมของ AI โดยเฉพาะในกรณีที่ AI มีบทบาทอย่างมากในการตัดสินใจ ซึ่งข้อคำนึงรวมไปถึงการกำกับดูแลข้อมูล ความไว้วางใจ ความเสี่ยงที่จะเรียนรู้และเลียนแบบอคติของมนุษย์ การดำเนินการที่ถูกต้องตามกฎหมาย ปัจจัยอื่นๆ ที่องค์กรต้องคำนึงถึง ซึ่งบทความนี้จะครอบคลุมถึงในการสร้างแนวทางจริยธรรมเพื่อการสร้าง AI ที่เชื่อเถือได้

โดยงานวิจัย Tech Vision 2022 ของ Accenture ซึ่งเป็นงานวิจัยรายปีสำหรับการวิเคราะห์เทรนด์เทคโนโลยีล่าสุดที่อาจส่งผลกระทบกับบริษัท หน่วยงานราชการ และองค์กรอื่นๆ ภายในสามปีข้างหน้า จากการสำรวจผู้บริโภค 24,000 รายทั่วโลก ใน 35 ประเทศ พบว่าผู้บริโภคทั่วโลกเพียง 35% เท่านั้นที่ไว้วางใจการใช้งาน AI ขององค์กรต่างๆ และ 77% คิดว่าองค์กรมีความรับผิดชอบต่อการใช้ AI ในทางที่ผิด ผู้ประกอบการที่ผลิตและใช้ AI จึงไม่ควรคำนึงถึงแค่เรื่องผลประกอบการ แต่ต้องมีความรับผิดชอบและจริยธรรมในการดำเนินธุรกิจ เพื่อรับมือกับความเสี่ยงที่อาจจะเกิดขึ้นเมื่อนำ AI มาใช้งาน

ประโยชน์สำหรับองค์กรในการประยุคใช้ หลักการ Responsible AI

หลักการ Responsible AI มีความสำคัญอย่างยิ่งต่อองค์กร เนื่องจากไม่เพียงแต่สอดคล้องกับหลักจริยธรรมเท่านั้น แต่ยังมีผลกระทบเชิงปฏิบัติที่สำคัญอีกด้วยในการช่วยสร้างและรักษาความไว้วางใจระหว่างลูกค้า คู่ค้า และผู้บริโภค เนื่องจากแสดงให้เห็นถึงความมุ่งมั่นในการใช้เทคโนโลยี AI อย่างยุติธรรม ใส่ใจ และโปร่งใส

Responsible AI ยังคงช่วยลดความเสี่ยงของปัญหาทางกฎหมายและข้อบังคับ พร้อมทั้งบรรเทาความเสียหายต่อชื่อเสียงที่อาจเกิดขึ้น และความสูญเสียทางการเงินอันเป็นผลมาจากการปฏิบัติหรืออคติของ AI ที่ผิดจรรยาบรรณ

การปฏิบัติอย่างเท่าเทียมและอคติของมนุษย์ในการดำเนินการยังสามารถช่วยองค์กรตัดสินใจโดยรับรองว่าระบบ AI ให้ข้อมูลเชิงลึกที่ถูกต้อง เป็นกลาง และเชื่อถือได้ ซึ่งมีแนวโน้มที่จะเป็นประโยชน์ในเชิงผลลัพธ์ทางธุรกิจที่ดีขึ้น

นอกจากนี้ Responsible AI ยังส่งเสริมการคิดอย่างมีจริยธรรมในการพัฒนาระบบ AI และส่งเสริมความยั่งยืนในระยะยาว เนื่องจากลดความเป็นไปได้ที่องค์กรจะเผชิญกับความไม่พอใจจากกลุ่มผู้บริโภคเพราะได้คำนึงถึงแนวทางปฏิบัติของ AI ที่มีความรับผิดชอบต่อสังคมแล้ว โดยพื้นฐานแล้ว Responsible AI ถือเป็นความจำเป็นเชิงกลยุทธ์ที่ไม่เพียงแต่เพิ่มความครบถ้วนสมบูรณ์ในการใช้ AI ขององค์กรเท่านั้น แต่ยังเพิ่มขีดความสามารถในการแข่งขันและโอกาสในอนาคตอีกด้วย

ปัจจัยสำคัญที่คุณควรคำนึงถึงว่าด้วยเรื่องจริยธรรม AI

ในการนำ AI มาใช้งานองค์กรของคุณสมควรวางหลักการ ปัญญาประดิษฐ์ ที่มีความไว้วางใจได้ (Principle of Responsible AI) เพื่อเป็นรากฐานในการปลูกฝังความเชื่อใจ และ ขยาย (Scale) การใช้งาน AI ในองค์กร โดยสามารถอ้างอิง Framework ระดับประเทศซึ่งมีการวางนโยบายเพื่อนำ AI มาใช้เป็นเครื่องมือ ควบคู่ไปกับการพัฒนาแนวทางในเชิงจริยธรรมอีกด้วย อย่างเช่น “Ethics Guidelines for Trustworthy AI” ของคณะกรรมาธิการสหภาพยุโรป(The European Union Commission) ซึ่งเป็นหนึ่งในแนวทางที่ครอบคลุมปัจจัยสำคัญที่ส่งเสริมให้ ผู้มีส่วนได้ส่วนเสีย (Stakeholders) ในยุโรปคำนึงถึงการพัฒนา AI ที่มีความก้าวหน้า ว่าด้วยเรื่องจริยธรรม AI โดยมีความปลอดภัยและโปร่งใส่ ผ่านการสร้าง “AI ที่เชื่อถือได้” (Trustworthy AI)

*แนวทางจริยธรรมเพื่อการสร้าง AI ที่เชื่อเถือได้ (Ethics Guidelines for Trustworthy AI) *

enter link description here

ความสามารถในการกำกับดูแลของมนุษย์ (Human Agency and Oversight)

AI ควรส่งเสริมหลักการเพื่อสนับสนุนให้สังคมเจริญรุ่งเรือง มีความเท่าเทียม เป็นประชาธิปไตย และรักษาสิทธิขั้นพื้นฐานของมนุษย์ โดยคำนึงถึง เอกราช และ อิสรภาพ ในการตัดสินใจของผู้ใช้งาน ดังนั้น การพัฒนาระบบ AI จึงจำเป็นต้องมีมนุษย์เป็นผู้กำกับดูแล (Human-in-the-loop)

ประสิทธิภาพในเชิงเทคนิคและความปลอดภัย (Technical Robustness and Safety)

หนึ่งในปัจจัยสำคัญ​ของ AI ที่เชื่อถือได้ คือประสิทธิภาพในเชิงเทคนิคซึ่งมีความสำคัญในหลักการป้องกันอันตราย (The Principle of Prevention of Harm) เพื่อควบคุมให้ระบบ AI ทำตามที่กำหนดไว้ และ ไม่ทำหน้าที่นอกสโคป ซึ่งมาตราการพัฒนา AI ควรคำนึงถึงฟังก์ชั่นควบคู่ไปกับ การอุดช่องโหว่ทางด้านความปลอดภัยเพื่อสร้างความทนทานต่อภัยอัตรายการโจมตีทางไซเบอร์

อย่างไรก็ตาม องค์กรควรมีมาตราการรับรองเพิ่มเติม เช่นการถามผู้ปฏิบัติงานก่อนรตัดสินใจก็เป็นอีกหนึ่งวิธีที่สามารถลดความเสี่ยงในการตัดสินใจที่ผิดพลาดได้ นอกจากนี้ อีกด้านหนึ่งของการแสดงประสิทธิภาพในเชิงเทคนิค คือความสามารถในการการทำซ้ำ (Reproducability) อันเป็นข้อสำคัญของความแม่นยำ (Accuracy) ความน่าเชื่อถือ (Reliability) และ ความเสถียร (Consistency) ของตัว AI ดั่งการทำอาหาร ถ้าใช้วัตถุดิบและขั้นตอนในการทำเหมือนกัน รสชาติก็ควรออกมาคล้ายคลึงกัน

ความเป็นส่วนตัวและธรรมาภิบาลของชุดข้อมูล (Privacy and Data Governance)

การปกป้องความเป็นส่วนตัวจำเป็นต้องมีธรรมาภิบาลของชุดข้อมูล (Data Governance) ที่รับรองคุณภาพและความครบถ้วนของชุดข้อมูลที่ใช้ โดยสอดคล้องการขอบเขตการใช้งานของระบบ AI ที่มีความสามารถในการประมวลข้อมูลที่ปกป้องความเป็นส่วนตัว และ โปรโตคอลการเข้าถึงชุดข้อมูล (Access Protocols) ซึ่งกำหนดว่าใครมีสิทธ์เข้าถึงชุดข้อมูลไหนและในกรณีใดจึงสามารถเข้าถึงได้ อย่างเช่น ต้องได้รับการบรรจุเป็นพนักงานในองค์กรก่อนจึงจะสามารถเข้าถึงตัวข้อมูลได้ หรือต้องเป็นสมาชิกในโปรเจกต์นี้เท่านั้นจึงจะสามารถเข้าถึงแหล่งข้อมูลได้

ความโปร่งใส่ (Transparency)

ความโปร่งใส่ มีความเกี่ยวข้องกับหลักการที่สามารถอธิบายปัจจัยที่ต่างๆ ของ AI (The Principle of Explicability) ได้ ตั้งแต่ ชุดข้อมูล ระบบ และ โมเดลธุรกิจ และควรมีการตรวจสอบย้อนกลับ (Traceability) ความสามารถในการอธิบาย (Explainability) และ การสื่อสาร (Communication) ที่ชัดเจน

ความหลากหลาย การไม่เลือกปฏิบัติ และ ความยุติธรรม (Diversity, Non-discrimination and Fairness)

DEI หรือ Diversity (ความหลากหลาย) Equity (ความเสมอภาค) Inclusion (และการผสมผสาน) เป็นอีกหนึ่งหลักการสำคัญในการปลูกฝังระบบ AI ที่เชื่อถือได้ โดยคำนึงถึงผู้มีส่วนได้ส่วนเสียและปฏิบัติอย่างเท่าเทียมตลอดทั้งกระบวนการ ซึ่งจำเป็นต้องประยุคใช้หลักการความยุติธรรม (The Principle of Fairness) รวมไปถึงการลีกเลี่ยงความลำเอียง การออกแบบโดยคำนึงการเข้าถึงของผู้ใช้งาน และการมีส่วนร่วมของผู้เกี่ยวข้อง

*ความเป็นอยู่ที่ดีของสังคมและสิ่งแวดล้อม (Societal and Environmental Wellbeing) *

ตามหลักการความยุติธรรม (The Principle of Fairness) และ การป้องกันอันตราย (The Principle of Prevention of Harm) ระบบ AI ควรคำนึงถึงความยั่งยืนและเป็นมิตรต่อระบบนิเวศ อย่างเช่นการอ้างอิงเป้าหมายการพัฒนาที่ยั่งยืนของสหประชาชาติอย่าง SDG ที่มีทั้งหมด 17 เป้าหมาย (UN Sustainable Development Goals) และเป็นประโยชน์กับมนุษย์ทุกคน รวมถึงคนในรุ่นอนาคต

ความรับผิดชอบ (Accountability)

ข้อกำหนดของความรับผิดชอบ เชื่อมโยงกับหลักการความยุติธรรม (The Principle of Fairness) เช่นเดียวกัน ซึ่งจำเป็นต้องมีความรับผิดชอบทั้งใน หน้าที่ (Responsibility) และ ส่วนบุคคล(Accountability) สำหรับทั้งระบบและผลลัพธ์ของ AI ใน การพัฒนาปรับใช้งาน และการบริโภค ซึ่งควรมีการรายงานผลเสีย (Reporting of Negative Impacts) Trade-offs การแก้ไข และสามารถตรวจสอบได้ (Auditability)

ในที่นี้:

I. ผู้พัฒนา (Developers) มีความรับผิดชอบในการออกแบบและพัฒนากระบวนการของ AI โดยอ้างอิงกรอบจริยธรรมที่ถูกวางเอาไว้ Deployers

*II. ผู้ปรับใช้งาน (Deployers) *มีหน้าที่ยืนยันความพร้อมของระบบสินค้าและบริการ ในเชิงจริยธรรม

III. ผู้บริโภคและสังคมในเชิงกว้าง (End-users and the broader society) ควรทำความเข้าใจข้อกำหนด (Requirements) และ สามารถเรียกร้องให้ผู้พัฒนาและผู้ปรับใช้ทำตามกรอบจริยธรรมที่ถูกวางเอาไว้

AI Governance: ศูนย์ธรรมาภิบาลปัญญาประดิษฐ์สำคัญสำหรับองค์กร

ทำไมองค์กรจึงต้องกำกับดูแลการใช้งาน AI ให้รัดกุม

การบริหาร AI มีความสำคัญสำหรับองค์กรในการกำหนดกฎเกณฑ์และหลักการในการพัฒนา การปรับใช้งาน และการใช้ระบบ AI ซึ่งศูนย์ธรรมาภิบาลปัญญาประดิษฐ์สำคัญสำหรับองค์กร (AI Governance) จะเป็นรากฐานสำคัญในการคำนึงถึงข้อกังวลทางจรรยาบรรณ ความรับผิดชอบขององค์กร การบรรเทาอคติของตัว Algorithm การป้องกันความเป็นส่วนตัว ความปลอดภัย และความเป็นไปตามกฎหมายและระเบียบข้อบังคับ

การพัฒนาและเสริมสร้างนวัตกรรม Resposible AI ให้มีประสิทธิภาพ สามารถช่วยสร้างความเชื่อใจของผู้บริโภคแล้ว ยังช่วยให้องค์กรตระหนักถึงความเสี่ยงที่อาจเกิดขึ้นจากการใช้งาน AI และ บ่มเพาะความยั่งยืนให้องค์กรใน AI Landscape ที่กำลังเปลี่ยนแปลงไปอย่างรวดเร็ ทั้งในแง่ขีดความสามารถที่เพิ่มขึ้นอย่างก้าวกระโดดในเชิงจรรยาบรรณ กฎหมาย และระเบียบข้อบังคับที่ไล่ตามการพัฒนาของ AI ยกตัวอย่างเช่น เมื่อไม่กี่ปีที่แล้วได้มีกระแสการให้ความสำคัญกับ Explainability ของ AI ในการเข้าใจตัว Algorithm เพื่ออธิบายถึงหลักการที่นำไปสู่ผลลัพธ์ของ AI แต่ปัจจุบันในยุคของ Generative AI ได้มีการเปลี่ยนมาให้ความสำคัญกับคุณภาพของ Inputs บวกกับ ความแม่นยำและความยุติธรรมของ Outputs แทน ซึ่งการที่มีกรอบ AI Governance ผ่านหลักการ Responsible AI จะช่วยให้เข้าใจและตอบสนองต่อเงื่อนไขที่เปลี่ยนแปลงตามการพัฒนาของเทคโนโลยีใหม่ได้รวดเร็วขึ้น

Responsible AI ถือว่าเป็นหนึ่งในข้อคำนึงและ ส่วนย่อยของ AI Governance โดยทั้งสองแนวคิดมีความสำคัญในการให้แน่ใจว่าเทคโนโลยี AI ถูกพัฒนาและใช้งานอย่างที่เป็นประโยชน์ต่อสังคม โดยลดความเสี่ยงและอันตรายเท่าที่จะเป็นไปได้

Responsible AI จะเน้นไปทางพฤติกรรมเชิงจรรยาบรรณ ความโปร่งใส ความยุติธรรม และการแก้ไขปัญหาที่เกี่ยวข้องกับสังคมอย่างระมัดระวัง ส่วน AI Governance นั้นเน้นไปที่ การบริหาร AI ทางด้านข้อกำหนดทางกฎหมายของ AI และการปฏิบัติตามข้อกำหนดและความรับผิดชอบ

ดังนั้นองค์กรต่างๆ ควรพัฒนาหลักการ Responsible AI และ Data ตามบริบทและความก้าวหน้าในการพัฒนา AI ของตนเอง โดยอ้างอิงตามวัตถุประสงค์กลยุทธ์เชิงธุรกิจ และจัดการจากมุมมองด้านความเสี่ยงซึ่งรวมถึงความเป็นส่วนตัวและความปลอดภัยของข้อมูล

แนวทางในการใช้ AI ให้ตรงกับเป้าหมายทางจริยธรรม

หลักการและการกำกับดูแล (Principles and Governance)

กำหนดและอธิบายพันธกิจและหลักการที่รับผิดชอบในการสร้างปัญญาประดิษฐ์ พร้อมกับการร่างโครงสร้างการบริหารที่โปร่งใสทั่วองค์กรเพื่อสร้างความมั่นใจและความเชื่อในเทคโนโลยี AI

ความเสี่ยง นโยบาย และการควบคุม (Risk, Policy and Control) กำหนดนโยบายการใช้ชุดข้อมูลภายในองค์กรโดยอ้างอิงกฎหมายและปฏิบัติตามระเบียบปัจจุบัน อย่างเช่นกฎหมาย PDPA พร้อมติดตามกฎหมายและระเบียบที่อาจเกิดขึ้นในอนาคต พัฒนานโยบายเพื่อลดความเสี่ยงและดำเนินนโยบายเหล่านั้นผ่านกรอบการบริหารความเสี่ยง พร้อมรายงานและติดตามอย่างสม่ำเสมอ

เทคโนโลยีและตัวกระตุ้น (Technology and Enablers) พัฒนาเครื่องมือและเทคนิคเพื่อรองรับหลักการ เช่นความยุติธรรม การอธิบายได้ (Explainability) ประสิทธิภาพในเชิงเทคนิค การตรวจสอบย้อนกลับ (Traceability) และความเป็นส่วนตัว แล้วนำมาประยุกต์เข้าในระบบและแพลตฟอร์ม AI ที่ใช้งาน

วัฒนธรรมและการฝึกอบรม (Culture and Training) ผู้บริหารมีความรับผิดชอบในการให้คุณค่ากับ Responsible AI โดยการยกระดับให้เป็นกิจกรรมธุรกิจที่สำคัญ ผ่านการทำความเข้าใจด้วยตัวเอง พร้อมทั้งฝึกอบรมพนักงานทุกคนให้มีความเข้าใจชัดเจน และสนับสนุนให้นำหลักการ Responsible AI ไปประยุคใช้จริงในการสร้างโมเดล AI และการดูแลชุดข้อมูลโดยทั่วไป พร้อมกันนั้นควรมีช่องทางสื่อสารให้คนในองค์กรสามารถยกประเด็นที่อาจเป็นปัญหาในเชิงจรรยาบรรณได้ สุดท้ายองค์กรควรวางเกณฑ์ความสำเร็จในการประยุกต์หลักการ Responsible AI ที่ชัดเจนเพื่อวัดผล

ตัวอย่างการใช้งาน AI Governance ในองค์กร ของ Microsoft

ทุกองค์กรที่สร้างหรือใช้ระบบ AI ขั้นสูง มีความจำเป็นต้องพัฒนาและนำระบบการบริหารของตนเองมาปรับใช้ Microsoft ถือว่าเป็นหนึ่งในผู้นำด้านการกำกับดูแลเทคโนโลยี AI (AI Governance) ซึ่งในปัจจุบัน Microsoft มีพนักงานเกือบ 350 คนที่เชี่ยวชาญในด้านนี้และยังมีความตั้งใจที่จะขยายทีมงานเพิ่มเติม

ในระยะเวลาหกปี Microsoft ได้พัฒนาระบบและโครงสร้างการบริหาร AI อย่างครบถ้วนมากขึ้น โดยไม่ได้เริ่มต้นจากศูนย์ แต่ยืมแนวทางที่ดีที่สุดสำหรับการป้องกันความมั่นคงปลอดภัยในระบบคอมพิวเตอร์นี้เป็นส่วนหนึ่งของระบบการบริหารความเสี่ยงของบริษัท อย่างเช่น กรอบการจัดการความเสี่ยง AI (AI Risk Management Framework) ของ สถาบันมาตรฐานและเทคโนโลยีแห่งชาติของอเมริกา (National Institute of Standards and Technology) หรือ NIST ซึ่งเป็นองค์กรที่เป็นที่รู้จัก ในการพัฒนา มาตรฐานและแนวทางปฏิบัติที่ดีที่สุดเพื่อจัดการความเสี่ยงด้านความปลอดภัย โดยเฉพาะความปลอดภัยทางด้านไซเบอร์ ซึ่งกลายเป็นส่วนสำคัญของการบริหารบริษัทและองค์กรอื่น ๆ ในโลกในปัจจุบัน เมื่อพูดถึงปัญญาประดิษฐ์ Microsoft เริ่มต้นด้วยหลักการทางจรรยาบรรณ แล้ว จึงพัฒนาและส่งมอบคุณค่าเหล่านี้ให้กลายเป็นนโยบายบริษัทที่ละเอียดมากขึ้น ปัจจุบัน Microsoft อยู่ในเวอร์ชันที่ 2 ของมาตรฐานบริษัทที่กำหนดหลักการและข้อปฏิบัติที่ชัดเจน ให้ทีมวิศวกรได้ปฏิบัติตาม ผ่านการอบรม การใช้เครื่องมือและระบบการทดสอบที่พัฒนาอย่างรวดเร็ว พร้อมทั้งการรองรับด้วยกระบวนการบริหารที่มีการตรวจสอบ และมาตรการการปฏิบัติตามกฎหมาย

สำหรับ Microsoft การเรียนรู้ที่สำคัญที่สุดมาจาก การตรวจสอบกรณีปัญหาของการใช้งาน AI จากผู้ใช้งานอย่างละเอียดถี่ถ้วน แล้วนำข้อบกพร่องจากกรณีต่างๆ มาประยุกต์ใช้ในวงกว้าง ซึ่งหลังจากที่ได้ตระหนักถึงโอกาสในการพัฒนาหลักการและข้อปฏิบัติจากมุมมองต่างๆ Microsoft ก็ได้ก่อตั้งโปรแกรมการตรวจสอบการใช้งานขึ้นในปี 2019 เพื่อสร้างเครื่องมือในการรวบรวมความคิดเห็นและครอบคลุมวิธีการใช้งาน AI ที่หลากหลาย นอกจากนั้น Microsoft ได้ลงทุนในการฝึกอบรมความสามารถของบุคลากร เพื่อพัฒนาทักษะและทำให้พวกเขาสามารถคิดอย่างกว้างขวางเกี่ยวกับผลกระทบที่เป็นไปได้ของระบบ AI ในระดับบุคคลและสังคม

Responsible AI Framework จะช่วยเป็นแสงนำทาง AI Governance ของคุณให้ทันกับภูมิทัศน์ของ AI ที่มีการเปลี่ยนแปลงตลอดเวลา

เมื่อเร็วๆนี้ นักวิเคราะห์จาก Mckinsey ได้กล่าวถึง ความรวดเร็วในการพัฒนาของ AI โดยเฉพาะ Generative AI ว่า “We've just opened Jurassic Park, but we haven’t yet installed the electric fences. With the speed and advancements in technology, we don’t even know yet what type of electric fence to put into place.” - เราเพิ่งเปิดตัว Jurassic Park ที่เต็มไปด้วยไดโนเสาร์ แต่ยังไม่ทันได้ติดตั้งรั้วไฟฟ้า ปัญหาคือความรวดเร็วในการพัฒนาของเทคโนโลยีทำให้เราไม่รู้ด้วยซำ้ว่าควรติดตั้งรั้วไฟฟ้าประเภทไหน

ถึงแม้ภูมิทัศน์ของ AI จะเปลี่ยนแปลงและเติบโตอย่างรวดเร็ว แต่โดยพื้นฐานแล้วการมีรั้วไฟฟ้าในรูปแบบของ Responsible AI Framework เป็นหนึ่งในรากฐานอันสำคัญสำหรับการพัฒนา AI Governance ตามบริบทขององค์กร โดยการกำหนดวัตถุประสงค์หลักและกลยุทธ์ในการกำกับดูแลและใช้ประโยชน์ AI อย่างมีจริยธรรม ภายใต้กฎหมายและมีความรับผิดชอบต่อผู้บริโภคและสังคม ซึ่งทาง Data Wow มีบริการปรึกษา การออกแบบศูนย์ธรรมาภิบาลชุดข้อมูล (Data Governance) พร้อมทั้งชุดเครื่องมือเพื่อการพัฒนา AI โดยคำนึงถึง ความเป็นส่วนตัวของข้อมูล (Data Privacy) เพื่อช่วยให้องค์กรของคุณสามารถทำตามกฎหมายอย่าง PDPA

*ถ้าสนใจสามารถสอบถามข้อมูลเพิ่มเติมได้ที่ sales@datawow.io หรือโทร 02-024-5560 *

ติดต่อเรา

ชื่อ*

ชื่อบริษัท*

ชื่อตำแหน่ง

เบอร์โทรศัพท์*

อีเมล*

ข้อความ

ฉันต้องการรับโปรโมชันและข่าวสารทางการตลาดเกี่ยวกับ Data Wow และบริการอื่น ๆ จากเรา บริษัทในเครือ บริษัทย่อยและพันธมิตรทางธุรกิจ ​(คุณสามารถยกเลิกได้ทุกเมื่อ)
ที่ตั้งบริษัท

1778 อาคารซัมเมอร์ฮับ ออฟฟิศ, ชั้น 6
ถนนสุขุมวิท แขวงพระโขนง เขตคลองเตย
กรุงเทพมหานคร 10110
ประเทศไทย

ติดตามเรา
ISO ISMISO PIM