เมตา(Meta) ได้รับอนุมัติจากหน่วยงานกำกับดูแลข้อมูลของสหภาพยุโรป(EU) ให้สามารถใช้เนื้อหาที่เผยแพร่ต่อสาธารณะบนแพลตฟอร์มของตนเพื่อฝึกสอนปัญญาประดิษฐ์(AI) ได้อย่างเสรี ซึ่งรวมถึงข้อมูลจากเฟซบุ๊ก, อินสตาแกรม, วอตส์แอป และเมสเซนเจอร์ โดยเฉพาะโพสต์และความคิดเห็นจากผู้ใช้งานที่เป็นผู้ใหญ่ รวมถึงคำถามที่ส่งถึงแชตบอต AI ซึ่งจะถูกนำมาใช้เป็นข้อมูลฝึกสอนเพื่อพัฒนาโมเดล AI ของบริษัท
เมื่อวันที่ 14 เมษายน เมตาเผยแพร่ผ่านบล็อกทางการว่า "การเข้าใจมิติความหลากหลายของชุมชนในยุโรปอย่างลึกซึ้ง จำเป็นต้องใช้ข้อมูลที่ครอบคลุมเพียงพอสำหรับการฝึกสอน AI" พร้อมเสริมว่า บริษัทต้องการพัฒนาโมเดลที่สะท้อนภาษาถิ่น วัฒนธรรมท้องถิ่น และอารมณ์ขันของแต่ละพื้นที่ให้แม่นยำ
อย่างไรก็ตาม บัญชีของผู้ใช้งานที่เป็น *เยาวชน* รวมถึงข้อความส่วนตัวจะไม่ถูกนำไปรวมในการฝึกสอน AI นอกจากนี้ เมตายังเปิดทางให้ผู้ใช้งานเลือกไม่ให้ข้อมูลของตนถูกใช้ในการพัฒนา AI ได้ง่ายๆ ผ่านแบบฟอร์มที่เข้าถึงได้จากแอปของบริษัทหรือทางอีเมล
การอนุญาตครั้งนี้เกิดขึ้นหลังจากที่เมตาถูกกลุ่มรณรงค์ความเป็นส่วนตัว ‘None of Your Business’ ยื่นเรื่องร้องเรียนต่อหน่วยงานกำกับใน 11 ประเทศเมื่อปีที่ผ่านมา ทำให้แผนการฝึกสอน AI ของบริษัทต้องถูกระงับชั่วคราวตามคำขอของคณะกรรมการคุ้มครองข้อมูลแห่งไอร์แลนด์(IDPC) เนื่องจากความกังวลว่าข้อมูลส่วนตัวของผู้ใช้อาจถูกนำไปใช้อย่างไม่เหมาะสม
เมตาได้รับการยืนยันว่าสอดคล้องตามข้อกำหนดทางกฎหมายจากคณะกรรมการคุ้มครองข้อมูลแห่งยุโรป(EDPC) ส่งผลให้แผนฝึก AI กลับมาดำเนินการได้อีกครั้ง โดยบริษัทได้ระบุว่า แผนฝึกสอนลักษณะนี้เคยถูกนำมาใช้แล้วในสหรัฐและภูมิภาคอื่น พร้อมระบุว่า "พวกเราทำในสิ่งเดียวกับที่กูเกิล และโอเพ่นเอไอเคยทำมาแล้ว"
ทั้งนี้ สหภาพยุโรปได้ผ่านกฎหมาย AI เมื่อเดือนสิงหาคมปีที่แล้ว ซึ่งวางกรอบกำกับด้านคุณภาพข้อมูล ความปลอดภัย และความเป็นส่วนตัว ทำให้หน่วยงานกำกับในภูมิภาคเข้มงวดต่อบริษัทเทคโนโลยีมากขึ้น เช่น กูเกิลในไอร์แลนด์กำลังถูกสอบสวนเกี่ยวกับความสอดคล้องในการฝึกสอน AI ตามกฎหมาย EU ขณะที่ X (ชื่อเดิมทวิตเตอร์) ได้หยุดใช้ข้อมูลผู้ใช้งานในยุโรปฝึกปัญญาประดิษฐ์แชตบอต ‘Grok’ ตั้งแต่เดือนกันยายนปีที่แล้ว
*ความคิดเห็น* : การตัดสินใจในครั้งนี้ถือเป็นหมุดหมายสำคัญในการสร้างสมดุลระหว่างการพัฒนา AI และการคุ้มครองข้อมูลส่วนบุคคลในยุโรป ทั้งนี้กรณีของเมตาอาจกลายเป็นตัวอย่างของแนวปฏิบัติในอนาคตสำหรับบริษัทเทคโนโลยีรายอื่นที่ต้องอาศัยความร่วมมือกับภาครัฐในการสร้างความเชื่อมั่นต่อระบบ AI ที่ปลอดภัยและโปร่งใส
ความคิดเห็น 0