AI กำลังกลายเป็นส่วนหนึ่งของ ‘สนามรบ’ และทำให้ ‘จริยธรรม’ กลายเป็นหนึ่งในตัวแปรสำคัญด้านความสามารถทางเทคโนโลยี มีรายงานว่าเครื่องมือสร้างสรรค์ข้อความอย่าง ‘คลอด(Claude)’ ของแอนโทรปิก(Anthropic) ถูกนำไปใช้ในปฏิบัติการระดับสูงของกองทัพสหรัฐ ทำให้ความสัมพันธ์ระหว่างบิ๊กเทคกับหน่วยงานด้านกลาโหมและข่าวกรองถูกจับตามองอีกครั้ง
AI ในสนามรบไม่ได้เป็นแค่เดโมในห้องทดลองอีกต่อไป แต่เริ่มถูกใช้จริงในงานอย่างการวิเคราะห์ภาพถ่าย การสรุปข้อมูล และการประเมินสถานการณ์ ‘แบบเรียลไทม์’ โดยเฉพาะเมื่อผสานเข้ากับแพลตฟอร์มเชื่อมโยงข้อมูลอย่างพาลันเทียร์(Palantir) ก็ยิ่งช่วยให้สามารถดึงข้อมูลสอดแนมและข่าวกรอง(ISR) ปริมาณมหาศาลมาเชื่อมต่อและแสดงผลในหน้าจอเดียว ช่วยเร่งความเร็วในการตัดสินใจของฝ่ายทหาร
แรนจัน รอย(Ranjan Roy) ผู้ร่วมก่อตั้งมาร์จินส์(Margins) และผู้เขียนจดหมายข่าวด้านธุรกิจและเทคโนโลยี เปิดเผยว่า AI คลอดของแอนโทรปิกถูกนำไปใช้ช่วยวิเคราะห์ข้อมูลในปฏิบัติการของกองทัพสหรัฐที่มุ่งเป้าจับกุม นีโกลัส มาดูโร(Nicolás Maduro) อดีตผู้นำเวเนซุเอลา โดยคลอดถูกใช้เป็นเครื่องมือ ‘สังเคราะห์ข้อมูล(synthesis)’ จากหลายแหล่ง ทั้งภาพถ่ายดาวเทียมและข้อมูลรูปแบบอื่น ก่อนนำไปประกอบการตัดสินใจของผู้บัญชาการ
อย่างไรก็ตาม รอยมองว่า ความร่วมมือระหว่างแอนโทรปิกกับเพนตากอน(กระทรวงกลาโหมสหรัฐ) อาจไม่ได้ลึกซึ้งอย่างที่ภาพภายนอกสร้างให้เข้าใจ เขาชี้ว่าความสัมพันธ์ระหว่างบริษัทเทคโนโลยีกับหน่วยงานรัฐ มักแกว่งไปมาระหว่าง ‘งานปฏิบัติจริง’ กับ ‘งานโชว์และการวางโพสิชัน’ เพื่อสร้างภาพลักษณ์ด้านนโยบายและตลาดมากพอๆ กับการใช้งานจริงในภาคสนาม
ในอุตสาหกรรม AI ปัจจุบัน บริษัทที่พัฒนาโมเดลสร้างสรรค์ข้อความกำลังมองหน่วยงานด้านกลาโหมและข่าวกรองเป็น ‘แหล่งรายได้ใหม่’ แต่ขณะเดียวกันก็ต้องคุมทั้งอารมณ์ความรู้สึกของพนักงาน ภาพลักษณ์ต่อสาธารณะ และโอกาสขยายฐานลูกค้าทั่วไปไปพร้อมกัน ความร่วมมือที่แท้จริงจึงถูกกำหนดด้วย ‘รายละเอียดในสัญญาและสภาพการใช้งานจริง’ แต่สิ่งที่ตลาดมักเห็นและตีความ คือ ‘ใครเข้าไปอยู่ในโครงข่ายของรัฐบาลลึกแค่ไหน’ มากกว่า
รอยชี้ด้วยว่า ปัญหาหลักระหว่างกองทัพกับบริษัทเทคโนโลยี มักไม่ได้อยู่ที่สมรรถนะของโมเดลหรือฟีเจอร์เฉพาะ แต่อยู่ที่ ‘ช่องว่างด้านวัฒนธรรมองค์กร’ กองทัพมีโครงสร้างการตัดสินใจที่ยึดภารกิจเป็นศูนย์กลาง พร้อมรับความเสี่ยงเพื่อให้การปฏิบัติการเดินหน้า ขณะที่บริษัท AI ให้ความสำคัญกับความรับผิดชอบ กลไกกำกับดูแล(’governance’) และความเสี่ยงด้านแบรนด์ มีแนวโน้มถกเถียงกันอย่างเข้มข้นเกี่ยวกับ ‘สถานการณ์สมมติ’ ว่า “ถ้าเทคโนโลยีถูกนำไปใช้ในทางอื่น จะเกิดอะไรขึ้น”
ดังนั้น แม้ทั้งสองฝ่ายจะพูดถึง ‘AI’ เหมือนกัน แต่ในทางปฏิบัติ กองทัพจะให้ความสำคัญกับ ‘ประสิทธิภาพด้านยุทธการและความได้เปรียบเชิงยุทธศาสตร์’ ขณะที่บริษัทเทคโนโลยีให้ความสำคัญกับ ‘ความชอบธรรมทางจริยธรรมและระดับการควบคุมเทคโนโลยี’ หากช่องว่างนี้ไม่ถูกจัดการ แม้เซ็นสัญญาแล้ว ความร่วมมือก็อาจสะดุดหรือล้มเหลวได้ง่าย
ประเด็นที่สร้างข้อถกเถียงมากที่สุดในกรณีนี้คือ มุมมองที่ว่า ‘บทบาทของ AI ในปฏิบัติการดังกล่าวถูกขยายเกินจริง’ รอยตั้งข้อสังเกตว่า แพลตฟอร์มอย่างพาลันเทียร์น่าจะอยู่ในฐานะเครื่องมือแกนหลักสำหรับดึงและจัดการข้อมูล ส่วนโมเดลอย่างคลอดมีบทบาทเสริมในเชิงการประมวลผลและนำเสนอ มากกว่าการเป็น ‘สมอง’ ของปฏิบัติการทั้งหมด
‘ความคิดเห็น’ นี่คือหลุมพรางที่นักลงทุนและตลาดต้องระวังเป็นพิเศษ คำเล่าแบบ “AI เปลี่ยนโฉมสงคราม” ฟังดูทรงพลัง แต่ในหลายกรณี สิ่งที่ขับเคลื่อนปฏิบัติการในโลกจริงกลับเป็นโครงสร้างพื้นฐานข้อมูล ท่อรับส่งข้อมูล ระบบความปลอดภัยไซเบอร์ เครือข่ายเซนเซอร์ และเครื่องมือวิเคราะห์แบบเดิม ส่วน AI สร้างสรรค์มักเข้ามาในชั้นงานอย่างการเขียนร่างรายงาน การสรุปข้อมูล การค้นหา และการจัดหมวดหมู่บนฐานข้อมูลที่มีอยู่แล้ว แปลว่าเทคโนโลยีนี้มี ‘อิมแพ็กต์’ จริง แต่ยังไม่ใช่กุญแจวิเศษที่พลิกผลในสนามรบได้ในทันที
เมื่อเทคโนโลยี AI แทรกซึมลึกขึ้นในภาคความมั่นคง คำถามเรื่อง ‘ขอบเขตที่ยอมรับได้’ ก็ยิ่งรุนแรงขึ้น รอยระบุชัดว่าควรวาง ‘เส้นแดง’ เอาไว้กับอาวุธสังหารอัตโนมัติ(autonomous warfare) และระบบสอดส่องมวลชนขนาดใหญ่(mass surveillance) ที่ขับเคลื่อนด้วย AI เหตุผลคือ ยิ่งเทคโนโลยีแม่นยำและทรงพลังมากเท่าไหร่ ต้นทุนของการสูญเสียการควบคุมก็จะพุ่งสูงแบบทวีคูณ
กรณี ‘ตัวแทนอัตโนมัติ(autonomous agents)’ ที่อาจถูกเชื่อมเข้ากับระบบอาวุธ การรักษาความปลอดภัยภายในประเทศ หรือการเฝ้าระวังชายแดน ก็เป็นอีกหนึ่งตัวอย่างความเสี่ยง หากเกิดการตัดสินใจผิดพลาดหรือระบบขัดข้อง ความเสียหายที่เกิดขึ้นอาจย้อนกลับไปแก้ไขได้ยาก รอยใช้คำเปรียบเทียบว่า “ผมไม่อยากเห็นเวย์โม(Waymo) ถือปืน” เพื่อชี้ให้เห็นว่า แม้แต่เทคโนโลยีขับขี่อัตโนมัติในภาคเอกชน หากถูกนำไปผูกกับอำนาจรัฐและการใช้กำลัง ก็อาจกลายเป็นความเสี่ยงด้านจริยธรรมและความปลอดภัยที่ร้ายแรง
ท่าทีของแอนโทรปิกต่อเรื่องนี้ยิ่งทำให้ ‘จริยธรรม’ กลายเป็นส่วนหนึ่งของกลยุทธ์การแข่งขัน รอยชี้ว่า การที่แอนโทรปิกเลือกนำโมเดลของตนเข้าไปอยู่ในเครือข่ายลับของรัฐบาลสหรัฐล่วงหน้า พร้อมวางกรอบว่าเป็นการใช้งานภายใต้หลัก ‘AI ที่ปลอดภัยและมีจริยธรรม’ กลายเป็น ‘เกราะป้องกัน’ ที่สำคัญ เขาเรียกสิ่งนี้ว่าเป็น “ทองคำในเชิงการวางภาพว่าเราเป็น ‘คนดี’”
กล่าวอีกนัยหนึ่ง แอนโทรปิกไม่ได้ปฏิเสธดีลจากภาคความมั่นคง แต่เลือกใช้ภาพลักษณ์ ‘บริษัท AI สายจริยธรรม’ เป็นทั้งโล่และดาบ คือช่วยลดแรงเสียดทานจากสังคมและหน่วยงานกำกับดูแล ขณะเดียวกันก็สร้างความแตกต่างจากคู่แข่งในตลาด ในระยะยาว การแข่งขันของบริษัท AI จึงอาจไม่ได้วัดกันแค่ ‘ประสิทธิภาพของโมเดล’ แต่ยังรวมถึง ‘ประเภทของลูกค้าที่เลือกทำงานด้วย’ และ ‘เส้นห้ามใช้ที่ประกาศอย่างเปิดเผย’ ด้วย
สำหรับตลาดและผู้ลงทุน ประเด็นที่ควรจับตาจากการผสานกันของ AI กับภาคกลาโหมมีอยู่สองด้าน หนึ่ง คือ ‘ระดับการควบคุมได้จริงของระบบอัตโนมัติ’ ว่ามีกลไกตรวจสอบและยับยั้งในยามวิกฤตเพียงพอหรือไม่ สอง คือ ‘ระดับการโหมเรื่องเล่าเกินจริง’ ว่ากรณีศึกษาที่ถูกหยิบมาใช้ในงานประชาสัมพันธ์นั้นสะท้อนการใช้งานจริงแค่ไหน หรือเพียงสร้างภาพว่า AI เข้าไปอยู่ในทุกสมรภูมิแล้ว
เมื่อ AI ถูกใช้มากขึ้นในงานความมั่นคง การสอดส่อง และสนามรบ รูปแบบความร่วมมือระหว่างบริษัทเทคโนโลยีกับรัฐจะยิ่งหลากหลายและซับซ้อนขึ้น แต่ในกระบวนการนี้ ‘จริยธรรม’ จะไม่ใช่แค่ถ้อยแถลงในเอกสารอีกต่อไป หากเป็นเรื่องของการออกแบบสถาปัตยกรรมระบบ วิธีการปฏิบัติงานจริง และการจัดวางความรับผิดชอบเมื่อเกิดปัญหา คำตอบว่า AI จะไปไกลแค่ไหนในสนามรบ จึงขึ้นอยู่กับทั้ง ‘เส้นที่สังคมยอมให้ข้าม’ และ ‘ระดับความซื่อสัตย์ในการเล่าบทบาทจริงของเทคโนโลยี’ พร้อมกันด้วย
ความคิดเห็น 0