เมื่อ AI ถูกนำมาใช้ในงานองค์กรอย่างแพร่หลาย คำถามที่ HR และผู้บริหารเริ่มกังวลมากขึ้นไม่ใช่แค่ว่า “AI ทำอะไรได้บ้าง” แต่คือ “จะใช้ AI อย่างไรโดยไม่เสี่ยงต่อข้อมูล กฎหมาย และชื่อเสียงองค์กร” หลายองค์กรอนุญาตให้พนักงานใช้ AI โดยไม่มีนโยบายชัดเจน ทำให้เกิดความเสี่ยงโดยไม่รู้ตัว เช่น การนำข้อมูลพนักงานหรือข้อมูลลูกค้าไปใส่ใน AI Tools ภายนอก การใช้ AI ตัดสินใจแทนมนุษย์โดยไม่มีการตรวจสอบ หรือการสร้างเอกสารที่ผิดพลาดแต่ถูกนำไปใช้จริง นโยบายการใช้ AI ที่ดีจึงไม่ใช่การ “ห้ามใช้” แต่คือการ กำหนดกรอบการใช้งานที่ปลอดภัยและเหมาะสม โดยควรเริ่มจากการระบุวัตถุประสงค์การใช้ AI ให้ชัดเจนว่าใช้เพื่อเพิ่มประสิทธิภาพงาน สนับสนุนการตัดสินใจ หรือช่วยงานเอกสาร ไม่ใช่ใช้แทนการตัดสินใจเชิงนโยบายหรือการประเมินคนแบบอัตโนมัติทั้งหมด จากนั้นองค์กรควรกำหนดประเภทข้อมูลที่ “อนุญาต” และ “ห้าม” ใช้กับ AI อย่างชัดเจน โดยเฉพาะข้อมูลส่วนบุคคล ข้อมูลพนักงาน และข้อมูลลับทางธุรกิจ พร้อมระบุแนวปฏิบัติที่สอดคล้องกับ PDPA นอกจากนี้ ควรกำหนดบทบาทความรับผิดชอบ เช่น ใครเป็นผู้อนุมัติการใช้ AI ใครดูแลเรื่องข้อมูล และใครเป็นผู้ตรวจสอบผลลัพธ์จาก AI เพื่อป้องกันการใช้งานโดยไม่มีเจ้าของ สิ่งสำคัญอีกประการคือการอบรมและสื่อสารนโยบายให้พนักงานเข้าใจ เพราะนโยบายที่ดีแต่ไม่มีใครเข้าใจหรือปฏิบัติตาม ย่อมไม่ช่วยลดความเสี่ยง องค์กรที่วางนโยบาย AI ได้ดีมักพบว่า พนักงานกล้าใช้ AI มากขึ้น ใช้อย่างมีสติ และช่วยให้องค์กรได้ประโยชน์จาก AI โดยไม่ต้องแลกกับความเสี่ยงด้านกฎหมายหรือความเชื่อมั่น

 นโยบายการใช้ AI ที่ไม่เสี่ยง ควร

  • ไม่ห้ามใช้ แต่กำหนดกรอบการใช้งานชัดเจน
  • แยกประเภทข้อมูลที่ใช้ได้และใช้ไม่ได้
  • มีผู้รับผิดชอบและขั้นตอนตรวจสอบ
  • สอดคล้องกับ PDPA และบริบทองค์กร
  • สื่อสารและอบรมให้พนักงานเข้าใจจริง