Facebook กำลังทดสอบเครื่องมือเพิ่มเติม เพื่อช่วยป้องกันไม่ให้ผู้คนใช้ประโยชน์จากเด็ก โดยจะให้รายละเอียดผลที่ตามมาของการดูเนื้อหาและให้ข้อมูลเกี่ยวกับวิธีขอความช่วยเหลือจากองค์กรที่เบี่ยงเบนความสนใจของผู้กระทำความผิด
ส่วนอื่นๆ มุ่งเน้นไปที่ “การแบ่งปันที่ไม่เป็นอันตราย” ของ “เนื้อหาที่มีเนื้อหาเกี่ยวกับการแสวงหาประโยชน์จากเด็กที่เป็นไวรัสและมีม” ผู้ที่แบ่งปันเนื้อหาดังกล่าวจะเห็นการแจ้งเตือนด้านความปลอดภัยเกี่ยวกับอันตรายที่อาจเกิดขึ้นได้ การแจ้งเตือนรวมถึงคำเตือนว่าเนื้อหาละเมิดกฎของ Facebook พร้อมกับการแบ่งส่วนทางกฎหมายในการแบ่งปันเนื้อหาดังกล่าว Facebook จะลบเนื้อหาและรายงานไปยัง National Center for Missing and Exploited Children (NCMEC) และลบบัญชีที่ส่งเสริมเนื้อหาดังกล่าว
Facebook ได้อัปเดตนโยบายความปลอดภัยของเด็ก ตามที่ Antigone Davis หัวหน้าฝ่ายความปลอดภัยทั่วโลกระบุว่า Facebook จะลบ “โปรไฟล์ เพจ กลุ่ม และบัญชีอินสตาแกรมที่การแชร์ภาพเด็กพร้อมคำบรรยายแฮชแท็กหรือความคิดเห็นที่มีสัญญาณแสดงความรักหรือความคิดเห็นที่ไม่เหมาะสมเกี่ยวกับเด็กที่ปรากฎในรูปภาพ.”แม้ว่ารูปภาพหรือวิดีโอที่ผู้คนแชร์อาจไม่ได้ละเมิดกฎของ Facebook ด้วยตัวเอง แต่เดวิสตั้งข้อสังเกตว่า “ข้อความประกอบสามารถช่วยให้เราพิจารณาได้ดีขึ้นว่าเนื้อหานั้นเป็นเรื่องทางเพศต่อเด็กหรือไม่และควรนำโปรไฟล์เพจกลุ่มหรือบัญชีที่เกี่ยวข้องออก”
นอกจากนี้ Facebook ยังได้อัพเดตเมนูการรายงานในพื้นที่อื่นๆ ของ Facebook และ Instagram ผู้ใช้สามารถเลือกตัวเลือกที่เรียกว่า “เกี่ยวข้องกับเด็ก” ในส่วนภาพเปลือยและกิจกรรมทางเพศ Facebook กล่าวว่าเนื้อหาที่รายงานด้วยวิธีนี้จะให้ความสำคัญกับผู้ตรวจสอบเนื้อหา นอกจากนี้ยังใช้ Content Safety API ของ Googleเพื่อตรวจจับเมื่อโพสต์อาจมีการแสวงหาประโยชน์จากเด็กและจัดลำดับความสำคัญสำหรับผู้ตรวจสอบ Facebook ได้ใช้ระบบตรวจจับต่างๆ มานานเพื่อขจัดเนื้อหาที่หาประโยชน์จากเด็กและเพื่อค้นหาการกระทำที่ไม่เหมาะสมกับเด็กหรือกรณีที่เป็นไปได้ของการดูแลเด็ก Facebook กล่าวว่ากำลังมองหาเครือข่ายที่ละเมิดกฎในการแสวงหาประโยชน์จากเด็กในลักษณะเดียวกับที่จะจัดการกับ “พฤติกรรมที่ไม่ถูกต้องและองค์กรที่เป็นอันตรายที่ประสานงานกัน”
ที่มา : engadget