MeTooBots เพิ่มขึ้น: นักวิทยาศ...
ReadyPlanet.com

Home



MeTooBots เพิ่มขึ้น: นักวิทยาศาสตร์พัฒนา AI เพื่อตรวจจับการล่วงละเมิดในอีเมล


 

MeTooBots เพิ่มขึ้น: นักวิทยาศาสตร์พัฒนา AI เพื่อตรวจจับการล่วงละเมิดในอีเมล


โปรแกรมเมอร์ปัญญาประดิษฐ์กำลังพัฒนาบอทที่สามารถระบุการรังแกทางดิจิตอลและการล่วงละเมิดทางเพศ


รู้จักกันในชื่อ“ #MeTooBots” หลังจากการเคลื่อนไหวที่โด่งดังซึ่งเกิดขึ้นหลังจากข้อกล่าวหากับผู้ผลิตฮอลวี่ย์เวนสไตน์ฮอลลีวูดบอตสามารถตรวจสอบและสื่อสารสถานะระหว่างเพื่อนร่วมงานและได้รับการแนะนำจาก บริษัท ทั่วโลก ผู้ผลิตบอทกล่าวว่าไม่ใช่เรื่องง่ายที่จะสอนคอมพิวเตอร์ว่าการล่วงละเมิดมีลักษณะอย่างไรด้วยรายละเอียดทางภาษาศาสตร์และเส้นสีเทา

 

 

 

สนันสนุนบทความโดย  psthai888

เว็บ  สล็อต  ออน  ไลน์

 

 


Jay Leib ผู้บริหารสูงสุดของ บริษัท NexLP AI ในชิคาโกกล่าวว่า:“ ฉันไม่ได้ตระหนักถึงการคุกคามทุกรูปแบบ ฉันคิดว่ามันแค่พูดสกปรก มันมาในรูปแบบที่แตกต่างกันมากมาย อาจเป็น 15 ข้อความ ... อาจเป็นรูปภาพที่มีชีวิตชีวา " แพลตฟอร์ม AI ของ Nex ใช้งานโดยลูกค้าองค์กรมากกว่า 50 รายรวมถึง บริษัท กฎหมายในลอนดอน อุตสาหกรรมนี้เป็นพื้นที่ที่มีความอุดมสมบูรณ์มากสำหรับบอทในการตรวจสอบ: หนึ่งในสามของทนายความหญิงในสหราชอาณาจักรรายงานว่ามีการล่วงละเมิดทางเพศ


บอทใช้อัลกอริทึมที่ผ่านการฝึกอบรมเพื่อระบุการข่มขู่ที่อาจเกิดขึ้นรวมถึงการล่วงละเมิดทางเพศในเอกสารของ บริษัท อีเมลและการแชท มีการวิเคราะห์ข้อมูลสำหรับตัวบ่งชี้ต่าง ๆ ที่กำหนดว่าจะเป็นปัญหาได้อย่างไรกับสิ่งที่ AI อ่านว่าเป็นปัญหาที่อาจเกิดขึ้นจากนั้นส่งไปยังทนายความหรือผู้จัดการฝ่ายทรัพยากรบุคคลเพื่อตรวจสอบ


ตัวบ่งชี้ใดที่ถือว่าธงสีแดงยังคงเป็นความลับของ บริษัท แต่ Leib กล่าวว่า ธ ปท. มองหาความผิดปกติในภาษาความถี่หรือจังหวะเวลาของรูปแบบการสื่อสารข้ามสัปดาห์ Leib เชื่อว่าอุตสาหกรรมอื่น ๆ ก็สามารถได้รับประโยชน์เช่นกัน “ มีความสนใจอย่างมากจากลูกค้าในทุกภาคส่วนเช่นบริการทางการเงินเวชภัณฑ์” เขากล่าว ศาสตราจารย์ Brian Subirana อาจารย์ใน AI ที่ Harvard และ MIT กล่าวว่าแนวคิดของการใช้ AI ในการกำจัดการล่วงละเมิดนั้นเป็นสิ่งที่สัญญาได้แม้ว่าความสามารถของบอทจะถูก จำกัด


“ มีการล่วงละเมิดประเภทหนึ่งที่ละเอียดอ่อนและยากต่อการรับ เรามีหลักสูตรการฝึกอบรมเหล่านี้ (เกี่ยวกับการล่วงละเมิด) ที่ฮาร์วาร์ดและต้องการความเข้าใจว่า AI ยังไม่สามารถทำได้” เขากล่าว ปัญหาพื้นฐานคือ AI สามารถทำการวิเคราะห์เรื่องราวขั้นพื้นฐานได้อย่างน่าเชื่อถือซึ่งหมายความว่ามีการสอนให้มองหาทริกเกอร์เฉพาะ ไม่สามารถไปไกลกว่าพารามิเตอร์นั้นและไม่สามารถรับกับวัฒนธรรมที่กว้างขึ้นหรือพลวัตระหว่างบุคคลที่ไม่ซ้ำกันได้ ซึ่งหมายความว่าบ็อตมีความเสี่ยงที่จะทำให้เกิดช่องว่างหรือพิสูจน์ได้ว่ามีขนาดใหญ่เกินไป


“ เราไม่รู้ว่าเมื่อไหร่ที่ AI จะทำลายแนวหน้า "เรื่องราวความเข้าใจ" "นายสุรณากล่าว เขาเสริมว่าหากการติดต่อของพนักงานถูกตั้งค่าสถานะมันสามารถสร้าบรรยากาศของความไม่ไว้วางใจและผู้กระทำความผิดอาจเรียนรู้วิธีหลอกลวงซอฟต์แวร์ อีกวิธีหนึ่งผู้กระทำความผิดอาจหันไปใช้สื่อกลางอื่น ๆ ของการสื่อสารที่ไม่ได้รับการตรวจสอบโดยบอท ข้อกังวลเพิ่มเติมคือการปกป้องความลับของข้อมูลที่รวบรวม Subirana กล่าวว่าหากซอฟต์แวร์ทำผิดพลาดและมีการรั่วไหลของข้อมูลการสื่อสารภายในระหว่างพนักงานสามารถเห็นได้โดย บริษัท คู่แข่ง


“ ยังมีอุปสรรค์ที่ต้องกระโดดก่อนที่ AI จะทำสิ่งที่เราคิดว่าทำได้” Subirana กล่าว “ ฉันไม่เคยได้ยินเกี่ยวกับฝ่ายทรัพยากรบุคคลใด ๆ ที่บอกว่ามันมีประโยชน์สำหรับเรื่องนี้” เขาไม่ได้เป็นคนขี้ระแวงเท่านั้น Sam Smethers หัวหน้าผู้บริหารของ Fawcett Society ซึ่งเป็นองค์กรพัฒนาเอกชนด้านสิทธิสตรีชี้ให้เห็นว่าอาจมีผลที่ไม่คาดฝันจากการสื่อสารของเจ้าหน้าที่ตำรวจ “ เราต้องการดูอย่างถี่ถ้วนว่าเทคโนโลยีได้รับการพัฒนาอย่างไรผู้อยู่เบื้องหลังเทคโนโลยีนี้และวัฒนธรรมการทำงานที่ได้รับการแจ้งจากวัฒนธรรมการทำงานที่พยายามป้องกันการล่วงละเมิดและส่งเสริมความเท่าเทียมกันหรือไม่ เพื่อควบคุมพนักงานของพวกเขา” เธอกล่าว



ผู้ตั้งกระทู้ 9999 :: วันที่ลงประกาศ 2020-06-25 01:39:14


แสดงความคิดเห็น
ความคิดเห็น *
ผู้แสดงความคิดเห็น  *
อีเมล 
ไม่ต้องการให้แสดงอีเมล