
ประเด็นสำคัญ
- Google แนะนำเครื่องตรวจจับ Synthid ซึ่งเป็นเครื่องมือที่ทรงพลังที่ตรวจจับเนื้อหาที่สร้างโดย AI
- มันทำงานได้โดยการระบุลายน้ำที่สร้างขึ้นแบบสังเคราะห์ในเนื้อหาในเครื่องมือของ Google AI เช่น Imagen, Gemini และ Lyria
- ขณะนี้เครื่องตรวจจับอยู่ในเฟสเบต้าและสามารถใช้งานได้โดยการเพิ่มรายการรอเท่านั้น
- เครื่องตรวจจับ Synthid ยังเป็นโอเพ่นซอร์สทำให้ทุกคนสามารถสร้างสถาปัตยกรรมทางเทคนิคได้

Google เริ่มแล้ว เครื่องตรวจจับสังเคราะห์เครื่องมือที่สามารถระบุเนื้อหาใด ๆ ที่สร้างขึ้นผ่านเครื่องมือ Google Suite ของ AI
สังเคราะห์หากคุณไม่ทราบว่านี่เป็นเครื่องมือลายน้ำที่ทันสมัยที่สุดที่ Google เปิดตัวในเดือนสิงหาคม 2566 เทคโนโลยีนี้จะเพิ่มลายน้ำให้กับเนื้อหาที่สร้างโดย AI ซึ่งมองไม่เห็นด้วยตาเปล่า
ในขั้นต้น synthid ใช้สำหรับภาพ Ai-Generated เท่านั้น แต่ตอนนี้ได้ขยายไปถึงเนื้อหาข้อความวิดีโอและเสียงที่สร้างขึ้นโดยใช้เครื่องมือเช่น Imagen, Gemini, Lyria และ Veo
เครื่องตรวจจับใช้ลายน้ำสังเคราะห์นี้เพื่อระบุเนื้อหา AI เมื่อคุณอัปโหลดรูปภาพเสียงหรือวิดีโอไปยังเครื่องมือตรวจจับมันจะมองหาลายน้ำนี้ หากพบหนึ่งมันจะเน้นส่วนที่มีแนวโน้มมากที่สุดที่จะทำเครื่องหมายด้วยน้ำ
อย่างไรก็ตามเป็นที่น่าสังเกตว่าเครื่องตรวจจับสังเคราะห์อยู่ในขั้นตอนการทดสอบ Google ได้เปิดตัวแบบฟอร์มสแตนด์บายสำหรับนักวิจัยนักข่าวและผู้เชี่ยวชาญด้านสื่อ

Google ยังทำงานร่วมกับ Nvidia เพื่อสร้างวิดีโอลายน้ำในรุ่น Nvidia Cosmos AI ที่สำคัญ Google ประกาศว่า GetReal Securityมันเป็นผู้บุกเบิกชั้นนำในการตรวจจับสื่อ Deepfake และระดมทุนประมาณ 17.5 ล้านดอลลาร์ในกองทุนหุ้น
เราจะเห็นความร่วมมือดังกล่าวมากขึ้นจากจุดสิ้นสุดของ Google ซึ่งหมายความว่าขอบเขตของเครื่องตรวจจับ synthid จะขยายตัวต่อไป ดังนั้นคุณจะสามารถตรวจจับเนื้อหา AI ที่สร้างโดย Google ไม่เพียง แต่ยังรวมถึงแพลตฟอร์ม AI อื่น ๆ ที่สร้างขึ้น
ต้องใช้เครื่องตรวจจับสังเคราะห์
แม้ว่า AI ได้นำผลประโยชน์ทั้งหมดมาให้เรา แต่ก็กลายเป็นเครื่องมือที่ทรงพลังในมือของอาชญากร เราได้เห็นเหตุการณ์หลายร้อยเหตุการณ์ที่ใช้เนื้อหาที่สร้างขึ้นเพื่อหลอกลวงหรือขู่ว่าจะเป็นผู้บริสุทธิ์
ตัวอย่างเช่นเมื่อวันที่ 13 พฤษภาคมหญิงสาว Lakwana County Sandra Rogers ถูกตัดสินว่ามีความผิดในความเชื่อมั่น การทารุณกรรมทางเพศเด็ก AI ภาพ. ในเหตุการณ์อื่นเด็กอายุ 17 ปีเรียกค่าไถ่ข้อมูลส่วนบุคคลจากเหยื่อ 19 รายโดยการสร้าง ผลไม้ลึกของเพศ และขู่ว่าจะรั่วไหล
ชายจีนคือ การฉ้อโกงจาก $ 622,000 ผ่านคนโกหกโดยใช้เสียงที่เกิดจาก AI ผ่านโทรศัพท์มือถือแอบอ้างเป็นเพื่อนของชายคนนั้น การหลอกลวงที่คล้ายกันนั้นเป็นที่นิยมในสหรัฐอเมริกาและแม้แต่ในประเทศเช่นอินเดียซึ่งไม่ได้อยู่ในระดับแนวหน้าของเทคโนโลยี AI
นอกเหนือจากการก่ออาชญากรรมต่อพลเรือนแล้ว AI ยังใช้เพื่อทำให้เกิดความไม่สงบทางการเมืองมากมาย ตัวอย่างเช่นที่ปรึกษาคือ ค่าปรับ 6 ล้านดอลลาร์สำหรับใช้ robocalls ปลอม ในระหว่างการเลือกตั้งประธานาธิบดีสหรัฐฯ เขาใช้ AI เพื่อเลียนแบบเสียงของ Joe Biden และกระตุ้นให้ผู้มีสิทธิเลือกตั้งของรัฐนิวแฮมป์เชียร์ไม่ลงคะแนนในหลักประชาธิปไตยของรัฐ
กลับไปที่ 2022 วิดีโอปลอมของประธานาธิบดียูเครน Zelensky มีการกล่าวกันว่าออกอากาศบนเว็บไซต์ข่าวยูเครนยูเครน 24 ซึ่งถูกแฮ็ก วิดีโอ AI ปลอมแสดงให้เห็นว่า Zelensky ยอมจำนนต่อรัสเซียและ“ วางอาวุธของเขา”
นี่เป็นเพียงส่วนปลายของภูเขาน้ำแข็ง อินเทอร์เน็ตเต็มไปด้วยกรณีดังกล่าวและสถานการณ์ใหม่ปรากฏขึ้นเกือบทุกวัน ปัญญาประดิษฐ์กำลังถูกโจมตีด้วยอาวุธต่อต้านสถาบันรัฐบาลและคำสั่งทางสังคมเพื่อสร้างความไม่สงบทางการเมืองและสังคม

ดังนั้นเครื่องมือเช่นเครื่องตรวจจับ synthid สามารถเป็นสัญญาณแห่งความหวังที่จะต่อสู้กับผู้กระทำความผิดดังกล่าว เครื่องข่าวสิ่งพิมพ์และหน่วยงานกำกับดูแลสามารถเรียกใช้ภาพหรือเนื้อหาที่น่าสงสัยผ่านเครื่องตรวจจับเพื่อตรวจสอบเรื่องราวก่อนที่จะใช้การดูหลายล้านครั้ง
ที่สำคัญกว่าเครื่องมือเช่น synthid จะไปไกลในการปลูกฝังการปรากฏตัวของความกลัวของอาชญากรโดยรู้ว่าพวกเขาสามารถถูกทำลายได้ตลอดเวลา
แล้วพื้นที่สีเทาตามกฎหมายที่ AI ใช้ล่ะ?
นอกเหนือจากการใช้ AI อย่างผิดกฎหมายดังกล่าวข้างต้นการใช้ AI ที่เพิ่มขึ้นยังมีปัญหาทางศีลธรรม นักการศึกษามีความกังวลเป็นพิเศษเกี่ยวกับการใช้แบบจำลอง LLM และ AI ที่สร้างข้อความในโรงเรียนมหาวิทยาลัยและมหาวิทยาลัย
ตอนนี้แทนที่จะวางไว้ในสนามที่ยากลำบากนักเรียนก็เพิ่มเคล็ดลับบางอย่างให้กับเคล็ดลับเล็กน้อยในการสร้างบทความและงานที่เหมือนมนุษย์โดยละเอียด การศึกษาของมหาวิทยาลัยเพนซิลเวเนียได้จัดตั้งนักเรียนสองกลุ่ม: หนึ่งสามารถเข้าถึง ChatGPT และอีกกลุ่มไม่มีเครื่องมือ LLM ดังกล่าว
นักเรียนที่ใช้ CHATGPT สามารถแก้ปัญหาคณิตศาสตร์ได้อย่างถูกต้อง 48% อย่างไรก็ตามเมื่อทำการทดสอบนักเรียนที่ใช้ CHATGPT จะแก้ไขปัญหาได้มากกว่านักเรียนที่ไม่ได้แก้ปัญหา
สิ่งนี้ชี้ให้เห็นว่าการใช้แบบจำลอง LLM ไม่ใช่สิ่งที่ส่งเสริมการเรียนรู้และการพัฒนาทางวิชาการ แต่พวกเขาเป็นเครื่องมือในการ“ รับงาน” ซึ่งค่อยๆคว้าความสามารถในการคิดของเรา
อีกอันหนึ่งเรียกว่า “เครื่องมือ AI ในสังคม: ผลกระทบต่อความรู้ความเข้าใจและอนาคตของการคิดเชิงวิพากษ์‘แนะนำว่าคนอายุ 17-25 ปีใช้การใช้ AI สูงสุดและคะแนนการคิดเชิงวิพากษ์ต่ำที่สุด ตรงกับ? เราไม่คิดอย่างนั้น
เห็นได้ชัดว่าการใช้เครื่องมือปัญญาประดิษฐ์ไม่ได้ส่งเสริมการพัฒนาของคนหนุ่มสาว แต่มันกลายเป็นสุนัขเฝ้าบ้านขี้เกียจสำหรับผู้ที่ต้องการตัดมุม
เราเรียกมันว่าภาวะที่กลืนไม่เข้าคายไม่ออกทางศีลธรรมเพราะการใช้เครื่องมือ AI เพื่อการศึกษาหรือวัตถุประสงค์อื่น ๆ นั้นไม่ผิดกฎหมาย แต่ปล่อยให้การคิดเชิงวิพากษ์ของเราและการตัดสินใจที่มีสติมากขึ้นซึ่งอย่างที่คนส่วนใหญ่พูดว่าเป็นสิ่งที่ทำให้เราเป็นมนุษย์
เครื่องตรวจจับ AI ร่วมสมัยไม่มีค่า
เพราะ AI กำลังแทนที่การคิดเชิงวิพากษ์ และเมื่อใช้เพื่อเอาท์ซอร์สของนักเรียนก็เป็นที่เข้าใจได้ว่าทำไมสถาบันการศึกษาจึงหันไปใช้เครื่องตรวจจับ AI เพื่อตรวจสอบการมีอยู่ของเนื้อหาที่สร้างขึ้นจาก AI ในการส่งและการมอบหมายของนักเรียน
แต่เครื่องตรวจจับ AI เหล่านี้ไม่แม่นยำไปกว่าวิธีที่คนตาบอดบอกให้คุณก้าวไปข้างหน้า ขออภัยถ้าเราเหยียบนิ้วเท้าใด ๆ ที่นี่! เราลืมแท่งของเรา!
AI ผู้เชี่ยวชาญ Christopher Penn โพสต์บน LinkedIn ชื่อ “เครื่องตรวจจับ AI เป็นเรื่องตลก– ‘เขาเลี้ยงดูการประกาศอิสรภาพของสหรัฐฯให้กับเครื่องตรวจจับ AI “ชั้นนำของตลาด” เดาว่าอะไร? เห็นได้ชัดว่าบรรพบุรุษของเราใช้ 97% ของ AI เพื่อลดการเรียกร้อง การเดินทางข้ามเวลา?

ผลลัพธ์ที่ไม่ถูกต้องของเครื่องตรวจจับเหล่านี้เกิดจากการใช้พารามิเตอร์เช่นความสับสนและการระเบิดเพื่อวิเคราะห์ข้อความ ดังนั้นหากคุณเขียนบทความที่ดูเหมือนหุ่นยนต์เล็กน้อยขาดคำศัพท์และมีความยาวบรรทัดที่คล้ายกัน “เครื่องตรวจจับ AI” เหล่านี้อาจจำแนกงานของคุณเป็นงานของโมเดลภาษา AI
สิ่งสำคัญที่สุดคือเครื่องมือเหล่านี้ไม่น่าเชื่อถือซึ่งอาจเป็นสาเหตุที่ OpenAI หยุดเครื่องมือตรวจจับ AI ในช่วงกลางปี 2566 โดยอ้างถึงปัญหาความถูกต้อง แต่น่าเศร้าที่ระบบส่วนใหญ่รวมถึงมหาวิทยาลัยยังคงพึ่งพาเครื่องมือเหล่านี้เพื่อทำการตัดสินใจครั้งใหญ่เช่นการขับไล่นักเรียนและการระงับ
นั่นเป็นเหตุผลที่เราต้องการเครื่องมือที่ดีกว่าและเชื่อถือได้มากขึ้นในการโทรหาเนื้อหาที่สร้างขึ้นด้วย AI ป้อนเครื่องตรวจจับการสังเคราะห์
เครื่องตรวจจับสังเคราะห์เป็นโอเพ่นซอร์ส
เกี่ยวกับการประกาศเครื่องตรวจจับสังเคราะห์ของ Google อาจเป็นไปได้ว่าเครื่องมือได้รับการบันทึกโอเพนซอร์สซึ่งอาจเป็นข่าวเชิงบวกที่ยิ่งใหญ่ที่สุด สิ่งนี้จะช่วยให้ บริษัท และผู้สร้างอื่น ๆ สามารถสร้างอาคารที่มีอยู่และรวมการตรวจจับลายน้ำ AI ไว้ในโมเดล AI ของตนเอง
โปรดจำไว้ว่าขณะนี้เครื่องตรวจจับ synthid นั้นมีให้เฉพาะสำหรับเครื่องมือ AI ของ Google ซึ่งเป็นเพียงส่วนเล็ก ๆ ของตลาด AI ทั้งหมด ดังนั้นหากมีคนใช้ CHATGPT เพื่อสร้างข้อความก็ยังไม่มีวิธีที่เชื่อถือได้ที่จะบอกได้ว่ามันถูกสร้างขึ้นหรือไม่
บางทีนั่นอาจเป็นเหตุผลว่าทำไม Google ยังคงรักษาโอเพ่นซอร์สของเครื่องตรวจจับโดยหวังว่านักพัฒนาคนอื่น ๆ จะได้รับแรงบันดาลใจจากมัน
โดยรวมแล้ว Google ไม่ได้ใช้ความสามารถในการพัฒนาขั้นพื้นฐานนี้ซึ่งเห็นได้ชัด บริษัท อื่น ๆ ที่มุ่งเน้นไปที่การใช้โมเดล AI ในทางที่ผิดควรก้าวไปข้างหน้าและมีส่วนร่วมในการสร้างความปลอดภัยให้กับ AI มากขึ้น
จุดเน้นของนโยบายบรรณาธิการรายงานทางเทคนิคคือการจัดหาเนื้อหาที่มีประโยชน์และถูกต้องซึ่งให้คุณค่าที่แท้จริงแก่ผู้อ่านของเรา เราทำงานเฉพาะกับนักเขียนที่มีประสบการณ์ซึ่งมีความรู้เฉพาะเกี่ยวกับหัวข้อที่ครอบคลุมรวมถึงการพัฒนาล่าสุดในด้านเทคโนโลยีความเป็นส่วนตัวออนไลน์ cryptocurrency ซอฟต์แวร์และอื่น ๆ นโยบายบรรณาธิการของเรามั่นใจได้ว่าแต่ละหัวข้อได้รับการวิจัยและดูแลโดยบรรณาธิการภายในของเรา เรารักษามาตรฐานวารสารศาสตร์ที่เข้มงวดและแต่ละบทความเขียนโดยผู้เขียนจริง 100%