កាលពីម្សិលមិញនេះក្រុមហ៊ុន Apple បានប្រកាសពន្យារពេលក្នុងការដាក់ឱ្យប្រើប្រាស់មុខងារ CSAM ដែលគ្រោងនឹងបញ្ចេញជាមួយនឹងប្រព័ន្ធប្រតិបត្តិការ iOS 15 ដើម្បីធ្វើការកែសម្រួលបន្ទាប់ពីមានការរិះគន់ពីក្រុមអ្នកឃ្លាំមើល និងអ្នកស្រាវជ្រាវផ្នែកសុវត្ថិភាពបច្ចេកវិទ្យាជាច្រើន។ ទោះបីជាមុខងារនេះអាចជួយកាត់បន្ថយការជួញដូរកុមារ ប៉ុន្តែក្រុមអ្នកឃ្លាំមើលនិងអ្នកស្រាវជ្រាវមួយចំនួន មានការព្រួយបារម្ភទាក់ទងទៅនឹងការការពារទិន្នន័យឯកជនភាពរបស់អ្នកប្រើប្រាស់ ហើយម្យ៉ាងវិញទៀតមុខងារនេះអាចត្រូវបានប្រើដើម្បីតាមដានអ្នកប្រើប្រាស់វិញក៏បាន។
CSAM ឬ Child Sexual Abuse Material គឺជាមុខងារដែលអាចស្កេនរករូបភាពអាសអាភាសកុមារនៅក្នុងប្រព័ន្ធ iCloud ហើយធ្វើការប្រៀបធៀបរូបភាពទាំងនោះទៅនឹងរូបភាពដែលបានបញ្ជូនមកពីប្រទេសនៅជុំវិញពិភពលោក។ ដូច្នេះមុខងារនេះអាចដំណើរការបានប្រសិនបើអ្នកប្រើប្រាស់បានបើកប្រើមុខងារ iCloud Photos។
ជាមួយនឹងមុខងារ CSAM ក្រុមហ៊ុន Apple ក៏បានបន្ថែមមុខងារដែលអាចស្កេនរករូបភាពអាសអាភាសក្មេងក្រោមអាយុ ១៨ឆ្នាំ ដែលផ្ញើតាមរយៈ iMessage ជាមួយនឹងទូរសព្ទ iPhone ដែលនាយកដ្ឋានបានផ្សព្វផ្សាយរួចមកហើយកាលពីខែសីហា។ មុខងារនេះគឺសម្រាប់គណនីដែលមានក្មេងក្រោមអាយុ ១៨ឆ្នាំ និងតម្រូវឱ្យមានការឯកភាពពីអាណាព្យាបាល។
នៅពេលដែលក្រុមហ៊ុនស្កេនឃើញរូបភាពអាសអាភាសនៅក្នុងសារ iMessage ក្រុមហ៊ុនមិនត្រឹមតែធ្វើឱ្យរូបភាពទាំងនោះព្រិល ថែមទាំងបង្ហាញនូវពាក្យពេចន៍ព្រមានទាក់ទងនឹងរូបភាពទាំងនេះផងដែរ។ ប្រសិនបើកុមារបើកមើលរូបភាពទាំងនោះ ក្រុមហ៊ុនអាចនឹងផ្ដល់ដំណឹងទៅអាណាព្យាបាល ប្រសិនបើពួកគេបានបើកប្រើមុខងារនេះ។ សម្រាប់គណនីដែលមានក្មេងពីអាយុ ១៣ ដល់ ១៧ឆ្នាំ ក្រុមហ៊ុនគ្រាន់តែបង្ហាញសារព្រមាន និងធ្វើឱ្យរូបភាពព្រិលតែប៉ុណ្ណោះ៕
ប្រភព៖ នាយកដ្ឋានប្រឆាំងបទល្មើសបច្ចេកវិទ្យា
មតិយោបល់