ប្រាកដណាស់ តាមរយៈវេទិកាជំនួបក្រុមអ្នកអភិវឌ្ឍកម្មវិធីពិភពលោក Worldwide Developer Conference នាយប់ថ្ងៃអង្គារ ទី ៦ កន្លងទៅនេះ ក្រុមហ៊ុន Apple បានប្រកាសចេញនូវកម្មវិធី Siri កំណែថ្មី ជាមួយផ្ទាំងកម្មវិធីថ្មី អាចឆ្លើយតបតាមការសួរនាំរបស់អ្នកប្រើប្រាស់កាន់តែច្រើន និងបន្ថែមនូវសមត្ថភាពបកប្រែភាសា ជាដើម។
ប៉ុន្តែ តាមរយៈប្រព័ន្ធ iOS 11 ជំនួយការសំឡេងឌីជីថលជំនាន់ថ្មីនេះ នៅតែមិនទាន់ត្រូវបានជួសជុលគុណវិបត្តិដ៏ធំបំផុតមួយរបស់វានៅឡើយ ចាប់តាំងពីពេលវាចាប់បដិសន្ធិក្នុងឆ្នាំ ២០១១ មក ដែលនោះគឺ សមត្ថភាពស្តាប់ ឬសម្គាល់សំឡេងនិយាយរបស់មនុស្ស។
ជាញឹកញាប់ណាស់ Siri វាធ្វើការបកប្រែភាសានិយាយបញ្ជារបស់មនុស្សខុស ហើយបើទោះជានៅពេលស្តាប់បានត្រឹមត្រូវលើឃ្លាឃ្លោងខ្លះ វាក៏មិនអាចផ្តល់ចម្លើយទាក់ទងទៅនឹងសំណួររបស់អ្នកប្រើប្រាស់ឱ្យបានល្មមគ្រប់គ្រាន់ ឬជាប្រយោជន៍បាននោះដែរ។
ងាកមកជំនួយការសំឡេងឌីជីថល Google Now និង Alexa របស់ក្រុមហ៊ុន Google និង Amazon វិញ ថ្វីត្បិតតែសមត្ថភាពស្តាប់សំឡេងរបស់ពួកវាមិនល្អឥតខ្ចោះក៏ពិតមែន ប៉ុន្តែ វាអាចឆ្លើយតបទៅនឹងសំណើររបស់អ្នកប្រើប្រាស់បានច្បាស់លាស់ និងល្អប្រសើរជាង Siri។ នេះគឺមកពីក្រុមហ៊ុនយក្សអាមេរិកមួយនេះ មានការយឺតយ៉ាវក្នុងកិច្ចខំប្រឹងប្រែងអភិវឌ្ឍន៍បច្ចេកវិទ្យា AI (Artificial Intelligence) នេះ។
ទោះយ៉ាងណា តាមរយៈព្រឹត្តិកាណ៍ WWDC 2017 នោះដែរ ក្រុមហ៊ុនផលិត iPhone បានបង្ហាញការផ្តោតការយកចិត្តទុកដាក់លើបច្ចេកវិទ្យាបញ្ញាញាណសិប្បនិម្មិតនេះណាស់ គឺតាមរយៈការរចនាបង្កើតចេញនូវបន្ទះឈីប Core ML (Machine Learning) ដែលអនុញ្ញាតឱ្យក្រុមអ្នកអភិវឌ្ឍកម្មវិធីជួយសម្រួចកិច្ចខំប្រឹងប្រែងរបស់ខ្លួនក្នុងការប្រកួតប្រជែងលើបច្ច្ចេកវិទ្យាជាន់ខ្ពស់នេះ នៅថ្ងៃអនាគត៕
ប្រភពព័ត៌មានៈ theverge
មតិយោបល់