នៅក្នុងបរិយាកាសស្មុគ្រស្មាញ មនុស្សអាចយល់ពីអត្ថន័យនៃការនិយាយបានល្អជាង AI ពីព្រោះយើងមិនត្រឹមតែប្រើត្រចៀករបស់យើងប៉ុណ្ណោះទេ ថែមទាំងភ្នែករបស់យើងផងដែរ។
ជាឧទាហរណ៍ យើងឃើញមាត់របស់នរណាម្នាក់ធ្វើចលនា ហើយប្រហែលជាដឹងដោយវិចារណញាណថា សំឡេងដែលយើងឮត្រូវតែមកពីមនុស្សម្នាក់នោះ។
Meta AI កំពុងធ្វើការលើប្រព័ន្ធសន្ទនា AI ថ្មីមួយ ដែលត្រូវបង្រៀន AI ឱ្យរៀនទទួលស្គាល់ការជាប់ទាក់ទងគ្នាតិចតួចរវាងអ្វីដែលវាឃើញ និងឮនៅក្នុងការសន្ទនា។
VisualVoice រៀនតាមរបៀបស្រដៀងគ្នាទៅនឹងរបៀបដែលមនុស្សរៀនដើម្បីធ្វើជាម្ចាស់នៃជំនាញថ្មី បើកការបំបែកការនិយាយជាសំឡេងដោយរៀនសញ្ញាដែលមើលឃើញ និងសូរសព្ទពីវីដេអូដែលមិនមានស្លាក។
សម្រាប់ម៉ាស៊ីន នេះបង្កើតការយល់ឃើញកាន់តែប្រសើរឡើង ខណៈពេលដែលការយល់ឃើញរបស់មនុស្សមានភាពប្រសើរឡើង។
ស្រមៃថាអាចចូលរួមក្នុងការប្រជុំជាក្រុមនៅក្នុង metaverse ជាមួយមិត្តរួមការងារមកពីជុំវិញពិភពលោក ដោយចូលរួមក្នុងការប្រជុំជាក្រុមតូចៗ នៅពេលដែលពួកគេផ្លាស់ទីឆ្លងកាត់លំហនិម្មិត កំឡុងពេលដែលសំឡេងបង្វិល និងដុំឈើនៅក្នុងកន្លែងកើតហេតុធ្វើទៅតាមបរិយាកាសកែតម្រូវទៅតាមនោះ។
នោះគឺវាអាចទទួលបានព័ត៌មានអូឌីយ៉ូ វីដេអូ និងអត្ថបទក្នុងពេលតែមួយ ហើយមានគំរូការយល់ដឹងពីបរិស្ថានកាន់តែល្អប្រសើរ ដែលអនុញ្ញាតឱ្យអ្នកប្រើទទួលបានបទពិសោធសំឡេង "អស្ចារ្យណាស់"។
ពេលវេលាប្រកាស៖ ថ្ងៃទី ២០ ខែកក្កដា ឆ្នាំ ២០២២