PLOS ONE मध्ये प्रकाशित नवीन संशोधनानुसार, मानव 4 पैकी 3 वेळा 'डीपफेक' म्हणून ओळखला जाणारा कृत्रिमरित्या तयार केलेला ऑडिओ शोधू शकतो .
डीपफेक अत्यंत खात्रीशीर - परंतु खोट्या - प्रतिमा, ऑडिओ किंवा व्हिडिओ तयार करण्यासाठी कृत्रिम बुद्धिमत्ता (AI) वापरतात . या प्रकरणात, युनिव्हर्सिटी कॉलेज लंडनच्या संशोधकांनी एआय व्युत्पन्न ऑडिओ शोधण्याच्या सहभागींच्या क्षमतेची तपासणी केली.
डीप फेक ऑडिओ अल्गोरिदम मोठ्या प्रमाणावर उपलब्ध आहेत, आणि एखाद्या व्यक्तीचा आवाज त्यांच्या बोलण्याच्या 3-सेकंद क्लिपमधून पुन्हा तयार करण्यात सक्षम आहेत. त्यानंतर तंत्रज्ञानाचा वापर नवीन माहिती देण्यासाठी त्या व्यक्तीच्या आवाजाची नक्कल करण्यासाठी केला जाऊ शकतो.
अभ्यासात, संशोधकांनी इंग्रजी आणि मंदारिन या दोन्ही भाषेतील ऑडिओचे 50 अस्सल नमुने मिळविण्यासाठी सार्वजनिकरित्या उपलब्ध डेटासेट वापरला. त्यांनी 50 डीपफेक भाषण नमुने देखील तयार केले.
अभ्यासातील 529 सहभागींना यादृच्छिकपणे निवडलेले 20 वाजवले गेले आणि वास्तविक आणि कृत्रिम दोन्ही ऑडिओचे नमुने मागवले आणि बनावट क्लिप ओळखण्यास सांगितले. सहभागी 73% वेळा बनावट ऑडिओ अचूकपणे ओळखण्यात सक्षम होते. शोधण्याच्या पुढील प्रशिक्षणामुळे त्यांची अचूकता थोडी सुधारली
किम्बर्ली माई, संगणक शास्त्रज्ञ आणि अभ्यासाच्या लेखिका म्हणतात: "आमचे निष्कर्ष पुष्टी करतात की मानवांना कृत्रिम सामग्री शोधण्यात मदत करण्यासाठी प्रशिक्षण मिळालेले असले किंवा नसले तरी ते डीपफेक भाषण विश्वसनीयरित्या शोधण्यात अक्षम आहेत."
इंग्रजी आणि मंदारिनमधील डीपफेक ओळखणे तितकेच आव्हानात्मक होते आणि कामावर अधिक वेळ घालवणे किंवा क्लिप अधिक वेळा ऐकणे यामुळे लोकांना कृत्रिमरित्या व्युत्पन्न केलेला ऑडिओ शोधण्यात मदत झाली नाही.
जसजसे अल्गोरिदम अधिक प्रगत होत जाईल तसतसे कृत्रिम भाषण ओळखण्याचे काम आणखी आव्हानात्मक होईल, असे संशोधक लिहितात. हे निष्कर्ष लक्षात घेता पुढील संशोधनाने स्वयंचलित शोध साधने सुधारण्यावर भर दिला पाहिजे असा त्यांचा तर्क आहे.
पेपर फसवणूक किंवा गुन्हेगारी क्रियाकलाप करण्यासाठी डीपफेक ऑडिओ तंत्रज्ञान वापरत असलेल्या लोकांची उदाहरणे उद्धृत करते.
सह-लेखक प्रोफेसर लुईस ग्रिफिन म्हणतात, "जनरेटिव्ह आर्टिफिशियल इंटेलिजन्स तंत्रज्ञान अधिक अत्याधुनिक होत असल्याने आणि यापैकी अनेक साधने उघडपणे उपलब्ध असल्याने, आम्ही असंख्य फायदे तसेच जोखीम पाहण्याच्या मार्गावर आहोत," असे सह-लेखक प्राध्यापक लुईस ग्रिफिन म्हणतात.