यह एआई कुछ भी कहने के लिए पॉडकास्ट होस्ट जो रोजान की आवाज को फिर से बना सकता है

Anonim
जो रोगन ए.आई.

जिस दिन तकनीक कुछ भी कहने के लिए आपकी आवाज को फिर से बना सकती है-कोई फर्क नहीं पड़ता कि कैसे पागल है - यहाँ बहुत ज्यादा है। इंजीनियरों के एक समूह ने एक एआई कार्यक्रम बनाया है जो पॉडकास्ट मेजबान जो रोगन की आवाज की नकल कर सकता है।

आप नीचे दिए गए वीडियो में परिणाम सुन सकते हैं। आवाज न केवल रोगन के समान है, बल्कि यह लगभग हर शब्द में एक प्राकृतिक-ध्वनि की लय भी उत्पन्न कर सकती है।

हालाँकि, आवाज कृत्रिम है। एआई कंपनी डेसा के इंजीनियर अपने नकली जो रोगन को कुछ भी कहने के लिए कह सकते हैं- उन्हें जो करना है वह पाठ में टाइप है। इस मामले में, उन्होंने एआई-पावर्ड आवाज को चिम्पांजी से भरी हॉकी टीम को प्रायोजित करने के बारे में बात की और रोबोट होने के लाभों के बारे में भी बताया।

वीडियो शायद आपको खुश और विचलित कर देगा। और यही बात है। "यह बहुत ही सुंदर है * डरावनी बात है, " डेसा ने उपलब्धि के बारे में एक ब्लॉग पोस्ट में लिखा है, जिसे एक टेक्स्ट-टू-स्पीच सिंथेसिस तकनीक का उपयोग करके बनाया गया था जिसे उन्होंने रियलटॉक करार दिया है।

कंपनी ने कहा, "अगले कुछ वर्षों (या इससे भी जल्दी) में, हम प्रौद्योगिकी को उस बिंदु पर आगे देखेंगे जहां ग्रह पर किसी की आवाज की प्रतिकृति बनाने के लिए केवल कुछ सेकंड के ऑडियो की जरूरत होती है।"

#RealTalk: हमें अपनी आवाज़ देने के लिए धन्यवाद, @ जोएरोगन! हमें पता था कि एआई वास्तव में कितना गंभीर है, और इसकी क्षमता के बारे में जागरूकता फैलाने में आपकी मदद की सराहना करते हैं, जो एक बार अविश्वसनीय लेकिन खतरनाक भी है। https://t.co/kY31spaBdJ pic.twitter.com/UYggRaj4eT

- डेसा (@dessa) 17 मई, 2019

डेमो केवल नवीनतम उदाहरण है कि कैसे एआई-संचालित एल्गोरिदम का उपयोग करके पूरे जनता को बेवकूफ बनाने के लिए गलत सूचना का प्रसार किया जा सकता है। शोधकर्ताओं ने पहले ही दिखाया है कि आप प्रौद्योगिकी का उपयोग यथार्थवादी दिखने वाले बनाने के लिए कर सकते हैं, लेकिन अंततः लोगों की नकली छवियां और वीडियो, जिनमें राजनेता और सेलिब्रिटी शामिल हैं। अमेरिकी सांसदों को इन AI- जनित "डीपफेक" की चिंता है, जो एक दिन सूचना युद्ध में एक नया मोर्चा खोल सकते हैं।

डेसा की टेक्स्ट-टू-स्पीच सिंथेसिस तकनीक का इस्तेमाल दुर्भावनापूर्ण उद्देश्यों के लिए भी किया जा सकता है। अपने परिवार के सदस्यों को प्रतिरूपण करने की क्षमता वाले स्कैम फ़ोन कॉलर्स की कल्पना करें। या एक चुनाव में हस्तक्षेप करने के लिए आपत्तिजनक बातें कहते हुए एक राजनेता के ऑडियो फेक बनाने वाले हैकर्स।

बेशक, एक ही तकनीक का इस्तेमाल अच्छे के लिए किया जा सकता है; उदाहरण के लिए, डेसा किसी भी भाषा में फिल्मों के लिए स्वचालित आवाज डबिंग की ओर इशारा करता है, साथ ही साथ अधिक प्राकृतिक ध्वनि वाले स्मार्ट सहायक भी। हालांकि, यह स्पष्ट है कि समाज को सिंथेटिक भाषण प्रौद्योगिकियों को जिम्मेदारी से विकसित करने की आवश्यकता है, इससे पहले कि वे एक खतरा बन जाएं, कंपनी ने कहा।

"यह विश्वास करना अपमानजनक नहीं है कि हमने जिन प्रभावों का उल्लेख किया है (और निश्चित रूप से, कई और) जल्द ही समाज के कपड़े में अपना रास्ता बना लेंगे, " डेसा ने चेतावनी दी

डरावने निहितार्थ हैं कि डेसा अपने एआई-संचालित टेक्स्ट-टू-स्पीच सिंथेसिस तकनीक के पीछे तकनीकी विवरण जारी करने में क्यों कमी कर रहा है। कंपनी ने कहा, "इस तरह की चीजों पर काम करने के लिए, हमें लगता है कि सार्वजनिक तौर पर कुछ खुले स्रोत जारी करने से पहले भाषण संश्लेषण मॉडल पेश करने वाले निहितार्थों से अवगत कराया जाना चाहिए।"

सम्बंधित

  • जब एआई वास्तविकता और कल्पना के बीच की रेखा को उड़ा देता है जब एआई वास्तविकता और कल्पना के बीच की रेखा को उड़ा देता है
  • नवीनतम डीपफेक टेक ब्रूनो मार्स की तरह आप नृत्य करेंगे नवीनतम डीपफेक टेक ब्रूनो मार्स की तरह आप नृत्य करेंगे
  • AI और मशीन लर्निंग एक्सप्लॉइट, डीपफेक, अब हार्डर टू डिटेक्ट AI और मशीन लर्निंग एक्सप्लॉइट, डीपफेक, अब हार्डर टू डिटेक्ट

सभी ने कहा, कंपनी की योजना है कि आने वाले दिनों में उनकी AI तकनीक का तकनीकी अवलोकन पोस्ट किया जाए। इस बीच, डेसा ने एक वेबसाइट बनाई है जो यह परीक्षण करती है कि क्या आप एआई द्वारा तैयार किए गए नकली लोगों से रोजान के असली ऑडियो क्लिप ले सकते हैं।

डेमो के जवाब में, रोजान ने खुद ट्वीट किया: "यह एक वास्तविक समस्या बन सकती है। मैं खुश हूं और सम्मानित हूं कि उन्होंने एक उदाहरण के रूप में मेरी आवाज को चुना ताकि हमें पता चल सके कि हम गड़बड़ हैं।"