மெய்யான போலிகள்– போலிகள் மெய்யானவையாக காட்டப்படல்

கலாநிதி . சியாமளன் மணிவண்ணன்

மார்ச் 2019சிரேட்ட நிறைவேற்று அதிகாரிக்கு ஜெர்மனியில் இருந்து ஒரு தொலைபேசி அழைப்பு வந்தது. அந்த அழைப்பினை அவர், தான் பணியாற்றும் நிறுவனத்தின் உரிமையாளரிடமிருந்து வந்ததாக நம்பினார். அந்த அழைப்பில் , உடனடியாக €220இ000 ஐ ஹங்கேரிய விநியோகத்தர் ஒருவரினது (ளுவரிp 2019) வங்கிக் கணக்கிற்கு மாற்றும்படி கேட்டுக் கொள்ளப்பட்டது. சிரேட்ட நிறைவேற்று அதிகாரி தான் பணியாற்றும் நிறுவனத்தின் உரிமையாளரின் உத்தரவைப் பின்பற்றி பணத்தை மாற்றினார். அதே நாளில் அவரது நிறுவன உரிமையாளரினை போன்ற குரலில் இன்னுமொரு அழைப்பு அவருக்கு வந்தது.ஆனால் இந்த தடவை அந்த அழைப்பானது, அவுஸ்திரேலியாவில் இருந்து வந்ததால், அந்த அழைப்பு தொடர்பில் சிரேட்ட நிறைவேற்று அதிகாரிக்கு சந்தேகம் எழுந்தது. அதனைத்தொடர்ந்து, அவர் பொலிசாருக்கு இது பற்றி தெரியப்படுத்தியதோடு தான் வஞ்சிக்கப்பட்டதனையும் அவர் உணர்ந்துக் கொண்டார். வஞ்சித்தவர் , செயற்கை நுண்ணறிவு (யுஐ) நுட்பங்களைப் பயன்படுத்தி நிறுவன உரிமையாளரின் குரலை போன்றே வெற்றிகரமாக உரையாடி ஆள்மாறாட்டம் செய்து, சிரேட்ட நிறைவேற்று அதிகாரியை பண வைப்பீட்டினை மேற்கொள்ள செய்தார். தொலைபேசி உரையாடலில்,சிரேட்ட நிறைவேற்று அதிகாரி தான் பணியாற்றும் நிறுவன உரிமையாளரின் குரலில் சிறிதளவு தென்படும் ஜெர்மன் கலந்த உச்சரிப்பைக் கூட அவரது குரலில் அடையாளம் கண்டிருக்கின்றார். இங்கு குரல் அழைப்பிற்குப் பதிலாக, சிரேட்ட நிறைவேற்று அதிகாரி பணியாற்றும் நிறுவனத்தினது, உரிமையாளரின் அனைத்து முகபாவனைகளுடன் ஆள்மாறாட்டம் செய்யப்பட்ட வீடியோ அழைப்பை கற்பனை செய்து பாருங்கள், அது சிரேட்ட நிறைவேற்று அதிகாரிக்கு எந்த சந்தேகத்தையும் ஏற்படுத்தாது. மெய்யான போலிகள் எந்தளவிற்கு மனிதர்களை முட்டாளாக்கும் என்பதையும், அதன் தாக்கங்கள் எவ்வளவு தீவிரமானவை என்பதையும் காட்டும் உதாரணங்களில் இதுவும் ஒன்று.
சுநனனவை இனை பயன்படுத்துபவரும் ஆபாச வீடியோக்களை உருவாக்கும் ஒருவராலேயே மெய்யான போலிகள் என்ற சொல் முதன்முதலில் 2017 ஆம் ஆண்டில் வெளியிடப்பட்டது. ஆபாச காணொளிகளில் தோன்றும் பிரபலங்களின் முகங்களை மாற்றி, அவற்றிக்கு பதிலாக பிரபல நட்சத்திரங்களின் முகங்களினை அக் காணொளிகளில் ஏற்றம் செய்து அவற்றினை இணையத்தில் வெளியிட, செயற்கை நுண்ணறிவு-செயல்படுத்தப்பட்ட கணிப்பு நெறிகளினை அவர் தனது வீட்டு கணினியில் பயன்படுத்தினார். மெய்யான போலிகள் எனும் சொல்லில் குறிப்பிடப்படும் போலி எனும் சொல் போல,அவற்றில் குறிப்பிடப்படும் பெயர்கள் போலியானவையாக இருந்த போதிலும் அவை நோக்குவதற்கு மிகவும் மெய்மையானவையாக இருக்கும். படங்கள்இ காணொளிகள், உரைகள் அல்லது வேறு ஏதேனும் வஞ்சனைகள் போன்றவற்றினை செயற்கை நுண்ணறிவின் மூலம் மெய்யானவையாக மாற்றியமைக்கலாம். செயற்கை நுண்ணறிவின்; ; மூலம் உருவாக்கப்பட்ட போலி முகப் படங்களின் சில உதாரணங்களை படம் 1 காட்டுகிறது

உரு 1: செயற்கை நுண்ணறிவைப் பயன்படுத்தி உருவாக்கப்பட்டு மெய்யான புகைப்படங்களைப் போல தோற்றமளிக்கும் போலி முகங்கள். இந்த முகங்கள் பூமியில் வாழும் எந்த மனிதனுக்கும் சொந்தமானவை அல்ல, செயற்கை நுண்ணறிவைப் பயன்படுத்தி உருவாக்கப்பட்டவை. (புகைப்பட ஆதாரம் – -(முயசசயள 2016)).

மெய்யான போலிகள் எப்படி உருவாக்கப்படுகிறது?
அநேகமான மெய்யான போலிகளாவன பாதகமான வலையமைப்புக்கள் உருவாக்கப்படுவதன் மூலம் உருவாக்கப்படுகிறது. (புயுளே) (முநடடல 2021). ஆழமாக கற்றல் (னுடு)என்பது, ஒரு சிக்கலான கற்றல் நுட்பத்தின் அடிப்படையில், இயன் குட் பெலோ மற்றும் அவரது குழுவினரால் (குட் பெலோ 2014) 2014 ஆம் ஆண்டில் அறிமுகப்படுத்தப்பட்டதொன்றாகும். ஆழமாக கற்றல் (னுடு) என்பது செயற்கை நுண்ணறிவின் (யுஐ) துணைத் துறையாகும்.இது செயற்கை நரம்பியல் வலையமைப்பின் (பல அடுக்குகள்) சிக்கலான வடிவத்தை அடிப்படையாகக் கொண்டு, மனித மூளை செயல்படும் விதத்தைப் பிரதிபலிக்கிறது. புயுN கள் இரு பகுதிகளினை கொண்டது : ஒன்று பிறப்பாக்குனர் மற்றது பாகுபாடு காண்பவர் . பிறப்பாக்குனர் மெய்ம்மை போன்று போலிகளை உருவாக்குவர். அதே வேளையில் பாகுபாடு காண்பவர்,அந்த போலிகள் மெய்மையில் இருந்து எந்தெந்த விதத்தில் வேறுபடுகிறது என்பதனை கண்டறிய முற்படுகிறார். இது எதிர் செயல்பாடு ஆகும்.இந்த இரண்டு பகுதிகளும் ஒன்றுக்கொன்று எதிரெதிர் முறையில்செயற்படுவதற்கு பயிற்சியளிக்கப்படுகின்றன.
நிஜ உலக சூழ்நிலையில், நான் (பிறப்பாக்குனர்) உங்களுடைய போலி கையெழுத்தை உருவாக்க முயற்சிக்கிறேன் என்று வைத்துக் கொள்வோம். தொடக்கத்தில், நான் உருவாக்கிய கையொப்பம் உங்களின் உண்மையான கையெழுத்திலிருந்து மிகவும் வித்தியாசமாகத் தோன்றலாம், எனவே, நீங்கள் (பாகுபாடு காண்பவர் ) இது போலியானது என்பதை எளிதாக அடையாளம் காண முடியும். இருப்பினும், உங்களை முட்டாளாக்குவதே எனது முக்கிய நோக்கமாக இருப்பதால், காலப்போக்கில் நான்,எனது திறமைகளை மேம்படுத்திக் கொள்வேன். அதே நேரத்தில், நான் உருவாக்கிய கையொப்பத்தை தொடர்ந்து நான் உங்களுக்குக் காண்பிப்பதால், உண்மையான கையொப்பங்களில் இருந்து போலி கையொப்பங்களை பாகுபடுத்துவதில் உங்கள் திறமையை நீங்களும் வளர்த்துக்கொள்வீர்கள். இருப்பினும், இறுதியில், உங்கள் கையொப்பத்தை போல் கையொப்பமிடுவதில் நான் திறமை பெற்றவராகி விடுவேன். இந்த இடத்தில், நான் உருவாக்கிய கையொப்பத்தை, உங்களது நிஜ கையொப்பத்துடன் ஒப்பிட்டு உங்களால் வேறுபடுத்திப் பார்க்க முடியாது. இதுபுயுN களின் அடிப்படைக் கருத்தை விளக்குகிறது.
கணினிகளின் உதவியுடன் போலிகளை உருவாக்குவது என்பது புதிதல்ல. எனினும்,புயுN களால் உருவாக்கப்பட்ட போலிகள் முன்பு உருவாக்கப்பட்டதை விட மிகவும் மெய்ம்மைத்தன்மை கொண்டனவாகவும் மற்றும் ஒருவர் ஏமாற்றப்படக்கூடிய வகையிலும் அமைந்திருக்கும்.

மெய்யான போலிகளின் அனுகூலங்கள்

மிகவும் யதார்த்தமான விதத்தில் மெய்மை போன்று தோற்றம் தரக்கூடிய போலிகளினை உருவாக்கும் திறனை புயுN கள் கொண்டிருப்பதன் காரணமாக அவை பரந்த அளவிலான பயன்பாடுகளினை கொண்ட ஒன்றாக கணிக்கப்படுகின்றது. பயன்பாடுகள் எனும் போது அதற்குள்,னுடு மாதிரிகளினை பயிற்சி செய்வதற்கான தரவு மேம்பாடு (னயவய யரபஅநவெயவழைn வழ வசயin னுடு அழனநடள) படங்களிலிருந்து படங்களுக்கு மொழிபெயர்ப்பு (iஅயபந-வழ-iஅயபந வசயளெடயவழைளெ), பழுதுற்ற படங்களினை சீர் செய்தல் (iஅயபந ஐnpயiவெiபெ), படங்களின் தரத்தினை மேம்படுத்துதல் (iஅயபந ளரிநச-சநளழடரவழைn) மற்றும் உரை அடிப்படையில் பட வடிவமைப்பு போன்ற இதர பல அடங்கும்.

னுடு கணிப்பு நெறிகளுக்கு தரவுகள் அதிகம் தேவைப்படுகின்றது . அத்துடன் பயிற்சிகள் வழங்கப்படுவதற்கு அதிகளவு தரவுகள் அவற்றிக்கு தேவைப்படுகின்றன. குறிப்பாக மருத்துவத் துறையில் படங்களினை பகுப்பாய்வு செய்வதற்கு அதிகளவு தரவுகளினை சேகரித்தல் கடினமானதாகும் என்பதுடன் அது அதிக நேரம் செலவிடப்பட வேண்டியதொரு விடயமாகும் என்பதுடன் விலை அதிகமானதொரு செயன்முறையாகவும் உள்ளது. ஆனால் புயுகேளைப் பயன்படுத்துவதன் மூலம் னுடு மாதிரிகளினை பயிற்றுவிப்பதற்காக தற்போதுள்ள தரவுகளுடன் புதிய தரவை உருவாக்கலாம் மற்றும் ஏற்கனவே உள்ள தரவுகளுடன் சேர்க்கலாம், மேலும் இந்த முறையின் கீழ் பயிற்றுவிக்கப்பட்ட மாதிரிகள் பொதுவாக அசல் பயிற்சித் தரவைப் பயன்படுத்தி பயிற்சியளிக்கப்பட்ட மாதிரிகளை விட சிறந்த முடிவுகளைத் தருகின்றன.
படங்கலிருந்து படங்களுக்கு மொழிபெயர்ப்பு செய்வதன் நோக்கம், படங்களின் உள்ளடக்கத்தை மாற்றாமல் பாதுகாத்து, அவற்றின் பாணியை மாற்றுவதாகும். அதாவது,கருப்பு மற்றும் வெள்ளை நிறத்தில் இருந்து வண்ணப் படங்களை உருவாக்குதல், கார்ட்டூனினை அடிப்படையாக கொண்ட புகைப்படங்கள், ஓவியத்திலிருந்து புகைப்படங்களை உருவாக்குதல், பகல்நேரப் படங்களை இரவு நேரப் படங்களாக மாற்றுதல், மற்றும் அதற்கு நேர்மாறாக செய்தல் மற்றும் கொடுக்கப்பட்ட முகப் படங்களின் உணர்ச்சிகளை மாற்றுதல் (உூூம் மகிழ்ச்சியான முகத்தினை சோகமான முகமாக மாற்றல் ).பழுதுற்ற படங்களினை சீர் செய்வதன் (iஅயபந ஐnpயiவெiபெ), மூலம், சேதமடைந்த ஒரு புகைப்படத்தினை விட்டுப்போன படபுள்ளிகளுடன் கூடிய முழுமையான, யதார்த்தமான தோற்றமுடைய சேதமடையாத படமாக மீட்டெடுக்கலாம். பொதுவாக,குறைந்த தெளிவுத்திறன் கொண்ட படங்களை நாம் தரம் உயர்த்தும்போது அவற்றின் விவரங்கள் மங்கலாகிவிடும். இந்தப்பிரச்சினையினை வெற்றிக் கொள்வதற்கு இ புயுகேள் குறைந்த தெளிவுத்திறன் பதிப்புகளிலிருந்து உயர் தெளிவுத்திறன் கொண்ட படங்களைப் பெறுவதற்கான வழிகளை வழங்குகின்றன .மேலும்,புயுகேள்; உரை விளக்கங்களிலிருந்து படங்களை உருவாக்கவும் பயன்படுத்தப்படலாம் ( உூூம்”பழுப்பு நிற இறக்கைகள் கொண்ட வெள்ளை பறவை”)

மெய்யான போலிகளால் ஏற்படக்கூடிய அச்சுறுத்தல்கள்
மெய்யான போலிகள் பலவிதமான நன்மைகளை வழங்கினாலும், அவற்றின் மூலமான அச்சுறுத்தல்கள் தவிர்க்க முடியாதவை. இணையத்தில் மூலக் குறியீடுகள் மற்றும் மென்பொருட்கள் என்பன இலவசமாகக் பெறக்கூடியதாக இருப்பதனால் , ஓரளவு தொழில்நுட்ப அறிவு உள்ள எவரும் மெய்யான போலிகளினை உருவாக்கி அதை வெவ்வேறு வழிகளில் தவறாகப் பயன்படுத்த முடியும். இதற்குள் போலி கையொப்பங்கள் மற்றும் ஒருவரின் கையெழுத்தைப் போன்றே இன்னொருவரால் எழுதப்பட்ட ஆவணங்கள் போன்ற இதர பல விடயங்களில் இருந்து, ஒரு நபரினது , நகைச்சுவையான, ஆபாசமான அல்லது அரசியல் காணொளிகள் வரையில் உள்ளடங்கும் . இந்த இடத்தில் அக் காணொளிகளில் தென்படுபவை அந்த ஒரு நபரினால் சொல்லப்படாத அல்லது செய்யப்படாத ஒன்றாக இருக்கும் . பின்வருபவை அத்தகைய சாத்தியமான அச்சுறுத்தல்களில் சிலவாகும்.

• போலி ஆதாரங்களை உருவாக்குதல்: கையொப்பங்கள் மற்றும் கையால் எழுதப்பட்ட ஆவணங்கள் என்பவை மக்கள் தங்கள் அன்றாட வாழ்க்கையிலும் நீதிமன்றங்களிலும் பயன்படுத்தும் சில வகையான ஆதாரங்களாகும். இந்த ஆதாரம் மெய்யான போலி தொழில் நுட்பங்களால் உருவாக்கப்படலாம் மற்றும் அவை மெய்யானவை போல் தவறாகப் பயன்படுத்தப்படலாம்.
• போலிச் செய்தி உருவாக்கம்: உரைகள் அல்லது செவிப்புல -கட்புல காட்சிகள் வடிவில் தவறான தகவல்களுடன் போலிச் செய்திகளை உருவாக்குவதும் விநியோகிப்பதும். இது சமூக ஊடகங்கள் மூலம் விரைவாகப் பரவி மில்லியன் அளவில் பயனர்களை எளிதில் சென்றடைந்து தாக்கத்தை ஏற்படுத்தும். ஒரு அரசியல்வாதி அல்லது இராணுவத்தினை சேர்ந்த ஒரு நபர் ஒரு குற்றத்தில் ஈடுபடுவது போன்ற ஒரு காணொளி, அல்லது சில இனவாத கருத்துக்கள் பற்றிய காணொளி என்பன நிச்சயமாக சமூகத்தில் தீங்கு விளைவிக்கும் விளைவுகளை ஏற்படுத்தும். இந்த காணொளிகளாவன , பல்வேறு நோக்கங்களுக்காக பல்வேறு கட்சிகளால் உருவாக்கப்படுகின்றன, அதாவது ,சமூகத்தில் குழப்பங்களை ஏற்படுத்த பயங்கரவாத அமைப்புககளால்;, அரசியல்வாதிகள் அல்லது வெளிநாட்டு புலனாய்வு அமைப்புகள் பிரச்சார நோக்கங்களுக்காகவும் தேர்தல் பிரச்சாரங்களை சீர்குலைக்கவும் அல்லது தேர்தலில் வாக்காளர்களின் கருத்தை திசைதிருப்ப அல்லது பொழுதுபோக்கிற்காகவும் யாரோ ஒருவரால் உருவாக்கப்படலாம்.
• மெய்யான கூற்று மறுக்கப்படல் : மெய்யான போலிகளின் காரணமாக செவிப்புல – கட்புல காட்சிகளின் நம்பகத்தன்மை கேள்விக்குறியாகிவிடும். ஒரு குற்றவாளி கூட குற்றம் தொடர்பான அவனது ஆதாரங்களை இவை மெய்யான போலிகள் என்று மறுக்க முடியும், மேலும் ஊழலில் ஈடுபடும் அதிகாரிகள்ஃஅரசியல்வாதிகள் மெய்யான போலிகள் உருவாகுவதன் காரணமாக தமது குற்றம் பற்றிய பயம் இல்லாது இப்போது நிதானமாக இருக்க முடியும் என்பதுடன் இலஞ்சம் வாங்கும் காணொளி காட்சிகள் கைப்பற்றப்படும் போதெல்லாம், அவை மெய்யான போலிகள் என அவர்கள் கூறலாம். இது சட்டத்தை நடைமுறைபடுத்தும் அதிகாரிகள் மீதும், நாட்டின் சட்டம் மீதும் மக்கள் கொண்டுள்ள நம்பிக்கையை குறைக்கும்.
• பங்குச் சந்தை கையாளுதல்: பங்குச் சந்தை கையாளுதலுக்காக மெய்யான போலி காணொளிகளினை உருவாக்கலாம். சமீபத்தில், யூரோ 2020 செய்தியாளர் மாநாட்டில் (கில்பர்ட் 2021)கோகோ கோலாவுக்குப் பதிலாக தண்ணீரைக் குடிக்குமாறு கிறிஸ்டியானோ ரொனால்டோ சைகை செய்ததை அடுத்து, கோகோ கோலா பங்குகள் சுமார் 4 பில்லியன் டாலர்களினால் வீழ்ச்சியடைந்ததைச் செய்தியில் பார்த்தோம். மெய்யான போலி காணொளிகளினை உற்பத்திகளின் விளம்பரப்படுத்திற்கும் பயன்படுத்தலாம் அல்லது அவற்றுக்குள்ள கேள்வியினை குறைக்கவும் பயன்படுத்தலாம்.
• ஆபாசப் படங்கள்: இதில் பிரபலங்களின் ஆபாச காணொளிகள் மற்றும் பழிவாங்கும் நோக்குடனான ஆபாச காணொளிகள் என்பன அடங்கும். இந்த காணொளிகளில் நடிக்கும் நடிகர்களின் முகங்கள் நீக்கப்பட்டு அதற்கு பதிலாக இலக்கு வைக்கப்பட்ட நபர்களின் முகங்கள் அவர்களின் அனுமதியின்றி மாற்றப்படும். இந்த முறையில் உருவாக்கப்பட்ட காணொளிகளினை அச்சுறுத்தி பணம் பறிக்கும் நோக்கங்களுக்காகவும் பயன்படுத்தப்படலாம்

மெய்யான போலிகளை எவ்வாறு அடையாளம் காண்பது ?

பெரும்பாலாக, மெய்யான போலிகள் தற்போது மனித நிபுணர்களால் அடையாளம் காணப்பட்டாலும், மெய்யான போலிகளினைஅடையாளம் காண ஏற்கனவே முன்மொழியப்பட்ட சில கருவிகள் உள்ளன. எடுத்துக்காட்டாக, பஃபலோ பல்கலைக்கழகத்தில் உருவாக்கப்பட்ட ஒரு கருவி (கன்னா 2021) கண்கள், கண் இமைகள் மற்றும் அதிலிருந்து வரும் ஒளி பிரதிபலிப்புகளை பகுப்பாய்வு செய்வதன் மூலம் மெய்யாக தென்படும் போலிகளினை கண்டறிய முடியும் என்று கூறுவதுடன் இந்த முறை 94 மூ துல்லியமானது என்று கூறுகிறது. .எனினும் , தொழில்நுட்பம் வேகமாக முன்னேறி வருவதால், மெய்யாக கென்படும் போலிகளினை அடையாளம் காண்பது மிக சவாலானதாக இருக்கும். முன்பு விளக்கப்பட்ட கையொப்ப உதாரணத்தை மீண்டும் கருத்தில் கொள்வோம். உங்கள் கையொப்பதினை போடுவதில் நான் மிகவும் திறமையானவன் என்று நீங்கள் என்னிடம் சொன்னாலும், உங்கள் கையொப்பத்தில் உள்ள ஏதேனும் ஒரு எழுத்தினை மேலும் திறமையாக எழுதுவதற்கு நான் அதிக கவனம் செலுத்த வேண்டும்..அதனால் அந்த எழுத்து எழுதப்பட்ட விதத்தை மேம்படுத்துவதில் அதிக கவனம் செலுத்துவேன்.ஆரம்ப நாட்களில் மெய்யான போலிகளினை (னுநநிகுயமநள) பயன்படுத்தி உருவாக்கப்பட்ட காணொளிகளில் முகம் மாற்றப்பட்ட நபர்களினை அடையாளம் காண்பது எளிதாக இருந்ததற்கு காரணம்இ அவர்கள் கண் சிமிட்டாது இருந்ததே ஆகும்.ஆனால் இப்போதெல்லாம்இஇயற்கையாகவே கண் சிமிட்டும் தன்மையினை உடையதாய் மெய்யான போலிகளினை உருவாக்கலாம். எனவேஇதொழில்நுட்பம் வேகமாக முன்னேறி வருவதால்இ மனிதர்களால் மெய்யான போலிகளை வேறுபடுத்தி அடையாளம் காண்பதுகடினமாக இருக்கும்.

References

Gilbert A. C., 2021 https://finance.yahoo.com/news/coca-cola-shares-drop-4-122329719.html (Accessed 08 July 2021)

Goodfellow I. J., Pouget-Abadie J., Mirza M., Xu B., Warde-Farley D., Ozair S., Courville A. C., & Bengio Y. 2014 Generative Adversarial Networks, International Conference on Neural Information Processing Systems.

Karras T., Aila T., Laine S., & Lehtinen J., 2018 Progressive Growing of GANs for Improved Quality, Stability, International Conference on Learning Representations.

Kelly M. S., & Laurie A. H., 2021 Deep Fakes and National Security, Congressional Research Service Report

Khanna M, 2021 AI Tool Can Detect Deepfakes With 94% Accuracy By Scanning The Eyes, https://www.indiatimes.com/technology/news/deepfakes-ai-detection-tool-scan-eyes-suny-buffalo-536392.html (Accessed 11 November 2021)

Stupp C., 2019 Fraudsters Used AI to Mimic CEO’s Voice in Unusual Cybercrime Case, https://www.wsj.com/articles/fraudsters-use-ai-to-mimic-ceos-voice-in-unusual-cybercrime-case-11567157402(Accessed 08 July 2021)

Author

Source
Gilbert A. C., 2021

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button