Must Readකතුවැකියකෘත්‍රිම බුද්ධියජනප්‍රියතම ලිපි

සංකීර්ණ ප්‍රයෝග (DeepFakes)– ව්‍යාජයන් යතාර්ථයක් වේ

ආචාර්ය. එම්. සියාමලන්

2019 වසරේ මාර්තු මස එක් දිනක එක්සත් රාජධානිය මූලස්ථානය කරගත් බලශක්ති සම්බන්ධව කටයුතු කරන එක්තරා සමාගමක ප්‍රධාන විධායක නිලධාරී වෙත ජර්මනියේ සිට ලැබුණු දුරකථන ඇමතුමකි. සිය ප්‍රධානියා වෙතින් යැයි විශ්වාස කල එම දුරකථන ඇමතුමෙන් හංගේරියානු සැපයුම්කරුවෙකුගේ බැංකු ගිණුමක් වෙත වහාම යූරෝ 220,000 ක මුදලක් බැර කරන ලෙස එම නිලධාරියා වෙත උපදෙස් ලැබිණි.(Stupp 2019). සිය ප්‍රධානියා දුන් නියෝගය අකුරටම පිළිපැදි ප්‍රධාන විධායක නිලධාරි එම මුදල අදාළ ගිණුමෙහි තැන්පත් කළේය. එදිනම ඔහුට තවත් දුරකථන ඇමතුමක් සිය ප්‍රධානියා අනුකරණය කරමින් ලැබුණු අතර එවර එම ඇමතුම ඕස්ට්‍රේලියාවේ සිට ලද හෙයින් ප්‍රධාන විධායක නිලධාරි තුල මේ සම්බන්ධයෙන් සැක පහල විය.මේ පිළිබඳ පොලීසියට පැමිණිලි කල ඔහුට අවබෝධ වූයේ තමන් වංචනිකයෙකුට හසුවී ඇති බවයි. එම වංචනික ක්‍රියාව මෙහෙයවූ පුද්ගලයා කෘත්‍රිම බුද්ධිය (AI) හා සම්බන්ධිත ශීල්පීය ක්‍රම භාවිතයෙන් සාර්ථක ලෙසින් ප්‍රධානියාගේ හඬ අනුකරණය කිරීමට සමත්ව තිබූ අතර අදාළ මුදල් ප්‍රමාණය මාරුකර යැවීමට ප්‍රධාන විධායක නිලධාරි ඒත්තුගැන්වීමටද ඔහු සමත් විය.එම දුරකථන සංවාදයේදී සිය ප්‍රධානියාගේ කටහඬේ ඉතා සියුම් ජර්මන් උච්චාරණය පවා ප්‍රධාන විධායක නිලධාරී විසින් හඳුනාගැනීමට සමත් වේ. හඬ ඇමතුමක් වෙනුවට සියලුම මුහුණේ ඉරියව් සමගින් ප්‍රධානියා අනුකරණය කරමින් වීඩියෝ ඇමතුමක් ලබාදුන්නේ යයි සිතන්න.එය ප්‍රධාන විධායක නිලධාරි හට කිසිදු ආකාරයක සැකයක් පහල කර ගැනීමට ඉඩ නොතබනු ඇත. මෙය, DeepFake නැතහොත් සංකීර්ණ ප්‍රයෝග, මිනිසුන් මුලා කිරීමට භාවිතා කල හැකි අයුරුත්,ඒවායේ අනිසි ප්‍රතිවිපාකත් පිලිබිඹු කෙරෙන එක් උදාහරණයක් පමණි.
2017 වසරේදී “DeepFake” යන පදය පළමුවරට මතුවූයේ අසභ්‍ය වීඩියෝ නිර්මාණයට ලොල් වූ Reddit පරිශීලකයෙකුගෙනි. අසභ්‍ය වීඩියෝ සඳහා පෙනී සිටින පුද්ගලයින්ගේ මුහුණු ජනප්‍රිය පුද්ගලයින්ගේ මුහුණු වලින් ප්‍රතිස්ථාපනය කොට අන්තර්ජාලයට මුදාහැරීමට සිය නිවසේ වූ පරිගණකයෙහි කෘත්‍රිම බුද්ධිය හා සම්බන්ධිත ගණිත ක්‍රම ඔහු විසින් භාවිතා කල අතර එහිදී දිස්වූයේ ජනප්‍රිය තරු එම වීඩියෝ සඳහා පෙනීසිටි අයුරකි. නමින්ම හැඟවෙන පරිදි සංකීර්ණ ප්‍රයෝග (DeepFakes) යනු ප්‍රයෝගකාරී නමුත් අතිශයින් තාත්වික අයුරක් ප්‍රදර්ශනය කෙරෙන ඡායාරූප,වීඩියෝ,වගන්ති හෝ වෙනත් කූට ලේඛන වැනි කෘතීම බුද්ධිය ඇසුරෙන් නිර්මාණය කර ගනු ලැබූ දෑ වේ.1 රූපයෙහි දැක්වෙනුයේ කෘතීම බුද්ධිය මගින් නිර්මාණය කරනු ලැබූ ව්‍යාජ මුහුණු වල ජායාරූප කිහිපයකි.

1රූපය : කෘත්‍රිම බුද්ධිය භාවිතයෙන් නිර්මාණය කරනු ලැබූ තාත්වික ජයාරූප ලෙස පෙනෙන ව්‍යාජ මුහුණු .
මෙම මුහුණු මෙලොව ජීවත්වන කිසිදු පුද්ගලයකුගේ නොවන අතර කෘත්‍රිම බුද්ධිය භාවිතයෙන් නිර්මාණය වූ ඒවා වේ.(ජායාරූපයේ මූලාශ්‍රය -(Karras 2016)).

සංකීර්ණ ප්‍රයෝග (Deep Fakes) නිර්මාණය කරන්නේ කෙසේද?
බොහෝමයක් සංකීර්ණ ප්‍රයෝග (DeepFakes ) නිර්මාණය කෙරෙනුයේ උත්පාදක ප්‍රතිවාදී ජාලක (Generative Adversarial Networks – GANs) ලෙස හැඳින්වෙන (Kelly 2021) – ඉයන් ගුඩ්ෆෙලෝ සහ ඔහුගේ කණ්ඩායම විසින් 2014 වසරේදී පළමුවරට හඳුන්වා දුන් සංකීර්ණ ඉගෙනුම් Deep Learning (DL) ශිල්පීය ක්‍රමයක් පදනම් කර ගනිමිනි.(Goodfellow 2014) සංකීර්ණ ඉගෙනුම් (DL) යනු කෘත්‍රිම බුද්ධිය (AI) හි උප ක්ෂේත්‍රයකි. එය කෘත්‍රිම ස්නායුක ජාලක (Artificial Neural Networks)ශිල්පීය ක්‍රමයේ සංකීර්ණ ආකාරයක් (බහුගුණ ස්තර) මත පදනම් වූවක් වන අතර මිනිස් මොළයේ ක්‍රියාකාරීත්වය අනුකරණය කරමින් මෙය වැඩිදියුණු කරනු ලැබ ඇත.GAN කොටස් 2කින් සමන්විත වේ: එනම් උත්පාදකය සහ ප්‍රවිචාරකයයි . උත්පාදකය මගින් සංකීර්ණ ප්‍රයෝග( DeepFakes) නිර්මාණය කරනු ලබන අතර ප්‍රවිචාරකය මගින් එයට ප්‍රතිවිරුද්ධ කාර්යය වන සත්‍ය ලෙසම පවත්නා දෑ අතුරෙන් ප්‍රයෝග (උත්පාදකය මගින් නිර්මාණය කරනු ලැබූ ) හඳුනාගැනීම සිදුකරයි.මෙම කොටස් 2 එකිනෙකට ප්‍රතිවීරුද්ධ කාර්යයන් සඳහා පුහුණු කරනු ලැබ ඇත.
මෙම සංකල්පය සනාථ කර පෙන්වීමට මදකට මා ඔබගේ අත්සන වංචනික අයුරෙන් නිර්මාණය කිරීමට උත්සාහ දරන උත්පාදකය යැයි සිතමු. ආරම්භයේදී , මා නිර්මාණය කල අත්සන ඔබගේ අත්සනට වඩා බොහෝ සෙයින් වෙනස් වූවක් විය හැක.එම හේතුව නිසා එය ව්‍යාජ අත්සනක් බව ඔබට (එනම් ප්‍රවිචාරකයට) පහසුවෙන් හඳුනාගත හැකිය. කෙසේවුවද මගේ ප්‍රධාන අරමුණ ඔබව රැවටීම වන හෙයින් කාලයත් සමග මාගේ හැකියාවන් වැඩිදියුණු කර ගැනීමට මා විසින් ක්‍රියා කරනු ඇත. ඒ සමගම ඔබද ව්‍යාජ අත්සන් වෙන්කර හඳුනාගැනීමේ ඔබගේ හැකියාවන් වැඩිදියුණු කර ගනු ලබනු ඇත්තේ මා විසින් ප්‍රතිනිර්මාණය කරනු ලැබූ අත්සන් ඔබට පෙන්වනු ලබන හෙයිනි. කෙසේවුවද, අවසානයේදී ඔබගේ අත්සන ප්‍රතිනිර්මාණය කිරීමේ විශේෂඥයෙකු බවට මා පත්වනු ඇති අතර, එම අවස්ථාව වනවිට ඔබට දී ඇති අත්සනක් මා විසින් ප්‍රතිනිර්මාණය කරනු ලබූවක්ද නැතහොත් ඔබ විසින් අත්සන් කරනු ලබූවක්ද යන්න තවදුරටත් වෙන්කර හඳුනාගැනීමට ඔබට නොහැකි වනු ඇත. GAN පද්ධතියේ මූලික අදහස එසේ පැහැදිලි කල හැකිය.
පරිගණක ඇසුරෙන් ව්‍යාජ ලේඛන සැකසීම අලුතින් හඳුන්වාදුන් ක්‍රමවේදයක් නොවන මුත් GAN පද්ධති ඇසුරෙන් නිර්මාණය කරනු ලබන ව්‍යාජ ලේඛන, පෙරදී සකසනු ලැබූ ව්‍යාජ නිර්මාණ වලට වඩා තාත්වික සහ රවටනසුලු වේ.

සංකීර්ණ ප්‍රයෝගයන්හි (DeepFakes) ප්‍රතිලාභ
ඉතා තාත්වික අයුරින් සංකීර්ණ ප්‍රයෝග (DeepFakes)නිර්මාණය කිරීමේ හැකියාව හේතුවෙන් පුළුල් පරාසයක විහිදි යෙදවුම් සඳහා GAN පද්ධතීන් උපයෝගී කර ගැනේ. මෙම යෙදවුම් අතරට DL ආකෘතීන් පුහුණු කිරීම සඳහා දත්ත වර්ධනය කිරීම, ජායාරූප පරිවර්තන (image-to-image translations), ජායාරූප ප්‍රකෘති තත්ත්වයට පත්කර ගැනීම (image Inpainting) ජයාරූපයන්හි විභේදන බලය ඉහල නැංවීම (image super-resolution),වගන්ති ඇසුරෙන් රූප සැකසීම (text-to-image synthesis) යනාදිය ඇතුළත් වේ.

සංකීර්ණ ඉගෙනුම් (DL)හිදී භාවිතාවන ගණිතමය ශිල්පීය ක්‍රම බොහෝවිට දත්ත පිපාසාවෙන් පසුවේ. ඔවුන් පුහුණු කිරීමට සුවිශාල දත්ත ප්‍රමාණයක් අවශ්‍ය වේ. දත්ත විශාල ප්‍රමාණයක් එක්රැස්කර ගැනීම ඉතා දුෂ්කර,කාලය වැයවන සහ මිල අධික ක්‍රියාවලියකි. විශේෂයෙන් වෛද්‍ය ක්ෂේත්‍රයේ ජායාරූප විශ්ලේෂණයේදී මෙම දුෂ්කරතාවන්ට මුහුණ දීමට සිදුවේ. එසේවුවත් GAN පද්ධතීන්හි භාවිතයෙන් නව දත්ත උත්පාදනය කර පවත්නා දත්ත හා එකතු කොට,එම දත්ත DL ආකෘතීන් පුහුණු කරවීම සඳහා යොදාගැනේ.මෙලෙස පුහුණු කරනු ලැබූ ආකෘතීන්, මුලින් පැවති පුහුණු දත්ත යොදාගනිමින් පුහුණු කරනු ලැබූ ආකෘතීන්ට වඩා හොඳ ප්‍රතිඵල ලබා දේ.
ජායාරූප පරිවර්තන (image-to-image translation) හි අරමුණ වනුයේ අදාළ රූපයෙහි අන්තර්ගතය වෙනස් කිරීමකින් තොරව රූපයෙහි විලාසය මාරුකිරීමයි. සුදු කළු ජායාරූප වර්ණ ජයාරූප බවට හැරවීම,ජායාරූප කාටූන් චිත්‍ර බවට පෙරැළීම,සිතුවම් ඇසුරෙන් ජායාරූප නිර්මාණය,දිවාකල නිරූපිත ජායාරූප රාත්‍රී කාලය නිරූපිත ජයාරූප බවට පෙරැළීම,සහ ඉහත කී සියලු ක්‍රියාවලීන්ගේ ප්‍රතිවිරුද්ධ ක්‍රියාවන් සිදුකිරීම,මුහුණක් පිළිබිඹු කරන ලබා දී ඇති රූපයක මුහුණින් ප්‍රකාශිත හැඟීම් වෙනස්කිරීම (උදා., සතුට ප්‍රකාශ කෙරෙන මුහුණක් ශෝකය ප්‍රකාශිත මුහුණක් ලෙස වෙනස් කිරීම ). ජායාරූප ප්‍රකෘති තත්ත්වයට පත්කර ගැනීම (image Inpainting) මගින් හානියට ලක්වූ ජායාරූපයක් නැවත ප්‍රකෘති තත්ත්වයට පත්කර ගත හැක. බොහෝ අවස්ථාවන්හිදී ,අඩු විභේදන බලයකින් ලබාගත් ජායාරූප විශාලනය කිරීමේදී ඒවායේ අන්තර්ගතය අපැහැදිලි වේ. මෙම ගැටලුවට විසඳුමක් වශයෙන්,අඩු විභේදන බලයක් සහිතව ලබාගෙන ඇති ජයාරූප ඉහල විභේදන බලයක් සහිතව ලබාගත් ජායාරූපයක් බවට හැරවීමේ ක්‍රමවේද GAN පද්ධති හරහා සපයා දෙනු ලැබේ. වගන්ති ඇසුරෙන් විස්තර කර ඇති රූප ප්‍රතිනිර්මාණය සඳහාද GAN පද්ධති යොදා ගත හැකිය.(උදා.,දුඹුරු පැහැ පියාපත් සහිත සුදු පැහැති කුරුල්ලෙකු )

සංකීර්ණ ප්‍රයෝග (DeepFakes) හේතුවෙන් එල්ල විය හැකි තර්ජන
සංකීර්ණ ප්‍රයෝග (DeepFakes) පුළුල් පරාසයක විහිදුනු ප්‍රතිලාභ රැසක් අත්කර දුන්නද ඒ හරහා තර්ජන එල්ලවීම අනිවාර්යයෙන් සිදු වන්නකි. මූල කේත සහ මෘදුකාංග අන්තර්ජාලය ඔස්සේ අවශ්‍ය පරිදි ලබාගැනීමේ හැකියාව පැවතීම නිසා යම් තරමක තාක්ෂණික දැනුමක් සහිත ඕනෑම අයෙකුට සංකීර්ණ ප්‍රයෝග (DeepFakes) නිර්මාණය කොට විවිධ අයුරින් එය අනිසි ලෙස භාවිතා කල හැකි අතර මෙම ව්‍යාජ නිර්මාණ, අත්සන් ,අතින් ලියන ලද ලිපි ආදී කූට ලේඛන සැකසීමේ සිට යම් පුද්ගලයකු විසින් ඔහු හෝ ඇය විසින් කිසිදිනක නොකී හෝ නොකරන ලද දෑ ඔවුන් විසින් ප්‍රකාශ කෙරෙන හෝ සිදුකෙරෙන අයුරු දැක්වෙන හාස්‍යජනක,අසභ්‍ය හෝ දේශපාලන වීඩියෝ නිර්මාණ දක්වා විහිදේ. පහතින් සඳහන් කර ඇත්තේ එලෙස එල්ල විය හැකි තර්ජන අතුරින් කිහිපයකි.
• ව්‍යාජ සාක්ෂි නිර්මාණය : අත්සන් සහ අතින් ලියන ලද ලිපි යනු එදිනෙදා ජීවිතයේදී සහ අධිකරණ කටයුතු සඳහා පුද්ගලයින් විසින් යොදාගනු ලබන සාක්ෂි ආකාරයකි. සංකීර්ණ ප්‍රයෝග( DeepFakes) ශිල්පීය ක්‍රම භාවිතයෙන් මෙම සාක්ෂි නිර්මාණය කල හැකි අතර ඒවා සත්‍ය සාක්ෂි ලෙස අනිසි පරිහරණයට යොදාගත හැකිය.
• ව්‍යාජ පුවත් නිර්මාණය : ව්‍යාජ තොරතුරු ඇතුළත් කොට වගන්ති ලෙස නිර්මාණය කරනු ලැබූ හෝ ශ්‍රව්‍ය දෘශ්‍ය මාධ්‍යයෙන් නිර්මාණය කරනු ලැබූ ව්‍යාජ පුවත්, සමාජ මාධ්‍ය හරහා ඉතා සීඝ්‍රයෙන් ව්‍යාප්ත විය හැකි අතර පරිශීලකයින් මිලියන සංඛ්‍යාවකට ඒ හරහා බලපෑම් එල්ල විය හැකිය.දේශපාලඥයෙකු හෝ හමුදා නිලධරයෙකු අපරාධයක් සිදු කරන අන්දම හෝ ජාතිවාදය අවුළුවා ලන අන්දමේ ප්‍රකාශයක් සිදුකරන අන්දම දැක්වෙන වීඩියෝවක්, සමාජයට අහිතකර ප්‍රතිඵල උදාකරදෙන්නක් වනු නියතය.. විවිධ අරමුණු උදෙසා පුළුල් පරාසයක විහිදුනු පාර්ශවයන් විසින් මෙවැනි වීඩියෝ නිර්මාණය කල හැක.සමාජය තුල ගැටුම් ඇතිකිරීමේ අදහසින් ත්‍රස්තවාදී සංවිධාන විසින්ද, ප්‍රචාරණ කටයුතු සඳහා සහ මැතිවරණ ව්‍යාපාර වලට බාධා කිරීම හෝ මැතිවරණයේදී ඡන්ද දායකයන් දරන මතයන් වෙනස්කිරීම අරමුණු කරගනිමින් දේශපාලඥයන් හෝ විදේශීය බුද්ධි නියෝජ්‍යායතන විසින්ද මේවා සිදුකල හැකිය.නොඑසේ නම් යමෙකු විසින් එය හුදෙක් විනෝදාස්වාදය උදෙසා නිර්මාණය කරනු ලැබිය හැකිය.
• සත්‍ය කරුණු වසන්කිරීම : සංකීර්ණ ප්‍රයෝග (DeepFakes) හේතුවෙන් ශ්‍රව්‍ය දෘශ්‍ය මාධ්‍ය භාවිතයෙන් ලබාගත් දර්ශනයන්හි සත්‍යතාව පිළිබද ගැටලුකාරී තත්ත්වයක් උද්ගත වී ඇත. මේ හේතුවෙන් අපරාධකරුවෙකුට පවා අපරාධය සම්බන්ධව ඉදිරිපත් වී ඇති සාක්ෂි,නිර්මාණය කරනු ලැබූවක් බවට ප්‍රකාශ කිරීමේ හැකියාව පවතින අතර දූෂණ ක්‍රියාවන්හි නිරතව සිටින නිලධාරීන්/ දේශපාලඥයන්ට මෙය කදිම අස්වැසිල්ලක් වනුයේ තමන් අල්ලස් ලබාගත් අයුරු දැක්වෙන වීඩියෝවක් මතුවන සෑමඅවස්ථාවකදීම එය නිර්මාණය කරනු ලැබූවක් ලෙස ප්‍රකාශ කල හැකි බැවිනි.මේ හරහා රටෙහි නීතිය සහ නීතිය ක්‍රියාත්මක කරන නිලධාරීන් කෙරෙහි ජනතාව තබා තිබූ විශ්වාසය බිඳවැටීම සිදුවිය හැක.
• කොටස් වෙළඳපොල අවශ්‍ය පරිදි හැසිරවීම: අවශ්‍ය පරිදි කොටස් වෙළෙඳපොල හැසිරවීම සඳහාද සංකීර්ණ ප්‍රයෝග (DeepFakes) ඇසුරෙන් වීඩියෝ නිර්මාණය කල හැක. මෑතකදී අප හට ප්‍රවෘත්ති මගින් අසන්නට ලැබුණේ Euro 2020 මාධ්‍ය සාකච්ඡාවේදී කොකා කෝලා වෙනුවට ජලය පානය කිරීමට පාපන්දු ක්‍රීඩක ක්‍රිස්ටියානෝ රොනාල්ඩෝ ක්‍රියාකිරීමෙන් අනතුරුව කොකා කෝලා සමාගමෙහි කොටස් ඩොලර් බිලියන 4කින් පමණ පහත වැටුණු පුවතයි.(Gilbert 2021). නිෂ්පාදන ප්‍රවර්ධනය මෙන්ම ඒවා පහත හෙලීමටත් සංකීර්ණ ප්‍රයෝග (DeepFakes ) ඇසුරෙන් කල නිර්මාණය වලට හැකියාව ඇත.
• අසභ්‍ය වීඩියෝ : ජනප්‍රිය පුද්ගලයින් ඉලක්ක කරගනිමින් හෝ පළිගැනීමේ චේතනාවෙන් නිර්මාණය කරනු ලබන අසභ්‍ය වීඩියෝ මේ යටතට ගැනේ. මෙහිදී අසභ්‍ය වීඩියෝ දර්ශන සඳහා පෙනීසිටින නළුනිළියන්ගේ මුහුණු වෙනුවට ඉලක්ක කෙරෙන පුද්ගලයාගේ මුහුණ,ඔහුගේ හෝ ඇයගේ අවසරයකින් තොරව යෙදීම සිදුකෙරේ. මේ අන්දමින් නිර්මාණය කරනු ලැබූ වීඩියෝ යමෙකුගෙන් කප්පම් ලබා ගැනීම සඳහාද භාවිතා කල හැකිය.

සංකීර්ණ ප්‍රයෝග (DeepFakes) හඳුනාගන්නේ කෙසේද ?
සංකීර්ණ ප්‍රයෝග (DeepFakes)ඇසුරෙන් කල නිර්මාණ බොහෝමයක් විශේෂඥයන් විසින් හඳුනාගනු ලැබූවද, සංකීර්ණ ප්‍රයෝග ඇසුරෙන් කල නිර්මාණ හඳුනාගැනීම සඳහා දැනටමත් මෙවලම් කිහිපක් යෝජනා කරනු ලැබ ඇත. නිදසුනක් ලෙස බෆලෝ විශ්වවිද්‍යාලය මගින් වැඩිදියුණු කරනු ලැබූ මෙවලමක් භාවිතයෙන්(Khanna 2021) ,ඇස,අක්ෂිගෝලය සහ ඒවායින් ආලෝකය පරාවර්තනය වන ආකාරය විශ්ලේෂණය කිරීමෙන් 94%ක නිරවද්‍යතාවකින් සංකීර්ණ ප්‍රයෝග (DeepFakes) ඇසුරෙන් කල නිර්මාණ හඳුනාගත හැකි බව ප්‍රකාශ වී ඇත. කෙසේවුවද මෙම මෙම තාක්ෂණය ඉතා සීඝ්‍රයෙන්ද දියුණු වෙමින් පවතින හෙයින් නොබෝ කලකින්ම සංකීර්ණ ප්‍රයෝග (DeepFakes) හඳුනාගැනීම වඩවඩාත් අභියෝගාත්මක කාර්යයක් බවට පත් වනු ඇත. පෙරදී පැහැදිලි කරනු ලැබූ අත්සන පිළිබඳ උදාහරණය නැවත සලකා බලමු.ඔබගේ අත්සන අනුකරණය කිරීම මා ඉතා හොඳින් සිදුකරන බව ඔබ මා හට පැවසුවද,ඔබගේ අත්සනෙහි සඳහන් තවදුරටත් ලිවීම ප්‍රගුණ කලයුතු එක්තරා අක්ෂරයක් කෙරෙහි මා විසින් වැඩි අවධානයක් යොමු කල යුතුව ඇත. එමනිසා එම අක්ෂරය ලියන ආකාරය වැඩිදියුණු කිරීම සඳහා මා විසින් වැඩි අවධානයක් යොමු කරනු ඇත. එලෙසින්ම, සංකීර්ණ ප්‍රයෝග (DeepFakes) ඇසුරෙන් කල නිර්මාණ හා සම්බන්ධයෙන් කිසියම් දුර්වලතාවක් හඳුනාගනු ලැබූ විට එම දුර්වලතාවය මඟහරවා ගැනීම සඳහා ක්‍රමවේද ක්‍රියාත්මක කෙරේ. මුල් කාලයේදී සංකීර්ණ ප්‍රයෝග (DeepFakes)භාවිතයෙන් නිර්මාණය කරනු ලැබූ වීඩියෝ දර්ශනවල සිටි මුහුණු මාරුකරනු ලැබූ පුද්ගලයින්, ඇසිපිය නොගැසූ හෙයින් හඳුනාගැනීම පහසු විය. නමුත් එම ගැටලුව මඟහරවා ගැනීමට ක්‍රියාමාර්ග ගනු ලැබූ අතර අද වනවිට එම නිර්මාණයන්හි ස්වාභාවික ලෙසින් ඇසිපිය ගසන පුද්ගලයන් නිරූපණය කෙරේ.ඒ අනුව,මෙම තාක්ෂණය ඉතා සීඝ්‍රයෙන් දියුණුව කරා ගමන් කරන බැවින් , ඒ සඳහා නිර්මිත විශේෂිත මෙවලම් භාවිතයෙන් වුවද සංකීර්ණ ප්‍රයෝග (DeepFakes) ඇසුරෙන් කල නිර්මාණ හඳුනා ගැනීමේ දුෂ්කරතාවන්ට මිනිසුන්ට මුහුණදීමට සිදුවනු ඇත.

ආශ්‍රේය ලේඛන
Gilbert A. C., 2021 https://finance.yahoo.com/news/coca-cola-shares-drop-4-122329719.html (Accessed 08 July 2021)
Goodfellow I. J., Pouget-Abadie J., Mirza M., Xu B., Warde-Farley D., Ozair S., Courville A. C., & Bengio Y. 2014 Generative Adversarial Networks, International Conference on Neural Information Processing Systems.
Karras T., Aila T., Laine S., & Lehtinen J., 2018 Progressive Growing of GANs for Improved Quality, Stability, International Conference on Learning Representations.
Kelly M. S., & Laurie A. H., 2021 Deep Fakes and National Security, Congressional Research Service Report
Khanna M, 2021 AI Tool Can Detect Deepfakes With 94% Accuracy By Scanning The Eyes, https://www.indiatimes.com/technology/news/deepfakes-ai-detection-tool-scan-eyes-suny-buffalo-536392.html (Accessed 11 November 2021)
Stupp C., 2019 Fraudsters Used AI to Mimic CEO’s Voice in Unusual Cybercrime Case, https://www.wsj.com/articles/fraudsters-use-ai-to-mimic-ceos-voice-in-unusual-cybercrime-case-11567157402 (Accessed 08 July 2021)

Author

Back to top button