സത്യത്തിന്റെ മുഖംമൂടി ധരിച്ച വഞ്ചന – ഡോ.ദിവ്യ എസ്.വിദ്യാധരൻ

ഡീപ്‌ഫേക്കുകൾ


 “Nobody is going to pour the truth into your head. It is something you have to find for yourself.” Noam Chomsky


മനുഷ്യന്റെ ബുദ്ധിപരമായ കഴിവുകളെ എങ്ങനെ കൃത്രിമമായി അനുകരിക്കാൻ കഴിയും എന്നൊരു അന്വേഷണം ഇരുപതാംനൂറ്റാണ്ടിന്റെ ആരംഭകാലത്തുതന്നെ ശാസ്ത്രജ്ഞരുടെയിടയിൽ ഉണ്ടായിരുന്നു. ബഹുമുഖപ്രതിഭയായിരുന്ന അലൻ ട്യൂറിംഗ്‌ 1950-ൽ പ്രസിദ്ധപ്പെടുത്തിയ ഒരു ശാസ്ത്രപ്രബന്ധത്തിലുന്നയിച്ച ഒരു ചോദ്യം ഇതാണ്‌ – യന്ത്രങ്ങള്‍ക്ക് ചിന്തിക്കാൻ സാധിക്കുമോ? (Can machines think?). മനുഷ്യന്റെ കഴിവുകളെ അനുകരിക്കാൻ കൃത്രിമമായി സാധിക്കുമോ? മനുഷ്യർ ലഭ്യമായ അറിവും യുക്തിയുമുപയോഗിച്ചു പ്രശ്നങ്ങൾ പരിഹരിക്കുന്നതും തീരുമാനങ്ങൾ എടുക്കുന്നതും എന്തുകൊണ്ട്‌ യന്ത്രങ്ങള്‍ക്കും അനുകരിച്ചുകൂടാ എന്നായിരുന്നു അദ്ദേഹം ചിന്തിച്ചത്‌. അക്കാലത്തെ കംപ്യൂട്ടറിനു ഡാറ്റയോ ഇന്‍സ്ട്രക്ഷന്‍സോ സേവ്‌ ചെയ്യാനുള്ള ടെക്നോളജി വികസിച്ചിട്ടില്ലായിരുന്നു. പ്രോഗ്രാമിങ്‌ ഇന്‍സ്ട്രക്ഷന്‍സ്‌ എക്സിക്യൂട്ട്‌ ചെയ്യാമെന്നല്ലാതെ ഒന്നും സൂക്ഷിച്ചുവയ്ക്കാൻ സാധിക്കില്ലായിരുന്നു. മാത്രവുമല്ല, കമ്പ്യൂട്ടിങ്‌ റിസോഴ്‌സുകള്‍ വളരെ വിലയേറിയതായിരുന്നു. ഈ കാരണങ്ങൾകൊണ്ട്‌ ട്യൂറിംഗിനു പരീക്ഷണങ്ങളുമായി മുന്നോട്ടുപോകാൻ കഴിഞ്ഞില്ല. പിന്നീട്‌, 1956-ൽ പ്രഫ.ജോൺ മക്കാര്‍ത്തി (John McCarthy) ആണ്‌ ആദ്യമായി ആര്‍ട്ടിഫിഷ്യൽ ഇന്റലിജന്‍സ്‌ എന്ന പദം കൊണ്ടുവന്നത്‌.


1957 മുതൽ പിന്നീടിങ്ങോട്ടുള്ള കാലം ഏകദേശം 2010 വരെ, ഇടയ്ക്കിടയ്ക്ക്‌ ആര്‍ട്ടിഫിഷ്യൽ ഇന്റലിജന്‍സ്‌ രംഗത്തെ ഗവേഷണം പുരോഗമനമൊന്നുംകാണാതെ നിശ്ചലമാകുകയും, ഇടയ്ക്കിടയ്ക്ക്‌ ശാസ്ത്രജ്ഞരുടെ സ്ഥിരോത്സാഹത്തോടെയുള്ള തുടര്‍പ്രയത്നത്താൽ വിജയം സൃഷ്ടിച്ചു മുന്നോട്ടു വരുകയും ചെയ്തു. മനുഷ്യന്റെ ബുദ്ധിപരമായ കഴിവുകളെ ഒരുമിച്ചു പരിഗണിക്കാതെ, ഓരോ കഴിവിനെ പ്രത്യേകം പരിഗണിച്ചു. ഉദാഹരണത്തിന്‌ കാഴ്ച,ഭാഷ തുടങ്ങിയ കഴിവുകളെ മാത്രമായി വേര്‍തിരിച്ച് ആര്‍ട്ടിഫിഷ്യൽ ഇന്റലിജന്‍സ്‌ കൊണ്ടുവരാനുള്ള ശ്രമമായി. പിന്നീട്, സാങ്കേതികവിദ്യയിലെ പുരോഗതി, ഇന്റർനെറ്റിന്റെ വ്യാപകമായ ഉപയോഗം, ഗ്രാഫിക്കൽ ഡാറ്റാ പ്രോസസ്സിംഗ് യൂണിറ്റുകളുടെ വികസനം എന്നിവ AI ഗവേഷണത്തിൽ ഒരു പുതിയ ഘട്ടത്തിന് കാരണമായി. ഈ പുതിയ സാങ്കേതികവിദ്യകൾ വലിയ അളവിലുള്ള ഡാറ്റ ശേഖരിക്കാനും പ്രോസസ്സ് ചെയ്യാനും AI സംവിധാനങ്ങളെ പ്രാപ്തരാക്കി, ഇത് മെഷീൻ ലേണിംഗ് അൽഗോരിതങ്ങളുടെ വികസനത്തിലേക്ക് നയിച്ചു. ഈ അൽഗോരിതങ്ങൾ ഡാറ്റയിൽനിന്ന് പാറ്റേണുകൾ തിരിച്ചറിയാനും സ്വയം പഠിക്കാനും AI സംവിധാനങ്ങളെ പ്രാപ്തരാക്കി, ഇത് ഗണ്യമായ പുരോഗതിക്ക് കാരണമായി.


കമ്പ്യൂട്ടർ വിഷൻ മേഖലയിൽ, 2012-ൽ വികസിപ്പിച്ചെടുത്ത അലക്സ്‌ നെറ്റ്‌ (Alex net) വൻ വിപ്ലവംതന്നെ സൃഷ്ടിച്ചു. തുടര്‍ന്നുവന്ന ഗവേഷണഫലങ്ങൾ ആര്‍ട്ടിഫിഷ്യൽ ഇന്റലിജന്‍സിനെ നമ്മുടെ നിത്യജീവിതത്തിന്റെ ഭാഗമാക്കി മാറ്റി. മനുഷ്യബുദ്ധി അനുകരിക്കുന്ന എല്ലാ സാങ്കേതികവിദ്യകളെയും പൊതുവിൽ പറയുന്ന ഒരു പദമാണ്‌  നിര്‍മിതബുദ്ധി അഥവാ ആര്‍ട്ടിഫിഷ്യൽ ഇന്റലിജന്‍സ്‌ (AI). ഇതിന്റെ കീഴിൽ വരുന്ന ഒരു ഉപവിഭാഗം സാങ്കേതികവിദ്യകളെയാണ്‌ മെഷീൻ ലേണിങ്ങ് ടെക്‌നിക്കുകൾ (Machine Learning techniques) എന്നറിയപ്പെടുന്നത്‌. മെഷിൻ ലേണിങ്ങിൽ, ഡാറ്റയിൽനിന്നു കണ്ടെത്തുന്ന പ്രത്യേകതകളെ  ഉപയോഗിച്ച്‌ ഒരുകാര്യം എങ്ങനെ ചെയ്യണമെന്നു പഠിക്കുന്നു. ഉദാഹരണത്തിന്‌, ഒരു ചിത്രത്തിൽനിന്ന്‌ നക്ഷത്രങ്ങളെയും ചന്ദ്രനെയും വേര്‍തിരിച്ചറിയണമെങ്കിൽ, അവയുടെ പ്രത്യേകതകളായ – വലുപ്പം, ആകാരം മുതലായവ കണക്കാക്കിയെടുക്കണം. ഈ പ്രത്യേകതകൾ ഉപയോഗിച്ച്‌, ഒരു മെഷീൻ ലേണിങ്ങ് സാങ്കേതികവിദ്യ, വീണ്ടും വീണ്ടും പല സാമ്പിളുകളിലൂടെ മനസ്സിലാക്കി പഠിച്ചെടുക്കുന്നതിനെ ട്രെയിനിങ്‌ എന്നു പറയുന്നു.


മെഷീൻ ലേണിങ്ങിന്റെ ഉപവിഭാഗമാണ്‌ ഡീപ്‌ ലേണിങ്ങ് (deep learning). ഡീപ്‌ ലേണിങ്ങിൽ ഡാറ്റയിലെ പ്രത്യേകതകളെ നമ്മൾ വേര്‍തിരിച്ചു കൊടുക്കേണ്ടതില്ല. പകരം, ഡീപ്‌ ലേണിങ്ങ് സാങ്കേതികവിദ്യകൾ ധാരാളം ഡാറ്റയില്‍നിന്നു പ്രത്യേകതകളെ സ്വയം പഠിച്ചെടുക്കുന്നു. ഈ കഴിവാണ്‌ നിര്‍മിതബുദ്ധി കൈവരിച്ച ശ്രദ്ധാവഹമായ നേട്ടം. മനുഷ്യമസ്തിഷ്കത്തിലെ ന്യൂറോണുകളെ (neurons) അനുകരിച്ച്, ഒരു ഡീപ്‌ ലേണിങ്ങ് നെറ്റ്‌വർക്കിൽ, നിരവധി ന്യൂറോണുകളെ പല പല അടുക്കുകളായി ക്രമീകരിച്ചിരിക്കുന്നു. ഒരു നിര്‍ദിഷ്ട പ്രവൃത്തിചെയ്യാൻ വിവിധ ഡാറ്റാസാമ്പിളുകളിൽനിന്നു, ശരിയായ ഫലം കിട്ടിയില്ലെങ്കിൽ അഥവാ തെറ്റുവന്നാൽ അതു തിരുത്തി (feedback mechanism), ഒരു പ്രവൃത്തി പഠിച്ചെടുക്കുന്നു. ഇങ്ങനെ പഠിച്ചെടുത്ത ഡീപ്‌ ലേണിങ്ങ് മോഡലുകൾ (trained models), പുതിയ ഒരു ഡാറ്റ കിട്ടുമ്പോൾ അതിനനുസരിച്ചുള്ള ശരിയായ ഫലമോ ഉത്തരമോ നല്കുന്നു. ഈവിധത്തിൽ, ആരോഗ്യരംഗത്തും, ഭാഷ കൈകാര്യം ചെയ്യുന്ന വിധത്തിലും, നിരവധി മേഖലകളിൽ അര്‍ട്ടിഫിഷ്യൽ ഇന്റലിജന്‍സ്‌ നന്നായി ഉപയോഗിക്കപ്പെടുന്നുണ്ട്‌. പക്ഷാഘാതം നേരിട്ട ഒരു രോഗിക്ക്‌ താൻ മനസ്സിൽ വിചാരിക്കുന്നകാര്യം ആര്‍ട്ടിഫിഷ്യൽ ഇന്റലിജന്‍സിന്റെ സഹായത്തോടെ മറ്റുള്ളവരെ അറിയിക്കാൻ കഴിയുക എന്നത്‌ കുറച്ചുകാലം മുൻപുവരെ നമുക്കു സ്വപ്നം കാണാവുന്നതിനുമപ്പുറമായിരുന്നു. അതുപോലെ, കാലാവസ്ഥവ്യതിയാനത്തിന്റെ ഫലമായി മനുഷ്യരാശി നേരിടുന്ന മാറിമാറിവരുന്ന പ്രളയവും വരള്‍ച്ചയും മുന്‍കൂട്ടി പ്രവചിക്കുവാനും, അവ സുസജ്ജമായി നേരിടാനും, മഹാമാരികള്‍ക്കുള്ള മരുന്ന്‌ കണ്ടുപിടിക്കുന്നതിനായുള്ള ഗവേഷണത്തിനുമെല്ലാം ആര്‍ട്ടിഫിഷ്യൽ ഇന്റലിജന്‍സ്‌ നമ്മെ സഹായിക്കുന്നു.


അടുത്തകാലത്ത്‌ വളരെയേറെ ഗവേഷണം നടക്കുകയും വളരെ ആവേശപൂർവമായ ഫലങ്ങൾ നല്കുകയും ചെയ്ത ഒരു ആര്‍ട്ടിഫിഷ്യൽ ഇന്റലിജന്‍സ്‌ ഉപമേഖലയാണ്‌ ജനറേറ്റിവ്‌ എ.ഐ (Generative Al). പലതരത്തിലുള്ള ഡാറ്റ – വാക്കുകളും വാക്യങ്ങളും (textual contents), ചിത്രങ്ങൾ, വീഡിയോ/ഓഡിയോകൾ എന്നീ ഉള്ളടക്കങ്ങൾ നിര്‍മിക്കുന്ന ആര്‍ട്ടിഫിഷ്യൽ ഇന്റലിജന്‍സ്‌ സാങ്കേതികവിദ്യയാണത്‌. ഒരു വാക്കിനുപുറകെ ഒരു വാക്കായി, ഓരോ വാക്കിന്റെ സാധ്യത  (probability) അനുസരിച്ചു വാക്യങ്ങൾ നിര്‍മിക്കാൻ Generative Pre-trained Transformer (GPT) മോഡലുകള്‍ക്കു കഴിയുന്നു. ഇപ്പോള്‍ വ്യാപകമായി ഉപയോഗിക്കുന്ന ChatGPT ഓരോ ദിവസവും നമ്മളെ എങ്ങനെയെല്ലാം സഹായിക്കുന്നുണ്ട്‌ എന്ന്‍ ഓര്‍ത്തു നോക്കൂ. ഒരു പരിപാടി ആസൂത്രണംചെയ്യുന്നതിന്റെ തുടക്കത്തിലേ ഒരു പദ്ധതി തയാറാക്കാൻ, ഒരു പുതിയ വിഷയം പഠിക്കാൻ തയാറെടുക്കുമ്പോൾ നമ്മുടെ ലഭ്യമായ സമയമെത്രയാണെന്നു പറഞ്ഞുകൊടുത്താൽ അതിനനുസരിച്ചു ഒരു പാഠ്യപദ്ധതി തയാറാക്കുവാൻ, അതേക്കുറിച്ചു ഒരു പ്രാഥമികവിവരം നേടാൻ, ഒരു നിര്‍ദിഷ്ട കൃത്യം ചെയ്യാനുള്ള സോഫ്റ്റ്‌വെയർ നിമിഷങ്ങള്‍ക്കകം തയാറാക്കുവാൻ, അങ്ങനെ എത്രയെത്ര ഉദാഹരണങ്ങൾ.


ചിത്രങ്ങളും വീഡിയോകളും കൃത്രിമമായി സൃഷ്ടിക്കാൻ കഴിവുള്ള ജനറേറ്റീവ് AI മോഡലുകൾ വളരെ വേഗത്തിൽ വികസിച്ചുകൊണ്ടിരിക്കുകയാണ്. ഫാഷൻ, മോഡലിംഗ്, പരസ്യം തുടങ്ങിയ വ്യവസായങ്ങളിൽ യഥാർഥത്തിൽ ഇല്ലാത്ത ആളുകളുടെ ചിത്രങ്ങൾ സൃഷ്ടിക്കാൻ ഇവ ഉപയോഗിക്കുന്നു. സംഗീതം സൃഷ്ടിക്കാനും സ്ക്രിപ്റ്റുകൾ (scripts) അനുസരിച്ച് വീഡിയോകൾ നിർമിക്കാനും ഈ സാങ്കേതികവിദ്യ ഉപയോഗിക്കാം. എന്നാൽ, ഇങ്ങനെ നിര്‍മിക്കുന്ന അയഥാര്‍ഥമായ ഉള്ളടക്കങ്ങൾ വഴി ആര്‍ട്ടിഫിഷ്യൽ ഇന്റലിജന്‍സിൽനിന്നു നമ്മൾ പുതിയ പുതിയ വെല്ലുവിളികളും നേരിടുന്നുണ്ട്‌. ഇത് ധാർമികവും നിയമപരവുമായ ആശങ്കകൾ ഉയർത്തുന്നു. ജോലികൾ യാന്ത്രികമാക്കാൻ ജനറേറ്റീവ് AI ഉപയോഗിക്കാം, ഇത് തൊഴിൽ നഷ്ടത്തിനും സാമ്പത്തിക പ്രയാസങ്ങൾക്കും കാരണമാകും. ഇന്‍റര്‍നെറ്റിൽനിന്ന്‌ നമ്മുടെ സമ്മതമില്ലാതെ ഡാറ്റ ഉപയോഗിച്ച്‌ നിര്‍മിതബുദ്ധി മോഡലുകൾ അഭ്യസിപ്പിക്കുക (train) വഴി നമ്മുടെ സ്വകാര്യത നഷ്ടപ്പെടുന്നത്‌, നമ്മുടെ ധനസമ്പാദനവും, ചെലവാക്കുന്നരീതികളും പഠിച്ച് ഒരു ബാങ്ക്‌ ലോൺ നല്കണമോ വേണ്ടയോ എന്നു നമ്മളറിയാതെ തീരുമാനിക്കപ്പെടുന്നതൊക്കെ. നമ്മുടെ വേണ്ടപ്പെട്ടൊരാളിന്റെ ശബ്ദത്തിൽ ഫോൺ ചെയ്ത് പണം തട്ടിയെടുക്കാൻ കുറ്റവാളികള്‍ക്ക്‌ എന്തെളുപ്പമാണ്‌?


ചിത്രവും വിഡിയോയും ദുരുദ്ദേശ്യത്തോടെ മാറ്റാ൯ കഴിയുന്നത്‌ നമ്മെ സാരമായി ബാധിക്കാനിടയുണ്ട്‌. മനുഷ്യരെ, പ്രത്യേകിച്ച്‌, സ്ത്രീകളെയും കുട്ടികളെയും മോശമായി ചിത്രീകരിക്കാനോ അപകീര്‍ത്തിപെടുത്താനോ ഉപയോഗിക്കുമ്പോൾ. ഒരു കുട്ടിയെ പാട്ടിലാക്കുവാൻ അച്ഛനുമമ്മയുടെ ഒപ്പമോ മുത്തച്ഛന്റെയോ മുത്തശ്ശിയുടെയോ ഒപ്പം നില്ക്കുന്ന ഒരു വ്യാജചിത്രമോ വീഡിയോയോ നിര്‍മിച്ചാൽ, ഒരു കുറ്റവാളിക്ക്‌ തന്റെ കൃത്യനിര്‍വഹണത്തിനത്‌ സഹായകമാകുന്നത്‌ എത്ര അപകടകരമാണ്‌.


ഇത്തരത്തില്‍ ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസ് (AI) ഉപയോഗിച്ച് സൃഷ്ടിക്കുന്ന വ്യാജചിത്രങ്ങൾ, വീഡിയോകൾ, ഓഡിയോകൾ എന്നിവയാണ് ഡീപ്ഫേക്ക്. ഈ സാങ്കേതികവിദ്യ ഉപയോഗിച്ച്, ഒരു വ്യക്തിയുടെ മുഖം മറ്റൊരാളുടെ മുഖത്തിനു പകരംവയ്ക്കാനും അവരുടെ ശബ്ദം മറ്റൊരാളുടെ ശബ്ദത്തിനു പകരംവയ്ക്കാനും സാധിക്കും. ഈ വ്യാജ ഉള്ളടക്കം യാഥാർഥ്യത്തിൽനിന്ന് വേർതിരിച്ചറിയാൻ പ്രയാസമാണ്. തെറ്റായ വിവരങ്ങൾ പ്രചരിപ്പിക്കാനും, വ്യക്തികളുടെ പ്രതിച്ഛായയ്ക്ക് കളങ്കംവരുത്താനും, സാമൂഹിക അസ്ഥിരത സൃഷ്ടിക്കാനും ഡീപ്ഫേക്ക് ഉപയോഗിക്കാം. രാഷ്ട്രീയനേതാക്കളുടെയും പ്രശസ്തരുടെയും വ്യാജപ്രസംഗങ്ങൾ സൃഷ്ടിക്കാനും, വ്യക്തിഗത സംഭാഷണങ്ങൾ വികലമാക്കാനും ഈ സാങ്കേതികവിദ്യ ഉപയോഗിക്കാം.


തെറ്റായ വിവരം (Misinformation) സത്യമല്ലാത്ത വിവരങ്ങളാണ്. എന്നാൽ, അത് ഉദ്ദേശ്യപരമായി പ്രചരിപ്പിക്കണമെന്നില്ല. ചിലപ്പോൾ, ഒരു വ്യക്തിക്ക് കൃത്യമായ വിവരങ്ങൾ ലഭ്യമല്ലാത്തതിനാൽ അയാൾ തെറ്റായ വിവരങ്ങൾ പ്രചരിപ്പിക്കാം. ഉദാഹരണത്തിന്, ഒരു പരിപാടിയുടെ തെറ്റായ സമയം നിഷ്കളങ്കമായ തെറ്റുകളിൽനിന്നോ അശ്രദ്ധയിൽ തെറ്റായി ഗ്രഹിച്ചിട്ട് പ്രചരിപ്പിക്കുകയോ ചെയ്യുന്നത് തെറ്റായ വിവരവിനിമയമാണ്. ഇവിടെ പ്രത്യേക ദുരുദ്ദേശ്യമില്ലാതെ ഒരു തെറ്റായ വിവരം വ്യാപിക്കുന്നു. എന്നാൽ, വ്യാജ ഉള്ളടക്കം (Disinformation) ഒരു പ്രത്യേക ദുരുദ്ദേശ്യത്തോടെ ഗൂഢാലോചനയോടെ ബോധപൂര്‍വം തയാറാക്കുന്ന അസത്യമായ വിവരങ്ങളാണ്. ഇത്  തെറ്റായ വിവരം സമൂഹത്തിൽ പ്രചരിപ്പിക്കാനോ, രാഷ്ട്രീയ ഭരണസംവിധാനങ്ങളുടെ വിശ്വാസ്യത നഷ്ടപ്പെടുത്താനോ, വ്യക്തികളെ അപകീർത്തിപ്പെടുത്താനോ ഉദ്ദേശിച്ചുള്ളതാണ്. സോഷ്യൽമീഡിയ പ്ലാറ്റ്‌ഫോമുകൾ ഉപയോഗിച്ച്‌ തെറ്റായ സന്ദേശങ്ങൾ വളരെ വേഗം ലോകമെമ്പാടും എത്തിക്കാൻ കഴിയുന്നു. ഒരു ചിത്രമോ, വീഡിയോയോ, ഓഡിയോയോ തെറ്റാണെന്നു തിരിച്ചറിയുന്നതിനു മുന്‍പേ ലക്ഷക്കണക്കിനാളുകളുടെ കൈയിൽ എത്തിച്ചേരുന്നു. ആ ഉള്ളടക്കം കൈയിൽകിട്ടുന്ന ആളിന്റെ വിവേചനമനുസരിച്ച് അത് പുനര്‍വ്യാപിക്കുന്നു.


ഫോട്ടോഗ്രഫിയുടെ ആദ്യകാലത്തുതന്നെ വ്യാജഫോട്ടോ തയാറാക്കി വ്യക്തിഹത്യയ്ക്കുപയോഗിക്കാനുള്ള ശ്രമങ്ങൾ ഉണ്ടായിട്ടുണ്ട്‌. ഉദാഹരണത്തിന്‌, 1860-ൽ പ്രചരിച്ച എബ്രഹാം ലിങ്കന്റെ ഫോട്ടോ നോക്കൂ. ഇടതുവശത്തു കാണുന്നത്‌ വ്യാജഫോട്ടോ ആണ്‌. വലതുവശത്തു കൊടുത്തിരിക്കുന്ന രാഷ്ട്രീയനേതാവായിരുന്ന ജോണ്‍ കാലോന്റെ ഫോട്ടോ ഉപയോഗിച്ചുണ്ടാക്കിയത്. അക്കാലത്തു വ്യാജഫോട്ടോ നിര്‍മിക്കുവാൻ എത്ര പ്രയാസമായിരുന്നുവെന്നു നമുക്ക്‌ ഈഹിക്കാവുന്നതേയുള്ളു. ഏകദേശം ഒരു പത്തുവര്‍ഷം മുൻപുവരെ, ഒരു ഫോട്ടോയിലേക്ക്‌ മറ്റൊരു ഫോട്ടോയില്‍നിന്നുള്ള ഭാഗം കോപ്പി-പേസ്റ്റ്‌ ചെയ്തു വ്യാജ ഇമേജ്‌ ഉണ്ടാക്കുന്നതിനു വളരെ സങ്കീര്‍ണമായ സോഫ്റ്റ്‌വെയർ ടൂള്‍സും വളരെ കൃത്യതയും ഒരുപാട്‌ പരിശ്രമവും വേണ്ടിവന്നിരുന്നു. എന്നാൽ, ഇന്ന്‌ അര്‍ട്ടിഫിഷ്യൽ ഇന്റലിജന്‍സിന്റെ കീഴിൽവരുന്ന deep learning സങ്കേതങ്ങളുപയോഗിച്ചു വ്യാജ ഇമേജുകളോ വ്യാജ ഓഡിയോകളോ വ്യാജ വിഡിയോകളോ നിഷ്പ്രയാസം നിർമിക്കുവാൻ കഴിയും.


എന്തുകൊണ്ട്‌ വ്യാജ ഉള്ളടക്കത്തെ പ്രതിരോധിക്കണം?


ഒരു നിസ്സാരമായ ഫോർവേഡ് മെസ്സേജ്‌ വേറൊരാളിനു ഷെയർ ചെയ്യാതിരിക്കുന്നതുവഴി ആ സന്ദേശത്തിന്റെ മുന്നോട്ടുള്ള വ്യാപനം നില്ക്കുകയാണ്‌ ചെയ്യുന്നത്‌, കുറഞ്ഞപക്ഷം നിങ്ങൾ കണ്ണിയായിരിക്കുന്ന ഒരു ശൃംഖലയിൽ എങ്കിലും. അശ്രദ്ധയോടെയുള്ള ഒരു വ്യാപനം ഒട്ടേറെ മനുഷ്യരുടെ ക്രിയാത്മകമായ പ്രവൃത്തികളിൽ വിനിയോഗിക്കേണ്ടുന്ന സമയവും ഊർജവും പാഴാക്കുന്നു. അതിലേറെ പ്രാധാന്യമർഹിക്കുന്ന വസ്തുത, വ്യാജ ഉള്ളടക്കങ്ങൾ നിലവിലെ രാഷ്ട്രീയസംവിധാനങ്ങളിൽ, വാർത്താമാധ്യമങ്ങളിൽ, മനുഷ്യരാശി ഇതുവരെ ആർജിച്ച ശാസ്ത്രീയമായ അറിവിൽ, തലമുറകളായി നേടിയെടുത്ത ലളിത,സംഗീത,നാടക,സാഹിത്യാദികലകളിലുള്ള വിശ്വാസം നഷ്ടപെടുത്തുമെന്നതാണ്‌. ഇനി, വ്യാജ ഉള്ളടക്കങ്ങൾ ഒരു വ്യക്തിയെ അപകീർത്തിപ്പെടുത്താനാണ്‌ ഉപയോഗിക്കുന്നതെങ്കിലോ? മനുഷ്യന്റെ ഉന്നമനത്തിനെ ലക്ഷ്യമാക്കേണ്ടുന്ന സാങ്കേതികവളർച്ച  ഒരു വ്യക്തിയെ മാനസികമായി തളർത്തുകയും അതയാളുടെ സമൂഹത്തിലെ നിലനില്പിനെയും ബാധിക്കുന്നു.


സമൂഹമാധ്യമങ്ങളിലൂടെയുള്ള നിരുത്തരവാദിത്വപരമായ വാർത്ത പങ്കുവയ്ക്കലിന്റെ ദൂരവ്യാപനശേഷി വളരെ വലുതാണ്‌. വിവിധ സമൂഹമാധ്യമങ്ങളായ ഫേസ്ബുക്കിൽ അനുനിമിഷം ഏകദേശം 2,93,000 സ്റ്റാറ്റസുകൾ അപ്ഡേറ്റ് ചെയ്യുന്നു. ഓരോ മിനിറ്റിലും 4 ദശലക്ഷം പോസ്റ്റുകൾ ലൈക്ക് ചെയ്യുന്നു. എക്സിൽ(ട്വിറ്റർ) 3,60,000 ട്വീറ്റുകൾ, യൂട്യൂബിൽ 500 മണിക്കൂർ വീഡിയോ, ടിക്‌റ്റോക്കിൽ 900 മണിക്കൂർ വീഡിയോയുമാണ്‌ പങ്കുവയ്ക്കപ്പെടുന്നത്‌. ഇത്രയും ഉള്ളടക്കം നമ്മുടെ മുന്നിൽ കൊണ്ടുവരുന്നതോ സമൂഹമാധ്യമങ്ങളിലെ ശുപാർശ സംവിധാനങ്ങളിലെ അൽഗോരിതങ്ങൾ ആണ്‌. അതു നമ്മുടെ നിയന്ത്രണത്തിലുമല്ല. ഡീപ്‌ഫേക്കും ഇതേ അനിയന്ത്രിതമായ ഉള്ളടക്കപ്രളയത്തിലൂടെ ഞൊടിയിടയിൽ നമ്മുടെ വിരൽത്തുമ്പിലെത്തുന്നു.


വ്യാജ ഉള്ളടക്കത്തെ പ്രതിരോധിക്കാൻ കഴിയുമോ?


വ്യാജ ഉള്ളടക്കത്തെ തിരിച്ചറിയാൻ പ്രയാസമാണ്‌. കാരണം, വ്യാജ ഉള്ളടക്കം കണ്ടുപിടിക്കുന്നതിന്‌ നൂതനവിദ്യകൾ വികസിപ്പിക്കുമ്പോൾത്തന്നെ, ആ സാങ്കേതികമാർഗങ്ങളെ മറികടക്കുന്ന വിധത്തിൽ ഡീപ്‌ഫേക്ക് നിർമിക്കാനുള്ള ശ്രമവും വിജയിക്കുന്നുണ്ട്‌. എത്രത്തോളം വ്യാജ ളള്ളടക്കത്തെ തിരിച്ചറിയാൻ ശ്രമിക്കുന്നുവോ, എത്ര സൂക്ഷ്മമായ തെളിവുകൾ ഉള്ളടക്കത്തിൽനിന്ന്‌ കണ്ടെത്താൻ ശ്രമിക്കുന്നുവോ അതേ സൂക്ഷ്മതയോടെ തെളിവുകളെ ഇല്ലാതെയാക്കി വ്യാജ ഉള്ളടക്കം നിർമിക്കുവാൻ ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസ് സാങ്കേതികവിദ്യയ്ക്കു കഴിയുന്നു. ഉദാഹരണത്തിന്‌ ഒരു യഥാർഥചിത്രത്തിൽ പകൽവെളിച്ചത്തിന്റെ വിന്യാസം ശാസ്ത്രീയമായ നിയമങ്ങൾക്കനുസൃതമായിരിക്കും. ഒരു വ്യാജചിത്രത്തിൽ, വെളിച്ചത്തിന്റെ വിന്യാസത്തിലെ അപാകതകൾ തിരിച്ചറിഞ്ഞു വ്യാജചിത്രം കണ്ടെത്തുന്ന ഒരു സാങ്കേതികവിദ്യ വന്നുവെന്നിരിക്കട്ടെ, ഉടനെത്തന്നെ ആ പഴുതടച്ചുകൊണ്ട്‌ വ്യാജചിത്രം നിർമിക്കുന്നരീതിയിൽ സാങ്കേതികവിദ്യ വികസിപ്പിക്കുന്നു. അതിനാൽ, സാങ്കേതികവിദ്യകൊണ്ട്‌ ഡീപ്‌ഫേക്കിനെ പ്രതിരോധിക്കാൻ പ്രയാസമാണ്‌. സോദ്ദേശ്യപരമായ സാങ്കേതികവിദ്യതന്നെ ഡീപ്‌ഫേക്കിനെയും ശക്തമാക്കുന്നു.


സമൂഹത്തിനു എന്തുചെയ്യാൻ കഴിയും?


നിലവിലുള്ള ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസ്‌ മനുഷ്യബുദ്ധിയുമായി താരതമ്യപ്പെടുത്താവുന്നതല്ല. അങ്ങനെയല്ല പലപ്പോഴും പ്രചരിപ്പിക്കപ്പെടുന്നതെങ്കിലും. വ്യാജ ളള്ളടക്കത്തിൽനിന്നു നമ്മുടെ തീരുമാനങ്ങളെയും, ബുദ്ധിപരമായ ഇടപെടലുകളെയും സംരക്ഷിച്ചുനിറുത്തേണ്ടത്‌ നമ്മുടെ ആവശ്യമാണ്‌. വ്യാജവാർത്തകളെ നേരിടാൻ നമുക്കുതന്നെ ഉത്തരവാദിത്വമുണ്ട്. ഓരോ വാർത്തയും വിശ്വസിക്കുന്നതിനുമുമ്പ് അതു സത്യമാണെന്ന് ഉറപ്പാക്കാൻ നാം ശ്രദ്ധിക്കണം. പലവിധ മാർഗങ്ങളിലൂടെ കൈയിൽ എത്തിച്ചേരുന്ന വാർത്തകളെ ഉടനടി വിശ്വസിക്കാതെ വാസ്തവമാണെന്നു പൂർണമായും ഉറപ്പുവരുന്നതുവരെ മറ്റുള്ളവരുമായി പങ്കുവയ്ക്കാതിരിക്കാനുള്ള ആർജവം സമൂഹം കാണിക്കണം. ശാസ്ത്രസാങ്കേതികവിദ്യയിലെ വളർച്ചയും, വാർത്താവിനിമയസങ്കേതങ്ങളിലെ ശരവേഗവും നിലവിലെ സമൂഹമാധ്യമങ്ങളുടെ വ്യാപനശേഷിയും ഇതിനോടകം നമുക്ക്‌ ബോധ്യപ്പെട്ടിട്ടുണ്ട്‌.


വ്യാജവാർത്തകളുടെ പ്രശ്നം നേരിടാനുള്ള മറ്റൊരു പ്രധാനമാർഗം സമൂഹത്തിലാവശ്യമായ ബോധവത്കരണം വളർത്തുക എന്നതാണ്. പ്രത്യേകിച്ച്, നമ്മുടെ കുട്ടികളെ ചെറുപ്പത്തിൽത്തന്നെ ഓൺലൈനിൽ സുരക്ഷിതരായിരിക്കാൻ പഠിപ്പിക്കണം. സമൂഹമാധ്യമങ്ങൾവഴി വിനിമയംചെയ്യുന്ന വിവരങ്ങളുടെ വിശ്വാസ്യത വിലയിരുത്താനും വ്യാജവാർത്തകൾ തിരിച്ചറിയാനുമുള്ള കഴിവുകൾ സ്കൂൾ പാഠ്യപദ്ധതിയിൽ ഉൾപ്പെടുത്തണം. വിദ്യാർഥികളെ വിവരങ്ങളെ വിമർശനാത്മകമായി വിശകലനം ചെയ്യാനും സ്വന്തം നിഗമനങ്ങളിലെത്താനും പരിശീലിപ്പിക്കണം. കൂടാതെ സോഷ്യൽമീഡിയ പ്ലാറ്റ്‌ഫോമുകളിൽ ഉത്തരവാദിത്വപ്പെട്ട രീതിയിൽ എങ്ങനെ ഇടപഴകണമെന്ന് കുട്ടികളെ പഠിപ്പിക്കണം. വ്യാജവാർത്തകൾ തിരിച്ചറിയാനും അവ പങ്കിടുന്നതിൽനിന്ന് ഒഴിവാകാനുമുള്ള തന്ത്രങ്ങളും പരിശീലിപ്പിക്കണം.


രാഷ്ട്രീയ അസ്ഥിരതയുടെയോ സാമൂഹിക അശാന്തിയുടെയോ കാലങ്ങളിൽ വ്യാജവാർത്തകൾ വ്യാപകമാകാനുള്ള സാധ്യത കൂടുതലാണ്. ഈ സമയങ്ങളിൽ, വിവരങ്ങളുടെ ഉറവിടം പരിശോധിക്കാനും വാർത്തകൾ വിമർശനാത്മകമായി വിശകലനംചെയ്യാനും പ്രത്യേകിച്ച്, ജാഗ്രത പാലിക്കേണ്ടതുണ്ട്. വ്യാജവാർത്തകൾ കണ്ടെത്തിയാൽ അവ അധികൃതരുടെ ശ്രദ്ധയിൽപ്പെടുത്തണം.


(ലേഖിക: റിസർച്ച് എഞ്ചിനീയർ, ഓഗ്സെൻസ് ലാബ് പ്രൈവറ്റ് ലിമിറ്റഡ്,തിരുവനന്തപുരം)