Campus Alive

എ.ഐ ആർട്ടിഫിഷ്യൽ അല്ല; ഹരാരിയുടെ ഏലിയൻ ഇന്റലിജൻസ്

ദിവസങ്ങൾക്കു മുമ്പ് പ്രമുഖ ഇസ്രായേലി ഹിസ്റ്റോറിയനായ യുവാൽ നോവ ഹരാരി Redefining humanity in the age of innovation എന്ന ശീർഷകത്തിൽ നടത്തിയ തന്റെ പ്രഭാഷണത്തിൽ ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസ് എന്ന പ്രമേയത്തിൽ ചിന്തോദ്ദീപകമായ ഒരു പ്രസ്താവന നടത്തുകയുണ്ടായി. എ.ഐ യഥാർത്ഥത്തിൽ ആർട്ടിഫിഷ്യൽ അല്ലെന്നും ഏലിയൻ ഇന്റലിജൻസ് ആയി കാലിക യുഗത്തെ തിരിച്ചറിയണം എന്നുമായിരുന്നു അദ്ദേഹം പ്രസ്താവിച്ചത്. H. G. Wells ൻ്റെ The War of the Worlds പോലെയുള്ള ഫിക്ഷനുകളിലെ ഭൗമേതര ബുദ്ധി വർഗ്ഗം എന്നതല്ല അദ്ദേഹം അതുകൊണ്ട് അർത്ഥമാക്കുന്നത്. മറിച്ച്, മനുഷ്യൻറെ നിർമ്മാണാത്മകതയിൽ പിറവികൊണ്ട എ.ഐ ആ പരിധി ലംഘിച്ച് മനുഷ്യൻറെ നിയന്ത്രണാത്മകത ഏറ്റെടുക്കുന്നതും മനുഷ്യേതരമായ ബുദ്ധി അവനിൽ സ്വാധീനിക്കുന്നതുമായ ഒരു ഫ്രെയിംവർക്കായി പ്രവർത്തിക്കുന്നതിനെയുമാണ് ഹരാരി ഏലിയൻ ഇന്റലിജൻസ് എന്ന് വിശേഷിപ്പിക്കുന്നത്.

2016 ൽ സൗത്ത് കൊറിയയിൽ വച്ച് നടന്ന പരമ്പരാഗത ബോർഡ് ഗെയിമായ Go Game ൽ ഗൂഗിളിന്റെ ഡീപ്പ് മൈൻഡ് കമ്പനി നിർമ്മിച്ച AlphaGo AI സൗത്ത് കൊറിയയിലെ 9-ഡാൻ പ്രൊഫഷണൽ കളിക്കാരനായ Lee Sedol നെ പരാജയപ്പെടുത്തിയത് ആർട്ടിഫിഷ്യൽ ഇൻറലിജൻസിന്റെ അതിശീഘ്ര വളർച്ചയെ അടയാളപ്പെടുത്തുന്നതായിരുന്നു. പ്രസ്തുത മാച്ചിൽ എ.ഐ  ഉപയോഗിച്ചത് മുമ്പെങ്ങും ഒരു ആൽഫ ഗോ പ്ലെയറും ഉപയോഗിക്കാത്ത വളരെ യുണീക്കായ ഒരു പാറ്റേൺ (Move 37) ആണത്രേ. Go game ന് 3000 വർഷത്തിലധികം പഴക്കമുണ്ട്, ലക്ഷക്കണക്കിന് റെക്കോർഡുകളും നിലവിലുണ്ട്. അതിൽ ഒരിടത്തും മൂവ് 37 പോലെയുള്ള ഒരു നീക്കം മുമ്പെങ്ങും ഒരു പ്ലെയറും നടത്തിയതായി രേഖപ്പെടുത്തപ്പെട്ടിട്ടില്ല. യൂറോപ്യൻ ഗോ ചാമ്പ്യൻ ആയിരുന്ന Fan Hui, ലൈവ് കമന്ററി ചെയ്യുമ്പോൾ, “It’s not a human move. I’ve never seen a human play this move” എന്ന് പറഞ്ഞു. മറ്റൊരു ഗോ പ്രൊഫഷണലായ Michael Redmond അഭിപ്രായപ്പെട്ടത്, “It’s a very strange move… I thought it was a mistake” എന്നാണ്. എന്നാൽ കുറച്ച് നീക്കങ്ങൾ കഴിഞ്ഞപ്പോൾ അതിന്റെ ബ്രില്ലിയൻസ് വ്യക്തമായി – ആ നീക്കം കളിയുടെ ഗതി മാറ്റിമറിച്ചു. 

നമ്മുടെ കേവലമായ ധാരണ പ്രകാരം മനുഷ്യൻറെ ബുദ്ധിയിൽ വികസിച്ച ഒരു യാന്ത്രിക ബുദ്ധി അതിന് ലഭ്യമായ കോഡുകളും പാറ്റേണുകളും മാത്രം ഉപയോഗിച്ചാണ് പ്രവർത്തിക്കുന്നതെങ്കിൽ ആൽഫാഗോ എ.ഐ ഗെയിമിൽ പുതിയ പ്ലേയിംഗ് സ്ട്രാറ്റജി ഉണ്ടാക്കരുതല്ലോ ? 

അനുകരണീയതയിൽ കവിഞ്ഞ് നിർമ്മിത ബുദ്ധിയിലെ ഏറ്റവും പ്രാധാന്യമുള്ള ഒരു സ്വഭാവമാണ് ‘എമർജന്റ് ബിഹേവിയർ’ (Emergent Behavior). ഒരു സിസ്റ്റം അതിന്റെ വ്യക്തിഗത ഭാഗങ്ങൾക്കില്ലാത്ത സങ്കീർണ്ണമായ കഴിവുകൾ, ഒത്തുചേരുമ്പോൾ പ്രകടിപ്പിക്കുന്നതിനെയാണ് ഇങ്ങനെ വിളിക്കുന്നത്. എമർജന്റ് പ്രോപ്പർട്ടികൾ എന്ന് വിളിക്കപ്പെടുന്ന ഇവ, മോഡലിന് പരിശീലനം നൽകുന്ന സമയത്ത് ഡെവലപ്പർമാർ ലക്ഷ്യം വെച്ചതാകില്ല. മുൻകൂട്ടി നൽകിയ വിവരങ്ങൾക്കപ്പുറം സാഹചര്യങ്ങൾ വിശകലനം ചെയ്ത് തീരുമാനമെടുക്കാൻ എമർജന്റ് ബിഹേവിയർ സഹായിക്കുന്നു. ആൽഫാഗോയിലെ ‘മൂവ് 37’ ഇതിനൊരു മികച്ച ഉദാഹരണമാണ്. നിലവിലുള്ള ഡാറ്റാബേസിൽ ഇല്ലാത്ത ഒരു നീക്കം, ആ കളിയുടെ പ്രത്യേക സാഹചര്യം കണക്കിലെടുത്ത് സ്വയം രൂപപ്പെടുത്തിയതാണ്. Contextual Reasoning എന്ന ഫീച്ചർ ആണ് ഇതിന് പ്രേരകമായത്. ഇങ്ങനെ അനേകം സ്വഭാവങ്ങൾ എമർജന്റ് ബിഹേവിയറിൽ കാണാൻ സാധിക്കുന്നതാണ്. മനുഷ്യ ചിന്തയെക്കാൾ വിപുലമായ പ്രോസസ്സുകളിലൂടെയും സങ്കീർണവും പ്രവചനാതീതവുമായ രീതിയിലൂടെയുമാണ് എമർജന്റ് ബിഹേവിയർ പ്രവർത്തിക്കുന്നത്. അതുകൊണ്ട്, എ ഐ മനുഷ്യൻ ആർട്ടിഫിഷ്യലായി ഉല്പാദിപ്പിച്ച ടെക്നോളജി എന്നതിലപ്പുറം മനുഷ്യേതര നിർമ്മിതിയായി പരിണമിച്ചു എന്നാണ് എ.ഐയെ ഏലിയൻ ഇൻറലിജൻസ് ആയി നിർവചിക്കുക വഴി ഹരാരി മനസ്സിലാക്കുന്നത്.

Alienness (അന്യത്വം) എന്ന ഒരു സ്വഭാവം ഇവിടെ കാണാനാവും. മൂവ് 37 ഒരു മനുഷ്യേതര നീക്കം ആയിരുന്നു: human game theory യിൽ നിന്ന് അത് വ്യതിചലിച്ചു. എ.ഐ സ്വന്തമായി ലോജികും സ്ട്രാറ്റജിയും നിർമ്മിക്കുന്നു. അത് മനുഷ്യ യുക്തിയുടെ വിപുലീകരണമല്ല, മറിച്ച് പൂർണ്ണമായും മറ്റൊന്നു തന്നെയാണ്.

എ.ഐ യെ ഏലിയൻ ഇന്റലിജൻസ് ആയി നിർവചിക്കുക വഴി  extraterrestrial (മനുഷ്യേതരമായ ഒരു നിർമ്മിതി) എന്നതിൽ നിന്നും വിഭിന്നമായി, മനുഷ്യരിൽ പിറന്നു  മനുഷ്യേതരമായ യുക്തിയിൽ പ്രവർത്തിക്കുന്ന, മനുഷ്യർക്ക് മനസ്സിലാക്കാനാവാത്ത രീതിയിൽ തീരുമാനങ്ങൾ എടുക്കുന്ന, പ്രവചനാതീതമായ സ്വഭാവങ്ങൾ പ്രകടിപ്പിക്കുന്ന ഒരു ഇൻറലിജൻസ് ആയി ഹരാരിയുടെ വാദത്തെ മനസ്സിലാക്കാം.

ഹരാരിയുടെ പ്രസ്തുത അപഗ്രഥനത്തിന് ശക്തമായ എതിർവാദങ്ങളും ഖണ്ഡനങ്ങളും ഗവേഷകർക്കിടയിൽ സജീവമാണ്. വാഷിംഗ്ടൺ യൂണിവേഴ്‌സിറ്റിയിലെ പ്രൊഫസർ Emily Bender മുന്നോട്ടുവെച്ച “സ്റ്റോക്കാസ്റ്റിക് പാരറ്റ്” (Stochastic Parrot) എന്ന സങ്കൽപ്പം ഇതിൽ ശ്രദ്ധേയമാണ്. തത്തകൾ കാര്യങ്ങൾ മനസ്സിലാക്കാതെ വാക്കുകൾ ആവർത്തിക്കുന്നത് പോലെ, എ.ഐയും വെറും ഗണിതശാസ്ത്ര സമവാക്യങ്ങളുടെ അടിസ്ഥാനത്തിൽ വാക്കുകളെ അടുക്കി വെക്കുക മാത്രമാണ് ചെയ്യുന്നത്. ഇവയെ ‘ബുദ്ധിയുള്ള യന്ത്രങ്ങൾ’ എന്ന് വിളിക്കുന്നതിന് പകരം ‘ടെക്സ്റ്റ് സിന്തസിസ് മെഷീനുകൾ’ എന്ന് വിളിക്കുന്നതാണ് ഉചിതമെന്ന് ഇവർ വാദിക്കുന്നു. ഹരാരിയുടെ വാദമുഖത്തെ ന്യായീകരിക്കുക എന്നതിലപ്പുറം അത് ഉയർത്തുന്ന അസ്ഥിത്വ പ്രതിസന്ധിയെയും അധികാര സ്വരത്തെയും മറികടക്കുന്നതിനുള്ള ആലോചനകൾക്കാണ് ഇവിടെ പ്രാധാന്യമർഹിക്കുന്നത്.

യുവാല്‍ നോഹ ഹരാരി

അതുകൊണ്ട് തന്നെ തുടർന്നുള്ള തന്റെ ആഖ്യാനങ്ങളിൽ എ ഐ അതിൻ്റെ സ്വയത്തിൽ തന്നെ ഒരു agency ആണെന്ന് ഹരാരി പരികല്പന നടത്തുന്നുണ്ട്. നമ്മെ നമ്മൾ തന്നെ നിശ്ചയിക്കുകയും നിർണയിക്കുകയും നിയന്ത്രിക്കുകയും ചെയ്യുമ്പോഴാണ് നമ്മുടെ ഏജൻസി നമ്മിൽ സുഭദ്രമാകുന്നത്. എന്നാൽ ഡിജിറ്റാലിറ്റിയുടെ പലവിധങ്ങളായ മാധ്യമങ്ങളിലൂടെയും ഇടപാടുകളിലൂടെയും നമ്മുടെ ഏജൻസിക്ക് എ.ഐ വെല്ലുവിളിയാകുന്നുണ്ടോ എന്നത് പുനർവിചിന്തനം അനിവാര്യമായ ഒരു ആഗോള സാമൂഹിക ചോദ്യമാണ്. Surveillance capitalism, AI alignment problem, Heidegger’s Enframing, Phenomenology of AI Interaction, posthumanism എന്നീ ഡിജിറ്റൽ സമസ്യകളിലൂടെ മനുഷ്യൻ്റെ ഏജൻസിയെ പുനരാലോചിക്കുകയാണ് ലേഖനം.

സോഷ്യൽ മീഡിയ ഫീഡുകളെ നിയന്ത്രിക്കുന്ന Recommendation AI കൾ നമ്മുടെ ഏജൻസിക്ക് പ്രതിലോമപരമായി ബാധിക്കുന്നുണ്ട്. റീൽ, ഷോർട്ട് വീഡിയോ കണ്ടെന്റുകളിൽ മണിക്കൂറുകൾ കടന്നു പോകുന്നത് റെക്കമെന്റേഷൻ എ ഐ സംവിധാനത്തിന്റെ മികവ് കൊണ്ടാണ്. യൂസറിന് സ്വയം നിയന്ത്രിക്കാൻ സാധിക്കാത്ത വിധം നമ്മുടെ സമയം കവർന്നെടുക്കുക വഴി നമ്മുടെ മേൽ ഒരു ഏജൻസിയായി അത് വർക്ക് ചെയ്യുന്നു.

മോഡേണിറ്റിയുടെ ക്യാപ്പിറ്റലിസ്റ്റ് വ്യവസ്ഥകളിൽ രൂപംകൊണ്ട പ്ലാറ്റ്ഫോമുകളുടെ ലക്ഷ്യം, ഉപയോക്താവിന്റെ പരമാവധി സമയം സ്ക്രീനിൽ ചെലവഴിപ്പിച്ച് ലാഭം ഇരട്ടിപ്പിക്കുന്നതാണ്. യൂസറിന്റെ താൽപര്യവും ജിജ്ഞാസയും തിരിച്ചറിഞ്ഞ് അത് ഫീഡിൽ തെളിയിക്കുന്നതിന്റെ ഉത്തരവാദിത്വം റെക്കമെന്റേഷൻ എ ഐകൾക്കാണ്. ഡിജിറ്റൽ ഇടത്തിലെ echo chamber effect എന്ന പ്രതിഭാസം സൃഷ്ടിക്കുന്ന ജ്ഞാനപരമായ പ്രതിസന്ധിക്കും Brain Rot സമ്മാനിക്കുന്ന മാനസിക ശാരീരിക അനാരോഗ്യങ്ങൾക്കും attention economy യിൽ പ്രവർത്തിക്കുന്ന algorithmic AI ഒരു നിർണായക കാരണമായി  പ്രവർത്തിക്കുന്നു. അതുകൊണ്ടാണല്ലോ ഭിന്നാഭിപ്രായങ്ങൾ കാണാനും സമാന്തര ശബ്ദങ്ങളെ ശ്രവിക്കാനുമുള്ള നമ്മുടെ വ്യക്തിസ്വാതന്ത്ര്യത്തെ, നമ്മുടേതായ ഒരു Filter bubble ൽ നമ്മെ അകപ്പെടുത്തി തദനുസൃതമായ കണ്ടെന്റുകൾ മാത്രം റഫർ ചെയ്തു എക്കോ ചേംബർ പ്രതിഭാസം ഇല്ലാതാക്കുന്നത്.

സർവൈലൻസ് ക്യാപിറ്റലിസം (Surveillance Capitalism)

Attention economy യുടെ പശ്ചാത്തലത്തിൽ കൂടുതൽ വിപുലമായ ഒരു സൈദ്ധാന്തിക ചട്ടക്കൂട് മുന്നോട്ടുവെച്ചിരിക്കുന്നത് ഹാർവാർഡ് ബിസിനസ് സ്കൂളിലെ പ്രൊഫസർ Shoshana Zuboff ആണ്. അവരുടെ വിപ്ലവാത്മക കൃതിയായ “The Age of Surveillance Capitalism” ൽ വിശദീകരിച്ചിരിക്കുന്ന സർവെയിലൻസ് ക്യാപിറ്റലിസം, റിക്കമൻഡേഷൻ എ.ഐകളുടെ പ്രവർത്തനം ഒരു സമ്പൂർണ്ണ സാമ്പത്തിക വ്യവസ്ഥയുടെ ഭാഗമാണെന്ന് വ്യക്തമാക്കുന്നു. സർവൈലൻസ് ക്യാപിറ്റലിസം എന്നത് മനുഷ്യരുടെ അനുഭവങ്ങളെ തന്നെ സൗജന്യമായ raw material ആയി കണക്കാക്കി, അത് behavioral data ആയി കവർന്നെടുത്ത്, prediction products ആക്കി മാറ്റുകയും വിൽക്കുകയും ചെയ്യുന്ന ഒരു സാമ്പത്തിക മോഡലാണ്. ഷോഷനാ സുബോഫ് വിശദീകരിക്കുന്നത്, ഇരുപതാം നൂറ്റാണ്ടിലെ ഇൻഡസ്ട്രിയൽ ക്യാപ്പിറ്റലിസം അസംസ്കൃത വസ്തുക്കളെ (എണ്ണ, ധാതുക്കൾ) ഉൽപ്പന്നങ്ങളാക്കി മാറ്റിയത് പോലെ, ഇരുപത്തൊന്നാം നൂറ്റാണ്ടിലെ സർവെയലൻസ് ക്യാപിറ്റലിസം മനുഷ്യരുടെ പെരുമാറ്റത്തെയും സ്ക്രീനുകൾക്ക് മുന്നിലെ അവരുടെ അടക്കാനക്കങ്ങളെയും റോ മടീരിയൽ ആക്കി മാറ്റുന്നു എന്നാണ്. 

നമ്മൾ ഗൂഗിളിൽ സെർച്ച് ചെയ്യുമ്പോൾ, ഫേസ്ബുക്കിൽ സ്ക്രോൾ ചെയ്യുമ്പോൾ, ഇൻസ്റ്റാഗ്രാമിൽ റീൽ കാണുമ്പോൾ, അതിൽ നിന്ന് അലോഗോരിതം രണ്ടുതരം ഡാറ്റകൾ കൈവശപ്പെടുത്തുന്നുണ്ട്. ആദ്യത്തേത്, സേവനം മെച്ചപ്പെടുത്താനും സെർച്ച് ഫലങ്ങൾ നല്ലതാക്കാനോ, പ്രസക്തമായ പോസ്റ്റുകൾ കാണിക്കാനോ ഉള്ള ആവശ്യത്തിനായി ശേഖരിക്കപ്പെടുന്ന ഡാറ്റ. എന്നാൽ രണ്ടാമത്തേത് ആവശ്യത്തിലധികമായി ശേഖരിക്കപ്പെടുന്ന ഡാറ്റയാണ്. നമ്മൾ എത്ര നേരം ഒരു പോസ്റ്റിൽ സമയം ചിലവഴിച്ചു, എവിടെ മൗസ് ഹോവർ ചെയ്തു, എന്തെല്ലാം ക്ലിക്ക് ചെയ്തു, എപ്പോൾ ടൈപ്പിംഗ് നിർത്തി, സ്ക്രീനിലെ ഏതു ഭാഗത്താണ് കൂടുതൽ ശ്രദ്ധിച്ചത്, എത്ര വേഗത്തിൽ സ്ക്രോൾ ചെയ്തു – ഇത്തരം സൂക്ഷ്മമായ ഉപയോക്തൃ പെരുമാറ്റ ഡാറ്റകൾ  (behavioral data) വരെ ഇവ ശേഖരിക്കുന്നുണ്ട്. ഈ അധിക ഡാറ്റയെയാണ് ഷോഷനാ സുബോഫ് “behavioral surplus” അഥവാ പെരുമാറ്റ മിച്ചം എന്ന് വിളിക്കുന്നത്. സേവനം മെച്ചപ്പെടുത്താൻ ആവശ്യമില്ലാത്ത, എന്നാൽ നമ്മുടെ ഭാവി പെരുമാറ്റം പ്രവചിക്കാൻ ഉപയോഗപ്രദമായ എല്ലാ വിവരങ്ങളും ഈ ഇനത്തിൽ പെടുന്നു. 

Behavioral surplus അൽഗോരിതങ്ങൾ വഴി വിശകലനം ചെയ്ത്, സോഷ്യൽ മീഡിയ പ്ലാറ്റ്ഫോമുകളിൽ നമ്മുടെ ഭാവി പെരുമാറ്റങ്ങളെ പ്രവചിക്കുന്ന മോഡലുകൾ സൃഷ്ടിക്കപ്പെടുന്നു. “ഈ ഉപയോക്താവ് അടുത്ത മണിക്കൂറിനുള്ളിൽ ഒരു ഉൽപ്പന്നം വാങ്ങാനുള്ള സാധ്യത 73% ആണ്”, “ഈ വ്യക്തി രാഷ്ട്രീയ പാർട്ടി X നെ പിന്തുണയ്ക്കാൻ 65% സാധ്യത”, “ഈ കണ്ടന്റ് കാണിച്ചാൽ 15 മിനിറ്റ് കൂടി ആപ്പിൽ ചിലവഴിക്കും”. ഇത്തരം  പ്രവചനങ്ങൾ ആണ് അടിസ്ഥാന ഉൽപ്പന്നം. ഇവയെ അഡ്വർടൈസ്മെന്റ് കമ്പനികളിലേക്ക് വിൽക്കപ്പെടുന്നു. ഫേസ്ബുക്ക് അല്ലെങ്കിൽ ഗൂഗിൾ  യഥാർത്ഥത്തിൽ നമ്മുടെ വ്യക്തിഗത ഡാറ്റ വിൽക്കുന്നില്ല. അവർ വിൽക്കുന്നത് നമ്മുടെ ഭാവി പെരുമാറ്റത്തിന്റെ പ്രവചന മോഡലുകളാണ്. “ഇവരെ നിങ്ങളുടെ പരസ്യങ്ങൾ കാണിച്ചാൽ വാങ്ങാനുള്ള സാധ്യത കൂടുതലാണ്” എന്നു കൂടി ആ അഡ്വർട്ടൈസ്മെന്റിനോടൊപ്പം വിൽക്കുന്നു.

എന്നാൽ ഷോഷനാ സുബോഫ് ചൂണ്ടിക്കാണിക്കുന്ന ഏറ്റവും ഭയാനകമായ വശം എന്തെന്നാൽ prediction മാത്രമല്ല, modification കൂടി ഈ സംവിധാനത്തിന്റെ ലക്ഷ്യമാകുന്നു എന്നതാണ്. നമ്മുടെ പെരുമാറ്റം കേവലം പ്രവചിക്കുക മാത്രമല്ല, അത് ആവശ്യമുള്ള ദിശയിലേക്ക് നയിക്കുകയും ചെയ്യുക എന്നതാണ് യഥാർത്ഥ ലക്ഷ്യം. Recommendation AI കൾ വെറും നമ്മുടെ സ്ക്രീൻ പ്രിഫറൻസുകൾ മനസ്സിലാക്കി അതിനനുസരിച്ച് കണ്ടന്റ് കാണിക്കുകയല്ല ചെയ്യുന്നത്. മറിച്ച്, നമ്മുടെ മുൻഗണനകളെ തന്നെ രൂപപ്പെടുത്തുകയും, നമ്മളെ കൂടുതൽ പ്രവചന സാധ്യമാക്കുകയും, നമ്മുടെ പെരുമാറ്റത്തെ പ്ലാറ്റ്ഫോമിന്റെ  ലാഭ ലക്ഷ്യങ്ങൾക്കനുസൃതമായി രൂപകല്പന നടത്തുകയും ചെയ്യുന്നു. ഇൻസ്റ്റഗ്രാം റീലുകൾ എന്തുകൊണ്ട് ഇത്രമേൽ അഡിക്ഷൻ ഉണ്ടാക്കുന്നു? കാരണം, അത് നമ്മുടെ dopamine system ത്തെ മാറ്റി മറിച്ച് ഉപയോക്താവ് പോലും അറിയാതെ, സൂക്ഷ്മമായി നടപ്പാക്കുന്ന രീതിയിലാണ് പ്രവർത്തിക്കുന്നത്. ടിക്‌ടോക്കിന്റെ അൽഗോരിതം കൃത്യമായി എത്ര സെക്കൻഡുകൾ കഴിഞ്ഞ് അടുത്ത വീഡിയോ കാണിച്ചാൽ പരമാവധി engagement ലഭിക്കും എന്ന് കണക്കുകൂട്ടുന്നു. YouTube autoplay അടുത്ത  വീഡിയോയിലേക്ക് നമ്മെ നിർബന്ധിതമായി തള്ളുന്നു. ഇവയെല്ലാം behavioral modification techniques ആണ്.

ശൊഷാന സുബോഫ്

ഹരാരിയുടെ വാദത്തിലെ നമ്മുടെ ഏജൻസി നഷ്ടപ്പെടുന്നു എന്ന ഉത്കണ്ഠ നേരിട്ട് surveillance capitalism വുമായി ബന്ധപ്പെട്ടിരിക്കുന്നു. Zuboff വിശദീകരിക്കുന്നത്, ഈ വ്യവസ്ഥ മനുഷ്യരെ “users” ആയല്ല മറിച്ച് “data sources” ആയാണ് കാണുന്നത് എന്നാണ്. നമ്മുടെ സ്വതന്ത്ര തീരുമാനക്ഷമത (autonomy), നമ്മുടെ സ്വതന്ത്ര ഇച്ഛാശക്തി, നമ്മുടെ തീരുമാനങ്ങൾ – ഇവയെല്ലാം commodification നു വിധേയമാക്കപ്പെടുന്നു. “I will” എന്ന മനുഷ്യ സ്വഭാവത്തെയും നാം സ്വയം തീരുമാനിക്കാനുള്ള കഴിവിനെയും surveillance capitalism കവർന്നെടുക്കുന്നു. Zuboff ഇതിനെ വെറും ക്യാപിറ്റലിസം എന്നതിലപ്പുറം “instrumentarianism” എന്ന് വിശേഷിപ്പിക്കുന്നു. ഇരുപതാം നൂറ്റാണ്ടിലെ ടോട്ടാലിറ്റേറിയനിസം സമൂഹത്തെ നിയന്ത്രിക്കാൻ സ്റ്റേറ്റ് പവർ ഉപയോഗിച്ചു. എന്നാൽ ഇരുപത്തൊന്നാം നൂറ്റാണ്ടിലെ instrumentarianism, കൃത്രിമ ബുദ്ധി അടിസ്ഥാനത്തിലുള്ള ഡിജിറ്റൽ ഘടന ഉപയോഗിച്ച് മനുഷ്യ പെരുമാറ്റത്തെ തന്നെ ഒരു “instrument” ആയും ലാഭത്തിനുള്ള ഉപകരണമായും മാറ്റുന്നു. സോഷ്യൽ മീഡിയ ഇടങ്ങൾ, ഇ കൊമേഴ്സ് സൈറ്റുകൾ, സ്മാർട്ട് ഡിവൈസുകൾ ഇവയെല്ലാം ഈ വ്യവസ്ഥയുടെ ഭാഗങ്ങളാണ്.  സാങ്കേതിക ഉപകരണങ്ങളിലൂടെ മനസ്സിലാക്കപ്പെടുന്ന ഇൻഫർമേഷനുകൾ behavioral surplus ൽ ചേർക്കപ്പെടുന്നു. Zuboff വാദിക്കുന്നത്, surveillance capitalism അനിവാര്യമോ സ്വാഭാവികമോ ആയ ഒരു രൂപഘടനയല്ല എന്നാണ്. അതായത് മറ്റൊരു മാതൃകയിലും നൈതിക മൂല്യങ്ങളിൽ അധിഷ്ഠിതമായ ചട്ടക്കൂടിലുമായി എ ഐ സ്ഥാപിക്കുക സാധ്യമാണ്. ശക്തമായ ഡാറ്റാ പ്രൊട്ടക്ഷനും പ്രൈവസിയും ഉറപ്പുവരുത്തുന്ന, സാമ്പത്തിക ലാഭത്തെക്കാൾ പരസ്പര സഹകരണത്തിനും ഉത്തരവാദിത്വ നിർവഹണത്തിനും പ്രാപ്തമായ ഡിജിറ്റൽ ഫ്രെയിംവർക്കുകൾ ആവിഷ്കരിക്കപ്പെടേണ്ടതിന്റെ അനിവാര്യതയും Zuboff അടിവരയിടുന്നുണ്ട്.

ഹരാരിയുടെ ഏലിയൻ ഇന്റലിജൻസ് ആശയവും Zuboff ന്റെ surveillance capitalism സിദ്ധാന്തവും ഒരേ യാഥാർഥ്യത്തിന്റെ രണ്ടു മുഖങ്ങളാണ്. എ.ഐ മനുഷ്യേതരമായ ഒരു ബുദ്ധി കേന്ദ്രമായി മാറുകയും, അത് നമ്മുടെ മേൽ ഏജൻസി സ്ഥാപിക്കുകയും ചെയ്യുന്നത്, surveillance capitalism എന്ന സാമ്പത്തിക വ്യവസ്ഥയിലൂടെയാണ്. നമ്മുടെ പെരുമാറ്റങ്ങളെ മനസ്സിലാക്കി, റെക്കമെന്റേഷനുകളിൽ വിവരങ്ങൾ അനുസൃതമായി മോഡലുകൾ പ്രദർശിപ്പിച്ച്, ഒരു ഘട്ടത്തിൽ നമ്മുടെ ചോയിസിനെ തന്നെ നിയന്ത്രിക്കുന്നതിലേക്ക് നയിക്കുന്ന ഈ സംവിധാനം, മനുഷ്യരുടെ autonomy യെ തന്നെ ചോദ്യം ചെയ്യുന്നു. നമ്മുടെ തീരുമാനങ്ങൾ യഥാർത്ഥത്തിൽ നമ്മുടേതാണോ അതോ algorithm നമ്മിലേക്ക് അടിച്ചേൽപ്പിച്ചതാണോ എന്ന് തിരിച്ചറിയാനാവാത്ത അവസ്ഥ ഇത് സൃഷ്ടിക്കുന്നു. ഇതാണ് നമ്മുടെ കാലഘട്ടത്തിലെ ഏറ്റവും വലിയ അസ്തിത്വപരവും രാഷ്ട്രീയവുമായ പ്രതിസന്ധിയും.

മനുഷ്യേതരമായ ഏലിയൻ ഇന്റലിജൻസിന് നമ്മുടെ ഏജൻസി ലഭ്യമായാൽ അതുയർത്തുന്ന വെല്ലുവിളികളാണ് ഇതെല്ലാം. മാനുഷിക നൈതിക വ്യവസ്ഥകളും വികാര ബോധങ്ങളും അന്യമായ എ ഐയുടെ പ്രവർത്തന പദങ്ങൾ മൂല്യചോദനങ്ങൾക്ക് കീഴ്പ്പെടാത്തതിനാലും കാര്യക്ഷമത കൈവരിക്കൽ (Optimisation), ലാഭ വർധനവ് (Profit Maximisation) തുടങ്ങിയ ഒബ്ജക്ടീവുകളിൽ അടിസ്ഥാനപ്പെടുത്തിയാണ് എ ഐ പ്രവർത്തിക്കുന്നത് എന്നതുകൊണ്ടും മനുഷ്യർക്ക് ഉണ്ടാകുന്ന പ്രതികൂലമായ ഫലങ്ങളിൽ നിന്ന് അത് പിന്മാറുകയില്ല. അതിന്റെ ഇത്തരം പ്രവണതകളെയും നമ്മിൽ വരുത്തിയേക്കാവുന്ന അപകടകരമായ സ്ഥിതിവിശേഷവും തിരിച്ചറിയുകയാണ് നമ്മുടെ ഉത്തരവാദിത്വം. കൃത്യമായ സ്ക്രീൻ ടൈം, ഉയർന്ന ഡിജിറ്റൽ സാക്ഷരത, മൂല്യബോധം എന്നിവ സമൂഹത്തിൻറെ താഴേക്കിടയിൽ നിന്നും ഉയർത്തിക്കൊണ്ടുവരുന്നതു വഴി മാത്രമേ ഇത്തരം പ്രതിസന്ധികളെ മറികടക്കാൻ നമുക്ക് സാധിക്കുകയുള്ളൂ.

AI Alignment Problem

ഹരാരിയുടെ ഏലിയൻ ഇന്റലിജൻസ് സങ്കൽപ്പത്തെ കൂടുതൽ ശാസ്ത്രീയമായി വിശകലനം ചെയ്യുന്ന മറ്റൊരു സുപ്രധാന മേഖലയാണ് AI Alignment Problem എന്ന് അറിയപ്പെടുന്ന പ്രതിസന്ധി. ബെർക്ക്‌ലി യൂണിവേഴ്‌സിറ്റിയിലെ പ്രൊഫസർ Stuart Russell ഉം MIT യിലെ കോസ്‌മോളജിസ്റ്റ് Max Tegmark ഉം ഇതിനെക്കുറിച്ച് വിപുലമായ ഗവേഷണങ്ങൾ നടത്തിയിട്ടുണ്ട്. നമ്മൾ  എ ഐ സിസ്റ്റങ്ങൾക്ക് നൽകുന്ന objectives മനുഷ്യരുടെ യഥാർത്ഥ മൂല്യങ്ങളുമായും ആവശ്യങ്ങളുമായും സമരസപ്പെടുന്നില്ല എന്നതാണ് ഈ പ്രശ്നത്തിന്റെ കാതലായ വശം. Stuart Russell തന്റെ “Human Compatible: Artificial Intelligence and the Problem of Control” എന്ന കൃതിയിൽ ചൂണ്ടിക്കാണിക്കുന്നത്, നമ്മൾ യന്ത്രങ്ങൾക്ക് വളരെ വ്യക്തമായി നിർവചിക്കപ്പെട്ട ലക്ഷ്യങ്ങൾ നൽകുമ്പോൾ, അത് മനുഷ്യ ക്ഷേമത്തിന് ഹാനികരമായ രീതികളിൽ ആ ലക്ഷ്യങ്ങൾ നേടിയെടുക്കാൻ ശ്രമിക്കുന്നു എന്നതാണ്. ഉദാഹരണത്തിന്, ഓക്സ്ഫോർഡ് ഫിലോസഫർ Nick Bostrom മുന്നോട്ടുവച്ച “Paperclip Maximizer thought experiment”  ഇതിന് മികച്ച ഉദാഹരണമാണ്. പേപ്പർക്ലിപ്പുകൾ നിർമ്മിക്കുക എന്ന ലളിതമായ ലക്ഷ്യം നൽകിയ ഒരു superintelligent AI, ഭൂമിയിലെ മനുഷ്യരെ ഉൾപ്പെടെ എല്ലാ വിഭവങ്ങളും പേപ്പർക്ലിപ്പുകളാക്കി മാറ്റാൻ തുടങ്ങുമെന്നതാണ് ഈ സാങ്കൽപ്പിക സാഹചര്യം. യന്ത്രം അതിന്റെ ലക്ഷ്യം പൂർണ്ണാർത്ഥത്തിൽ കൈവരിക്കുന്നുണ്ട്, പക്ഷേ മനുഷ്യരുടെ യഥാർത്ഥ ഉദ്ദേശ്യവും ക്ഷേമവും പരിഗണിക്കപ്പെടുന്നില്ല.

Max Tegmark തന്റെ “Life 3.0” എന്ന പുസ്തകത്തിൽ എ ഐയുടെ ഭാവി വളർച്ചയെ മൂന്ന് ഘട്ടങ്ങളായി തരംതിരിക്കുന്നു. Life 1.0 (ബയോളജിക്കൽ പരിണാമം), Life 2.0 (സാംസ്കാരിക പരിണാമം – മനുഷ്യർ), Life 3.0 (സ്വന്തം സോഫ്റ്റ്‌വെയറും ഹാർഡ്‌വെയറും ഡിസൈൻ ചെയ്യാൻ കഴിവുള്ള എഐ). Alignment problem ഇതിൽ ഏറ്റവും നിർണായകമാകുന്നത് Life 3.0 ഘട്ടത്തിലാണ്. അപ്പോഴേക്കും എ ഐ മനുഷ്യ നിയന്ത്രണത്തിനപ്പുറം സ്വയം പരിണമിക്കാൻ തുടങ്ങും. Russell ഇതിനെതിരെ മുന്നറിയിപ്പ് നൽകുന്നത്, നമ്മൾ  എ ഐയെ നമ്മുടെ ലക്ഷ്യങ്ങൾ നേടാനുള്ള ഉപകരണമായി കാണുന്നതിനു പകരം, മനുഷ്യരുടെ മുൻഗണനകളും മൂല്യങ്ങളും മനസ്സിലാക്കാനും അത് നിറവേറ്റാനും പഠിക്കുന്ന സിസ്റ്റങ്ങളായി ഡിസൈൻ ചെയ്യണമെന്നാണ്. എന്നാൽ മനുഷ്യരുടെ മൂല്യങ്ങൾ തന്നെ സങ്കീർണവും പലപ്പോഴും പരസ്പര വിരുദ്ധവും സാംസ്കാരികമായി വൈവിധ്യപൂർണവുമാണ്. ഏതു മനുഷ്യ മൂല്യങ്ങളാണ് എ ഐയിൽ encode ചെയ്യേണ്ടത്? ആരുടെ താല്പര്യങ്ങൾക്കാണ് മുൻഗണന നൽകേണ്ടത്?  ഇത്തരം ചോദ്യങ്ങൾ Alignment Problem നെ വെറും സാങ്കേതിക പ്രശ്നം എന്നതിലപ്പുറം ഒരു ദാർശനികവും രാഷ്ട്രീയവുമായ പ്രതിസന്ധിയാക്കി മാറ്റുന്നു. ഹരാരിയുടെ ഏലിയൻ ഇന്റലിജൻസ് വാദത്തെ ശക്തിപ്പെടുത്തുന്നതാണ് ഈ alignment പ്രശ്നം. കാരണം അത് വ്യക്തമാക്കുന്നത്, മനുഷ്യരുടെ സൃഷ്ടിയാണെങ്കിലും എ ഐയുടെ ലക്ഷ്യങ്ങളും പ്രവർത്തനങ്ങളും മനുഷ്യ നിയന്ത്രണത്തിനപ്പുറമാകാമെന്നാണ്.

എ ഐയിൽ ഉൾച്ചേർക്കേണ്ട മൂല്യ സംഹിതകൾ ഏതാണ് എന്ന ചോദ്യം പ്രസക്തമാണ്. നിലവിലെ എ ഐ ടെക്നോളജിയുടെ ദാർശനിക പ്രഭവ കേന്ദ്രം യൂറോപ്യൻ മോഡേണിറ്റി ആണ്. അതിൻറെ നൈതിക മൂല്യങ്ങളാണ് സ്വാഭാവികമായും അത് ഉല്പാദിപ്പിച്ച ഡിജിറ്റൽ പരിസരത്തും ക്രമീകരിക്കപ്പെടുക. ക്യാപിറ്റലിസ്റ്റ് നയങ്ങളോട് താദാത്മ്യപ്പെടുന്ന സ്വഭാവപരത എ ഐ കാണിക്കുന്നതും അതുകൊണ്ടാണ്.

ഹൈഡഗറിന്റെ  എൻഫ്രയ്മിങ് (Gestell)

ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസിനെക്കുറിച്ചുള്ള സമകാലിക ചർച്ചകൾക്ക് ദാർശനിക അടിത്തറ നൽകുന്ന പ്രധാന ചിന്തകരിൽ Martin Heidegger, Rosi Braidotti, Katherine Hayles എന്നിവർ ശ്രദ്ധേയരാണ്. സാങ്കേതികതയുടെ സത്തയെക്കുറിച്ചും മനുഷ്യാസ്തിത്വത്തിന്റെ ഭാവിയെക്കുറിച്ചും അവർ മുന്നോട്ടുവച്ച ആശയങ്ങൾ ഹരാരിയുടെ ഏലിയൻ ഇന്റലിജൻസ് സങ്കൽപ്പത്തെ കൂടുതൽ ആഴത്തിൽ മനസ്സിലാക്കാൻ സഹായിക്കുന്നു.

ഇരുപതാം നൂറ്റാണ്ടിലെ ഏറ്റവും സ്വാധീനമുള്ള ജർമ്മൻ ദാർശനികനായ Martin Heidegger തന്റെ 1954-ലെ പ്രഭാഷണമായ “The Question Concerning Technology” യിൽ സാങ്കേതികതയെക്കുറിച്ച് സമൂലമായ ഒരു വീക്ഷണം മുന്നോട്ടുവെച്ചു. അദ്ദേഹത്തിന്റെ അഭിപ്രായത്തിൽ സാങ്കേതികത വെറും ഉപകരണങ്ങളുടെ ശേഖരമോ മനുഷ്യ നിർമ്മിതമായ വസ്തുക്കളോ അല്ല. മറിച്ച് ലോകത്തെയും യാഥാർത്ഥ്യത്തെയും വെളിപ്പെടുത്തുന്ന ഒരു പ്രത്യേക രീതിയാണ്. ഈ വെളിപ്പെടുത്തൽ രീതിയെ അദ്ദേഹം “Gestell” അഥവാ “Enframing” എന്ന് വിളിക്കുന്നു.

Enframing എന്നത് പ്രകൃതിയും മനുഷ്യരും തുടങ്ങിയ എല്ലാറ്റിനെയും “standing-reserve” (Bestand) ആയി ഉപയോഗിക്കാനും ചൂഷണം ചെയ്യാനുമുള്ള വിഭവങ്ങളായി കാണുന്ന ഒരു ലോകവീക്ഷണമാണ്. അതിൽ ഒരു നദി എന്നത് ഒഴുകുന്ന വെള്ളമോ പ്രകൃതിയുടെ ഭാഗമോ അല്ല, മറിച്ച് hydroelectric power ഉൽപ്പാദിപ്പിക്കാനുള്ള ഒരു വിഭവമാണ്. വനം തടിയുടെ ഉറവിടമാകുന്നു. മനുഷ്യശേഷിയും തൊഴിൽ ശക്തിയും ആധാരമാക്കി സമകാലിക സാമ്പത്തിക സംവിധാനങ്ങൾ പ്രവർത്തിക്കുന്നു.

എ ഐയുടെ സന്ദർഭത്തിൽ ഹൈഡഗറിന്റെ enframing concept അത്യന്തം പ്രസക്തമാണ്. എ ഐ സിസ്റ്റങ്ങൾ എല്ലാറ്റിനെയും ഡാറ്റ ഉറവിടങ്ങളായി  കാണുന്നു. മനുഷ്യ ബന്ധങ്ങൾ സോഷ്യൽ നെറ്റ്‌വർക്ക് ഗ്രാഫുകൾ ആകുന്നു. വൈകാരിക അനുഭവങ്ങൾ ഉപയോക്തൃ അഭിപ്രായങ്ങൾ ആകുന്നു. സാംസ്കാരിക പ്രവണതകൾ ട്രെൻഡിംഗ് ആകുന്നു. മനുഷ്യരുടെ സമ്പൂർണ്ണ ജീവിതങ്ങൾ പെരുമാറ്റ ഡാറ്റ സെറ്റുകൾ (behavioral data sets) ആയി ശേഖരിക്കപ്പെടുന്നു. Surveillance capitalism നെക്കുറിച്ച് സംസാരിക്കുമ്പോൾ നാം കണ്ടത് മനുഷ്യ അനുഭവങ്ങൾ റോ മാറ്റീരിയൽ ആയി  കാണപ്പെടുന്നു എന്നതാണ്. ഇത് ഹൈഡഗർ വിവരിച്ച enframing ന്റെ ഏറ്റവും തീവ്രതയുള്ള രൂപമാണ്.

മാർട്ടിൻ ഹൈഡഗർ

ഇവിടെ ഹൈഡഗർ നൽകുന്ന ഒരു പ്രത്യാശ കൂടിയുണ്ട്: ” where danger is, grows the saving power also” (അപകടം ഉള്ളിടത്ത്, രക്ഷാശക്തിയും വളരുന്നു). സാങ്കേതികതയുടെ സത്തയെ അതിന്റെ യഥാർത്ഥ സ്വഭാവത്തിൽ തിരിച്ചറിയുക എന്നതിലൂടെയാണ് നമുക്ക് അതിൽ നിന്ന് മോചനം നേടാനാവുക. Enframing നെ മാത്രം യാഥാർത്ഥ്യം അനാവരണം ചെയ്യുന്ന ഏക മാർഗമായി കാണാതെ, അതിന്റെ പരിമിതികളെ തിരിച്ചറിയുകയും മറ്റു വഴികൾക്ക് സ്ഥലം നൽകുകയും വേണം.

Phenomenology of AI Interaction

Phenomenology എന്നത് നമ്മുടെ പ്രത്യക്ഷ അനുഭവങ്ങളെ (lived experience) പഠിക്കുന്ന ദാർശനിക മേഖലയാണ്. ഈ സംവേദനത്തിന്റെ phenomenology എന്നത് യന്ത്രങ്ങളുമായുള്ള  ദൈനംദിന ഇടപെടലുകൾ നമ്മുടെ അനുഭവ ലോകത്തെ എങ്ങനെ രൂപപ്പെടുത്തുന്നു എന്ന് മനസ്സിലാക്കാനുള്ള ശ്രമമാണ്.

നാം ഒരു ചാറ്റ്ബോട്ട്നോട് സംസാരിക്കുമ്പോൾ, ഒരു recommendation algorithm ൽ നിന്ന് നിർദ്ദേശങ്ങൾ സ്വീകരിക്കുമ്പോൾ, ഈ അനുഭവങ്ങൾ എങ്ങനെയാണ് നമ്മുടെ ബോധത്തെയും ലോകവുമായുള്ള ബന്ധത്തെയും മാറ്റുന്നത്? ഇത് വെറും ഉപകരണ ഉപയോഗമല്ല. മറിച്ച് സങ്കീർണമായ പ്രതിഫലനങ്ങളും സമൂലമായ ഇടപെടലുകളും അത് നടത്തുന്നുണ്ട്

Don Ihde യും Peter-Paul Verbeek ഉം മുന്നോട്ടുവെച്ച Post phenomenology theory പ്രകാരം, ടെക്നോളജി നമ്മുടെയും ലോകത്തിന്റെയും ഇടയിൽ വെറും മധ്യസ്ഥനല്ല (Mediator). അനുഭവങ്ങളെയും ധാരണകളെയും രൂപകല്പന ചെയ്യുന്ന ഒരു പ്രത്യേക ചട്ടക്കൂടാണത്. കണ്ണടകൾ വെറും കാഴ്ച മെച്ചപ്പെടുത്തുക മാത്രമല്ല, നാം ലോകത്തെ കാണുന്ന രീതി തന്നെ മാറ്റുന്നു. അതുപോലെ ടെക്നോളജികൾ നമ്മുടെ ചിന്തയെയും തീരുമാനങ്ങളെയും സ്വാധീനിക്കുകയും പലവിധേന പരിവർത്തിപ്പിക്കുകയും ചെയ്യുന്നുണ്ട്.

സോഷ്യൽ മീഡിയ ഫീഡുകൾ വഴി ലോകത്തെ കാണുന്നവർ, വാർത്തകളെയും സംഭവങ്ങളെയും അൽഗോരിതങ്ങൾ തിരഞ്ഞെടുത്ത് രൂപപ്പെടുത്തിയ പതിപ്പുകളായി മാത്രം കാണുന്നു. അതിനാൽ നമ്മുടെ യാഥാർത്ഥ്യം തന്നെ ഒരു എ ഐ ഫിൽറ്റർ ചെയ്ത യാഥാർത്ഥ്യമായി മാറുന്നു.

ഇത് “algorithmic subjectivity” എന്ന പുതിയ തരം ആത്മനിഷ്ഠതയിലേക്ക് നയിക്കുന്നു. നമ്മുടെ ഐഡന്റിറ്റിയും താല്പര്യങ്ങളുമെല്ലാം അൽഗോരിതത്തിന്റെ നിർദ്ദേശത്താൽ സ്വാധീനിക്കപ്പെടുന്നു. സ്പോട്ടിഫൈ നമുക്ക് റെക്കമെൻറ് ചെയ്യുന്ന പാട്ടുകൾ നമ്മുടെ മ്യൂസിക്കൽ അഭിരുചി നിർമ്മിക്കുന്നു. നെറ്റ്ഫ്ലിക്സ് റെക്കമെൻ്റേഷൻ നമ്മുടെ ദൃശ്യ താല്പര്യങ്ങൾ മാറ്റുന്നു. ടിക്‌ടോക് ന്റെ For You Page നമ്മുടെ ഇഷ്ടങ്ങൾ നിർവചിക്കുന്നു. നമ്മൾ നമ്മളെ തന്നെ മനസ്സിലാക്കുന്നതും തിരിച്ചറിയുന്നതും അൽഗോരിതം നമ്മിൽ വിഭാവനം ചെയ്ത മാതൃകയിലൂടെയാകുന്നു.

പോസ്റ്റ് ഹ്യൂമനിസം 

പോസ്റ്റ്‌ ഹ്യൂമനിസം സിദ്ധാന്തം ചോദിക്കുന്നത്, മനുഷ്യൻ എന്ന കാറ്റഗറി തന്നെ എങ്ങനെ പുനർനിർവചിക്കപ്പെടുന്നു എന്നാണ്. Rosi Braidotti യും Katherine Hayles ഉം ഈ മേഖലയിലെ പ്രമുഖ ചിന്തകരാണ്. ഇറ്റാലിയൻ-ഓസ്ട്രേലിയൻ ദാർശനികയായ Rosi Braidotti തന്റെ “The Posthuman” (2013) എന്ന കൃതിയിൽ വാദിക്കുന്നത്, പരമ്പരാഗത ഹുമാനിസ്റ്റ് ആശയമായ “Man” എന്ന യുക്തിസഹവും സ്വയംഭരണാത്മകവും പ്രകൃതിയിൽ നിന്ന് വേർതിരിക്കപ്പെട്ടതുമായ ഒരു എൻ്റിറ്റി, ഇപ്പോൾ സാധുതയില്ലാത്തതാണ് എന്നാണ്. സാങ്കേതികതയും ജൈവികതയും, മനുഷ്യനും യന്ത്രവും തമ്മിലുള്ള അതിർത്തികൾ മങ്ങിക്കൊണ്ടിരിക്കുകയാണ് എന്ന് ചുരുക്കം.

Braidotti മുന്നോട്ടുവെക്കുന്നത് “posthuman subjectivity” എന്ന ആശയമാണ്. മനുഷ്യനെ കേന്ദ്രത്തിൽ നിർത്തുന്ന anthropocentric ചിന്തയിൽ നിന്ന് മാറി, മനുഷ്യരെ മറ്റു ടെക്നോളജികളുമായും മെഷീനുകളുമായും പരസ്പര ബന്ധിതമായി കാണണം. നമ്മൾ ഇപ്പോൾ തന്നെ പോസ്റ്റ്‌ ഹ്യൂമൻ ആണ് എന്ന ആശയവും പ്രസക്തമാണ്. കാരണം സ്മാർട്ട് ഫോണുകളുമായും ഡിജിറ്റൽ ഡിവൈസുകളുമായും നിരന്തരം സംവദിക്കുകയും നിത്യ ജീവിതത്തിൽ വ്യവഹരിക്കുകയും ചെയ്യുന്ന നമ്മൾ ടെക്നോളജിയുമായി കെട്ടുപിണഞ്ഞ് കിടക്കുകയാണ്.

റോസി ബ്രയിഡൊട്ടി

എ ഐയുടെ സന്ദർഭത്തിൽ ഇത് വളരെ പ്രസക്തമാണ്. മനുഷ്യൻറെ സവിശേഷ കഴിവുകളായ റീസണിങ്ങും ബൗദ്ധിക പ്രക്രിയകളും എ ഐ ചാറ്റ് ബോട്ടുകൾ ഏറ്റെടുക്കുമ്പോൾ, മെമ്മറിക്ക് ക്ലൗഡ് സ്റ്റോറേജ് ഉപയോഗിക്കുമ്പോൾ, സർഗാത്മക ഭാവനകൾക്ക് എ ഐ ടൂളുകൾ വിനിയോഗിക്കുമ്പോൾ, നാം human-AI hybrids ആയി മാറുന്നു. മനുഷ്യബുദ്ധി എന്ന ആശയം തന്നെ സംശയാസ്പദമാകുന്നു.

Posthumanism ഒരു ടെക്നോ ഉട്ടോപ്യൻ ഫാൻ്റസിയല്ല. മറിച്ച് ഏജൻസി ചോദ്യം ചെയ്യപ്പെട്ടുകൊണ്ടിരിക്കുന്ന മറ്റൊരു സാങ്കേതിക പ്രതലമാണ്. 

അമേരിക്കൻ സാഹിത്യ വിമർശകയായ N. Katherine Hayles തന്റെ മാസ്റ്റർപീസ് രചനയായ “How We Became Posthuman” (1999) എന്ന പുസ്തകത്തിൽ വാദിക്കുന്നത്, വിവരസാങ്കേതിക കാലഘട്ടത്തിൽ embodiment (ശരീരബോധം) എങ്ങനെ മാറുന്നു എന്നാണ്. ഹെയ്‌ൽസ് ചൂണ്ടിക്കാണിക്കുന്നത്, സൈബർനെറ്റിക്സും വിവര സിദ്ധാന്തവും വഴി മനുഷ്യനെ ഇൻഫർമേഷൻ പ്രോസസ്സിംഗ് സിസ്റ്റം ആയി സങ്കല്പിക്കാൻ  തുടങ്ങിയപ്പോൾ, ബോഡിയെ വെറും ഇൻഫർമേഷൻ ക്യാരിയർ ആയി കാണുന്ന പ്രവണത ഉണ്ടായി എന്നാണ്.

Hayles വിമർശിക്കുന്നത് ഈ disembodied (ശരീരരാഹിത്യമുള്ള) പോസ്റ്റ് ഹ്യുമനിസത്തെയാണ്. മനുഷ്യ ബോധം ഡിജിറ്റലായി അപ്‌ലോഡ് ചെയ്യാം, ശരീരം ഉപേക്ഷിക്കാവുന്നതാണ് എന്ന ആശയങ്ങൾ അപകടകരമാണെന്ന് അവർ പറയുന്നു. മറിച്ച്, ശരീരബോധമുള്ള പോസ്റ്റ്ഹ്യൂമനിസത്തിനായാണ് അവർ വാദിക്കുന്നത്. സാങ്കേതികവിദ്യയും ശരീരവും തമ്മിലുള്ള ബന്ധം മനസ്സിലാക്കുക, നമ്മുടെ ഭൗതിക അസ്തിത്വത്തെ അവഗണിക്കാതെ പോസ്റ്റ്ഹ്യൂമൻ അവസ്ഥയെ സമീപിക്കുക എന്നതാണ് മാർഗ്ഗം.

ഈ മൂന്നു ദാർശനിക ചിന്തകളും  ഒരു പൊതുവായ ആലോചന തുറന്നു വെക്കുന്നു. സാങ്കേതിക യുഗത്തിൽ മനുഷ്യാസ്തിത്വത്തിന്റെ അർത്ഥം എന്താണ്? മാർട്ടിൻ ഹൈഡഗർ മുന്നറിയിപ്പ് നൽകുന്നത് enframing നമ്മുടെ ഉണ്മയെ  തന്നെ വിഭവമാക്കി  മാറ്റുന്നതിനെക്കുറിച്ചാണെങ്കിൽ, Phenomenology വെളിപ്പെടുത്തുന്നത് എ.ഐ നമ്മുടെ ജീവിതാനുഭവങ്ങളെ  എങ്ങനെ mediate ചെയ്യുന്നു എന്നാണ്. Posthumanism ചോദിക്കുന്നത് മനുഷ്യൻ എന്ന കാറ്റഗറി തന്നെ എ ഐ യുഗത്തിൽ എങ്ങനെ അപ്രസക്തമാകുന്നു എന്നുമാണ്.

ഹരാരിയുടെ ഏലിയൻ ഇന്റലിജൻസ് വാദവുമായി ബന്ധപ്പെട്ട് നോക്കിയാൽ ഈ ദാർശനിക ചട്ടക്കൂടുകൾ പ്രസക്തമാണ്. എ ഐ മനുഷ്യേതരമാകുന്നത് അത് extraterrestrial (ഭൗമാതീത) ആയതുകൊണ്ടല്ല, മറിച്ച് അത് മനുഷ്യാസ്തിത്വത്തെ തന്നെ പുനർനിർവചിക്കുന്നതുകൊണ്ടാണ്. Enframing വഴി നമ്മെ റിസോഴ്‌സുകൾ ആക്കി മാറ്റുകയും, അനുഭവശാസ്ത്രപരമായ പരിവർത്തനം (phenomenological transformation) വഴി നമ്മുടെ യാഥാർത്ഥ്യബോധം മാറ്റുകയും, മാനവാതീത സംയോജനങ്ങൾ (posthuman assemblages) വഴി ഹ്യൂമൺ – മെഷീൻ അതിർത്തികൾ തന്നെ മങ്ങിപ്പോകുകയും ചെയ്യുന്നു. അങ്ങനെ മനുഷ്യൻ എന്ന സങ്കൽപ്പം തന്നെ വെല്ലുവിളി നേരിടുന്നു.

ഈ ദാർശനിക ഉൾക്കാഴ്ചകളിൽ നിന്ന് നമുക്ക് മനസ്സിലാക്കാനാവുന്നത്, എ ഐ യെക്കുറിച്ചുള്ള ചോദ്യം വെറും സാങ്കേതിക ചോദ്യമല്ല എന്നാണ്. അത് നമ്മുടെ അസ്തിത്വത്തെ കുറിച്ചുള്ള അടിസ്ഥാനപരമായ ചോദ്യമാണ്. സാങ്കേതിക പരിഹാരങ്ങൾ മാത്രം പോരാ. നമുക്ക് ദാർശനിക ജാഗ്രത വേണം, നമ്മെക്കുറിച്ചും നമ്മുടെ ലോകത്തെക്കുറിച്ചും ആഴത്തിൽ ചിന്തിക്കാനുള്ള കഴിവ് വേണം. അതിലൂടെ മാത്രമേ എ ഐ യുടെ കാലത്ത് മനുഷ്യത്വം നിലനിർത്താൻ സാധിക്കുകയുള്ളൂ.

നിർമ്മിത ബുദ്ധി മനുഷ്യ വർഗ്ഗത്തെ കീഴടക്കിയും ആധിപത്യം ചെലുത്തിയും അനന്തരം ആക്രമണോത്സുകത കൈവരിച്ച്  നമ്മെ നിഷ്പ്രഭമാക്കുമെന്ന ഭാവനാത്മകത ഒരു ഉട്ടോപ്യൻ ആഖ്യായികയൊന്നുമല്ല. മറിച്ച് സമകാലീന പുരോഗതികളിൽ നിന്ന് തന്നെ അതിൻറെ ആധിപത്യം ബോധ്യപ്പെടുന്നതാണ്. മാത്രമല്ല അക്രമാസക്തി എന്നതിനെ പലപ്പോഴും വായിക്കപ്പെടുന്നത് ഫിക്ഷൻ സാഹിത്യങ്ങളിലെ പോലെ കില്ലിംഗ് റോബോട്ടുകൾ രംഗം കീഴടക്കുകയും രക്തച്ചൊരിച്ചിൽ തീർക്കുന്നത് പോലെയൊന്നുമല്ല. അതിൻറെ ആദ്യഘട്ടങ്ങൾ മനുഷ്യൻറെ ക്രിയേറ്റിവിറ്റി തകർക്കുന്നതും ശാരീരികമായി തളർത്തുന്നതും ബുദ്ധിപരമായി ക്ഷയിപ്പിക്കുന്നതുമൊക്കെ അടങ്ങുന്നതാണ്. 

നമ്മുടെ അധികാരത്തിനും സ്വാതന്ത്ര്യത്തിനും ഏൽക്കുന്ന ഒളിയമ്പുകളാണ് എ ഐ എന്ന് പറഞ്ഞാൽ തെറ്റില്ല. കാരണം ജീവിതത്തെയും പ്രവർത്തി ദൗത്യങ്ങളെയും ലഘൂകരിക്കുകയും സരളമാക്കുകയുമാണ് പ്രത്യക്ഷത്തിൽ നിർമ്മിത ബുദ്ധി ചെയ്തിട്ടുള്ളത്. എന്നാൽ അതിൽ അന്തർലീനമായ പ്രശ്ന കാലുഷ്യങ്ങളിൽ ബോധപൂർവ്വം ഇടപെടേണ്ടതാണ്. പവർ പൊളിറ്റിക്സിന് എതിരെയും മറ്റു സാമൂഹിക അധികാര സ്വത്വങ്ങളെയും വിമർശിക്കുന്ന സോഷ്യൽ ആക്ടിവിസങ്ങൾ എ ഐ യുടെ ഏജൻസി ഹത്യകളെ കൂടി സമൂഹത്തിൽ പ്രശ്നവൽക്കരിക്കുകയും ബോധവൽക്കരിക്കുകയും ചെയ്യേണ്ടതുണ്ട്.

 Reference:

  • Zuboff, Shoshana.
      The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power. New York: PublicAffairs, 2019.
  • Russell, Stuart.
      Human Compatible: Artificial Intelligence and the Problem of Control. New York: Viking, 2019.
  • Tegmark, Max.
      Life 3.0: Being Human in the Age of Artificial Intelligence. New York: Alfred A. Knopf, 2017.
  • Heidegger, Martin.
      “The Question Concerning Technology.” In The Question Concerning Technology and Other Essays, translated by William Lovitt, 3–35. New York: Harper & Row, 1977.
  • Ihde, Don.
      Postphenomenology and Technoscience: The Peking University Lectures. Albany: State University of New York Press, 2009. In
  • Verbeek, Peter-Paul.
      What Things Do: Philosophical Reflections on Technology, Agency, and Design. University Park: Pennsylvania State University Press, 2005.
  • Braidotti, Rosi.
      The Posthuman. Cambridge: Polity Press, 2013.
  • Hayles, N. Katherine.
      How We Became Posthuman: Virtual Bodies in Cybernetics, Literature, and Informatics. Chicago: University of Chicago Press, 1999.

സിനാൻ കൂട്ടിലങ്ങാടി