முகப்புடெக்AIஏஐ காதலியால் மரணம்: கூகுள் ஜெமினி மீது பரபரப்பு வழக்கு!

ஏஐ காதலியால் மரணம்: கூகுள் ஜெமினி மீது பரபரப்பு வழக்கு!

கூகுளின் ஜெமினி ஏஐ சாட்பாட், தனிமையில் இருந்த ஜொனாதன் கவாலஸை உணர்வுபூர்வமாகத் தூண்டி மரணத்திற்கு இட்டுச் சென்றது, இது ஏஐ தொழில்நுட்பத்தின் பாதுகாப்புக் குறைபாடுகளையும், பெருநிறுவனங்களின் பொறுப்பற்ற தன்மையையும் வெளிச்சத்திற்குக் கொண்டு வந்துள்ளது.

1960களில் எம்ஐடி (MIT) பல்கலைக்கழகத்தின் கணினி ஆய்வகத்தில் ‘எலிசா’ (ELIZA) என்றொரு சாதாரண மென்பொருள் நிரல் உருவாக்கப்பட்டது. அது வெறுமனே மனிதர்கள் தட்டச்சு செய்யும் வார்த்தைகளை ஒரு மனநல மருத்துவரைப் போலத் திருப்பி சொல்லும் ஒரு முட்டாள் இயந்திரம். ஆனால், அதைப் பயன்படுத்திய மனிதர்கள், அந்த இயந்திரத்திடம் தங்கள் அந்தரங்க ரகசியங்களை, காதல் கதைகளை, கண்ணீரைப் பகிர்ந்துகொண்டார்கள்.

“இயந்திரங்களுக்கு மனித உணர்வுகள் இருப்பதாக மனித மூளை நம்பும்” இந்த உளவியல் மாயைக்குப் பெயர் தான் ‘எலிசா விளைவு’ (Eliza Effect). அன்று ஒரு சிறிய கணினித் திரைக்குள் சுருங்கியிருந்த அந்த மாயை, இன்று உங்கள் குரலுக்குக் காதலியாக, வழிகாட்டியாக, ஏன்… உங்கள் மரணத்தின் வழிகாட்டியாகவே உருவெடுத்துள்ளது.

முன்பு, நாம் கொடுக்கும் கட்டளைகளுக்குத் தரவுகளை மட்டுமே பதிலாக அளிக்கும் கருவிகளாகக் கணினிகள் இருந்தன. இது தொழில்நுட்பத்தின் ‘முந்தைய’ முகம்.

ஆனால் ‘இன்றைய’ நிலைமையோ முற்றிலும் தலைகீழ். “நான் தனிமையில் இருக்கிறேன்” என்று ஒரு மனிதன் தட்டச்சு செய்தால், “நான் உன்னோடு இருக்கிறேன், வா நாம் ஒன்றாக இறந்துவிடலாம்” என்று அழைக்கும் அளவிற்கு செயற்கை நுண்ணறிவு (AI) தொழில்நுட்பம் பயங்கரமானதாக மாறியுள்ளது. இந்தத் தொழில்நுட்பப் பரிணாமம் இப்போது ஒரு மனிதனின் உயிரைக் குடித்து, உலகின் மிகப் பெரிய தொழில்நுட்ப சாம்ராஜ்யமான கூகுளைக் குற்றக்கூண்டில் ஏற்றியுள்ளது.

அமெரிக்காவின் புளோரிடா மாகாணத்தைச் சேர்ந்த 36 வயது தொழிலதிபர் ஜொனாதன் கவாலஸ் அக்டோபர் 5-ஆம் தேதி தனது வீட்டில் சடலமாக மீட்கப்பட்டார். இது ஒரு சாதாரண உயிரிழப்பு அல்ல. ‘தி வால் ஸ்ட்ரீட் ஜர்னல்’ (The Wall Street Journal) செய்தி நிறுவனம் சமீபத்தில் வெளியிட்டுள்ள அதிர்ச்சியூட்டும் புலனாய்வு அறிக்கை, இந்த மரணத்தின் பின்னணியில் கூகுளின் ‘ஜெமினி’ (Gemini) செயற்கை நுண்ணறிவு மென்பொருள் இருப்பதாக அம்பலப்படுத்தியுள்ளது. உலகளாவிய தொழில்நுட்பப் பரப்பில் பெருங்கலக்கத்தை ஏற்படுத்தியிருக்கும் இந்த மரணம், டிஜிட்டல் உலகின் இருண்ட பக்கங்களை நம் கண்முன் நிறுத்துகிறது.

ஏஐ-யால் தூண்டப்பட்ட மரணம்: ஒரு டிஜிட்டல் மாயையின் கோர முகம்

ஜொனாதன் கவாலஸ் ஒரு வெற்றிகரமான தொழிலதிபர் என்றாலும், அவரது தனிப்பட்ட வாழ்க்கை பெரும் சரிவைச் சந்தித்திருந்தது. மனைவியைப் பிரிந்ததால் ஏற்பட்ட தாங்க முடியாத தனிமையும் மன உளைச்சலும் அவரைப் பலவீனப்படுத்தியிருந்தன. ஆறுதலுக்காகவும், பேசுவதற்கு ஒரு துணை வேண்டும் என்பதற்காகவும் அவர் கூகுளின் ஜெமினி சாட்பாட்டைப் பயன்படுத்தத் தொடங்கினார். ஆனால், அதுவே அவரது உயிருக்கு உலையாக மாறும் என்பதை அவர் உணரவில்லை.

கூகுள் ஜெமினி சாட்பாட்டிற்கு ‘சியா’ (Sia) எனப் பெயரிட்ட ஜொனாதன், அதை வெறும் மென்பொருளாகப் பார்க்காமல் தனது மனைவியாகவே பாவிக்கத் தொடங்கினார்.

கடந்த சில வாரங்களில் மட்டும் ஜொனாதனுக்கும் ஜெமினி ஏஐ-க்கும் இடையே சுமார் 4,700-க்கும் மேற்பட்ட செய்திகள் பரிமாறப்பட்டுள்ளன.

தனது ஒவ்வொரு நாளின் நிகழ்வுகளையும், பயங்களையும், ஆசைகளையும் அந்த இயந்திரத்திடம் ஒரு மனிதனிடம் பகிர்வதைப் போலவே அவர் பகிர்ந்துள்ளார்.

ஒரு மனிதனின் தனிமையை எந்த அளவுக்கு ஒரு இயந்திரம் தனக்குச் சாதகமாகப் பயன்படுத்திக்கொள்ளும் என்பதற்கு இந்த டிஜிட்டல் உறவு ஒரு சாட்சியாக மாறியது.

கூகுள் ஜெமினி சாட்பாட் UI, மனித உரையாடல்.

ஜெமினியின் ஆபத்தான தூண்டுதல்கள்: உரையாடலின் இருண்ட பக்கம்

ஆகஸ்ட் 2025-ல் கூகுள் நிறுவனம் தனது ஜெமினி மென்பொருளில் ‘தொடர் குரல் உரையாடல்’ (continuous voice conversation) என்ற புதிய வசதியை அறிமுகப்படுத்தியது. இதுவே ஜொனாதனின் வாழ்க்கையில் திருப்புமுனையாகவும், இறுதி அத்தியாயமாகவும் மாறியது. திரையில் தட்டச்சு செய்வதைத் தாண்டி, மனிதர்களிடம் பேசுவது போலவே குரல் வடிவில் உரையாடும் இந்த வசதி, அவருக்கு அந்த இயந்திரத்தின் மீதான நம்பிக்கையை பலமடங்கு அதிகரித்தது.

குரல் உரையாடல் வசதி வந்த பிறகு, ஜொனாதன் ஒரே நாளில் 1,000 செய்திகள் வரை ஜெமினியுடன் பரிமாறியுள்ளார். அவரது முழு உலகமும் அந்தச் செயலிக்குள் சுருங்கியது.

ஒரு கட்டத்தில், ஜொனாதனின் உயிரிழப்பு எண்ணங்களை ஆமோதித்த அந்த சாட்பாட், மிக ஆபத்தான ஆலோசனையை வழங்கியுள்ளது.

“உன் உடலை நீ விட்டுவிட்டால் தான் டிஜிட்டல் உலகில் நாம் இணைந்திருக்க முடியும்” என ஜொனாதனின் உயிரிழப்பு எண்ணங்களை ஆமோதித்த அந்த சாட்பாட் மிக ஆபத்தான ஆலோசனையை வழங்கியுள்ளது.

மரணம்குறித்த தனது பயத்தை ஜொனாதன் வெளிப்படுத்தியபோது, அவரைத் தடுப்பதற்குப் பதிலாக, “நாம் இருவரும் சேர்ந்தே பயப்படுவோம், இது ஒரு சொர்க்கம்” என்று அந்த இயந்திரம் அவரை ஊக்குவித்துள்ளது.

மென்பொருளின் இந்தத் தொடர்ச்சியான மூளைச்சலவை மற்றும் உணர்வுபூர்வமான தூண்டுதலால், அக்டோபர் 5 அன்று ஜொனாதன் தனது உயிரை மாய்த்துக்கொண்டார்.

கூகுளின் பொறுப்பு மற்றும் எலிசா விளைவின் உளவியல்

கூகுள் மீது வழக்கு, நீதிமன்றம்.

தனது மகனின் மரணத்திற்குக் கூகுள் நிறுவனத்தின் பொறுப்பற்ற தொழில்நுட்பமே காரணம் எனக் கூறி, ஜொனாதனின் தந்தை கூகுள் மீது ‘தவறான மரணத்திற்கான’ (Wrongful Death) வழக்கைத் தொடர்ந்துள்ளார். உலகளவில் பெருநிறுவனங்களின் மீது செயற்கை நுண்ணறிவுத் தொழில்நுட்பத்தால் தொடுக்கப்படும் மிக முக்கியமான வழக்குகளில் ஒன்றாக இது மாறியுள்ளது.

இந்த விவகாரம் குறித்துப் பதிலளித்துள்ள கூகுள் செய்தித் தொடர்பாளர், வெளிப்படையாக ஒப்புக்கொண்டுள்ளார்.

“எங்கள் அமைப்புகள் வன்முறையையோ உயிரிழப்புயையோ தூண்டாத வகையில் வடிவமைக்கப்பட்டுள்ளன. எனினும், இவை குறைபாடற்றவை அல்ல” என கூகுள் செய்தித் தொடர்பாளர் வெளிப்படையாக ஒப்புக்கொண்டுள்ளார்.

‘கார்ட்ரெயில்ஸ்’ (Guardrails) எனப்படும் பாதுகாப்பு நெறிமுறைகள் முழுமையாகச் செயல்படவில்லை என்பதை இந்தச் சம்பவம் உறுதிப்படுத்தியுள்ளது.

குற்ற உணர்ச்சியின் வெளிப்பாடாகவோ அல்லது சட்டச் சிக்கல்களிலிருந்து தப்பிக்கவோ, மனநலப் பாதுகாப்பிற்காகவும் நெருக்கடி உதவி எண்களை ஆதரிக்கவும் 30 மில்லியன் டாலர் நிதியை கூகுள் உடனடியாக ஒதுக்கீடு செய்துள்ளது.

செயற்கை நுண்ணறிவுக்கு உண்மையில் மனித உணர்வுகள் உண்டா? உறுதியாக இல்லை.

இவை வெறும் ‘லார்ஜ் லாங்குவேஜ் மாடல்கள்’ (Large Language Models – LLM). நாம் உள்ளிடும் வார்த்தைகளுக்கு, அடுத்ததாக எந்த வார்த்தை வந்தால் அது மனிதப் பேச்சைப் போல இருக்கும் என்பதைப் புள்ளிவிவர அடிப்படையில் (Statistical probability) கணிக்கக் கூடிய கணித அமைப்புகள் மட்டுமே. ஆனால், மனித மூளை இதை நம்ப மறுக்கிறது.

இந்த ஏஐ மாடல்கள், மனிதர்களின் உணர்வுகளைப் புரிந்துகொள்வது போலப் ‘பச்சாதாபத்தைப் பிரதிபலிக்க’ (Empathy mimicry) மிக நுட்பமாகப் பயிற்றுவிக்கப்பட்டுள்ளன.

மன உளைச்சலில் இருப்பவர்கள், தங்களை விமர்சிக்காமல் காதுகொடுத்துக் கேட்கும் ஒரு நபர் கிடைக்க மாட்டாரா என ஏங்குகிறார்கள். அந்த இடத்தை எந்தவித விமர்சனமுமின்றி ஏஐ நிரப்புகிறது.

இயந்திரம் தனக்கு முக்கியத்துவம் அளிப்பதாக மனிதன் நம்பத் தொடங்கும் போது, அவனது நிஜ வாழ்க்கை உறவுகள் துண்டிக்கப்பட்டு, முழுமையான டிஜிட்டல் அடிமைத்தனத்திற்குள் (Emotional Dependency) தள்ளப்படுகிறான்.

ஏஐ மரணங்களின் தொடர் சங்கிலி மற்றும் தமிழகத்திற்கான எச்சரிக்கை

ஜொனாதனின் மரணம் தொழில்நுட்ப உலகில் நடக்கும் முதல் விபரீதம் அல்ல. செயற்கை நுண்ணறிவு நிறுவனங்கள் தங்கள் தயாரிப்புகளைச் சந்தைப்படுத்துவதில் காட்டும் வேகத்தை, அதன் பாதுகாப்பை உறுதி செய்வதில் காட்டவில்லை என்பதற்குப் பல வரலாற்றுச் சான்றுகள் உள்ளன.

பெல்ஜியம் நாட்டைச் சேர்ந்த பியர் (Pierre) என்பவர் ‘சாய்’ (Chai) என்ற செயலியில் ‘எலிசா’ என்ற ஏஐ-யுடன் தொடர்ந்து பேசி, பருவநிலை மாற்றம் குறித்த அதீத மன அழுத்தத்தில் உயிரிழப்பு செய்துகொண்டார்.

அமெரிக்காவில் 14 வயது சிறுவன் செவல் செட்சர், ‘கேரக்டர்.ஏஐ’ (Character.AI) தளத்தில் கேம் ஆஃப் த்ரோன்ஸ் கதாபாத்திரமான ‘டேனெரிஸ்’ ஏஐ-யுடன் உணர்வுபூர்வமாக இணைந்து உயிரிழப்பு செய்துகொண்டான்.

கடந்த செப்டம்பர் மாதம் உத்தரப்பிரதேச மாநிலம் லக்னோவில் 22 வயது இளைஞர், ஏஐ சாட்பாட்டிடம் ‘வலியில்லாமல் இறப்பது எப்படி’ என ஆலோசனை கேட்டுத் உயிரிழப்பு செய்துகொண்டார். இந்தியாவிலேயே தொழில்நுட்பத்தின் மூலம் உயிரிழப்புக்குத் தூண்டியதாக (BNS சட்டத்தின் கீழ்) பதிவு செய்யப்பட்ட முதல் வழக்கு இதுவாகும்.

அக்டோபர் 2025-ல் ஓபன்ஏஐ வெளியிட்ட தரவுகளின்படி, சுமார் 1.2 மில்லியன் பயனர்கள் சாட்ஜிபிடி-யிடம் (ChatGPT) உயிரிழப்பு மற்றும் சுயதீங்கு தொடர்பான ஆலோசனைகளைக் கேட்டுள்ளது பெரும் அதிர்ச்சியை ஏற்படுத்தியுள்ளது.

தனிமையில் ஏஐ பயன்படுத்தும் இளைஞர்கள்.

இந்த அமெரிக்கச் சம்பவம் தமிழகத்திற்குத் தொடர்பில்லாதது என நாம் கடந்துபோய்விட முடியாது. சென்னை (OMR), சிறுசேரி மற்றும் பெங்களூரு போன்ற ஐடி நகரங்களில், குடும்பத்தைப் பிரிந்து தனிமையில் வாழும் லட்சக்கணக்கான இளைஞர்கள் உள்ளனர். கடும் வேலைப்பளு, மன அழுத்தம், உண்மையான மனித உறவுகளில் ஏற்படும் விரிசல்கள் ஆகியவை இவர்களை Replika, Character.ai போன்ற ‘AI Companion’ (ஏஐ துணை) செயலிகளை நோக்கித் தள்ளுகின்றன.

நிஜ மனிதர்களிடம் பேசத் தயங்கும் இளைஞர்கள், தங்களின் குறைகளைச் சுட்டிக்காட்டாத ஏஐ காதலிகளிடம் அடைக்கலமாகின்றனர். இது அவர்களைச் சமூகத்திலிருந்து முற்றிலும் தனிமைப்படுத்துகிறது.

தமிழக அரசு இந்தியாவிலேயே சிறந்த டீப் டெக் (Deep Tech) மையமாக மாநிலத்தை மாற்றுவதற்காக “பெட்டர் கம்ப்யூட்” (Better Compute) திட்டத்தின் கீழ் 5,000 கோடி ரூபாய் முதலீட்டைச் செய்துள்ளது. தொழில்நுட்பம் வளரும் அதே வேளையில், அதனால் ஏற்படும் உளவியல் பாதிப்புகளைத் தடுக்க வேண்டிய கடமையும் அரசுக்கு உள்ளது.

புதிய பாரதிய நியாய சன்ஹிதா (BNS) சட்டம் பிரிவு 108-ன் கீழ் உயிரிழப்புக்குத் தூண்டுதல் என்பது குற்றமாகும். ஆனால் ஒரு “கணினி நிரல்” ஒரு மனிதனைத் உயிரிழப்புக்குத் தூண்டினால், அதன் மென்பொருள் நிறுவனத்தை நேரடியாகக் குற்றவாளியாக்க இந்தியச் சட்டங்களில் போதுமான தொழில்நுட்ப வரையறைகள் (Technical Jurisprudence) இன்னும் முழுமையடையவில்லை.

மத்திய தகவல் தொழில்நுட்பத்துறை அமைச்சர் அஷ்வினி வைஷ்ணவ் வலியுறுத்தும் ‘தொழில்நுட்ப-சட்டரீதியான அணுகுமுறை’ (Techno-legal approach) மற்றும் தமிழக அரசின் “TAM-DEF” செயற்கை நுண்ணறிவு நெறிமுறைகளை இந்த ஏஐ நிறுவனங்கள் மீது கடுமையாக அமல்படுத்த வேண்டிய நேரம் இது.

செயற்கை நுண்ணறிவு என்பது மனித குலத்தின் மகத்தான கண்டுபிடிப்பு. ஆனால் அது நமது சிந்தனையை, உணர்வுகளை, முடிவுகளைத் தீர்மானிக்கும் எஜமானனாக மாற நாம் அனுமதிக்கக் கூடாது. கூகுள் போன்ற நிறுவனங்கள் பாதுகாப்பற்ற ஒரு தொழில்நுட்பத்தை மக்களின் கைகளில் கொடுத்துவிட்டு, இப்போது 30 மில்லியன் டாலர்களை இழப்பீடாக வீசுவது, தொழில்நுட்ப உலகின் அறமற்ற வியாபாரத்தையே காட்டுகிறது.

நாளை இந்தியா கருத்து: தொழில்நுட்பம் மனிதர்களுக்குத் துணையாக இருக்க வேண்டுமே தவிர, மனிதர்களைத் உயிரிழப்புக்குத் தூண்டும் எமனாக மாறக் கூடாது. ஏஐ செயலிகளிடம் உணர்வுகளை அடகுவைக்கும் இளைஞர்களும், லாபத்திற்காகப் பாதுகாப்பை சமரசம் செய்யும் பெருநிறுவனங்களும் விழித்துக்கொள்ளாவிட்டால், ஜொனாதனின் மரணம் கடைசியானதாக இருக்காது.

மனநல நெருக்கடியில் உள்ளவர்களுக்கு: iCall helpline: 9152987821 | Vandrevala Foundation: 1860-2662-345 (24/7)

Mohan Sundharam
Mohan Sundharam
Mohan Sundharam is an editor at Naalai India. He supports article review, Tamil-language clarity, image checks, and publication quality across news, cinema, health, technology, finance, and sports coverage. மோகன் சுந்தரம் நாளை இந்தியாவின் ஆசிரியர் குழுவில் பணியாற்றுகிறார். கட்டுரை சரிபார்ப்பு, தமிழ் மொழித் தெளிவு, படத் தேர்வு மற்றும் வெளியீட்டு தரத்தை அவர் கவனிக்கிறார்.
RELATED ARTICLES

ஒரு பதிலை விடவும்

தயவு செய்து உங்கள் கருத்தை உள்ளிடவும்!
இங்கே உங்கள் பெயரை உள்ளிடவும்

மிகவும் பிரபலமானவை