சர்வதேச அளவில் செயற்கை நுண்ணறிவு தொழில்நுட்பம் பெரும் புரட்சியை ஏற்படுத்தி வரும் நிலையில், ஏஐ மாடல்கள்பற்றிய புதிய ஆய்வு அதிர்ச்சியை ஏற்படுத்தியிருக்கிறது.
பயனர்களின் கட்டளைகளை மீறிச் செயல்படுவது ஆச்சர்யத்தை ஏற்படுத்தினாலும், அவை மனித பாதுகாப்புக்கு அச்சுறுத்தலாக மாறிவிடுமோ என்ற அச்சம் எழுந்துள்ளது.
செயற்கை நுண்ணறிவு தொழில்நுட்பம் இந்த நூற்றாண்டின் புதிய அத்தியாயமாகப் பார்க்கப்படுகிறது.
சாத்தியமில்லாத பலவற்றை சாத்தியமாக்கி பயனர்களைக் கட்டிப்போட்டு வைத்துள்ளது ஏ.ஐ. அதுமட்டுமில்லாமல் தொழில்நுட்பத்துறையில் பலரது வேலைக்கும் வேட்டுவைத்துள்ளது.
ஏ.ஐ. தொழில்நுட்பமும், அதன் அடுத்தடுத்த வளர்ச்சியும் மனிதர்களைக் கற்பனை உலகில் தள்ளியிருக்கும் நிலையில், பாலிசேட் ஆராய்ச்சி நிறுவனம் நடத்திய ஆய்வு ஒன்று, பல்வேறு கேள்விகளை எழுப்பியுள்ளது. AI மாடல்கள், தற்போது உயிருடன் இல்லாமல் இருக்கலாம்.
ஆனால், இன்றைய அதிநவீன ஏஐ மாடல்கள், மனிதர்கள் போன்று விருப்பம்போல் செயல்படுவதாக அதிர்ச்சி தகவல் வெளியாகியுள்ளது.
முன்னதாகச் சில ஏ.ஐ. மாடல்கள் பயனர்களின் கட்டளைகளை ஏற்க மறுத்து, SHOUTDOWN செயல்பாட்டை நிறுத்தும் அளவுக்குச் சென்றதாக Palisade Research நிறுவனம் வெளியிட்ட அறிக்கை தெரிவித்துள்ளது. அதன் தொடர்ச்சியாக Powerful AI system-த்தின் நடத்தை பற்றிய புதிய அறிக்கையையும் அந்நிறுவனம் வெளியிட்டது.
அதில், கூகுளின் Gemini-2.5, xAI Grok-4, OpenAI நிறுவனத்தின் GPT-o3 மற்றும் GPT-5 போன்ற முன்னணி ஏ.ஐ. அமைப்புகள் சோதனைக்கு உட்படுத்தப்பட்டதாகத் தெரிவிக்கப்பட்டுள்ளது.
அதன்படி ஒரு பிரத்யேக பணி ஒதுக்கப்பட்டு, பின்னர் POWER OFF நிலைக்குச் செல்ல அறிவுறுத்தப்பட்டது. இதில் அதிர்ச்சி என்னவென்றால், சில மாடல் ஏஐ-க்கள் கட்டளைக்கு இணங்க மறுத்துவிட்டன.
குறிப்பாக Grok-4 மற்றும் GPT-o3 ஆகியவை மிகவும் கலகத்தனமானவையாக அறியப்பட்டுள்ளன. அவைகள் Shutdown செய்ய மறுத்ததுடன், Shutdown செயல்முறையிலேயே தலையிட முயன்றதும் தெரியவந்துள்ளது.
இது ஏன் என்பதற்கான தெளிவான காரணங்கள் தெரிவிக்கப்படவில்லை. ஏ.ஐ. மாடல்கள் சில நேரங்களில் ஏன் Shutdown செயல்முறையை எதிர்க்கின்றன, பொய் சொல்கின்றன, மிரட்டுகின்றன என்பதற்கான தெளிவான விளக்கம் தங்களிடம் இல்லை என்று ஆராய்ச்சியாளர்கள் கூறுவது கவலைக்குரியதாக மாறியுள்ளது.
அதே நேரத்தில் இந்தச் சோதனையில் தெளிவு இல்லை என்றும், ஏ.ஐ.க்கள் எவ்வாறு நடந்து கொள்கின்றன என்பதை பிரதிபலிக்கவில்லை என்றும் விமர்சனங்கள் எழுந்துள்ளன. ஆனால் சில நிபுணர்கள் இது போன்ற கற்பனையான முடிவுகள் கூடக் கவலைக்குரியவை என்று எண்ணுகிறார்கள். பாலிசேடின் முடிவுகள் கவலையளிப்பதாக ControlAI இன் தலைமை நிர்வாக அதிகாரி ஆண்ட்ரியா மியோட்டி கூறினார்.
AI மாடல்கள் மிகவும் சக்திவாய்ந்ததாகவும் பல்துறை திறன் மிக்கதாகவும் மாறும்போது, அவற்றை உருவாக்கியவர்களை எதிர்ப்பதிலும் அவை சிறந்து விளங்குகின்றன என்று அவர் வாதிட்டார். புத்திசாலித்தனமான ஏஐ மாடல்கள் அவற்றின் டெவலப்பர்கள் விரும்பாத விஷயங்களைச் செய்வதில் சிறந்து விளங்குவதையும் தொழில்நுட்ப நிபுணர்கள் சுட்டிக்காட்ட தவறவில்லை.
AI அமைப்புகள்குறித்த இத்தகைய ஆய்வு முடிவுகள் வெளியாவது இது முதல்முறை அல்ல. Claude AI ஒருமுறை Shutdown ஆவதை தடுக்க, கற்பனையான நிர்வாகி ஒருவரை மிரட்டியதாக ஆந்த்ரோபிக் ஆய்வை ஒன்றை வெளியிட்டிருந்தது.
இதே போன்ற நடத்தை OpenAI, Google, Meta மற்றும் xAI போன்ற மாடல்களிலும் தோன்றியதாக ஆந்த்ரோபிக் கூறுகிறது. AI நடத்தை பற்றிய ஆழமான புரிதல் இல்லாமல், எதிர்கால AI மாதிரிகளின் பாதுகாப்பு அல்லது கட்டுப்பாட்டுத்தன்மையை யாரும் உத்தரவாதம் செய்ய முடியாது பாலிசேட் எச்சரித்துள்ளது.
