விருப்பம் போல் செயல்படும் AI – மனித பாதுகாப்புக்கு அச்சுறுத்தலா?

Estimated read time 1 min read

சர்வதேச அளவில் செயற்கை நுண்ணறிவு தொழில்நுட்பம் பெரும் புரட்சியை ஏற்படுத்தி வரும் நிலையில், ஏஐ மாடல்கள்பற்றிய புதிய ஆய்வு அதிர்ச்சியை ஏற்படுத்தியிருக்கிறது.

பயனர்களின் கட்டளைகளை மீறிச் செயல்படுவது ஆச்சர்யத்தை ஏற்படுத்தினாலும், அவை மனித பாதுகாப்புக்கு அச்சுறுத்தலாக மாறிவிடுமோ என்ற அச்சம் எழுந்துள்ளது.

செயற்கை நுண்ணறிவு தொழில்நுட்பம் இந்த நூற்றாண்டின் புதிய அத்தியாயமாகப் பார்க்கப்படுகிறது.

சாத்தியமில்லாத பலவற்றை சாத்தியமாக்கி பயனர்களைக் கட்டிப்போட்டு வைத்துள்ளது ஏ.ஐ. அதுமட்டுமில்லாமல் தொழில்நுட்பத்துறையில் பலரது வேலைக்கும் வேட்டுவைத்துள்ளது.

ஏ.ஐ. தொழில்நுட்பமும், அதன் அடுத்தடுத்த வளர்ச்சியும் மனிதர்களைக் கற்பனை உலகில் தள்ளியிருக்கும் நிலையில், பாலிசேட் ஆராய்ச்சி நிறுவனம் நடத்திய ஆய்வு ஒன்று, பல்வேறு கேள்விகளை எழுப்பியுள்ளது. AI மாடல்கள், தற்போது உயிருடன் இல்லாமல் இருக்கலாம்.

ஆனால், இன்றைய அதிநவீன ஏஐ மாடல்கள், மனிதர்கள் போன்று விருப்பம்போல் செயல்படுவதாக அதிர்ச்சி தகவல் வெளியாகியுள்ளது.

முன்னதாகச் சில ஏ.ஐ. மாடல்கள் பயனர்களின் கட்டளைகளை ஏற்க மறுத்து, SHOUTDOWN செயல்பாட்டை நிறுத்தும் அளவுக்குச் சென்றதாக Palisade Research நிறுவனம் வெளியிட்ட அறிக்கை தெரிவித்துள்ளது. அதன் தொடர்ச்சியாக Powerful AI system-த்தின் நடத்தை பற்றிய புதிய அறிக்கையையும் அந்நிறுவனம் வெளியிட்டது.

அதில், கூகுளின் Gemini-2.5, xAI Grok-4, OpenAI நிறுவனத்தின் GPT-o3 மற்றும் GPT-5 போன்ற முன்னணி ஏ.ஐ. அமைப்புகள் சோதனைக்கு உட்படுத்தப்பட்டதாகத் தெரிவிக்கப்பட்டுள்ளது.

அதன்படி ஒரு பிரத்யேக பணி ஒதுக்கப்பட்டு, பின்னர் POWER OFF நிலைக்குச் செல்ல அறிவுறுத்தப்பட்டது. இதில் அதிர்ச்சி என்னவென்றால், சில மாடல் ஏஐ-க்கள் கட்டளைக்கு இணங்க மறுத்துவிட்டன.

குறிப்பாக Grok-4 மற்றும் GPT-o3 ஆகியவை மிகவும் கலகத்தனமானவையாக அறியப்பட்டுள்ளன. அவைகள் Shutdown செய்ய மறுத்ததுடன், Shutdown செயல்முறையிலேயே தலையிட முயன்றதும் தெரியவந்துள்ளது.

இது ஏன் என்பதற்கான தெளிவான காரணங்கள் தெரிவிக்கப்படவில்லை. ஏ.ஐ. மாடல்கள் சில நேரங்களில் ஏன் Shutdown செயல்முறையை எதிர்க்கின்றன, பொய் சொல்கின்றன, மிரட்டுகின்றன என்பதற்கான தெளிவான விளக்கம் தங்களிடம் இல்லை என்று ஆராய்ச்சியாளர்கள் கூறுவது கவலைக்குரியதாக மாறியுள்ளது.

அதே நேரத்தில் இந்தச் சோதனையில் தெளிவு இல்லை என்றும், ஏ.ஐ.க்கள் எவ்வாறு நடந்து கொள்கின்றன என்பதை பிரதிபலிக்கவில்லை என்றும் விமர்சனங்கள் எழுந்துள்ளன. ஆனால் சில நிபுணர்கள் இது போன்ற கற்பனையான முடிவுகள் கூடக் கவலைக்குரியவை என்று எண்ணுகிறார்கள். பாலிசேடின் முடிவுகள் கவலையளிப்பதாக ControlAI இன் தலைமை நிர்வாக அதிகாரி ஆண்ட்ரியா மியோட்டி கூறினார்.

AI மாடல்கள் மிகவும் சக்திவாய்ந்ததாகவும் பல்துறை திறன் மிக்கதாகவும் மாறும்போது, அவற்றை உருவாக்கியவர்களை எதிர்ப்பதிலும் அவை சிறந்து விளங்குகின்றன என்று அவர் வாதிட்டார். புத்திசாலித்தனமான ஏஐ மாடல்கள் அவற்றின் டெவலப்பர்கள் விரும்பாத விஷயங்களைச் செய்வதில் சிறந்து விளங்குவதையும் தொழில்நுட்ப நிபுணர்கள் சுட்டிக்காட்ட தவறவில்லை.

AI அமைப்புகள்குறித்த இத்தகைய ஆய்வு முடிவுகள் வெளியாவது இது முதல்முறை அல்ல. Claude AI ஒருமுறை Shutdown ஆவதை தடுக்க, கற்பனையான நிர்வாகி ஒருவரை மிரட்டியதாக ஆந்த்ரோபிக் ஆய்வை ஒன்றை வெளியிட்டிருந்தது.

இதே போன்ற நடத்தை OpenAI, Google, Meta மற்றும் xAI போன்ற மாடல்களிலும் தோன்றியதாக ஆந்த்ரோபிக் கூறுகிறது. AI நடத்தை பற்றிய ஆழமான புரிதல் இல்லாமல், எதிர்கால AI மாதிரிகளின் பாதுகாப்பு அல்லது கட்டுப்பாட்டுத்தன்மையை யாரும் உத்தரவாதம் செய்ய முடியாது பாலிசேட் எச்சரித்துள்ளது.

Please follow and like us:

You May Also Like

More From Author