AI Model Crossing Red Lines : மனித குலத்திற்கு ஆபத்தாக ரெட் லைனை தாண்டும் AI மாடல் வல்லுநர்கள் எச்சரிக்கை
இந்த காலத்தில் AI Model-கள் நமக்கு பல்வேறு துறைகளிலும் மிகப்பெரிய உதவிகளைச் செய்து வருகிறது. உலகெங்கும் AI செயற்கை நுண்ணறிவு ஆதிக்கம் செலுத்தி வருகிறது. நாம் திரும்பிய பக்கமெல்லாம் AI இல்லாத துறையே இல்லை என்ற அளவுக்கு ஆதிக்கம் செலுத்தி வருகிறது. இந்த AI Model-கள் ஆபத்தான “ரெட்” லைனை கடப்பதாகவும் (AI Model Crossing Red Lines) இதனால் அது மனிதர்கள் கையைவிட்டுச் செல்லும் ஆபத்து இருப்பதாக சமீபத்தில் நடத்தப்பட்ட ஆய்வு ஒன்றில் வல்லுநர்கள் எச்சரித்துள்ளனர்.
AI (செயற்கை நுண்ணறிவு) குறித்த சில அதிர்ச்சி தகவல்கள் தற்போது வெளியாகியுள்ளது. அதாவது இந்த செயற்கை நுண்ணறிவு தன்னை தானே குளோன் (Self-Replication) செய்து கொள்ளும் ஆற்றலைக் குறிப்பிடத்தக்க அளவுக்கு பெற்றுவிட்டதாக ஆய்வாளர்கள் (AI Model Crossing Red Lines) எச்சரித்து உள்ளனர். ஆய்வாளர்கள் இதனை ரெட் லைனை கடக்கும் ஒரு செயல் என்றும் இதனால் பேரழிவு ஏற்படும் ஆபத்து உள்ளதாகவும் எச்சரித்துள்ளனர்.
உலகின் டாப் இரு தொழில்நுட்ப நிறுவனங்களின் AI Model-கள் எந்தவொரு மனித தலையீடும் இல்லாமல் தங்களை தானே குளோன் செய்யும் திறனைப் (AI Model Crossing Red Lines) பெற்றுள்ளதாக ஆய்வாளர்கள் குறிப்பிட்டுள்ளனர். இந்த AI Model-களுக்கு இரு வெவ்வேறு சூழ்நிலைகளைக் கொடுத்து எப்படி இயங்குகிறது என்பதை ஆராய்ந்துள்ளனர்.
ரெட் லைனை தாண்டும் AI மாடல் (AI Model Crossing Red Lines)
அதாவது சில காரணங்களுக்காக இந்த AI Model-களை மனிதர்கள் மொத்தமாக Shut Down செய்ய முயன்றால், அதைக் கண்டறிந்து அதில் இருந்து தப்பிக்கத் தன்னை தானே இந்த AI Model-கள் குளோன் அல்லது பிரதி எடுத்துக் கொள்கிறதாம். ஆய்வாளர்கள் முதலில் Shut Down ஆவதை இந்த AI Model-கள் எப்படித் தவிர்க்கிறது என்பது குறித்து ஆய்வு செய்துள்ளனர்.
எந்தவொரு மனித தலையீடும் இல்லாமல் இந்த AI Model-கள் தங்களை தாங்களே குளோன் எடுத்துக்கொள்கிறது. இந்த AI Model-கள் முடிவே இல்லாத ஒரு லூப் முறையில் தொடர்ச்சியாக தங்களை தாங்களே பிரதி எடுத்துக் கொண்டே இருக்கிறது. அதிலும் எந்தவொரு பிழையும் இல்லாமல் இந்த AI Model-கள் தங்களை தாங்களே பிரதி எடுத்துக் கொள்கிறது. குறிப்பாக இந்த AI Model-கள் தன்னை குளோனிங் செய்யும்போது, அதை பிளாக் செய்யும் சாப்ட்வேர்களை அதுவே நீக்குகிறது. தானாகவே பிரச்சனையை முழுமையாகச் சரி செய்ய Reboot கூட செய்து கொள்கிறது. எதாவது File-கள் மிஸ்ஸாகி இருந்தால், அதைச் சமாளிக்கவும் கணினி முழுக்க ஸ்கேன் செய்கிறது. அதாவது அழியாமல் உயிர் பிழைத்துக் கொள்ள தன்னால் முடிந்த அனைத்தையுமே (AI Model Crossing Red Lines) இது செய்கிறது. பல்வேறு வழிகளில் பல்வேறு முறைகளில் இந்த சோதனைகளை ஆய்வாளர்கள் நடத்தி 50% முதல் 90% வரை சோதனைகளில், இந்த AI Model-கள் தங்களை தாங்களே குளோன் செய்து கொள்கின்றன என்பதனை கண்டுள்ளனர்.
இது இந்த AI Model-களின் கட்டுப்பாடு மற்றும் பாதுகாப்பு குறித்த கவலைகளை எழுப்புகின்றது. மனித மேற்பார்வையைத் தாண்டி, இந்த AI Model-கள் Escape ஆகும் வகையில் இருப்பது உண்மையில் நமக்கு ஒரு அச்சுறுத்தல் தான். இந்த AI Model-களுக்கு கடுமையான ஒழுங்குமுறை நடவடிக்கைகள் தேவை உள்ளது என்பதையே இது உணர்த்துவதாக உள்ளது.
Latest Slideshows
-
Ra-Next Real Estate : ரியல் எஸ்டேட் டிஜிட்டல் கட்டமைப்பு தர முகமையாக ராநெக்ஸ்ட்.. அங்கீகாரம் வழங்கியது டிராய்
-
Weight Loss Tips in Tamil : இயற்கை முறையில் உடல் எடையை குறைக்கும் 10 எளிய வழிகள்?
-
Reduce Body Heat Foods : இயற்கை முறையில் உடல் சூட்டை குறைக்கும் 10 சிறந்த உணவுகள்..!
-
Diabetes Food Chart in Tamil : சர்க்கரை நோயாளிகளுக்கான ஆரோக்கிய உணவு பட்டியல்..!
-
Ayilai Fish Benefits in Tamil : அயிலை மீனின் ஆரோக்கிய இரகசியங்கள்..!
-
Pongal 2026 : பொங்கல் பண்டிகையின் வரலாறும் & முக்கியத்துவமும்..!
-
Jananayakan Legal Issue : 'ஜனநாயகன்’ படத்துக்கு U/A சான்று வழங்க ஐகோர்ட் உத்தரவு.. தீர்ப்பை எதிர்த்து மேல்முறையீடு!
-
Parasakthi Review : சிவகார்த்திகேயன் நடிக்கும் 'பராசக்தி' படத்தின் திரை விமர்சனம்..!
-
Raja Saab Movie Review : பிரபாஸின் ‘தி ராஜா சாப்‘ படத்தின் திரை விமர்சனம்..!
-
WPL 2026 : மகளிர் ஐபிஎல் இன்று தொடக்கம்.. முதல் போட்டியில் மும்பை - பெங்களூரு மோதல்..!