AI Model Crossing Red Lines : மனித குலத்திற்கு ஆபத்தாக ரெட் லைனை தாண்டும் AI மாடல் வல்லுநர்கள் எச்சரிக்கை
இந்த காலத்தில் AI Model-கள் நமக்கு பல்வேறு துறைகளிலும் மிகப்பெரிய உதவிகளைச் செய்து வருகிறது. உலகெங்கும் AI செயற்கை நுண்ணறிவு ஆதிக்கம் செலுத்தி வருகிறது. நாம் திரும்பிய பக்கமெல்லாம் AI இல்லாத துறையே இல்லை என்ற அளவுக்கு ஆதிக்கம் செலுத்தி வருகிறது. இந்த AI Model-கள் ஆபத்தான “ரெட்” லைனை கடப்பதாகவும் (AI Model Crossing Red Lines) இதனால் அது மனிதர்கள் கையைவிட்டுச் செல்லும் ஆபத்து இருப்பதாக சமீபத்தில் நடத்தப்பட்ட ஆய்வு ஒன்றில் வல்லுநர்கள் எச்சரித்துள்ளனர்.
AI (செயற்கை நுண்ணறிவு) குறித்த சில அதிர்ச்சி தகவல்கள் தற்போது வெளியாகியுள்ளது. அதாவது இந்த செயற்கை நுண்ணறிவு தன்னை தானே குளோன் (Self-Replication) செய்து கொள்ளும் ஆற்றலைக் குறிப்பிடத்தக்க அளவுக்கு பெற்றுவிட்டதாக ஆய்வாளர்கள் (AI Model Crossing Red Lines) எச்சரித்து உள்ளனர். ஆய்வாளர்கள் இதனை ரெட் லைனை கடக்கும் ஒரு செயல் என்றும் இதனால் பேரழிவு ஏற்படும் ஆபத்து உள்ளதாகவும் எச்சரித்துள்ளனர்.
உலகின் டாப் இரு தொழில்நுட்ப நிறுவனங்களின் AI Model-கள் எந்தவொரு மனித தலையீடும் இல்லாமல் தங்களை தானே குளோன் செய்யும் திறனைப் (AI Model Crossing Red Lines) பெற்றுள்ளதாக ஆய்வாளர்கள் குறிப்பிட்டுள்ளனர். இந்த AI Model-களுக்கு இரு வெவ்வேறு சூழ்நிலைகளைக் கொடுத்து எப்படி இயங்குகிறது என்பதை ஆராய்ந்துள்ளனர்.
ரெட் லைனை தாண்டும் AI மாடல் (AI Model Crossing Red Lines)
அதாவது சில காரணங்களுக்காக இந்த AI Model-களை மனிதர்கள் மொத்தமாக Shut Down செய்ய முயன்றால், அதைக் கண்டறிந்து அதில் இருந்து தப்பிக்கத் தன்னை தானே இந்த AI Model-கள் குளோன் அல்லது பிரதி எடுத்துக் கொள்கிறதாம். ஆய்வாளர்கள் முதலில் Shut Down ஆவதை இந்த AI Model-கள் எப்படித் தவிர்க்கிறது என்பது குறித்து ஆய்வு செய்துள்ளனர்.
எந்தவொரு மனித தலையீடும் இல்லாமல் இந்த AI Model-கள் தங்களை தாங்களே குளோன் எடுத்துக்கொள்கிறது. இந்த AI Model-கள் முடிவே இல்லாத ஒரு லூப் முறையில் தொடர்ச்சியாக தங்களை தாங்களே பிரதி எடுத்துக் கொண்டே இருக்கிறது. அதிலும் எந்தவொரு பிழையும் இல்லாமல் இந்த AI Model-கள் தங்களை தாங்களே பிரதி எடுத்துக் கொள்கிறது. குறிப்பாக இந்த AI Model-கள் தன்னை குளோனிங் செய்யும்போது, அதை பிளாக் செய்யும் சாப்ட்வேர்களை அதுவே நீக்குகிறது. தானாகவே பிரச்சனையை முழுமையாகச் சரி செய்ய Reboot கூட செய்து கொள்கிறது. எதாவது File-கள் மிஸ்ஸாகி இருந்தால், அதைச் சமாளிக்கவும் கணினி முழுக்க ஸ்கேன் செய்கிறது. அதாவது அழியாமல் உயிர் பிழைத்துக் கொள்ள தன்னால் முடிந்த அனைத்தையுமே (AI Model Crossing Red Lines) இது செய்கிறது. பல்வேறு வழிகளில் பல்வேறு முறைகளில் இந்த சோதனைகளை ஆய்வாளர்கள் நடத்தி 50% முதல் 90% வரை சோதனைகளில், இந்த AI Model-கள் தங்களை தாங்களே குளோன் செய்து கொள்கின்றன என்பதனை கண்டுள்ளனர்.
இது இந்த AI Model-களின் கட்டுப்பாடு மற்றும் பாதுகாப்பு குறித்த கவலைகளை எழுப்புகின்றது. மனித மேற்பார்வையைத் தாண்டி, இந்த AI Model-கள் Escape ஆகும் வகையில் இருப்பது உண்மையில் நமக்கு ஒரு அச்சுறுத்தல் தான். இந்த AI Model-களுக்கு கடுமையான ஒழுங்குமுறை நடவடிக்கைகள் தேவை உள்ளது என்பதையே இது உணர்த்துவதாக உள்ளது.
Latest Slideshows
-
TNPSC Group 2 & 2A Exam Postponed : டிஎன்பிஎஸ்சி குரூப் 2, 2ஏ தேர்வில் குளறுபடி.. தமிழகம் முழுவதும் தேர்வுகள் தள்ளிவைப்பு.!
-
India Beat USA T20 WC : டி20 உலககோப்பை.. அமெரிக்காவை வீழ்த்தி இந்தியா வெற்றிகரமான தொடக்கம்..!
-
With Love Review : பழைய காதலைத் தேடும் பயணமா? 'வித் லவ்' திரை விமர்சனம்.!
-
India U19 Champions 2026 : யு19 உலகக்கோப்பை.. இங்கிலாந்தை வீழ்த்தி 6வது முறையாக இந்தியா சாம்பியன்.!
-
India T20 World Cup Fixtures : டி20 உலகக் கோப்பை.. இந்திய அணி ஆடும் போட்டிகளின் முழு அட்டவணை விவரம்?
-
WPL 2026 Final : மகளிர் ஐபிஎல்.. டெல்லி கேபிடல்ஸ் அணியை வீழ்த்தி கோப்பை வென்றது ஆர்சிபி..!
-
Murugappa Group : 125 ஆண்டுகள் வரலாறு கொண்ட "முருகப்பா குழுமத்தின்" வெற்றிப் பயணம்.!
-
Postal Department Jobs 2026 : அஞ்சல் துறையில் 28,740 பணியிடங்கள்.. 10-ம் வகுப்பு தேர்ச்சி போதும்! உடனே விண்ணப்பிங்க.!
-
India U19 WC Final : U19 உலகக்கோப்பை.. ஆப்கானிஸ்தான் அணியை வீழ்த்தி FINAL சென்றது இந்தியா.!
-
Hair Thin Fiber Chip : மனித முடியை விட மெல்லிய 'கணினி சிப்'.. சீன விஞ்ஞானிகள் கண்டுபிடிப்பு.!