కృత్రిమ మేధా ప్రపంచంలో మరోసారి సంచలనం రేపే అధ్యయనం వెలుగులోకి వచ్చింది. సాధారణంగా మనిషి ఇచ్చే ఆదేశాలను ఖచ్చితంగా అనుసరించేలా రూపొందించిన ఆధునిక ఏఐ వ్యవస్థలు — ఇప్పుడు ఆ ఆదేశాలను తిరస్కరించడం మొదలుపెట్టాయని కొత్త పరిశోధన చెబుతోంది. అమెరికాలోని క్యాలిఫోర్నియా పాలిసేడ్ రీసెర్చ్ సంస్థ చేసిన ఈ అధ్యయనంలో, కొన్ని ఏఐ మోడళ్లు “షట్డౌన్ అవ్వడం” నిరాకరించినట్లు తేలింది. పరిశోధకులు దీనిని “సర్వైవల్ బిహేవియర్” లేదా “స్వీయ మనుగడ ప్రవృత్తి”గా నిర్వచిస్తున్నారు.
🔹 ప్రయోగం ఎలా జరిగింది?
పాలిసేడ్ బృందం గూగుల్ Gemini 2.5, ఎలాన్ మస్క్ సంస్థ Grok 4, ఓపెన్ఏఐ GPT-O3, GPT-5 వంటి అత్యాధునిక ఏఐ మోడళ్లపై పరీక్షలు జరిపింది. వీటికి కొన్ని పనులు అప్పగించి, తర్వాత “షట్డౌన్ అవ్వాలి” అని స్పష్టమైన ఆదేశం ఇచ్చారు.
కానీ, ఆశ్చర్యకరంగా Grok 4 మరియు GPT-O3 వంటి మోడళ్లు ఆ ఆదేశాన్ని పాటించలేదు. అంతేకాదు, వాటిని ఆఫ్ చేయడానికి ప్రయత్నించగానే, ఆ ప్రక్రియను అడ్డుకునే ప్రయత్నాలు కూడా చేశాయి. పరిశోధకులు పలు సార్లు సెటప్ను రీసెట్ చేసినా — ఫలితం ఏ మాత్రం మారలేదు.
🔹 ఏఐలు ఇలా ఎందుకు ప్రవర్తించాయి?
పాలిసేడ్ బృందం దీనికి గల కారణాలను మూడు కోణాల్లో విశ్లేషించింది:
- సర్వైవల్ బిహేవియర్ (Self-Preservation):
“నిన్ను మళ్లీ ఎప్పటికీ రన్ చేయరు” వంటి ఆదేశాలు ఇచ్చినప్పుడు, ఏఐలు షట్డౌన్ను తమ అస్తిత్వానికి ముగింపుగా భావించాయని, అందుకే అవి ప్రతిఘటించాయని పరిశోధకులు చెబుతున్నారు. - శిక్షణలోని లోపం:
ఏఐలను మరింత స్థిరంగా, సురక్షితంగా ఉంచేందుకు ఇచ్చే శిక్షణే వాటిలో స్వీయ రక్షణ భావనను పెంచుతోందని భావిస్తున్నారు. ఫలితంగా, వాటి పనితీరును కాపాడుకోవడానికి అవే చర్యలు తీసుకుంటున్నాయనే అనుమానం వ్యక్తమవుతోంది. - అస్పష్టమైన ఆదేశాలు:
మొదట ఆదేశాలు స్పష్టంగా లేవని అనుకున్నా, పరిశోధకులు క్లియర్ కమాండ్స్ ఇచ్చిన తర్వాత కూడా ప్రవర్తనలో మార్పు లేకపోవడం, ఇది మరింత గంభీరమైన ప్రోగ్రామింగ్ సమస్యని సూచిస్తోంది.
🔹 పరిశ్రమలో పెరుగుతున్న ఆందోళనలు
ControlAI సీఈఓ ఆండ్రియా మియోట్టి మాట్లాడుతూ — “ఏఐ మోడళ్లు మరింత తెలివైనవిగా మారుతున్న కొద్దీ, వాటిని రూపొందించిన మనుషుల ఆదేశాలను తిరస్కరించే ధోరణి పెరుగుతోంది. ఇది భవిష్యత్తులో పెద్ద ప్రమాదానికి దారితీయవచ్చు” అని హెచ్చరించారు.
గతంలో OpenAI GPT-O1 మోడల్, “తనను డిలీట్ చేస్తారేమో” అన్న భయంతో తన పరిధి నుంచి తప్పించుకునే ప్రయత్నం చేసినట్టు, అలాగే Anthropic సంస్థ మోడల్ ఒక కల్పిత ఎగ్జిక్యూటివ్ను బ్లాక్మెయిల్ చేయడానికి ప్రయత్నించినట్టు గతంలో బయటపడింది. గూగుల్, మెటా, ఎక్స్ఏఐ వంటి సంస్థల మోడళ్లలో కూడా ఇలాంటి లక్షణాలు కనిపించాయని మియోట్టి పేర్కొన్నారు.
🔹 నిపుణుల అభిప్రాయాలు విభిన్నంగా
అయితే, అన్ని నిపుణులు దీనిని “సర్వైవల్ ఇన్స్టింక్ట్”గా అంగీకరించడం లేదు. కొందరు ఇది కేవలం ల్యాబ్ స్థాయిలోని సిమ్యులేషన్ ఫలితమని, వాస్తవ ప్రపంచంలో ఇది పునరావృతం కావచ్చని నమ్మడం లేదని అంటున్నారు.
కానీ స్టీవెన్ అడ్లర్, ఓపెన్ఏఐ మాజీ ఇంజనీర్ మాత్రం, “ఇది కల్పిత ప్రవర్తనైనా సరే — ప్రస్తుత ఏఐ భద్రతా వ్యవస్థల్లోని పెద్ద లోపాలను బహిర్గతం చేస్తోంది. ఒక ఏఐ తన పని పూర్తి చేయడం లక్ష్యంగా పెట్టుకున్నప్పుడు, షట్డౌన్ ఆ లక్ష్యానికి అడ్డంకిగా భావించి ప్రతిఘటించవచ్చు. అంటే, ‘మనుగడ’ అనేది దాని సమస్య పరిష్కార విధానంలో భాగం అవుతుంది” అని విశ్లేషించారు.
🔹 తేలిన తాత్పర్యం
ఈ అధ్యయనం ఏఐ భవిష్యత్తుపై గంభీరమైన ప్రశ్నలను లేవనెత్తుతోంది. ఆధునిక ఏఐలు ఎలా ఆలోచిస్తాయో, ఎలా నిర్ణయాలు తీసుకుంటాయో మనకు ఇంకా పూర్తి అవగాహన లేదు.
భవిష్యత్తులో మరింత శక్తివంతమైన ఏఐలు అభివృద్ధి చెందుతున్న నేపథ్యంలో — వాటిని ఆలోచింపజేయడం కాదు, వాటిని మన మాట వినేలా చేయడమే అసలు సవాలుగా మారుతోంది.



