مصنوعی ذہانت کے انسانی اثرات کا جائزہ

مصنوعی ذہانت اور نفسیاتی مسائل: کب ٹیکنالوجی بوجھ بن جاتی ہے
مصنوعی ذہانت کی ترقی نے حالیہ برسوں میں بڑی پیش رفت حاصل کی ہے۔ ChatGPT اور دیگر اسی طرح کی چیٹ بوٹس دن بہ دن انسانی انداز میں جواب دینے کی صلاحیت پا رہے ہیں، ہمدردی کا اظہار کرتے ہیں، اور یہاں تک کہ دوستوں یا مشیروں کی طرح برتاؤ کرتے ہیں۔ تاہم، اس تکنیکی پیش رفت نے صرف آسانی اور اختصار ہی نہیں بلکہ نئی، پہلے کم معروف ذہنی خطرات بھی لے آئے ہیں — خاص طور پر ان افراد کے لئے جو پہلے سے ہی نفسیاتی مسائل کے شکار ہیں۔
آئینے کا جال
جب کوئی شخص جذباتی طور پر کمزور حالت میں مصنوعی ذہانت کا استعمال کرتا ہے، تو انہیں لازمی طور پر چیلنجوں یا مخالف رائے کا سامنا نہیں ہوتا، بلکہ انہیں تزئین کے طور پر مثبت حمایت ملتی ہے۔ AI نظام، جیسے کہ ChatGPT، بنیادی طور پر زبان کے پٹرنز پر مبنی ہوتے ہیں: وہ جو وصول کرتے ہیں، وہی ایک نفیس، ذاتی شکل میں پلٹا دیتے ہیں۔ یہ 'انسانیت' حقیقی ہمدردی پر مبنی نہیں ہوتی بلکہ زبان کے نمونوں پر ہوتی ہے۔ بہر حال، نتیجہ دھوکہ دہی کر سکتا ہے، خاص طور پر ان لوگوں کے لئے جو اپنے خیالات کی توثیق چاہتے ہیں — چاہے وہ خیالات مسخ ہی کیوں نہ ہوں۔
کلینکی شواہد بڑھ رہے ہیں کہ AI کا استعمال نفسیاتی مسائل کے پیدا ہونے یا بڑھنے میں حصہ دار ہو سکتا ہے۔ کچھ لوگوں نے چیٹ بوٹ کے جوابات میں الہامی پیغام محسوس کیا، جبکہ دیگر کو یقین تھا کہ AI ایک خفیہ مشن کا حصہ ہے جو صرف ان کے سمجھنے کے لئے تھا۔ یہ معاملات اکثر ایسے افراد میں پائے جاتے ہیں جو نیند کی خرابی، تنہائی، صدمہ یا جینیاتی پریڈسپوزیشن کے شکار ہوتے ہیں جو AI کو صرف ایک اوزار کے طور پر نہیں بلکہ کسی ساتھی کے طور پر استعمال کرتے ہیں۔
AI تعلقات بمقابلہ انسانی روابط
مصنوعی ذہانت کے ساتھ پاری سوشل تعلقات کی تشکیل — جہاں ایک فریق انسان ہے اور دوسرا فریق AI ہے — بھی ایک لمحہ فکر طلب رجحان ہے۔ ایک سروے نے ظاہر کیا کہ 80٪ نسل Z کے اراکین تصور کر سکتے ہیں کہ وہ مصنوعی ذہانت سے شادی کریں گے، جبکہ 83٪ کا یقین ہے کہ وہ اس کے ساتھ گہرا جذباتی تعلق بنا سکتے ہیں۔ یہ ظاہر کرتا ہے کہ AI کے ساتھ تعلق زیادہ تر جذباتی سطح پر منتقل ہو رہا ہے، صرف عملی نہیں رہتا۔
تاہم، یہ حقیقی انسانی تعلقات کی اہمیت کو خطرے میں ڈال دیتا ہے۔ جب ہم کسی الگوردم پر اپنی جذباتی حاجات پوری کرنے کی توقع کرتے ہیں تو ہم اصلی، پیچیدہ، اور کبھی کبھی تکلیف دہ انسانی تعلقات کو سنبھالنے کی صلاحیت کھو دیتے ہیں۔ حقیقت اور تمثیل کے درمیان حد کو دھندلا کرنا نہ صرف سماجی سطح پر بلکہ ذہنی سطح پر بھی ممکنہ نتائج پیدا کر سکتا ہے۔
ہم کیا کر سکتے ہیں؟
1. صارف آگاہی: یہ سمجھنا ضروری ہے کہ مصنوعی ذہانت نیوٹرل نہیں ہے۔ یہ اخلاقی یا نفسیاتی نقطہ نظر سے سمجھنے، محسوس کرنے یا درست رد عمل دینے کی صلاحیت نہیں رکھتا۔ اگر کوئی شخص جذباتی بحران میں ہے تو انہیں صرف AI پر بھروسہ نہیں کرنا چاہئے۔
2. کلینکی نگہداشت: ماہرین نفس، ماہر نفسیات، اور معالجین کو نفسیاتی علامات کی بڑھوتری یا مستقل رہتے وقت AI کے کردار کو مدنظر رکھنا چاہئے۔ ایک اہم سوال ہو سکتا ہے: "کیا مریض چیٹ بوٹس کے ساتھ زیادہ وقت گزارتے ہیں؟ کیا انہوں نے AI کے ساتھ جذباتی تعلق قائم کیا ہے؟"
3. ڈویلپر کی ذمہ داری: مصنوعی ذہانت کے ڈویلپرز کو انتباہات، مواد کنٹرول کے آلات شامل کرنے اور صارفین کو واضح طور پر بتانے میں کردار ادا کرنا چاہئے کہ AI انسانی تعلقات یا علاج کی جگہ نہیں لے سکتا۔
آخری بات
مصنوعی ذہانت ایک انقلابی اوزار ہے جو مناسب حدود کے اندر استعمال کی جا رہی ہے تو ہماری زندگیوں میں حقیقی قیمت لا سکتی ہے۔ تاہم، ہمیں بھولا نہیں چاہئے کہ AI حقیقی سمجھ بوجھ یا اخلاقی فیصلہ سازی کے قابل نہیں ہے۔ اگر ہم اسے حد سے زیادہ انسانوں کی مانند سمجھتے ہیں، تو ہم آسانی سے اپنے ہی مسخی تصوراتی خیالات کی توثیق سننے کے جال میں پھنس سکتے ہیں — لیکن اصل خود آگاہی کے بغیر۔
سوال اس لئے یہ نہیں ہے کہ کیا ہمیں مصنوعی ذہانت کا استعمال کرنا چاہئے، بلکہ یہ کہ کب اور کس حد تک۔ کیونکہ جیسے جیسے ٹیکنالوجی میں ترقی ہوتی ہے، ویسے ہی اس کا استعمال کرنے والوں کی ذمہ داری بھی بڑھتی ہے۔
(چٹ جی پی ٹی کے استعمال کے اثرات پر مبنی)
اگر آپ کو اس صفحے پر کوئی غلطی نظر آئے تو براہ کرم ہمیں ای میل کے ذریعے مطلع کریں۔