تكنولوجيامقالاتمنوعات

حين نُسلم عقولنا طواعية الوجه الخفي “ChatGPT”. إسراء محمد

حين نُسلم عقولنا طواعية الوجه الخفي “ChatGPT”

 

بقلم : إسراء محمد

 

لم يعد الخطر في أن تُخترق أجهزتنا, بل في أن تُخترق طريقة تفكيرنا, لم يعد القلق من آلةٍ تسرق بياناتنا, بل من أداةٍ تُعيد تشكيل وعينا ونحن نظن أننا نستخدمها بإرادتنا الكاملة.

في لحظةٍ ما, وبين سؤالٍ عابرٍ وإجابةٍ فورية يحدث التحول. لا صوت له لا ضجيج لا إنذار, فقط اعتياد. اعتيادٌ على أن هناك من يفكر بدلًا منا, يكتب بدلًا منا, ويُقنعنا أن ما يقدمه كافٍ, بل وأفضل مما كنا سنصل إليه بأنفسنا. هنا تحديدًا لا نتعامل مع “تكنولوجيا”, بل مع إعادة صياغة صامتة للعقل البشري.

لقد أصبح “ChatGPT” نموذجًا لثورة رقمية تتجاوز حدود الأدوات لتلامس جوهر الإنسان نفسه, تفكيره، لغته وقراراته. وبينما ينشغل العالم بالاحتفاء بسرعته وكفاءته تتوارى في الظل أسئلة أكثر خطورة: ماذا نفقد ونحن نربح هذه السهولة؟ وإلى أي مدى يمكن أن نثق في عقلٍ لا يعي ما يقول؟.

إن واحدة من أخطر الإشكاليات التي بدأت تتكشف هي الاعتماد غير الواعي على هذه الأنظمة. فقد تحوّل كثير من المستخدمين من باحثين إلى متلقين ومن مفكرين إلى ناقلين, لم يعد السؤال وسيلة للفهم, بل مجرد مفتاح للحصول على إجابة جاهزة. وفي هذا السياق ظهرت حالات واقعية تُجسد خطورة هذا التحول.

طالبٌ جامعي اعتمد بشكل كامل على إجابات جاهزة في إعداد أبحاثه ليكتشف لاحقًا أن بعضها يحتوي على معلومات غير دقيقة مما عرّضه للمساءلة الأكاديمية وفقدان مصداقيته العلمية. وفي حالة أخرى استخدم شاب نصائح قانونية حصل عليها من “ChatGPT” دون الرجوع إلى مختص ليدخل في نزاع قانوني معقد كان يمكن تجنبه لو تحقّق من مصدر موثوق.

هذه ليست مجرد أخطاء فردية بل مؤشرات على نمط استخدام مقلق حيث تُستبدل الخبرة البشرية بإجابات سريعة تُقدَّم بثقة, لكنها تفتقر في كثير من الأحيان إلى الدقة أو السياق, والأمر لا يتوقف عند هذا الحد.

في أحد الأمثلة التي تداولها المستخدمون لجأت فتاة إلى “ChatGPT” للحديث عن مشكلاتها النفسية, فوجدت فيه “مستمعًا مثاليًا”, ومع الوقت بدأت تعتمد عليه بشكل متزايد إلى أن قلّ تواصلها مع من حولها مفضلة ذلك الحضور الرقمي على العلاقات الحقيقية. ورغم أن الأداة لم تُخطئ تقنيًا فإن النتيجة كانت عزلة تدريجية وانسحابًا من واقع يحتاج إلى دعم إنساني حقيقي لا محاكاة رقمية له. هنا تتجلى خطورة من نوع آخر, أن يُشبع الذكاء الاصطناعي احتياجاتنا السطحية بينما يُفرغنا من الداخل.

ومن زاوية أكثر حساسية يبرز خطر الخصوصية إذ إن التفاعل المستمر مع هذه الأنظمة قد يدفع المستخدم دون وعي إلى الإفصاح عن معلومات شخصية أو تفاصيل دقيقة عن حياته بدافع الشعور بالأمان أو الاعتياد, غير أن هذا السلوك في ظل غياب الوعي الرقمي الكافي قد يفتح الباب أمام مخاطر يصعب تقديرها.

أما الخطر الأكثر عمقًا فهو ذلك الذي لا يُرى بسهولة, تآكل الهوية الفكرية حين يكتب الجميع بأسلوبٍ متقن لكنه متشابه, حين تختفي الأخطاء الصغيرة التي كانت تمنح النص إنسانيته حين يصبح الفرق بين كاتبٍ وآخر مجرد اختلاف في الموضوع لا في الروح, فإننا لا نخسر مهارة فحسب, بل نخسر تنوعًا إنسانيًا كان يُثري المعرفة. ولقد بدأنا نشهد نصوصًا مُبهرة في ظاهرها لكنها خالية من التجربة الحقيقية, كلمات مصقولة بلا روح, وفي هذا السياق يصبح السؤال أكثر إلحاحًا: هل نُنتج المعرفة أم نعيد تدويرها؟.

إن الذكاء الاصطناعي لا “يفهم” كما نفهم ولا “يُدرك” كما ندرك, هو يُحلل الأنماط ويُعيد تركيبها ويُقدمها في صورة جديدة, لكن هذه الصورة مهما بدت مقنعة تظل خالية من التجربة الإنسانية التي تُعطي للمعرفة معناها الحقيقي, ورغم ذلك فإن ما يجعل الأمر أكثر خطورة هو أن هذه الفجوة لا تكون واضحة دائمًا للمستخدم, بل على العكس قد تبدو الإجابات أكثر ثقةً وتنظيمًا من أي مصدر آخر مما يعزز من الاعتماد عليها. وهنا يكمن التهديد الحقيقي, ليس في الخطأ ذاته, بل في عدم اكتشافه.

إننا أمام جيل قد يعتاد على الجاهز ويبتعد تدريجيًا عن المجهود, جيلٍ قد يعرف كيف يطرح السؤال لكنه لا يعرف كيف يبحث عن الإجابة, ومع مرور الوقت قد لا يكون التحدي في الوصول إلى المعلومة بل في القدرة على تمييز الصحيح من الزائف والعميق من السطحي

ورغم كل ذلك لا يمكن اختزال الصورة في جانبٍ واحد, فالذكاء الاصطناعي بما فيه “ChatGPT” يظل أداة ذات إمكانات هائلة, يمكنه أن يدعم التعلم ويُسرّع الإنجاز ويفتح آفاقًا جديدة للإبداع, لكن الفارق الحاسم يكمن في الوعي. أن نستخدمه دون أن نستسلم له, أن نستفيد منه دون أن نعتمد عليه, أن نُبقي عقولنا حاضرة لا مُعطّلة.

إن أخطر ما قد نواجهه في هذا العصر ليس تطور الآلة بل تراجع الإنسان أمامها, وفي خضم هذا التسارع يصبح من الضروري إعادة طرح سؤالٍ بسيط في ظاهره عميق في جوهره: من يقود من؟, هل ما زلنا نحن من نستخدم هذه الأدوات أم أننا بدأنا دون أن نشعر نُعيد تشكيل أنفسنا على مقاسها؟.

في النهاية لا يكمن الخطر في وجود “ChatGPT”, بل في الطريقة التي نسمح له أن يوجد بها داخل عقولنا فإما أن يكون وسيلة نُحسن توظيفها, أو بابًا نُفرّط من خلاله في أهم ما نملك وعينا..

زر الذهاب إلى الأعلى