كشف بحث جديد لعلماء جامعة أوكسفورد البريطانية عن ان هناك 12 سببا مروعا هم الأكثر احتمالا لزوال الحضارة البشرية عن كوكب الأرض.
وأوردت صحيفة الاندبندنت البريطانية على موقعها الإلكتروني أن العلماء من مؤسسة التحديات العالمية ومستقبل الإنسانية بالجامعة وضعوا قائمة تحت عنوان "التقييم العلمي حول إمكانية الذهاب في طي النسيان" ، تضم 12 سببا محتملا لتدمير البشرية.
ونقلت عن واضعي البحث قولهم " إن هذا البحث يناقش كيفية التوصل إلى فهم أفضل لحجم التحديات التي يمكن أن تساعد العالم على التعامل مع المخاطر التي يواجهها ، ويمكن أن يساعد على إنشاء مسار نحو تنمية أكثر استدامة ، إن هذا يعتبر تقييما علميا حول إمكانية الزوال ، بالتأكيد، وهو أيضا وبشكل أكبر عبارة عن دعوة للعمل على أساس افتراض أن البشرية قادرة على الاتقاء لمواجهة التحديات وتحويلها إلى فرص".
وأوردت الصحيفة ان القائمة تضم تغير المناخ المدقع حيث يرى واضعو البحث أن احتمال حدوث تنسيق عالمي لوقف تغير المناخ هو أكبر عامل يمكن أن يتحكم في ما إذا كان يمكن منع حدوث كارثة بيئية.
ويحذرون أيضا من أن تأثير التغير المناخي يمكن أن يكون أقوى في البلدان الأكثر فقرا والتي تحدث فيها حالات الوفاة الجماعية بسبب المجاعات ، كما أن التوجه نحو الهجرة الضخمة يمكن أن يسبب عدم استقرار عالمي كبير.
وتابع البحث أن السبب الأخر المهم هو اندلاع حرب نووية محتملة ، حيث انه في الوقت الذي يعترف فيه الباحثون أن الحرب النووية هي أقل احتمالا مما كانت عليه في القرن الماضي ، فإنهم يقولون أن الأدلة تشير إلى أنه إلى الآن لم يتم إزالة احتمالات نشوب صراع نووي سواء كان متعمدا أو غير متعمد ، لافتين إلى أن الحقيقة الأكبر التي من شأنها أن تؤثر هي ما إذا كانت ستحدث حرب نووية من عدمه ستكون كيف ستتطور العلاقات المستقبلية بين القوى النووية الحالية.
وأضاف البحث أن تفشي وباء عالمي قد يتسبب أيضا في كارثة زوال الحضارة البشرية حيث يعتقد الباحثون إن الشك في مثل هذا السبب ارتفعت احتمالاته أكثر مما هو مفترض في العادة ، وأضافوا أن قدرة النظم الطبية العالمية للاستجابة إلى الوباء لأمر مهم في منع وقوع الكارثة ، ولكن الخطر الأكبر هو ببساطة هو امكانية حدوث مرض معد لا يمكن السيطرة عليه.
ومن بين الأسباب أيضا هو التأثيرات الناتجة عن كويكب كبير ، حيث يحذر الباحثون من أن كويكب عملاق بحجم أكبر من 5 كم قد يتسبب في تدمير مساحة بحجم هولندا ، ويقولون إن مثل هذا الاحتمال يحدث كل 20 مليون عام ، ولفت الباحثون إلى أن هذا الدمار لن يكون التأثير الأولي للكويكب ، ولكن من المتوقع ومن الممكن أن يتسبب في حدوث سحب من الغبار في الغلاف الجوي العلوي ، وأن الأضرار الناجمة عن مثل هذا هو حدوث فصل شتاء شديد يمكن أن يؤثر على المناخ ، وإلحاق الضرر بالمحيط الحيوي، بما يؤثر على الإمدادات الغذائية ، والتسبب عدم الاستقرار السياسي.
وتابع البحث إلى أن حدوث انفجار بركاني كبير جدا قد يكون له مثل تأثير الكويكب ، حيث أن أكبر تهديد من البركان الكبير هو سحب الغبار التي يمكن أن تغطي العالم المر الذي من شأنه منع أشعة الشمس ويسبب في شتاء عالمي ، مضيفين أن تأثير الثورات البركانية في التاريخ يمكن أن يكون من الأفضل مقارنتها مع حدوث حرب نووية ، ورأوا أن القدرة على وقف الضرر تعتمد على قدرة الدول على التنسيق والحد من الأضرار التي تسببها.
وأضاف البحث أن حدوث كارثة بيئية يمكن يؤدي إلى انهيار الحضارات الانسانية حيث يقول الباحثون إنه على البشرية إما الحفاظ على النظام البيئي ، أو الأمل في أن الحضارة لن تتوقف على ذلك ، مضيفين أن إنقراض الأنواع هو الآن أسرع بكثير من المعدلات التاريخية ، وانه على الإنسانية أن تطور اقتصادات مستدامة من أجل البقاء على قيد الحياة في هذه الحالة.
وأشار البحث أيضا إلى أن حدوث كارثة في النظام العالمي هو من بين تلك الأسباب ، حيث يتكون النظام الاقتصادي والسياسي في العالم من العديد من الجهات الفاعلة والذين لديهم العديد من الأهداف والعديد من الروابط ، وحذروا من أن هذه الأنظمة المعقدة قابلة للفشل على نطاق المنظومة ، وأن الانهيار الاقتصادي قد يؤدي إلى الفوضى الاجتماعية والاضطرابات الأهلية وانهيار القانون والنظام.
ومن بين الأسباب التي أوردها البحث هي البيولوجيا التركيبية حيث أن العلماء قلقون من أن شخصا ما سوف يقوم عمدا ببناء "الأمراض المهندسة وراثيا" للقضاء على الجنس البشري ، وان مثل هذه المحاولات هي حاليا في مراحلها الأولى ، وقد لا تتطور بالسرعة بفعل الأبحاث.
تكنولوجيا النانو ، يعتقد أنصار تكنولوجيا النانو أنها وسيلة لحل المشاكل ، ولكن يعتقد الباحثون أنه قد يثير مشاكل خطيرة ، حيث أن تقنية النانو يمكن أن تؤدي إلى تسهيل بناء ترسانات كبيرة من الأسلحة التقليدية بفضل التصنيع الدقيق بالنانو ، وحذروا من أن هناك إمكانية خاصة لأن تسمح تكنولوجيا النانو ببناء قنابل نووية.
الذكاء الاصطناعي ، ويعتقد الباحثون أن الذكاء الإصطناعي الكبير لا يمكن السيطرة عليه بسهولة ، وأنه سوف يمكنهم ربما تطوير المعلومات الخاصة بهم والحصول على الموارد القصوى.
الحكم العالمي السيئ في المستقبل ، ولفت الباحثون في هذه النقطة إلى أنه إذا كان الساسة لا ينخرطون في حل المشاكل الأخرى في القائمة ، فهو خطر في حد ذاته.
وأخيرا ، يحذر الباحثون من "أخطار مجهولة" داعين إلى البحث واسع النطاق بشأن "المخاطر غير المعروفة والاحتمالات الخاصة".
أرسل تعليقك