سولارابيك – الولايات المتحدة – 29 أبريل 2024: في مارس 2023، كان طالب من ولاية كارولينا الشمالية ينزل من حافلة مدرسية عندما صدمته سيارة تسلا موديل Y وهي تسير “بسرعات عالية”، وفقًا لتحقيق فيدرالي نُشر أخيرا، بحسب موقع (the verge).
كان سائق تسلا يستخدم نظام القيادة الآلي، وهي ميزة مساعدة السائق المتقدمة الخاصة بشركة صناعة السيارات والتي يصر إيلون موسك على أنها ستؤدي في النهاية إلى سيارات ذاتية القيادة بالكامل.
وتم نقل الطالب البالغ من العمر 17 عامًا الذي أصيب إلى المستشفى بطائرة هليكوبتر مصابًا بجروح تهدد حياته. لكن ما توصل إليه التحقيق بعد فحص مئات الحوادث المماثلة هو وجود نمط من عدم انتباه السائق، إلى جانب عيوب تكنولوجيا تسلا، مما أدى إلى مئات الإصابات وعشرات الوفيات.
وخلصت إدارة السلامة الوطنية على الطرق العامة (NHTSA) إلى أن السائقين الذين يستخدمون الطيار الآلي أو القيادة الذاتية الكاملة الأكثر تقدمًا للنظام، “لم يشاركوا بشكل كافٍ في مهمة القيادة”، وأن تقنية Tesla “لم تضمن بشكل كافٍ أن السائقين حافظوا على انتباههم في مهمة القيادة”.
حوادث مميتة
في المجمل، حققت إدارة السلامة الوطنية على الطرق العامة (NHTSA) في 956 حادثًا، بدءًا من يناير 2018 وامتدت حتى أغسطس/ آب 2023. ومن بين تلك الحوادث، التي اصطدم بعضها بمركبات أخرى بمركبة تسلا، توفي 29 شخصًا.
كما كان هناك 211 حادث تصادم “اصطدمت فيه المقدمة الأمامية لسيارة تسلا بمركبة أو عائق في طريقها”.
وأسفرت هذه الحوادث، التي كانت في كثير من الأحيان، عن مقتل 14 شخصا وإصابة 49 آخرين.
طُلب من (NHTSA) إطلاق تحقيقاتها بعد عدة حوادث اصطدم فيها سائقو تسلا بمركبات الطوارئ الثابتة المتوقفة على جانب الطريق.
وقعت معظم هذه الحوادث بعد حلول الظلام، مع تجاهل البرنامج لتدابير التحكم،، بما في ذلك أضواء التحذير، والمشاعل، والأقماع، ولوحة الأسهم المضيئة.
زوجدت الوكالة في تقريرها أن القيادة الآلي لم يكن مصممًا لإبقاء السائق منخرطًا في مهمة القيادة.
وتقول شركة تسلا إنها تحذر عملائها من ضرورة الانتباه أثناء استخدام Autopilot وFSD، والذي يتضمن إبقاء أيديهم على العجلات وأعينهم على الطريق.
لكن (NHTSA) تقول أنه في كثير من الحالات، قد يصبح السائقون راضين بشكل مفرط ويفقدون التركيز. وعندما يحين وقت الرد، يكون الأوان قد فات في كثير من الأحيان.
السائق يتحمل جزء من المسؤولية
في 59 حادثًا فحصتها الإدارة، وجدت الوكالة أن سائقي تسلا كان لديهم ما يكفي من الوقت، “خمس ثوانٍ أو أكثر” قبل الاصطدام بجسم آخر.
وفي 19 من تلك الحوادث، كان الخطر مرئيًا لمدة 10 ثوانٍ أو أكثر قبل الاصطدام.
بمراجعة سجلات الأعطال والبيانات المقدمة من تسلا، وجدت الإدارة أن السائقين فشلوا في استخدام المكابح أو التوجيه لتجنب المخاطر في غالبية الحوادث التي تم تحليلها.
وقالت الشركة: “تم العثور على حوادث بدون أي محاولة مراوغة أو محاولة مراوغة متأخرة من قبل السائق في جميع إصدارات أجهزة تسلا وظروف الأعطال”.
قامت الشركة أيضًا بمقارنة ميزات التشغيل الآلي من المستوى 2 (L2) الخاصة بشركة Tesla بالمنتجات المتوفرة في سيارات الشركات الأخرى. على عكس الأنظمة الأخرى، يقوم نظام الطيار الآلي بفك الارتباط بدلاً من السماح للسائقين بتعديل توجيههم. وقالت الإدارة إن هذا “يثبط” السائقين عن الاستمرار في المشاركة في مهمة القيادة.
وقالت الوكالة: “إن المقارنة بين خيارات التصميم الخاصة بـ Tesla وتلك الخاصة بنظيراتها من L2 حددت أن Tesla هي صناعة شاذة في نهجها تجاه تقنية L2 من خلال عدم تطابق نظام مشاركة السائق الضعيف مع قدرات التشغيل المتساهلة لـ Autopilot”.
وقالت الإدارة إنه حتى اسم العلامة التجارية “Autopilot” مضلل، مما يستحضر فكرة أن السائقين لا يسيطرون على السيارة. وفي حين تستخدم شركات أخرى بعض صيغ “المساعدة” أو “الإحساس” أو “الفريق”، فإن منتجات تيسلا تغري السائقين بالاعتقاد بأنهم أكثر قدرة مما هم عليه بالفعل.
ويقوم المدعي العام في كاليفورنيا ووزارة المركبات الآلية بالولاية بالتحقيق مع شركة تسلا بتهمة تضليل العلامات التجارية والتسويق.
تعترف NHTSA بأن تحقيقها قد يكون غير مكتمل بناءً على “الفجوات” في بيانات القياس عن بعد الخاصة بشركة Tesla. قد يعني ذلك أن هناك العديد من الأعطال التي تنطوي على Autopilot وFSD أكثر مما تمكنت من العثور عليه.
وقالت NHTSA إنه حتى اسم العلامة التجارية “Autopilot” مضلل.
تابعونا على لينكيد إن Linked-in لمعرفة كل جديد في مجال الطاقة المتجددة والسيارات الكهربائية..
نتمنى لكم يوماً مشمساً..
المصدر: the verge