Tesla đã thừa nhận rằng hệ thống lái tự động không hoạt động chính xác trong điều kiện trời mưa lớn hoặc khi có vật gì đó cản trở các cảm biến siêu âm. Elon Musk thậm chí đã tuyên bố rằng “FSD Beta 9.2 thực sự không phải là imo tuyệt vời”. Cũng có một số sự cố mà người lái xe đã sử dụng sai phần mềm lái tự động.
Một sự cố như vậy đã xảy ra vào năm 2019 khi một chiếc Tesla gặp nạn và bốc cháy và giết chết cả hai người ngồi trên xe, cả hai đều không ngồi trên ghế lái.
Đã có nhiều vấn đề, đặc biệt là tai nạn, khiến Cục Quản lý An toàn Giao thông Đường cao tốc Quốc gia (NHTSA) điều tra về phần mềm Autopilot của Tesla. Và nếu NHTSA tìm thấy đủ bằng chứng về các vấn đề an toàn, nó thậm chí có thể kích hoạt thu hồi.
Trái ngược với tên gọi của nó, Autopilot chỉ là một hệ thống hỗ trợ người lái. Các tính năng của hệ thống Autopilot bao gồm hỗ trợ giữ làn đường, phanh khẩn cấp tự động, điều khiển hành trình thích ứng, cảnh báo va chạm phía trước và chuyển làn đường tự động. Nó cũng có Autosteer, Autopark và Summon, cho phép bạn di chuyển chiếc Tesla của mình vào và ra khỏi không gian chật hẹp mà không cần ở trong xe. Thật không may, đã có một số sự cố lái tự động hoạt động không chính xác, dẫn đến tai nạn.
Nhiều sự cố liên quan đến các phương tiện ứng cứu đầu tiên, và nhiều sự cố đã xảy ra sau khi trời tối. Theo Electrek, hệ thống lái xe tự động của Tesla được biết là có vấn đề, đặc biệt là phát hiện và dừng xe đối với các vật thể đứng yên bên đường. Có nhiều khả năng là một sự trùng hợp ngẫu nhiên mà các phương tiện phản ứng đầu tiên đã tham gia vào những vụ va chạm này vì chúng thường bị dừng bên lề đường. Không có lỗi trong hệ thống tập trung rõ ràng vào những người phản hồi đầu tiên.
Cuộc điều tra của NHTSA bắt đầu vào tháng 8 sau 11 vụ va chạm giữa Teslas và các phương tiện phản ứng đầu tiên. Trong mỗi trường hợp, NHTSA xác định rằng Chế độ lái tự động đã được sử dụng trước những vụ va chạm này. Và theo Business Insider, một vụ tai nạn thứ 12 đã được bổ sung vào cuộc điều tra sau khi một chiếc Model 3 đâm vào một chiếc xe của Đội tuần tra đường cao tốc Florida đang dừng bên lề đường I-4 vào ngày 28 tháng 8 để giúp một người lái xe tàn tật. 12 vụ va chạm này đã dẫn đến 17 người bị thương và một người tử vong.
Theo CNBC, Tesla phải chuyển dữ liệu từ toàn bộ đội xe được trang bị Autopilot của công ty, không chỉ 12 chiếc xe liên quan đến vụ tai nạn của người phản ứng đầu tiên, bao gồm xe hơi, phần mềm và phần cứng mà Tesla đã bán từ năm 2014 đến năm 2021, cho NHTSA trước ngày 22 tháng 10. . Và nếu NHTSA tìm thấy đủ bằng chứng về các vấn đề an toàn, cơ quan này có thể yêu cầu thu hồi hoàn toàn các xe Tesla được trang bị Autopilot.
Một lần nữa, trái với tên gọi của nó, Tự lái hoàn toàn (FSD) là một hệ thống hỗ trợ người lái tiên tiến. Về cơ bản, nó là một phiên bản nâng cấp của Autopilot yêu cầu đăng ký hàng tháng. Theo Road Show, nó đang trong giai đoạn thử nghiệm beta và phiên bản thứ 10 của FSD beta đang được triển khai. Hiện tại, khoảng 1.000 nhân viên và chủ sở hữu đang tham gia thử nghiệm beta cho FSD.
Phần mềm Tesla’s Autopilot có không an toàn không? Nhiều người cho rằng phần mềm an toàn, và vấn đề nằm ở những người vận hành nó không đúng cách. Mọi người thường hiểu sai “Autopilot” nghĩa là gì, và có lẽ đó là vấn đề. Có thể khuyến nghị của NHTSA từ cuộc điều tra sẽ là đổi tên thành một cái gì đó ít gây hiểu lầm hơn. Tất nhiên, có thể an toàn khi nói rằng Musk có thể sẽ không đồng ý với khuyến nghị đó.
Ô tô điện Tesla:Giá, Mẫu xe, Điểm nổi bật chính
Người lái xe Tesla chết trong vụ tai nạn Tự động lái đầu tiên
Giảm giá bảo hiểm cho tài xế Tesla
Chiếc xe mới nhất của Tesla có thể không có vô lăng