Tesla的半自動駕駛系統頗受車主喜愛,但該系統則因無法辨識、無法立即作出反應等於美國造成多起意外事故,對此也遭到美國國家公路交通安全管理局NHTSA調查,不過這並影響Tesla持續研發自動駕駛,甚至於之前還推出最新Full Self-Driving(FSD) Beta全自動駕駛系統,該系統捨棄雷達採用光學影像辨識,除了能車道維持,於路口還能停車辨識,待無來車繼續前行或轉向,但Tesla仍表示該系統實際並非是自動駕駛,駕駛還是必須做好隨時介入準備,而針對這項系統Tesla也採用3C產品模式開放車主加入FSD Beta測試活動。
日前美國有名駕駛向美國國家公路交通安全管理局NHTSA投訴FSD系統害他遭受危險,該名駕駛表示,他所駕駛的Model Y於公路上進行FSD系統測試,過程中系統都處於正常狀態,後來於轉彎時系統偵測到危險發出警報提醒駕駛,而駕駛當下也介入控制方向盤試圖進行閃避,但殊不知系統卻不遵從指令,執意朝原定方向前進並釀成事故。後來FSD Beta所推出的新版本也傳出不正常作動等災情,對此許多反對人士也痛批邀請車主測試FSD根本就是罔顧他人安全的危險公路實驗,並呼籲NHTSA採取行動及介入調查。