Ce concluzii putem trage din primul accident mortal in care a fost implicata o masina Tesla cu "pilot automat"
La finalul saptamanii trecute o stire a facut senzatie pe internet. Pe o autostrada din SUA un sofer de Tesla a murit dupa ce masina s-a izbit de remorca unui camion. Soferul nu era atent la drum pentru ca masina era in modul „Autopilot” in care se conduce aproape singura, insa de data aceasta software-ul nu a detectat remorca. Tesla scrie in manualul masinii ca Autopilot nu inseamna ca masina se conduce singura, insa cei mai multi nu citesc. In plus, Elon Musk a prezentat cu atat de multa incantare tehnologia, incat cei care au instalat-o o considera mult mai buna decat este in realitate. Intrebarea este insa daca e normal ca o tehnologie aflata in faza beta sa fie prezenta la discretia a mii de soferi dornici sa-i afle limitele.
Joshua Brown, in varsta de 40 de ani, a murit in data de 7 mai dupa ce masina sa Tesla Model S s-a izbit la viteza mare de o remorca pe o autostrada din Florida. Se pare ca soferul se uita la unul dintre filmele cu Harry Potter in acel moment, dar cu siguranta ca masina Tesla era pe modul Autopilot care ii da vehiculului un grad sporit de autonomie.
Software-ul este gandit sa „vada” toate” obstacolele” de pe drum si sa puna frana in caz de pericol. De data aceasta insa nu a existat nicio reactie si masina s-a lovit de remorca inaltata a unui camion, cei de la Tesla spunand ca, din cauza ca remorca era alba si soarele batea din fata, soft-ul nu a detectat-o si cabina masinii a fost „rasa”.
Sistemul Autopilot, lansat in octombrie 2015, functioneaza datorita unui software ce foloseste camere video, senzori, radare, GPS si harti pentru a „vedea” ce se intampla in jurul masinii. Automobilul detecteaza alte masini si franeaza pentru a evita coliziunile, putand sa schimbe si banda de rulare, daca soferul apasa semnalizarea. La destinatie masina „scaneaza” zona din jurul ei, detecteaza un loc de parcare si poate sa parcheze singura.
Imediat dupa lansarea primei variante, soferii au vrut cu entuziasm sa vada ce poate si au pus pe YouTube filmulete in care masina era subiectul unor situatii limita.
Autoritatea de siguranta a traficului NHTSA a deschis o ancheta pentru a vedea exact ce s-a intamplat, insa incidentul ridica probleme legate de viitorul masinilor care se conduc singure. Peste 10 companii testeaza pe sosele masini autonome si calendarul este ca intre 2022 si 2025 sa fie lansate primele modele, evident si daca autoritatile le vor omologa.
Cei care nu vor sa auda de masina condusa de un software spun ca accidentul este o dovada ca tehnologia este foarte periculoasa si ca masina autonoma reprezinta o idee stupida. Sustinatorii masinilor autonome spun ca Tesla a avertizat clientii ca Autopilot nu inseamna masina autonoma, ci un sistem de asistenta a soferului. Ei dau ca exemplu numeroasele sfaturi din manualul Tesla care spun ca omul nu trebuie sa-si ia niciodata ochii de la drum sau mainile de pe volan.
Apoi sunt alte cateva zeci de avertismente, de la cele legate de faptul ca sistemul nu ar trebui folosit noaptea, pe ploaie. pe ninsoare sau cand soarele bate puternic din fata. Insa in general posesorii nu au chef si nici timp sa citeasca avertismentele si in general oamenii vor sa testeze la maxim limitele unei tehnologii „cool”.
Tesla a numit acvest software „Autopilot”, denumire aleasa cu grija ca sa sune bine si sa te duca cu gandul la pilotul automat din aviatie care ghideaza aeronava pe aproape tot zborul. Insa la Tesla, pilotul automat nu inseamna masina autonoma si cel aflat la volan trebuie sa fie mereu atent si nu trebuie sa astepte ca masina sa il duca la destinatie.