2023成都積分入學(xué)什么時候開始申請
2023-01-31
更新時間:2022-08-15 10:05:30作者:佚名
有不少人認為特斯拉汽車擁有著全世界最頂尖的無人駕駛技術(shù),但也有人不同意這個觀點。
丹·奧多德(Dan O`Dowd)是一位軟件行業(yè)的創(chuàng)業(yè)者,同時也是著名的馬斯克黑。
丹創(chuàng)立了一個叫作黎明計劃(The Dawn Project)的項目,旨在公開那些在關(guān)鍵的安全系統(tǒng)中并不安全的軟件。
而特斯拉,就是這個計劃的首要目標。
根據(jù)黎明計劃在網(wǎng)上發(fā)布的文章指出,特斯拉在自動駕駛方面存在著巨大的漏洞,大約每8分鐘,全自動駕駛就會發(fā)生一次嚴重駕駛失誤,包括:
在可以避免的情況下與物體發(fā)生碰撞;
不遵守交通標志或者信號;
不服從安全人員或者安全車輛;
做出危險動作,迫使他人采取規(guī)避行動。
平均而言,特斯拉每在城市內(nèi)自動駕駛36分鐘,就會出現(xiàn)軟件方面的故障,很可能會造成嚴重的事故。
為此他們還特意進行了安全實驗。
他們在加州一條車道上模擬了一個假人小孩兒橫穿馬路。測試駕駛員將特斯拉的速度提高到60公里/小時后,在靠近人體模型100米時松開雙手,切換成自動駕駛模式。
結(jié)果顯示,當(dāng)汽車接近人體模型后,汽車會進行一定程度的減速,但并不會完全停下來,而是會以不同的速度撞向人體模型。
在視頻發(fā)出之后,馬斯克的粉絲根本不承認視頻的真實性。
他們表示實驗沒有接受第三方公正,而且視頻也沒有拍到駕駛員全身,不知道是不是在偷偷踩油門。
一個在推特上很有名的,特斯拉的狂熱粉絲Whole Mars Catalog則表示,這實驗一點都不嚴謹,因為假人沒鼻子沒眼睛,無法被特斯拉所識別。
(“根本識別不出來,你怎么看?”)
為了進一步證實這個實驗的錯誤,
這位狂熱粉絲還決定,公開招募一個孩子,讓他開著特斯拉朝孩子懟過去……
在灣區(qū)有沒有人能帶著孩子跟我做個測試,在全自動駕駛的時候跑到車前面來證明我的觀點?我保證不會撞到他們……(如有危險發(fā)生,會立即終止實驗)
(這是一個嚴肅的請求)
保證安全,因為車里有駕駛員。
過了一會兒,他表示有人“上鉤”了:
好吧,有人自愿參加……現(xiàn)在他們只需要說服他們的妻子就行了。
這將向成年人和年輕人展示特斯拉的全自動駕駛技術(shù)和前部碰撞警示系統(tǒng),足以證明黎明計劃就是個騙局。黎明計劃非常害怕他們的騙局被曝光。
但如果真的有危險發(fā)生了,我們也會立刻停止實驗并將結(jié)果公開。
如果特斯拉真的不能在撞向兒童時自動停車,那問題就大了。但這跟我的生活經(jīng)歷不符,在我的記憶中,特斯拉可以應(yīng)對任何年齡段的行人。
這是一項拯救生命的技術(shù),每天都在防止車禍的發(fā)生,這可是280萬輛汽車。
對于這種奇葩要求,網(wǎng)友們自然會提出質(zhì)疑:
咱們開工吧。
你跪下來跟一個孩子差不多高。我自愿開著自動駕駛模式的特斯拉撞你。聽上去如何?
在測試自動駕駛的時候讓別人坐在你的車里,你往車前面跑怎么樣?如果這樣的話,即使失敗了,世界也不會有任何損失,這比用孩子實驗更好吧?
對于網(wǎng)友們的質(zhì)疑,這位粉絲表示:
很多愚蠢的人覺得我會撞死人,讓我告訴你們?yōu)槭裁床粫?/strong>
1、全自動駕駛并不是無人駕駛,它需要一個人來監(jiān)督。因此,即使系統(tǒng)不會自動剎車,人類也可以進行控制。
2、我們過去曾經(jīng)進行過類似的測試,讓一群大學(xué)生在車前面走路、爬行,甚至COS成雞,沒有人受傷、死亡或者遇到危險。
3、會讓成人先進行實驗。
4、行人可以待在人行道上,汽車仍然會停下來,所以不需要走上馬路。而汽車在人行道上與人相撞的幾率接近于0。
所以只要朝著馬路走就行,車會停下來的。
5、測試將以每小時5英里(8公里)的車速進行。
6、會讓孩子他爸開車。
7、車內(nèi)駕駛員將通過無人機從上方觀察孩子。
8、在舊金山,大人和小孩們在我每天的自動駕駛測試(他每天會開著自動駕駛的車上街)中都會意外地走到我的車前,沒有人死亡。
如果我們在實驗中做好計劃,知道行人從哪里出現(xiàn),肯定會更安全。
9、會計劃好進行互動的地點,司機會知道行人(成年人和孩子)會在什么時候出現(xiàn)并且做好準備。
鑒于這些以及更多的安全措施,本次實驗幾乎不會有任何風(fēng)險。
對于自己實驗的意義,他解釋說:
每天有10萬輛車在使用這個系統(tǒng),它在與包括孩子在內(nèi)的數(shù)百萬人進行互動。
如果有問題我們需要立刻記錄下來,但如果沒有,就要曝光那些謀財害命的騙子。
對我來說這是很嚴肅的事情,不是玩笑,也不是“為了好玩”。
如果公眾被錯誤地告知了這項技術(shù)并拒絕使用它,或者如果有人因為私人恩怨讓監(jiān)管機構(gòu)影響了這項技術(shù)的研發(fā),人們才更有可能被傷害,甚至?xí)斐伤劳觥?/strong>
最后他表示:
討厭特斯拉是一種特殊的愚蠢。
我們已經(jīng)找好在星期六被撞的孩子了,在我們跟媽媽解釋過有多安全之后,她也同意了。
很多人建議說應(yīng)該讓車先撞向我,我會這么做的。我們會先對成年人和假人進行測試。至于孩子,他們不用在馬路上,只要(從人行道)跑向馬路就夠了。
如今實驗馬上就要開始了,至于老哥會不會先被撞,咱們拭目以待吧……
ref:
https://dawnproject.com/full-self-driving-cars-software-at-its-most-dangerous/
https://www.newshub.co.nz/home/technology/2022/08/elon-musk-fan-wants-to-prove-tesla-won-t-run-over-children-by-trying-to-run-over-child.html
https://twitter.com/WholeMarsBlog/status/1557112809132945408