亚洲无码婷婷精品视频综合网|久久成人无码在线免费观看|亚洲AV电视一区二区三区|伊人久久在线视频|特黄录像带看一看|久久久精品桃花91|国产中文视频黄色国产a片|亚洲自拍偷拍99页|欧美成人在线视屏|呦女视频www夜夜狠狠操

  1. 首頁(yè)
  2. 資訊
  3. 技術(shù)
  4. AImotive稱(chēng)能給普通汽車(chē)配上自動(dòng)駕駛功能 僅需4萬(wàn)!

AImotive稱(chēng)能給普通汽車(chē)配上自動(dòng)駕駛功能 僅需4萬(wàn)!

澎湃新聞網(wǎng)

無(wú)人駕駛的時(shí)代正在來(lái)臨。對(duì)車(chē)主來(lái)說(shuō),進(jìn)入無(wú)人車(chē)時(shí)代首先需要考慮的問(wèn)題就是是否需要換一輛車(chē)。不過(guò),來(lái)自歐洲的一家無(wú)人駕駛技術(shù)初創(chuàng)公司對(duì)外宣稱(chēng),他們的技術(shù)可以在控制花費(fèi)的情況下,把普通的家用車(chē)改造成具有自動(dòng)駕駛功能的汽車(chē)。

用普通的相機(jī)和人工智能裝置(AI)來(lái)改造普通汽車(chē),平均花費(fèi)只要大約6000美元(約為4.1萬(wàn)人民幣)。

據(jù)《衛(wèi)報(bào)》3月6日?qǐng)?bào)道,在不少自動(dòng)駕駛車(chē)技術(shù)廠商依賴(lài)昂貴的雷達(dá)系統(tǒng)時(shí),一家總部位于匈牙利布達(dá)佩斯、名為AImotive的初創(chuàng)公司,嘗試用普通的相機(jī)和人工智能裝置(AI)來(lái)改造普通汽車(chē),并且平均花費(fèi)只要大約6000美元(約為4.1萬(wàn)人民幣)。

據(jù)報(bào)道,這家公司能以人工智能算法實(shí)現(xiàn)L5級(jí)別的自動(dòng)駕駛,目前國(guó)際上將自動(dòng)駕駛技術(shù)分為五級(jí),L5代表了這一技術(shù)的最高等級(jí),即意味著車(chē)輛可以完全脫離人類(lèi)的掌控而自行駕駛。該公司目前已完成了一筆1050萬(wàn)美元的融資,資金來(lái)自于圖形技術(shù)和數(shù)字媒體處理器廠商英偉達(dá)(NVIDIA)、精密機(jī)械和電氣工程廠商博世(BOSCH)等。目前AImotive已經(jīng)在硅谷開(kāi)設(shè)研發(fā)中心,致力于自動(dòng)駕駛的AI研發(fā)。

AImotive試圖將普通相機(jī)和人工智能技術(shù)結(jié)合起來(lái),打造自己的無(wú)人駕駛汽車(chē),這意味著,該公司可以以低廉的價(jià)格將普通汽車(chē)轉(zhuǎn)換為無(wú)人駕駛汽車(chē),對(duì)比其他自動(dòng)駕駛車(chē)項(xiàng)目花費(fèi)7萬(wàn)美元至10萬(wàn)美元,AImotive無(wú)人駕駛車(chē)的價(jià)格僅在6000美元左右(約為4.1萬(wàn)人民幣)。

其創(chuàng)始人兼首席執(zhí)行官拉茲洛·基什洪蒂(Laszlo Kishonti)在接受《衛(wèi)報(bào)》采訪時(shí)表示,整個(gè)交通系統(tǒng)都是基于視覺(jué)系統(tǒng),司機(jī)沒(méi)有蝙蝠的耳朵和聲吶,只能通過(guò)觀察來(lái)開(kāi)車(chē)。成立于2015年的AImotive想要復(fù)制上述人類(lèi)的能力,“要做到這一點(diǎn)的惟一方法就是使用人工智能技術(shù)?!?

從網(wǎng)上披露的車(chē)身照片可以看到,該款無(wú)人駕駛汽車(chē)具有4個(gè)魚(yú)眼攝像機(jī),覆蓋車(chē)輛的每一側(cè),同時(shí)還在前后裝有雙立體相機(jī)。車(chē)輛的后備箱充滿了矮胖的、電力密集型的個(gè)人電腦,和相機(jī)結(jié)合在一起構(gòu)成汽車(chē)的“眼睛”,實(shí)時(shí)創(chuàng)造環(huán)境的三維模型。

人工智能應(yīng)用于視頻傳送,來(lái)理解周?chē)沫h(huán)境,以此告訴汽車(chē)周?chē)鞘裁?,以及相距多遠(yuǎn)。對(duì)于人類(lèi)而言簡(jiǎn)單的任務(wù),比如對(duì)象是人還是動(dòng)物,是車(chē)道還是人行道,人是停下來(lái)還是向馬路對(duì)面跑,都是對(duì)計(jì)算機(jī)的挑戰(zhàn)。

目前AImotive的無(wú)人駕駛汽車(chē)已在美國(guó)加州進(jìn)入道路測(cè)試階段。該車(chē)的人工智能裝置能夠繪制出道路上車(chē)輛的駕駛路徑,并且實(shí)時(shí)通知汽車(chē)轉(zhuǎn)向,以實(shí)施制動(dòng)和加速。

不過(guò),目前AImotive還未在加州獲得無(wú)人駕駛汽車(chē)牌照,所以測(cè)試需要控制在10分鐘內(nèi)。完全獨(dú)立的功能已經(jīng)在其總部布達(dá)佩斯的道路上和地下停車(chē)場(chǎng)實(shí)現(xiàn)測(cè)試。

《衛(wèi)報(bào)》分析認(rèn)為,AImotive基于視覺(jué)的系統(tǒng),有一定的缺點(diǎn),即車(chē)輛所知的都是基于看到的,就像人類(lèi)一樣。這也意味著,車(chē)輛會(huì)在有霧或有雪天氣變得性能較差。不過(guò)在另一方面,理論上AImotive的無(wú)人駕駛車(chē)輛也可以變得更加靈活,因?yàn)檐?chē)輛不論被放在任何一個(gè)城市都知道怎么開(kāi),而無(wú)需實(shí)現(xiàn)創(chuàng)建詳細(xì)的3D地圖來(lái)作為參考。這也意味著AImotive的車(chē)輛可以處理不可預(yù)知的變動(dòng)后路線。

第一電動(dòng)網(wǎng)新聞圖片

AImotive公司改造的無(wú)人駕駛汽車(chē)的電腦系統(tǒng)

目前,AImotive還沒(méi)有任何計(jì)劃來(lái)從頭構(gòu)建自己的汽車(chē)產(chǎn)品,但正在和如沃爾沃這樣的汽車(chē)公司合作,來(lái)給自己提供汽車(chē)和卡車(chē)的自駕車(chē)“大腦”。

談及卡車(chē),AImotive認(rèn)為,貨運(yùn)業(yè)的自動(dòng)化已經(jīng)到了可以實(shí)現(xiàn)的時(shí)候?;埠榈俦硎?,貨運(yùn)公司都在為1%-2%的價(jià)格差異競(jìng)爭(zhēng),但60%的成本花費(fèi)都在司機(jī)身上?!叭绻梢詫?shí)現(xiàn)自動(dòng)化,貨運(yùn)公司會(huì)很高興,不過(guò)這也存在一些政治障礙?!?

基什洪蒂表示,在此期間,AImotive可以提供卡車(chē)公司安全裝置,比如在司機(jī)的盲點(diǎn)位置檢測(cè)騎自行車(chē)的人。

截至目前,AImotive正在試圖獲取能夠在加州和內(nèi)華達(dá)州合法駕駛的許可證,一旦取得,將會(huì)在2018年初在這些城市環(huán)境中進(jìn)行公路試點(diǎn)。

眼下,在嘗試將普通汽車(chē)改造成自動(dòng)駕駛汽車(chē)的不止AImotive。

2016年7月15日,來(lái)自英國(guó)的初創(chuàng)公司Oxbotica公開(kāi)了自主開(kāi)發(fā)的一套無(wú)人駕駛系統(tǒng)Selenium,這套系統(tǒng)能夠?qū)⑷我庖慌_(tái)普通車(chē)變成無(wú)人駕駛汽車(chē),并且不依賴(lài)于GPS。

Oxbotica是2014年末從牛津大學(xué)機(jī)器人團(tuán)隊(duì)衍生的一家英國(guó)科技公司,專(zhuān)注于機(jī)器人和自動(dòng)駕駛汽車(chē)工程技術(shù)的研究。Selenium系統(tǒng)通過(guò)搭載的視覺(jué)攝像頭、激光掃描器或者雷達(dá)系統(tǒng)獲得數(shù)據(jù)。通過(guò)一系列算法確定自身的位置和周?chē)沫h(huán)境狀況,進(jìn)而判斷下一步的行動(dòng),實(shí)現(xiàn)自動(dòng)駕駛。

牛津大學(xué)教授兼Oxbotica的聯(lián)合創(chuàng)始人保羅·紐曼(Paul Newman)表示:“Selenium就像萬(wàn)金油,有了它,任何汽車(chē)都能變成無(wú)人駕駛汽車(chē)。”

來(lái)源:澎湃新聞網(wǎng)

本文地址:http://www.cslysp.cn/news/jishu/49710

返回第一電動(dòng)網(wǎng)首頁(yè) >

收藏
60
  • 分享到:
發(fā)表評(píng)論
新聞推薦
第一電動(dòng)網(wǎng)官方微信

反饋和建議 在線回復(fù)

您的詢(xún)價(jià)信息
已經(jīng)成功提交我們稍后會(huì)聯(lián)系您進(jìn)行報(bào)價(jià)!

第一電動(dòng)網(wǎng)
Hello world!
-->