人工智能的發(fā)展,迄今為止已攀上了第三次高峰時段。前兩次人工智能的發(fā)展高峰時段分別在20世紀(jì)50年代、20世紀(jì)80年代,科學(xué)家能感受到,人工智能技術(shù)將會改變世界,但仍然還止步在夢想階段。
但這次人工智能的發(fā)展高峰時段與過往大大的不同。首先,深度學(xué)習(xí)變成了我們解決許多具體問題的十分強大的工具。次之,我們具備了強大的算力,無論是云上的計算還是端上的計算,芯片的計算能力都比以往強大得多。再次,我們積累了大量的數(shù)據(jù),這些數(shù)據(jù)為我們解決問題、發(fā)掘價值創(chuàng)造了許多有利條件。最后,我們看到了越來越多真正在改變世界的應(yīng)用誕生,這些成功案列包括搜索引擎、刷臉支付、智慧停車、電商搜索推薦等,其背后都擁有 大量的人工智能技術(shù)的支持。
人工智能技術(shù)在如今,有個典型的應(yīng)用場景——城市大腦(城市智能計算)。今天,我們要從一個新的角度去了解一下它,這個角度便是“數(shù)字平行世界:城市智能4D智能推演”。
1、城市大腦的運行機制
有個段子是這樣說的:世界上最遙遠(yuǎn)的距離是什么?兩人坐在一起彼此不說話,看自己的手機。實際上,另外還有一個距離更遙遠(yuǎn),那便是城市里的監(jiān)控攝像頭和交通信號燈之間的“距離”。監(jiān)控攝像頭“看”到了城市的所有的車輛、行人、路況變化,但它從來沒有“告訴”過交通信號燈該怎么調(diào)節(jié)交通,才可以最大化通行的效率。我們總是有這樣的經(jīng)歷:明明前方路口是沒有車的,但我們不得不停下來等交通信號燈,耗費了許多通行的資源。
當(dāng)然這只不過是一個例子,我們的城市中,有大量的數(shù)據(jù)沒有被充分的連接,更遑論被充分運用起來。城市大腦的核心任務(wù)便是在今天強大的算力支持下,去發(fā)掘這些數(shù)據(jù)的價值,給城市的治理、城市的經(jīng)濟發(fā)展、城市的安全防護(hù)等方面帶來更高效、更有生命力的改變。
在“城市大腦”出現(xiàn)之前,城市數(shù)據(jù)治理存有“盲人摸象”“燈下黑”“霧里看花”等誤區(qū)。“盲人摸象”指的是城市里邊已經(jīng)存有了大量的數(shù)據(jù),如卡口的數(shù)據(jù)、地磁的數(shù)據(jù)、GPS的數(shù)據(jù)等,尤其是信息量最大的“視頻數(shù)據(jù)”沒有被充分運用起來。“燈下黑”指的是我們已經(jīng)安裝了許多監(jiān)控攝像頭、拍到了許多畫面,但沒有對這些視頻進(jìn)行智能分析?!办F里看花”指的是我們沒有去分析這些數(shù)據(jù)其背后的規(guī)律、發(fā)掘數(shù)據(jù)其背后的價值,不在意數(shù)據(jù)其背后的關(guān)聯(lián)、數(shù)據(jù)形成的原因等邏輯,這造成 許多問題并不能獲得有效的解決。
2、數(shù)字化平行世界
把上述工作放到一個四維的場景中去演練。我們通過無人機把城市的局部數(shù)據(jù)進(jìn)行三維空間建模,這個建模與視頻信息的時間軸疊加,就能構(gòu)成四維場景。人工智能技術(shù)能夠自動分析監(jiān)控錄像的監(jiān)控攝像頭角度,把監(jiān)控錄像所覆蓋的場景復(fù)原到三維空間建模中去,這樣就可以把視頻能見到的信息、動態(tài)的變化與三維模型有機結(jié)合在一起,我們對整個場景就能有一個完整的、動態(tài)的、在四維時空下的真實復(fù)原,進(jìn)而作出整體分析。
以廣場集會管理為例,我們可以直觀地見到數(shù)據(jù):廣場上的人群是怎樣分布的、人群密度是怎樣變化的。如果碰到人群密度過大的狀況能夠立即實施管理控制,管理控制的效果通過視頻的數(shù)據(jù)分析,又可以作出查驗認(rèn)證。與此同時,現(xiàn)實空間里的誘導(dǎo)屏還能夠給人群提供引導(dǎo)信息,如引導(dǎo)人們從哪一個出口離場最高效。
以道路交通事故處理為例,我們對城市的道路進(jìn)行四維建模,能夠看清楚車輛在哪個車道,如果發(fā)生了車輛剮蹭等事故,這兩個車道的道路通行能力便會降至0,要怎樣解決這種狀況,交通指示燈怎樣調(diào)整、是否實行開放公交車道給普通車輛通行?這一系列的信息在四維的時空下都能夠進(jìn)行演練和優(yōu)化,我們可以最快地作出決策緩解交通的擁堵。
總的來說,視覺理解從二維邁向三維,再加上時間軸以后,我們對軌跡的跟蹤就從三維邁向了四維,這是一個相當(dāng)大的突破。它不僅僅是一個場景展示,而且可以把各類信息串連在一起,既直觀,又有助于作出完整、全面的分析演練。
3、索引城市
當(dāng)我們把城市數(shù)據(jù)的所有目標(biāo)放進(jìn)搜索引擎構(gòu)建高效的索引之后,就可以按照自身的需求尋找所需要的數(shù)據(jù)。以交通規(guī)律發(fā)掘為例,可以實現(xiàn)按照整個城市或關(guān)鍵地區(qū)的整體流量和當(dāng)前的流量,分析預(yù)測一段時間之后的流量,并充分考慮交通事故、天氣、事件等因素,預(yù)演未來一小時車流量誤差值可以控制在6%以內(nèi),自動事件事故檢測結(jié)果也會被用在交通預(yù)測模型。
深度學(xué)習(xí)方法加上圖計算方法,二者結(jié)合可以用在構(gòu)建交通預(yù)測模型。我們可以把許多流量的點連接成一張圖,在時間軸上,就可以得到多張數(shù)據(jù)連接成的圖。隨著時間的變化,圖在發(fā)生變化。通過這種方式構(gòu)建深度學(xué)習(xí)的模型,就能估算下個時刻的流量是多少。
在具體的應(yīng)用案例中,構(gòu)建實時車流預(yù)測模型,預(yù)測未來1小時內(nèi)路口處各方向的車流量,準(zhǔn)確度在93%以上。構(gòu)建實時車流人流統(tǒng)一預(yù)測模型,預(yù)測未來1小時內(nèi)外部路口處各方向車流量、停車場停車位使用率、商場各地區(qū)人流量,準(zhǔn)確度均在90%以上,基于預(yù)測控制停車場閘機,停車位均衡度可提高30%。
城市視覺智能引擎如同一把“照妖鏡”,能從治理數(shù)據(jù)直觀反映城市治理成果是否得到提高。現(xiàn)如今,杭州人的通行時間平均減少了15%左右,特種車(如救護(hù)車、消防車等)的通行時間平均降低了50%。
城市視覺智能引擎(CityVisualIntelligenceEngine)依托于阿里云分布式計算和儲存平臺,運用先進(jìn)的視頻圖像、圖形學(xué)處理技術(shù)和深度學(xué)習(xí)算法,創(chuàng)建城市級人工智能模型,實現(xiàn)對整個城市視覺數(shù)據(jù)(槍機、球機等監(jiān)控攝像頭數(shù)據(jù)以及遙感、衛(wèi)星、無人機收集的圖像數(shù)據(jù))的連接、計算、分析、索引和挖掘,并賦能公共安全、交通、市政綜治、商業(yè)、司法、園區(qū)、電力能源、醫(yī)療教育等不同行業(yè)場景。城市視覺智能引擎可以打通并連接分布在城市不同單元的視覺數(shù)據(jù)資源,讓圖像、視頻協(xié)助城市來做思索、決策和運營,進(jìn)而整體性提升城市運轉(zhuǎn)效率。