操屁眼的视频在线免费看,日本在线综合一区二区,久久在线观看免费视频,欧美日韩精品久久综

新聞資訊

    fanr·NExT 是愛范兒推出的一個系列主題活動,聚焦前沿科技領域,探討科技發(fā)展趨勢。在上周的活動中,我們邀請了三位嘉賓,為我們分享機器人領域方面的知識。其中,一直在深圳創(chuàng)業(yè)的張浩的分享十分精彩,十分值得分享出來,讓所有對機器人感興趣的人興奮一把。

    關于張浩,他是國內(nèi)創(chuàng)客領域的代表性人物,是少數(shù)國內(nèi)參加過 CCCamp、HOPE 等國際駭客(Hacker)聚會的創(chuàng)客。他制作過不少機器人。其中最讓他驕傲的,是電子科技大學念書期間為參加亞太大學生機器人大賽而制作的機器人。也正是這部傾注了張浩心血的機器人,帶領電子科技大學過五關斬六將,取得了 2009 年亞太大學生機器人大賽的冠軍。

    離開大學后,一直夢想制作機器人的張浩加入了果殼網(wǎng),主要負責“DIY 小組”的內(nèi)容更新。在那一年里,他挑戰(zhàn)了不少高難度的課題,其中他制作的“瀑布永動機”,得到全球 DIY 大賽 MakerBot Chanlleng 的一等獎。離開果殼之后,張浩還擔任腦波飛行器 PuzzleBox 的首席硬件架構師,該產(chǎn)品成功在 Kickstarter 上眾籌并全球銷售。目前,他剛剛成立了“藍胖子機器人”公司,夢想發(fā)明出像“哆啦 A 夢”一般的能夠在家里幫我們忙的自主服務機器人。

    從以上介紹中,我們可以知道張浩是一個對機器人領域非常了解,具備國際視野,而且技術相當全面的創(chuàng)客。在 ifanr·NExT 的活動上,張浩解答了“什么是機器人?怎么造出一個機器人?”的問題。

    什么是機器人?

    對于這個問題,由美國國防部贊助,國防高等研究計劃署(DARPA)舉辦的機器人挑戰(zhàn)賽說明中,把現(xiàn)實世界當中的機器人分為三種:工業(yè)機器人、遙控機器人、自主機器人。現(xiàn)在機器人大賽里所比較的,是自主機器人。

    到底有多少,和怎樣的自主機器人?張浩以國際的機器人比賽里出現(xiàn)過的機器人作為說明。

    目前來說 DARPA 的機器人挑戰(zhàn)賽是全球水平最高的機器人比賽,每一次比賽的主題都不一樣,一般是模擬一些極限的條件下,讓機器人自己解決特定的任務。

    比如圖中這款機器人,就要解決爬梯的問題

    亞太大學生機器人大賽是國內(nèi)能夠接觸到的機器人比賽,它由 CCTV 舉辦,每一次都會設置不同的關卡,讓學生設計機器人,以最快的速度來滿足關卡里的通關條件。機器人世界杯三大系列之一 Robocup@Home 也很有意思,這個比賽里的目標是讓機器人完成自動幫助我們完成家里的瑣事,比如幫忙制作一份三明治之類的。

    如何制作出一部機器人?

    張浩這張幻燈片解釋得很清楚,機器人其實分為三個部分:機械、電子、軟件。其中,機械的作用就好像骨頭,電子部分就好像人體的肌肉和器官,而軟件部分就好像我們的神經(jīng)系統(tǒng)。不過,軟件部分也分為兩種,一種是嵌入式軟件,它的作用就好像我們的脊椎,或者是植物性神經(jīng)系統(tǒng),能夠讓我們作出基本的反映;另一種高級軟件,往往運行在單獨的筆記本電腦上,它的作用就好像大腦,進行復雜的決策。

    對于機械部分,張浩建議大家首先好好觀察身邊的事物,看它是如何運作的,也可以購買關于機械結構的書籍來學習。然后,就是通過開源的 CAD 軟件嘗試自己制作機械組件,這些軟件包括:OpenSCAD、QCAD、FreeeCAD 和 LibreCAD。

    機器人的電子部分是軟件和硬件的奇妙結合體,它包括了傳動裝置(比如馬達)、多種傳感 還有嵌入式計算機等等。

    在熟悉認識以上電子元件之后,張浩還介紹了幾款開源的 CAD 軟件,輔助我們的電子設計,包括:KiCAD、gEDA、Frizing。

    至于嵌入式計算機,現(xiàn)在也可以搞到便宜又簡單的開源硬件,比如 Arduino、Raspberry Pi 等等。至于更加高級的軟件部分,則可以選擇 ROS、MoveIt!、Rviz、Gazebo 和 PCL,有了這些操作系統(tǒng)作為支撐,開發(fā)者可以開發(fā)負責的軟件,控制機器人作出復雜的動作和判斷。

    從張浩的分享當中,我們可以看出,當下機器人領域開源的工具很多,也就是說,只要動手能力夠強,英語夠好,就可以利用這些開源的工具制作出自己的機器人。而且還別忘了,中國是制造業(yè)大國,不管機器人機械部分還是電子部分,都相比國外更加容易獲取。

    東西(公眾號:chedongxi)

    作者| 車東西團隊

    編輯| 曉寒

    剛剛,特斯拉又一次震撼了整個汽車行業(yè)!

    今天上午舉行的特斯拉人工智能日(AI Day)中,特斯拉亮出“完全自動駕駛功能(FSD)”背后的大腦——特斯拉超級計算機Dojo。

    Dojo肩負訓練AI算法的重任,它內(nèi)置特斯拉自研AI芯片D1,單顆D1擁有500億個晶體管、362TFLOPS的峰值算力(BF16/CFP8),功耗不超過400W。由3000顆D1芯片組成的特斯拉ExaPOD算力更是高達1.1EFLOPS!

    而在此之前,特斯拉甚至還用5760個英偉達A100 Tensor Core GPU,組裝了一臺1.8EFLOPS算力的超級計算機,排名世界第五。

    沒錯,特斯拉早已經(jīng)成為一家AI計算公司。

    如此強大的算力,肯定是服務于特斯拉的FSD功能。而當前,特斯拉的城市道路L2級自動駕駛已經(jīng)開放小規(guī)模測試接近1年,還沒能向大眾開放。與此同時,今年美版特斯拉Model 3/Y取消毫米波雷達,采用純視覺感知,F(xiàn)SD真的靠譜嗎?

    今天在現(xiàn)場,特斯拉AI高級總監(jiān)Andrej Karpathy和自動駕駛軟件總監(jiān)Ashok Elluswamy等幾位特斯拉高管,把純視覺感知實現(xiàn)自動駕駛這件事講清楚了。可謂是把特斯拉自動駕駛的技術優(yōu)勢進行了一次大公開,干貨非常之多。

    發(fā)布會結束前馬斯克還放出了一個彩蛋,特斯拉要“造人”了!特斯拉機器人將在明年量產(chǎn),它將替代人類去做危險的、重復的、無聊的任務。

    與其他機器人不同,名為Tesla Bot的機器人外形與人非常接近,并且還擁有人類級的手和工作能力。馬斯克表示,它將在2022年量產(chǎn)。

    總結來看,特斯拉的AI Day可謂是干貨十足,并且也給出了Tesla Bot這個one more thing,以下是活動干貨。

    沒空看特斯拉AI Day?沒關系,我們已經(jīng)幫你把PPT下載好了。關注公眾號車東西(ID:chedongxi),對話框回復【特斯拉PPT】下載。

    一、推自研AI訓練芯片 機柜算力達1.1EFLOPS

    比既定時間延遲半小時以上開始,已經(jīng)是特斯拉開發(fā)布會的“老傳統(tǒng)”了。AI Day會場外停放著一輛最新款Cybertruck車型,目測會場外有數(shù)十人參觀。但現(xiàn)場直播的媒體表示,今天現(xiàn)場參會人數(shù)并不算多。

    會場外停放了一輛的Cybertruck

    發(fā)布會開始時,已經(jīng)比計劃延后接近40分鐘,特斯拉首先秀出了最新版本的FSD。無保護路口左轉、沒有車道線的鄉(xiāng)村道路、避讓行人、路口停車、識別紅綠燈……這些動作特斯拉都做得非常熟練。

    特斯拉AI Day活動前的FSD展示

    相比于2019年特斯拉FSD的演示視頻完全脫手駕駛,今年的演示視頻中特斯拉的駕駛員用一只手扶著方向盤,這表明特斯拉的自動駕駛能力仍在L2級,并非想象中的“完全自動駕駛”那樣美好。

    特斯拉FSD視頻的變化,從手松開逐步轉到手握方向盤

    從技術層面出發(fā),特斯拉如何實現(xiàn)自動駕駛,如何產(chǎn)生訓練數(shù)據(jù)、如何在車內(nèi)運行以及如何迭代算法就是實現(xiàn)自動駕駛的四大核心問題。

    而在今天的AI Day發(fā)布會上,最重磅的信息莫過于特斯拉發(fā)布了訓練自動駕駛的超級計算機,也就是特斯拉如何不斷迭代算法。

    據(jù)Dojo項目負責人Ganesh Venkataramanan介紹,幾年前,馬斯克幾年前曾要求特斯拉工程師設計一臺超高速訓練計算機,這就是特斯拉啟動Dojo項目的原因。Dojo超級計算機將于明年投入運營,基于大量視頻訓練AI算法。

    特斯拉D1芯片展示

    Dojo是一個通過網(wǎng)絡結構連接的分布式計算體系結構,擁有一個大型計算平面、超高帶寬和低延遲、大型網(wǎng)絡分區(qū)和映射等等,并有一個新編譯器來減少局部通信和全局通信,可擴展性強。

    該超算內(nèi)置特斯拉自研AI訓練芯片D1。D1芯片采用7nm工藝制造,單芯片面積達645mm2,包含500億個晶體管,BF16/CFP8峰值算力達362TFLOPS,F(xiàn)P32峰值算力達22.6TFLOPS,熱設計功耗(TDP)不超過400W。

    特斯拉D1芯片的各項性能

    該芯片具有GPU級別訓練能力和CPU級別可控性,可實現(xiàn)50萬個訓練節(jié)點無縫連接。由此特斯拉提出由25個D1芯片組成的訓練單元(tile)。

    一個訓練單元的接口帶寬每秒36TB,算力達9 PFLOPS,采用了集中供電和散熱設計,散熱能力15kW。

    特斯拉芯片陣列

    擁有120個訓練單元、3000顆D1芯片、超過100萬個訓練節(jié)點的特斯拉機柜模型ExaPOD,其BF16/CFP8算力高達1.1EFLOPS。

    特斯拉芯片陣列展示

    其分布式系統(tǒng)是分區(qū)塊的,Dojo處理單元DPU(Dojo Processing Unit)是一個可根據(jù)應用需求調(diào)整大小的虛擬設備,包含多個D1芯片和接口處理器。特斯拉編譯器引擎可自動將執(zhí)行指令映射到DPU上,無需人工操作。特斯拉打造了一整套軟件堆棧。

    Dojo軟件棧架構

    Ganesh說,特斯拉Dojo是史上最快的AI訓練計算機。同等功耗下,Dojo超算比現(xiàn)有計算機性能提升4倍、能效提升1.3倍、碳足跡只有原來的1/5。此外,特斯拉預告下一代Dojo超算性能將再提升10倍,不過它并沒有透露具體實現(xiàn)日期。

    在Dojo發(fā)布環(huán)節(jié)的最后,Ganesh提到特斯拉正在大力招募人才以推進AI研發(fā)。

    而在特斯拉造出自己的超算之前,也已經(jīng)利用英偉達GPU搭建了一個世界排名第五的超級計算機。

    特斯拉超級計算機

    這個超算使用了720個節(jié)點,每個節(jié)點8個英偉達A100 Tensor Core GPU(共5760個GPU),實現(xiàn)了1.8EFLOPS的性能。

    英偉達A100 Tensor Core GPU

    由此可見,無論是特斯拉的Dojo,還是此前用英偉達GPU組裝的超算,都能夠躋身AI計算領域的前幾名。

    問答環(huán)節(jié),馬斯克回應稱,開發(fā)所有這些技術非常昂貴,所以他不確定如何實現(xiàn)開源,但對將AI技術授權給其他汽車公司持開放態(tài)度。

    二、破除純視覺感知的所有不靠譜 千人團隊標記數(shù)據(jù)

    特斯拉AI高級總監(jiān)Andrej Karpathy上臺,講述了特斯拉是如何通過視覺感知,再進行規(guī)劃控制,實現(xiàn)自動駕駛的。

    他說,特斯拉通過車身四周的8枚攝像頭,形成三維矢量空間,感知出車身周圍的環(huán)境。

    人眼視覺信息傳遞與特斯拉AI視覺信息傳遞對比

    Karpathy說,設計自動駕駛AI視覺時可以逆向工程成人腦識別圖像。例如在為汽車設計其“視覺皮層”時,特斯拉根據(jù)眼睛如何感知生物視覺進行建模。

    特斯拉的8個攝像頭都采用1280*960分辨率12bit HDR圖像,以每秒36幀的速率采集,就能夠?qū)崿F(xiàn)良好的感知效果。

    車身上的八個攝像頭匯集成三維的“向量空間”

    經(jīng)過神經(jīng)網(wǎng)絡計算時,自動駕駛電腦會不斷縮小分辨率,同時提升通道數(shù)量。

    除了識別車輛,特斯拉還會識別人、紅綠燈等多種物體,因此特斯拉開發(fā)了多人需學習的HydraNets網(wǎng)絡。HydraNets網(wǎng)絡共有三個特點,第一是能夠高效測試;二是能夠單獨微調(diào)每個任務,同時還能特征緩存與加速微調(diào),突破再現(xiàn)的瓶頸。

    當前,許多車企采用高精地圖配合傳感器,實現(xiàn)感知融合,但是這種方式并不能讓車輛正確自動駕駛。因此,特斯拉開發(fā)了Occupancy Tracker,此時特斯拉遇到了兩個問題,其一是多傳感器融合算法并不精密(例如一輛超長的掛車,單個攝像頭無法全部感知到),二是圖像空間并非真實的物理空間。

    特斯拉采用Transformer算法用于預測距離。實際測試發(fā)現(xiàn),在一段兩側都停放車輛的城市道路上,多攝像頭感知的準確性和穩(wěn)定性都要強大很多。

    特斯拉認為,在自動駕駛決策方面共有兩個難點,第一在于空間是非凸的,第二是高維度的。

    特斯拉自動駕駛軟件總監(jiān)Ashok Elluswamy表示,特斯拉采用混合決策系統(tǒng),首先讓感知數(shù)據(jù)通過向量空間的粗搜索,然后經(jīng)過連續(xù)優(yōu)化,最后能夠形成平滑的運動軌跡。

    在一個案例中,車輛判斷可以向左變道,但是左側有正常行駛的車輛,此時如果突然變道,車內(nèi)的乘坐感受不佳,同時也威脅交通安全。因此,特斯拉會在1.5毫秒內(nèi)進行2500次變道時機搜索,最終能夠選擇一條最安全且最舒適的變道時機采取變道措施。

    在另一個案例中,特斯拉行駛到了一個超窄路段,兩輛車無法同時通行。第一輛對向來車是一輛SUV,車主主動讓行。因此特斯拉判斷繼續(xù)前行。但是前行一段距離之后,又發(fā)現(xiàn)了另一輛對向來車。

    特斯拉FSD通過復雜路況

    此時,特斯拉選擇避讓停車同時,對向車輛同樣選擇了停車避讓。因此,特斯拉果斷改變了駕駛決策,再次起步通過了這一路段。

    隨著自動駕駛研發(fā)時間的增長,特斯拉需要為更多的物體標記標簽,現(xiàn)在已經(jīng)有1000人的數(shù)據(jù)標簽團隊,打造數(shù)據(jù)標簽和分析基礎設施工作。

    并且,從之前的2D圖像標簽,進化為現(xiàn)在的4D空間+時間的標簽。甚至能夠在做一次標簽之后,一個攝像頭內(nèi)的標簽化圖像,就能遷移到其他攝像頭。

    特斯拉建立4D空間+時間

    特斯拉還能夠在感知過程中重建道路,通過標記車道線和其他物體。與此同時,特斯拉還會收集同一路段的數(shù)據(jù),通過多輛汽車采集數(shù)據(jù)合并在一起,最終實現(xiàn)更精確的重新建圖。

    最終,車輛能夠流暢地標記路旁物體,在準確識別物體之后,才能夠?qū)崿F(xiàn)流暢的城市道路自動駕駛。

    今年5月,特斯拉面向美國市場銷售的Model 3/Y車型取消了毫米波雷達,不過在雨、霧、雪等能見度較低的天氣下,攝像頭能看清楚嗎?答案是能。

    仍然依靠短片記錄駕駛場景,特斯拉每周能夠獲得1萬段類似的惡劣環(huán)境短片,通過自動標簽最終實現(xiàn)精準的距離感知。

    特斯拉FSD可應對多種惡劣天氣

    同時,特斯拉也在進行Autopilot仿真測試,特斯拉稱其為帶有Autopilot的游戲。在仿真測試中,電腦能夠精確標注、部署虛擬的車輛。仿真測試用于模擬在生活中難以發(fā)現(xiàn)的情況,例如在高速道路上有人行走怎么辦?如果有太多人如何標簽?停車場如何避讓其他車輛?

    特斯拉進行仿真測試

    在仿真測試中,工程師可以測試這些極為特殊的情況。仿真測試有多項必要準備工作:第一是傳感器模擬要和真實情況基本相似,第二是要真實的渲染,第三是要有基本真實的場景,包括車輛、行人,特斯拉甚至還造了超過2000英里的路。第四是要有可擴展的場景,包括白天黑夜等不同場景;第五還能通過真實場景重構,在仿真測試中測試算法。

    到目前為止,經(jīng)過特斯拉車內(nèi)網(wǎng)絡訓練的圖像共有3.71億張,還有4.8億個標簽。

    接下來,除了人、車等動態(tài)物體,特斯拉還將檢測靜態(tài)物體、道路拓撲、更多車輛和行人以及強化學習,讓純視覺感知更精準。

    三、機器人新品亮相 能代替人工作

    在一個簡短的機器人裝束舞蹈后,馬斯克宣布2022年推出特斯拉機器人Tesla Bot,它將替代人類去做危險的、重復的、無聊的任務。

    特斯拉機器人展示

    馬斯克介紹到,該機器人將有5英尺8英寸高(約合1.73米),體重有125磅(約合56.7千克),可抱起45磅重的貨物(約合20.4千克),也可以通過舉重硬拉姿勢舉起150磅的重物(約合68.0千克)。

    特斯拉機器人參數(shù)

    它的四肢使用40個機電執(zhí)行器進行操作,并通過力反饋感應系統(tǒng)來實現(xiàn)平穩(wěn)和敏捷雙腳行走,最快行走速度可能為5英里/小時(約合8公里/小時)。

    馬斯克說:“如果這機器人‘造反’了,你還是能跑的過他的。”

    此外,這款機器人的手與人類的手非常類似,有5根可以靈活彎折的手指。馬斯克稱它具有“人類等級”(Human-Level)的手,換句話說它有潛力代替人類執(zhí)行一些精確操作任務。

    特斯拉機器人構造

    特斯拉還計劃將包括FSD Computer在內(nèi)的硬件系統(tǒng)植入機器人體內(nèi)作為后者的“器官”,并以訓練自動駕駛系統(tǒng)AI的方式訓練機器人的AI,讓這款機器人能夠成為多面手。

    馬斯克稱,特斯拉推出這款機器人的初衷是希望它能代替人類完成一些枯燥、危險、重復性強的工作,他希望今后人類不想干的事統(tǒng)統(tǒng)交給特斯拉機器人來干。當然了,人的創(chuàng)意是無限的,馬斯克推測人們可能會發(fā)掘出連他都預料不到的用途。

    不過,這款機器人恐怕要等明年才能上市了。馬斯克稱,為了保證特斯拉機器人功能性,他們還需要用Dojo訓練場對它進行嚴格的訓練。

    結語:特斯拉離自動駕駛更近一步

    如今,AI技術已經(jīng)是實現(xiàn)自動駕駛的關鍵,從傳感器感知完成后,計算、決策所有流程都需要AI技術的加持。掌握AI技術,才能讓自動駕駛更靠譜。

    如今,特斯拉造出自己的AI超算,訓練AI模型將不斷提速,通過更多的場景、案例,最終實現(xiàn)更安全的自動駕駛功能。

    |王沁

    編輯|邱曉芬、蘇建勛

    雖然常青藤學生創(chuàng)業(yè)的故事已經(jīng)不是新鮮事,但這次,創(chuàng)業(yè)的年輪已經(jīng)輪到00后了,還是位發(fā)過頂刊頂會、直博耶魯?shù)闹袊鴮W霸——AI大模型與具身智能賽場的火熱,已經(jīng)頗有種“再不創(chuàng)業(yè)就老了”的緊迫感。

    楊豐瑜Fred Yang,江蘇人,00后,全獎直博耶魯,是具身智能公司UniX AI(優(yōu)理奇科技公司)的創(chuàng)始人,該公司開發(fā)了一款能洗衣服、做漢堡、洗盤子的家庭服務機器人。

    雖然說這么年輕就創(chuàng)業(yè),但創(chuàng)業(yè)對楊豐瑜并不是出于沖動。首先,他高中時就想創(chuàng)業(yè),本科時就有一些“小打小鬧”的創(chuàng)業(yè)項目。其次,他一直在積累創(chuàng)業(yè)資源,從本科時就開始在國內(nèi)積累具身智能相關領域的學術界人脈,創(chuàng)業(yè)后在國內(nèi)四處尋訪機器人業(yè)內(nèi)資深人士組建團隊。

    楊豐瑜Fred Yang,人形機器人公司UniX AI創(chuàng)始人

    現(xiàn)在,他創(chuàng)辦的UniX AI公司邀請到了上海交通大學特聘教授、機器人頂會IROS2025大會總主席王賀升作為首席科學家。

    雖然已經(jīng)發(fā)過國際頂刊論文、獲得北美計算機協(xié)會杰出本科科學家稱號,但作為初回國內(nèi)創(chuàng)業(yè)的年輕面孔,楊豐瑜Fred Yang最開始招人時也常常碰壁。最開始搭建團隊,邀請一些比自己年紀大二十歲的資深專家加入時,需要三顧茅廬,甚至一次聊超過8小時。

    目前,UniX AI開發(fā)的輪式+雙臂人形機器人,作為家庭服務機器人,可以自動識別你亂扔在家里各個角落的衣服,自動撿起并拿去洗衣機洗,還能在你吃完飯后給你收盤子、洗碗,還能清潔地板。

    UniX AI機器人可以夾豆腐

    對于家庭場景來說,機器人手部的操作能力很關鍵。UniX AI自研的三指夾爪,可以夾圓珠筆、夾豆腐。UniX AI稱,其首批100臺人形機器人將于九月量產(chǎn)。

    以下是《智能涌現(xiàn)》與具身智能公司UniX AI創(chuàng)始人楊豐瑜Fred Yang的對話。

    智能涌現(xiàn):對于人形機器人,目前業(yè)界并沒有統(tǒng)一的定義,不同的公司的技術路徑也不一樣,有些公司一開始就做雙足的人形機器人,有些公司做類人形,比如像你們公司的輪式+雙臂形式。你是怎么看待不同的技術路徑?

    楊豐瑜Fred Yang:這個市場足夠大,不同的公司扎根在不同場景。大家都是根據(jù)應用場景,反過來設計自己的機械結構與整體的軟件和硬件方案。現(xiàn)在階段,每一種技術方案都不難找到一種應用場景。我覺得沒有對與錯,大家都是從需求角度出發(fā)來考慮。

    智能涌現(xiàn):你們?yōu)槭裁催x擇用輪式+雙臂的構型?

    楊豐瑜Fred Yang:首先說雙臂,在家庭場景,最重要的是手部的操作能力。家庭空間里很多東西的空間高度,都是為了人設計的。我們的仿生人形臂有7個自由度(可以理解為手臂有7個關節(jié)),可以做很多類人操作。

    關于輪式,考慮到移動精度和安全性,我們首先選擇輪式進入家庭場景。大家還是根據(jù)不同的使用場景來反向設計自己的硬件方案。

    UniX AI機器人的操作能力

    智能涌現(xiàn):你們目前是硬件和軟件同時在做嗎?

    楊豐瑜Fred Yang:我們的核心邏輯是從場景出發(fā)。硬件和軟件對我們來說同等重要。

    智能涌現(xiàn):一般做具身智能的公司,在大腦、小腦和硬件本體之間會有公司自己的側重點,你們會有自己的側重發(fā)力點嗎?

    楊豐瑜Fred Yang:我們軟件硬件都做,但如果從大腦、小腦和硬件三個里講側重點,我們更多偏重在硬件和小腦層面。

    硬件是算法的基礎,軟硬件高度耦合,硬件要跟著場景走。舉個例子,在家庭場景中,我們自己設計的三指夾爪有兩個模式(三指模式和兩指模式),三指可以旋轉變成兩指,用來夾細小的圓珠筆,甚至夾豆腐等。

    另外,現(xiàn)階段打牢小腦的基礎也很重要。對于大家都關注的“可泛化”問題,泛化的過程可分為三個階段:從單一任務的有限場景,到單一任務的開放場景,再到開放任務的開放場景。

    (注:比如從只能在某一種家庭環(huán)境下做洗衣服這種單一任務,到能在不同空間環(huán)境的家庭環(huán)境下洗衣服,再到不同空間環(huán)境下做洗衣服、做飯、輔導孩子等多種任務)

    現(xiàn)在行業(yè)內(nèi)大家都還在從第一階段到第二階段努力,這個階段主要考驗的是小腦能力。如果到后面做開放場景(第三階段),本質(zhì)上是在大腦層面做plan(任務規(guī)劃),但現(xiàn)在首要任務是在小腦層面打牢基礎,首先解決操作層面的東西。

    UniX AI人形機器人抓取衣服

    智能涌現(xiàn):你的一個研究成果是觸覺多模態(tài)大模型 UniTouch,到底什么是視觸覺、什么是觸覺大模型?視觸覺對于推動人形機器人的技術有怎樣的意義?

    楊豐瑜Fred Yang:觸覺在機器人操作體系里,甚至人的操作體系里,都非常重要。從人的角度來說,觸覺是最本能的感知模態(tài),通過和物理世界真實交互獲得反饋。舉個小例子,從包里找鑰匙,一般來說,人是不會依靠視覺,主要依靠觸覺來完成。

    從機器人的角度來說,受到機械結構和傳感器選型的限制,很多時候單獨依靠視覺是遠遠不夠的。打個比方,讓機器人抓瓶蓋,瓶蓋非常小,機械臂抓上去時,已經(jīng)被機械臂本身遮擋了。

    這個時候,只能依靠觸覺反饋來完成最后的抓取和驗證。這種情況在可形變物體操作上尤為突出。當接觸可形變物體時,物體形狀發(fā)生改變,視覺先驗能提供的信息就非常有限,必須依靠非常局部,但是高敏感度的觸覺信息來感知和完成任務。

    同時,觸覺提供的其他信息,視覺沒法提供,比如力量。視覺可以提供機器人抓取位置,無法告知抓取力度。單純的力傳感器也有局限,比如捏碎一個杯子前,從力的角度講看不出任何變化,哪怕杯壁已經(jīng)出現(xiàn)細微裂縫。但這時,觸覺傳感器能夠捕捉到細微裂縫,能夠判斷出接下來繼續(xù)操作是否會捏碎。

    我之前發(fā)了一篇論文,做了全球第一個觸覺多模態(tài)大模型,把觸覺信息和視覺信息、其他語言模態(tài)信息交融在一起。每個模態(tài)都有自身的局限性,視覺也有自身的局限性,但是加入了觸覺信息后,每個模態(tài)之間能夠互補。

    目前不少友商也在做觸覺,但他們還是集中在硬件層面,比如說觸覺傳感器。但UniX AI要面向家庭用戶,硬件必須有3-5年的壽命,現(xiàn)階段很多高精度的觸覺傳感器在壽命方面還沒有辦法滿足商用需求。

    UniX AI機器人打開洗衣機

    智能涌現(xiàn):你們首批100臺人形機器人將從九月開始陸續(xù)量產(chǎn),這個數(shù)字對于人形機器人廠商來說是比較大的,Unix AI是如何做到的?供應鏈如何管理?

    楊豐瑜Fred Yang:量產(chǎn)主要集中在供應鏈方面。我們有從奔馳、海爾出來的一些供應鏈專家,他們有供應鏈方面的制造和成本把控的經(jīng)驗。還有來自傳統(tǒng)機器人、消費電子、汽車行業(yè)、航空航天行業(yè)的一批富有量產(chǎn)經(jīng)驗的供應鏈成員。

    智能涌現(xiàn):你是如何搭建團隊的?

    楊豐瑜Fred Yang:機器人這個領域,不是只靠一個技術棧就能打通,需要硬件、軟件整體配合,也需要多元化的團隊背景。整個具身智能行業(yè)非常新,我們的算法團隊非常年輕,基本上是海內(nèi)外做機器人或人工智能的博士、博士后。

    硬件方面,我們目前先切入了家庭場景,安全性肯定是最重要的因素。我們團隊有來自家庭服務機器人的成員,來做不同家庭的復雜環(huán)境的避障任務,比如繞線、懸空障礙物等。具身智能相關的硬件,包括人形機器人的手臂、腿方面,我們也有能力過硬的科學家,作為硬件開發(fā)負責人。

    智能涌現(xiàn):你很年輕,是00后,這么大的團隊需要很強的操盤能力,你是怎么招人的?

    楊豐瑜Fred Yang:最開始招人確實困難。我本科在密西根大學,博士在耶魯,在國外的具身智能圈子有知名度,所以我很快找到了國外一些做算法的朋友;但是機器人要做軟硬結合,回到國內(nèi),大家不熟悉我們,我也碰了很多壁。每一個重要成員加入之前,我都跟他們聊了非常久,對于人才來說,要有“三顧茅廬”的精神。

    智能涌現(xiàn):人形機器人落地其實不簡單,目前大部分都還處在賣給科研院所的階段,擴大規(guī)模其實挺難,你們說直接一步到位to c,而且是消費級,今年量產(chǎn)100臺,這是怎么做到的?

    楊豐瑜Fred Yang:輪式人形機器人的量產(chǎn)沒有雙足人形機器人那么難。現(xiàn)在大家對于人形機器人的定義其實有分歧。對于雙足人形機器人,我覺得還有一段路要走,還沒有完全ready推向市場,因為安全性上有一些問題還沒有解決。但在家庭里最重要的是手部的操作能力,所以我們第一代推出的是輪式+雙臂的機器人,輪式是比較成熟的技術。

    產(chǎn)品的迭代速度很重要。第一代就做出精品有難度,我們先快速出一版比較穩(wěn)定可靠的、性價比較高的機器人,大面積鋪向市場,再迅速反復迭代。我們內(nèi)部一直講,三代出精品。

    我們初期的100臺主要是種子用戶,愿意做“第一個吃螃蟹的人”。

    UniX AI機器人擦桌子

    智能涌現(xiàn):你們現(xiàn)在已經(jīng)有TO C的客戶?是早期就有聯(lián)系嗎?

    楊豐瑜Fred Yang:一開始的個人用戶,主要是我們身邊的一些朋友、科技界的一些朋友,還有對前沿產(chǎn)品非常感興趣的科技發(fā)燒友,類似于特斯拉剛剛推出的時候,愿意購買的目標人群,也是喜歡進行科技嘗鮮的階層。我們也會做一些focus group(焦點小組訪談),了解目標群體的具體需求。

    智能涌現(xiàn):家庭場景下的通用人形機器人,相比于垂直場景下的機器人(如商業(yè)服務、倉儲物流、安防巡檢等)來說,落地要難很多,對機器人的泛化能力要求高很多。你們的資料說UniX AI 人形機器人同時具備洗衣服、用餐助理、清潔、輔導孩子功課等功能,落地情況如何?

    楊豐瑜Fred Yang:人形機器人的終局,當然是希望機器人什么事情都能干,但飯要一口一口吃,事情要一件一件做。在家庭場景,也是一步一步(落地的),從單一任務的有限場景,到單一任務的開放場景,最后才到開放任務的開放場景。

    我們產(chǎn)品目前已經(jīng)有若干成熟的場景點,比如洗衣服、餐后幫忙收盤子洗碗、3D清潔功能等。以洗衣服功能為例,你可以把衣服扔在各種不同的地方,機器人Wanda第一步會尋物,自主構建一張三維地圖;第二步是抓取衣服,Wanda擁有的UniX AI自研夾爪能夠通用地抓取柔性物體,第三步是使用洗衣機。

    可泛化地使用洗衣機(對于不同種類的洗衣機,機器人都能操作)其實不難,我們可以調(diào)用不同的小模型來完成這個任務。

    智能涌現(xiàn):為什么選擇回國創(chuàng)業(yè)?有沒有想過在美國創(chuàng)業(yè)?

    楊豐瑜Fred Yang:我不把自己定義為回國創(chuàng)業(yè)或者在美國創(chuàng)業(yè),我們在美國和中國都有團隊,只是大家利用不同的區(qū)位優(yōu)勢。美國有頂尖的算法團隊,國內(nèi)有結構、硬件方面的同伴,我們在深圳也有團隊,在上海也設立了研發(fā)中心,有很多同事在那里工作。

網(wǎng)站首頁   |    關于我們   |    公司新聞   |    產(chǎn)品方案   |    用戶案例   |    售后服務   |    合作伙伴   |    人才招聘   |   

友情鏈接: 餐飲加盟

地址:北京市海淀區(qū)    電話:010-     郵箱:@126.com

備案號:冀ICP備2024067069號-3 北京科技有限公司版權所有