2025年春晚,宇樹科技的Unitree H1機器人“福兮”身穿花襖,帶領(lǐng)演員們共同完成了極具民族特色的扭秧歌表演《秧BOT》。
這不僅是一次視覺盛宴,更是機器人技術(shù)發(fā)展的生動展示。那么,這些機器人是如何做到如此流暢的舞蹈動作的呢?
“福兮”們憑借高自由度關(guān)節(jié)設(shè)計與高扭矩電機,實現(xiàn)類似人類的精準運動控制,確保穩(wěn)定步態(tài)。在群舞表演中,它合3D 激光雷達(LiDAR)與計算機視覺,實時感知環(huán)境與演員位置,精準同步隊形與動作。
其核心技術(shù)包括強化學習(Reinforcement Learning, RL),使機器人通過視頻捕捉學習舞蹈,并利用軌跡優(yōu)化提升動作流暢度。為了保證舞蹈穩(wěn)定性,H1 采用力矩補償算法、零力矩點控制、欠驅(qū)動收斂算法等策略,平衡大幅度動作并降低能耗。
此外,在手絹舞中,H1 通過旋轉(zhuǎn)同步結(jié)構(gòu)與隱形釋放機制精確復現(xiàn)演員揮舞動作,并結(jié)合步態(tài)預測與震感降噪系統(tǒng),確保動作自然、安靜流暢。多臺機器人則依靠集群控制(Swarm Control)和優(yōu)化算法協(xié)同表演,實現(xiàn)高效避障與舞臺適應(yīng)性,展現(xiàn)完美群舞效果。
然而,若讓這臺機器人下臺完成如端水、穿衣等日常任務(wù),它可能立刻陷入困境。
比如春晚后臺,當魔術(shù)師劉謙遇到機器人G1(后面會講到)準備“握”一個時,G1竟上演了“臥”一個,可謂是用魔法打敗了魔法,向我們展示了魔法界的行禮方式……
那么,當前的人形機器人距離《鋼鐵俠》中的高階智能體究竟還有多遠?目前全球的機器人技術(shù)到底發(fā)展到什么程度了?中國的研究處于什么水平?當走進H1的老家(官網(wǎng)介紹),我們會更直觀地感受到這位一歲半的180 cm機器小孩進化之迅猛。
在目前的版本中,H1移動速度高達3.3米/秒,打破全尺寸人形最高移動速度;采用UNITREE M107關(guān)節(jié)電機可實現(xiàn)膝關(guān)節(jié)最大扭矩360Nm;配備的LIVOX-MID360款3D激光雷達和Intel RealSense D435i款深度相機使得H1能360°無死角感知周圍環(huán)境?吹健疤熨x異稟”的人形機器人努力融入中國傳統(tǒng)文化的這一刻,小編對機器統(tǒng)治人類的擔憂好像也在逐漸消散(很期待H1長大后給俺養(yǎng)老呢。。
看著不穿褲子扭秧歌的H1如此可愛
,在這里show一下宇樹官網(wǎng)發(fā)布的H1的成長記錄小彩蛋~(注意提前調(diào)節(jié)音量噢)H1被“虐”↓↓↓
H1點亮卡點跳舞技能↓↓↓
H1超級技能之原地后空翻↓↓↓
解構(gòu)機器人
HAPPY 2025 NEW YEAR
機器人發(fā)展如此之快,我們?nèi)祟惛蟃A們進化的步伐,認識機器人,理解機器人,成為機器人,超越機器人。為了真正了解一個機器人的運作,我們現(xiàn)在一步步解構(gòu)它的功能。人形機器人能夠執(zhí)行復雜任務(wù)的關(guān)鍵在于其運動(locomotion)、感知(perception)、認知(cognition)和導航(navigation)四個核心過程。這些要素相互作用,使機器人能夠感知環(huán)境、決策并采取行動。
困難01.
如何讓機器人穩(wěn)定行走
HAPPY NEW YEAR
機器人運動系統(tǒng)的核心目標是保持平衡、控制步態(tài)并優(yōu)化能量效率。人形機器人通常采用零力矩點(Zero Moment Point, ZMP)控制,以確保行走時的穩(wěn)定性。
零力矩點控制指在機器人行走過程中,如果接觸點的合力作用點位于支撐面內(nèi),則機器人能夠保持穩(wěn)定。在步態(tài)控制時,機器人需要同時具有靜態(tài)穩(wěn)定和動態(tài)穩(wěn)定的能力。多足機器人相比傳統(tǒng)的輪式機器人擁有更多的關(guān)節(jié)自由度,需要更復雜的控制,否則極容易因重心偏移而摔倒。
尤其是兩足機器人,由于極易產(chǎn)生前后方向的傾覆力矩導致前傾或后仰,因此春晚上H1機器人在下臺時被后面掐著脖子以抵抗傾覆力矩。
逆運動學(Inverse Kinematics,IK):如何計算運動時的關(guān)節(jié)角度逆運動學是解決機器人如何從一個姿態(tài)到達目標位置的數(shù)學方法,它根據(jù)執(zhí)行器末端的位置和方向反推關(guān)節(jié)角度和運動姿態(tài):
從低維的任務(wù)空間到高維的 執(zhí)行器空間的坐標變換的解往往具有不穩(wěn)定性和不唯一性。對于人形機器人來說,計算其各關(guān)節(jié)運動尤為關(guān)鍵。例如,當機器人需要抬起一只腳邁步時,IK算法需要計算:膝關(guān)節(jié)、髖關(guān)節(jié)等多個自由度的角度變化;
確保機器人在單腳支撐期間保持重心穩(wěn)定;
計算最優(yōu)軌跡,使其既節(jié)能又平穩(wěn)。
步態(tài)生成
SPRING
FESTIVAL
機器人步態(tài)可以通過兩種方式生成:基于模式的步態(tài):在已知環(huán)境中,利用零力矩點方法和逆動力學的計算設(shè)定行走方式,如ASIMO機器人采用的有限狀態(tài)機(Finite State Machine, FSM)。
在線優(yōu)化步態(tài):利用強化學習或優(yōu)化算法,如Proximal Policy optimization (PPO), Soft-Actor Critic (SAC), and Evolutionary Strategies (ES)等,使機器人能夠適應(yīng)復雜地形,如Digit機器人在物流環(huán)境中的動態(tài)調(diào)整。
困難02.
如何讓機器人看見世界
HAPPY NEW YEAR
機器人傳感器系統(tǒng)是機器人獲取外部環(huán)境信息、執(zhí)行自主任務(wù)的關(guān)鍵組件。根據(jù)其功能,機器人傳感器可分為觸覺與力覺傳感器、運動與位置傳感器、距離與環(huán)境感知傳感器、視覺傳感器等多個類別。
觸覺與力覺傳感器
SPRING
FESTIVAL
觸覺傳感器):可用于檢測物體的存在、接觸壓力,甚至溫度變化。例如,在機器人手爪中,觸覺傳感器能測量抓取物體時的受力,防止物體滑落或被損壞。力/力矩傳感器:用于測量機器人施加的力矩,以實現(xiàn)精確控制。例如,協(xié)作機器人(Cobot)通過力矩傳感器感知人與機器人的交互力,實現(xiàn)安全作業(yè)。
運動與位置傳感器
SPRING
FESTIVAL
編碼器:測量關(guān)節(jié)或輪子的旋轉(zhuǎn)角度和速度,保證運動精度。主要包括光學編碼器、電磁編碼器、電容編碼器等。加速度計(Accelerometers):測量機器人在不同軸向上的加速度,并通過積分計算速度。陀螺儀(Gyroscopes):測量角速度和方位角,為姿態(tài)控制提供數(shù)據(jù)。
環(huán)境感知傳感器
SPRING
FESTIVAL
紅外傳感器基于紅外光反射原理,用于短距離測量,但易受環(huán)境光影響。超聲波傳感器通過發(fā)射高頻聲波,并測量回波時間來計算距離,常用于避障和測距,例如掃地機器人使用超聲波傳感器檢測墻壁。主動信標(Active Beacons)可用于機器人導航,包括三邊測量法(trilateration)和三角測量法(triangulation),實現(xiàn)高精度定位。激光測距儀(Laser Range Finder, LRF)使用激光束測量目標物體的精確距離。例如,自動駕駛汽車使用激光雷達(LiDAR)進行環(huán)境建模和目標檢測。
視覺與深度傳感器
SPRING
FESTIVAL
基于視覺的傳感器:包括CCD(電荷耦合器件)和 CMOS(互補金屬氧化物半導體)攝像頭,常用于計算機視覺任務(wù),如物體檢測、人臉識別。顏色跟蹤傳感器用于檢測和跟蹤特定顏色的目標,應(yīng)用于工業(yè)檢測、機器人競技等場景。深度傳感器結(jié)合紅外投影儀和 IR 攝像頭可用來獲取 3D 深度信息。例如,微軟 Kinect 傳感器利用結(jié)構(gòu)光技術(shù)生成三維點云數(shù)據(jù)。
此外,火星探測器等自主機器人常使用被動立體視覺(Passive Stereo Vision)創(chuàng)建本地地形地圖,以便進行自主導航。與 LiDAR 等主動傳感器相比,立體視覺能耗更低,適合遠程任務(wù)。
困難03.
如何讓機器人思考
HAPPY NEW YEAR
在人形機器人領(lǐng)域中,“思考”是機器人決策系統(tǒng)的核心,它決定了機器人的行為和策略。機器人通過感知數(shù)據(jù)(如視覺傳感器的數(shù)據(jù)、環(huán)境傳感器的數(shù)據(jù))構(gòu)建完整的環(huán)境地圖,并計算出最優(yōu)的路徑以及動作規(guī)劃。
認知模型的實現(xiàn):通過計算機視覺識別物體、檢測邊緣并進行模式識別,構(gòu)建環(huán)境地圖。
結(jié)合SLAM技術(shù)實現(xiàn)實時定位與更新地圖。
使用復雜的人工智能算法(如深度學習、神經(jīng)網(wǎng)絡(luò)等)來優(yōu)化機器人的位置和運動軌跡,確保精準執(zhí)行。
機器人非線性控制策略
SPRING
FESTIVAL
在人形機器人中,系統(tǒng)具有非線性動力學特性。這種特性使得傳統(tǒng)的線性控制方法無法有效發(fā)揮作用。當前科技界主要通過以下策略實現(xiàn):
全局線性化控制
使用數(shù)學變換將非線性系統(tǒng)映射到等效的線性狀態(tài)空間。通過微分平坦系統(tǒng)(Differentially Flat Systems)、李代數(shù)和微分同胚進行狀態(tài)估計和反饋控制,確保系統(tǒng)的穩(wěn)定性。
局部線性化控制
在機器人局部平衡點附近建立線性近似模型。利用這些模型來提高系統(tǒng)對外部擾動的穩(wěn)健性,并支持從靜止到行走等狀態(tài)之間的切換,確保平穩(wěn)過渡。
李雅普諾夫穩(wěn)定性控制
使用李雅普諾夫函數(shù)來分析和保證系統(tǒng)的漸近穩(wěn)定。在人形機器人行走時,這種分析方法可以幫助確保步態(tài)不會因外部沖擊而失穩(wěn)。
困難04.
如何教機器人“認路”
HAPPY NEW YEAR
機器人如何像人類一樣“認路”?這背后的核心技術(shù),就是導航(Navigation)。不久前的一期線上科學日已針對鴿子歸巢(可點擊跳轉(zhuǎn))的識路導航系統(tǒng)進行了較為細致的討論。想象一下,你的掃地機器人如何避開桌椅,在房間里找到最優(yōu)清掃路線?又或者,自動駕駛汽車如何在復雜道路環(huán)境中做出迅速決策?這背后依賴的是路徑規(guī)劃。
幾十年來,科學家們不斷改進路徑規(guī)劃算法,使機器人在復雜環(huán)境中也能自主決策、流暢行動。
從經(jīng)典到智能進化:路徑規(guī)劃的發(fā)展
SPRING
FESTIVAL
最早的路徑規(guī)劃研究始于20 世紀 60 年代,當時科學家們試圖在大規(guī)?臻g中找到最短路徑。最初的方法主要是經(jīng)典算法,如Dijkstra 算法和A* 算法,這些基于圖搜索的技術(shù)保證了最優(yōu)解,但計算復雜度較高。隨后,研究人員提出了人工勢場法(APF),讓機器人通過“吸引力”和“斥力”計算路徑,但容易陷入“局部最小值”而卡住。為了克服這些問題,概率方法(Probabilistic Methods)在1990 年代崛起。代表性算法是概率路圖(PRM)和快速探索隨機樹(RRT),它們通過隨機采樣構(gòu)建路徑網(wǎng)絡(luò),極大提高了計算效率,使機器人能在復雜、動態(tài)環(huán)境中自由探索。到了2000 年代,研究人員又引入了啟發(fā)式搜索(Heuristic Planners),如貪心算法(Greedy Search)和D* 算法,進一步提升了路徑規(guī)劃的實時性,特別適用于無人機、行星探測車等需要快速決策的系統(tǒng)。
機器人如何像生物一樣學習路徑?
SPRING
FESTIVAL
進入 21 世紀,研究者受自然界啟發(fā),發(fā)展出進化算法(Evolutionary Algorithms),讓機器人像生物一樣“進化”路徑規(guī)劃策略。遺傳算法(Genetic Algorithms, GA):模擬生物基因突變與優(yōu)勝劣汰的過程,不斷優(yōu)化路徑選擇。
粒子群優(yōu)化(Particle Swarm Optimization, PSO):靈感來源于鳥群覓食,機器人在“搜索空間”中協(xié)同尋找最優(yōu)路徑。
蟻群優(yōu)化(Ant Colony Optimization, ACO):模擬螞蟻覓食行為,利用“信息素”找到高效路徑,適用于動態(tài)環(huán)境中的路徑規(guī)劃。
模擬退火(Simulated Annealing, SA):借鑒金屬退火過程,通過隨機搜索避免陷入局部最優(yōu)解,提高路徑質(zhì)量。
未來的路徑規(guī)劃:更快、更智能、更節(jié)能
SPRING
FESTIVAL
今天,路徑規(guī)劃不再僅僅關(guān)注“最短路徑”,而是開始優(yōu)化時間、能耗、平穩(wěn)性等參數(shù)。例如,現(xiàn)代自動駕駛技術(shù)會綜合考慮轉(zhuǎn)彎平滑度、加速度限制、避障策略,確保行車安全與舒適性。未來,強化學習(Reinforcement Learning, RL)正成為路徑規(guī)劃的新趨勢。機器人將不再依賴預設(shè)規(guī)則,而是通過自主試錯和環(huán)境反饋,不斷優(yōu)化決策策略,使導航更加靈活、高效。
強化學習人形機器人的外掛
HAPPY 2025 NEW YEAR
1. 強化學習的本質(zhì):機器人如何像人一樣學習?強化學習的核心目標是:讓智能體(Agent)在與環(huán)境交互的過程中,通過試錯逐步學習到最優(yōu)策略(Policy),以最大化長期回報(Reward)。我們可以把這個過程類比為實驗室里的自旋系統(tǒng)尋找最低能態(tài)
:機器人面臨一個復雜環(huán)境(相當于自旋系統(tǒng)的能量勢壘)它通過不同的動作(類似于自旋翻轉(zhuǎn))嘗試改變狀態(tài)(State)環(huán)境給它獎勵(Reward)指引它走向“低能態(tài)”即最優(yōu)行為策略。
上圖機器人強化學習的學習路徑,其核心可概括為這一閉環(huán)描述:狀態(tài) -> 動作 -> 獎勵 -> 策略更新。通過這一循環(huán),機器人逐步優(yōu)化其行為策略,實現(xiàn)目標任務(wù)。例如,在機器人操作中,強化學習通過值函數(shù)和策略不斷優(yōu)化動作規(guī)劃,指導機器人在復雜環(huán)境中完成任務(wù)。
相比于監(jiān)督學習,強化學習則是在沒有標簽的情況下,通過探索數(shù)據(jù)的特性來學習。它并不會直接判斷某個狀態(tài)或動作是好是壞,而是通過獎勵信號進行評價。機器人的行為會影響后續(xù)數(shù)據(jù)的發(fā)展,因此強化學習的反饋是延遲的,數(shù)據(jù)是序列化的,并且數(shù)據(jù)與數(shù)據(jù)之間存在相關(guān)性。
2. 為什么人形機器人需要強化學習?人形機器人比普通輪式機器人復雜得多,物理上,人形機器人有幾十個自由度(DOF),狀態(tài)空間遠大于普通機械臂。傳統(tǒng)控制方法(如PID、優(yōu)化控制)難以在不確定環(huán)境下實現(xiàn)高效控制。RL 提供了一種端到端學習的方法,允許機器人通過模擬或真實環(huán)境交互,自主學習如何行走、站立、跳躍,甚至模仿人類動作。 類比:當小編在實驗室中嘗試優(yōu)化 PLD 工藝時,可能不會直接知道最優(yōu)參數(shù),而是需要不斷實驗,調(diào)整沉積溫度、氣壓等。RL 也是如此,讓機器人在“實驗”中找到最優(yōu)策略。3. 人形機器人中的強化學習方法
機器人領(lǐng)域強化學習研究的范式
價值函數(shù)方法(Value-Based RL)
SPRING
FESTIVAL
核心思想是學習一個價值函數(shù)(Q值)來評估不同動作的好壞,然后機器人選擇價值最高的動作執(zhí)行。例如:Q-learning、深度 Q 網(wǎng)絡(luò)(DQN)。 應(yīng)用:最初的RL 機器人控制主要依賴 Q-learning,例如機器人學會在二維空間避障。但對于高維人形機器人,這種方法不夠高效。
策略梯度方法(Policy-Based RL)
SPRING
FESTIVAL
不同于 Q-learning直接估算價值,這類方法直接優(yōu)化策略函數(shù),更適合高維連續(xù)動作問題:深度確定性策略梯度(DDPG):用于機器人抓取物體等任務(wù)。
信賴域策略優(yōu)化(TRPO):適用于復雜運動,如機器人踢足球。
近端策略優(yōu)化(PPO):用于高效的訓練,比如 OpenAI 訓練的五指機械手。
應(yīng)用:Boston Dynamics 訓練 Atlas 機器人跑酷時使用了 PPO。
模型學習方法(Model-Based RL)
SPRING
FESTIVAL
這類方法嘗試讓機器人先學習世界的物理規(guī)律(建模),然后在模型中規(guī)劃最優(yōu)策略,類似于小編在實驗前先建立理論模型:物理仿真環(huán)境(MuJoCo、PyBullet)+ RL 訓練。在機器人學會在仿真中行走后,再轉(zhuǎn)移到真實環(huán)境(Sim-to-Real)。 應(yīng)用:Google DeepMind 用 Model-Based RL 訓練四足機器人適應(yīng)各種地形。Tesla 的人形機器人 Optimus 在仿真環(huán)境中學習步行和抓取。4.未來方向元強化學習(Meta-RL):讓機器人像人一樣,學習如何學習,提高適應(yīng)性。
逆強化學習(IRL):從人類演示中推導獎勵函數(shù),減少手工設(shè)計的工作。
自監(jiān)督 RL:減少對外部獎勵信號的依賴,讓機器人自主探索世界。
全球人形機器人爭霸:誰才是未來智能革命的領(lǐng)跑者?
HAPPY 2025 NEW YEAR
隨著國產(chǎn)人形機器人不斷突破極限,我們不妨看看國際舞臺上還有哪些強勁的競爭者。特斯拉、波士頓動力、Agility Robotics、Unitree等科技巨頭,正在推動人形機器人從實驗室走向現(xiàn)實,賦予它們更強的感知、學習和執(zhí)行能力。那么,這些機器人各自擅長什么領(lǐng)域?
特斯拉 Optimus:工業(yè)化未來的多面手
SPRING
FESTIVAL
作為電動車和自動駕駛領(lǐng)域的佼佼者,特斯拉推出的 Optimus 機器人,也繼承了其 AI 先發(fā)優(yōu)勢。Optimus 搭載了類似自動駕駛系統(tǒng)的神經(jīng)網(wǎng)絡(luò),能實時感知環(huán)境、識別物體,并自主執(zhí)行任務(wù),如抓取、搬運、精細操作等。其高分辨率攝像頭與分布在手部和足的先進觸覺與力覺傳感器,讓它能像人類一樣感知物品的重量和形狀。此外,強大的動力控制系統(tǒng),使其具備流暢的運動能力,成為未來工業(yè)制造與家庭服務(wù)的潛在變革者。
波士頓動力 Atlas:機器人界的“運動健將”
SPRING
FESTIVAL
如果說 Optimus 代表的是工業(yè)應(yīng)用的未來,那么波士頓動力的 Atlas 則是機器人界的“體能怪獸”。它憑借卓越的動態(tài)控制系統(tǒng),可以在崎嶇不平的地形上穩(wěn)健行走,甚至完成跳躍、空翻、翻越障礙物等高難度動作。這得益于激光雷達(LiDAR)+ 深度攝像頭組成的實時環(huán)境感知系統(tǒng),使其能夠在復雜環(huán)境中迅速調(diào)整動作,展現(xiàn)出驚人的機動性。Atlas 已被廣泛用于軍事、救援等高風險領(lǐng)域,未來或?qū)⒃诟喔邉討B(tài)任務(wù)中大放異彩。
Agility Robotics Digit:物流與倉儲的可靠伙伴
SPRING
FESTIVAL
與 Atlas 的高動態(tài)不同,Digit 機器人更專注于穩(wěn)定行走和物流任務(wù)。它采用了特殊的末端執(zhí)行器(即機械手),能夠精準拾取、搬運和放置貨物,適用于倉儲、物流和供應(yīng)鏈管理。Digit 具備強大的平衡控制技術(shù),即使在樓梯、狹窄通道或復雜光照條件下,也能流暢執(zhí)行任務(wù)。值得一提的是,它的LED“眼睛” 不僅提升了人機交互體驗,還能通過光信號向人類員工傳達行動意圖,提高協(xié)作效率。
Unitree G1:從四足機器人到人形機器人的突破
SPRING
FESTIVAL
在國產(chǎn)機器人中,Unitree G1 是近年來最具潛力的選手之一。相比 H1 的工業(yè)風設(shè)計,G1 造型更具流暢美感,并且在跳躍、棍術(shù)操控
等方面表現(xiàn)突出。
它結(jié)合了模仿學習和強化學習技術(shù),使其能夠不斷進化,并適應(yīng)更復雜的任務(wù)需求。憑借深度攝像頭 + 3D 激光雷達(LiDAR),G1 能夠進行 360 度全方位環(huán)境感知,在動態(tài)環(huán)境中實現(xiàn)精準決策與精細操作,甚至能夠輕柔地拾取易碎品,展現(xiàn)強大的任務(wù)適應(yīng)能力。除了上述明星機器人,還有一些領(lǐng)域的強者值得關(guān)注:
Engineered Arts AMECA:憑借極具擬人化的表情,在人機交互和娛樂領(lǐng)域表現(xiàn)出色,但目前仍缺乏行走能力。
Figure AI Figure 02:專注于倉儲和物流,具備增強的環(huán)境感知能力,致力于提升自動化作業(yè)水平。
KIT ARMAR-6:由卡爾斯魯厄理工學院(KIT) 研發(fā),專為工業(yè)環(huán)境設(shè)計,擅長自主操作和協(xié)同作業(yè)。
Astribot S1:家庭友好型機器人,具備快速學習能力,或?qū)⒊蔀槲磥砑覄?wù)機器人市場的重要玩家。
從春晚舞臺到現(xiàn)實應(yīng)用,人形機器人還需要哪些技術(shù)突破?要實現(xiàn)科幻作品中的“鋼鐵俠”級別能力,我們的人形機器人依然任重而道遠,仍需在以下核心技術(shù)領(lǐng)域取得突破:高效動力系統(tǒng):目前的電機和液壓驅(qū)動難以兼顧力量與靈活性。未來可能采用人工肌肉材料(如電活性聚合物或形狀記憶合金),以降低能耗并提升仿生能力。
高級環(huán)境感知與智能控制:現(xiàn)有機器人多依賴預設(shè)規(guī)則,難以適應(yīng)復雜環(huán)境變化。結(jié)合深度學習與強化學習,使機器人能自主調(diào)整步態(tài)并適應(yīng)多變環(huán)境。
優(yōu)化能源系統(tǒng):現(xiàn)有電池技術(shù)難以支撐長時間高功耗運動。未來或可借助高能量密度電池、小型燃料電池或高效無線充電技術(shù),提高續(xù)航能力。
參考文獻:
Zhang T, Mo H. Reinforcement learning for robot research: A comprehensive review and open issues[J]. International Journal of Advanced Robotic Systems, 2021, 18(3): 17298814211007305.
Rubio F, Valero F, Llopis-Albert C. A review of mobile robots: Concepts, methods, theoretical framework, and applications[J]. International Journal of Advanced Robotic Systems, 2019, 16(2): 1729881419839596.
Chethana S, Charan S S, Srihitha V, et al. Humanoid Robot Gait Control Using PPO, SAC, and ES Algorithms[C]//2023 4th IEEE Global Conference for Advancement in Technology (GCAT). IEEE, 2023: 1-7.
宇樹科技官網(wǎng):https://www.unitree.com/cn/h1
Kajita S, Benallegue M, Cisneros R, et al. Biped walking pattern generation based on spatially quantized dynamics[C]//2017 IEEE-RAS 17th International Conference on Humanoid Robotics (Humanoids). IEEE, 2017: 599-605.
Hirai K, Hirose M, Haikawa Y, et al. The development of Honda humanoid robot[C]//Proceedings. 1998 IEEE international conference on robotics and automation (Cat. No. 98CH36146). IEEE, 1998, 2: 1321-1326.
D'Souza A, Vijayakumar S, Schaal S. Learning inverse kinematics[C]//Proceedings 2001 IEEE/RSJ International Conference on Intelligent Robots and Systems. Expanding the Societal Role of Robotics in the the Next Millennium (Cat. No. 01CH37180). IEEE, 2001, 1: 298-303.
https://interestingengineering.com/entertainment/top-humanoid-robots-list
https://xpert.digital/en/robot-comparison/
向下滑動查看所有來源
春晚機器人雖酷,離“鋼鐵俠”仍有距離
當前的發(fā)展速度表明,或許在未來 10-20 年內(nèi),我們將迎來更智能、更強大的機器人進入日常生活。
你認為人形機器人會在何時真正融入我們的世界呢?
編輯:Meyare