TWI558525B - 機器人及其控制方法 - Google Patents

機器人及其控制方法 Download PDF

Info

Publication number
TWI558525B
TWI558525B TW103145723A TW103145723A TWI558525B TW I558525 B TWI558525 B TW I558525B TW 103145723 A TW103145723 A TW 103145723A TW 103145723 A TW103145723 A TW 103145723A TW I558525 B TWI558525 B TW I558525B
Authority
TW
Taiwan
Prior art keywords
robot
moving speed
weight value
command
distance
Prior art date
Application number
TW103145723A
Other languages
English (en)
Other versions
TW201622916A (zh
Inventor
宋開泰
林明翰
Original Assignee
國立交通大學
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 國立交通大學 filed Critical 國立交通大學
Priority to TW103145723A priority Critical patent/TWI558525B/zh
Priority to US14/700,148 priority patent/US9481087B2/en
Publication of TW201622916A publication Critical patent/TW201622916A/zh
Application granted granted Critical
Publication of TWI558525B publication Critical patent/TWI558525B/zh

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0011Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement
    • G05D1/0022Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement characterised by the communication link
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0011Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement
    • G05D1/0044Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement by providing the operator with a computer generated representation of the environment of the vehicle, e.g. virtual reality, maps
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot

Description

機器人及其控制方法
本發明是有關於一種機器人,且特別是有關於一種機器人及其控制方法。
近年來,隨著感測器與控制理論的進展,各種機器人的研究與開發逐漸從工廠自動化的相關領域進入到各種服務型的應用場合,開闢了機器人服務的新領域。目前各項產業分析皆提出由服務型機器人代替人類完成家務勞動,是一項相當有前景的技術領域,同時也將帶來龐大的商機。因此,居家服務型機器人興起,帶領人們進入更高品質的生活,也提供便利的服務與協助。
然而,在習知的技術中,這些機器人雖然能夠利用既定的演算法進行工作,但對於人類環境中各種不可預期的變化,目前的電腦處理能力與智慧演算法皆尚未成熟到足以處理這些變化。因此,這些機器人不論是動作時間、對於環境的判斷能力及應變能力都不盡理想,使得這些機器人無法達到最佳的服務效果。並且,這些機器人在自主進行任務的過程中,操控者通常也 無法中途介入以控制機器人的運動方式。
此外,當機器人被用於代替操控者與其他人互動時,操控者常希望能夠透過遠端遙控的方式來適度地調整機器人的工作方式或讓機器人代理其執行某項動作。然而,由於人類環境較為複雜,因此要在這樣的環境下遠端遙控機器人本身就是一件困難的事情。操控者稍有不慎即可能讓機器人發生例如碰撞障礙物的情形。
簡言之,無論是讓機器人自主執行任務,或是因應於操控者的遙控而執行任務,習知的作法中都存在一定的缺陷,因而可能使得機器人的應用有所限制。
有鑑於此,本發明提供一種機器人及其控制方法,使機器人可以透過結合人類的意圖以及機器人本身的自主控制來改善機器人的操控方式。
本發明提供一種控制方法,適用於一機器人。所述方法包括下列步驟:接收來自於遙控裝置的手動控制命令,並累計使用者手動控制的持續時間,其中手動控制命令用於移動機器人;估計對應於手動控制命令機器人的移動速度;偵測機器人所在的周圍環境,估計機器人與障礙物間之距離;依據持續時間以及估計移動速度及與障礙物間之距離決定關聯於手動控制命令的第一權重值;並決定關聯於自主導航命令的第二權重值;第一權重值 與第二權重值之和等於1。依據第一權重值以及第二權重值線性組合手動控制命令以及自主導航命令,以產生移動控制命令;以及依據移動控制命令移動。
在本發明之一實施例中,偵測機器人所在的周圍環境的步驟包括透過雷射測距儀掃描周圍環境以產生掃描結果以及基於掃描結果建立周圍環境的地圖,並在地圖中定位機器人的目前位置。此地圖經網路傳送至遙控裝置顯示給遠端操作者。
在本發明之一實施例中,因應於來自遙控裝置的目標選擇命令而鎖定物體以及接收來自於遙控裝置的執行命令,並因應於執行命令而控制機器人的機械手臂對物體執行特定動作。
在本發明之一實施例中,周圍環境包括目標物以及多個障礙物,且依據周圍環境產生自主導航命令的步驟包括:依據機器人的最大移動速度、目標點之緩衝距離以及機器人的目前位置與目標物之間的距離向量產生第一移動速度向量;依據各障礙物與機器人的目前位置之間的位置向量以及機器人的最大安全距離產生第二移動速度向量;以及加總第一移動速度向量以及第二移動速度向量以產生自主導航命令。
在本發明之一實施例中,第一移動速度向量表徵為: 其中為機器人與目標物之間的距離向量,V max為機器人的最大移 動速度,D buffer 為目標物的該緩衝距離。
在本發明之一實施例中,第二移動速度向量表徵為: 其中α為一常數,為障礙物與機器人之間的第i個位置向量,D max為機器人的最大安全距離。
在本發明之一實施例中,周圍環境包括目標物,且方法更包括:依據機器人旋轉其頭部朝向的最大角速度、緩衝角度以及機器人的頭部方向與目標物之間的夾角計算機器人旋轉其頭部朝向的一角速度;以及依據角速度旋轉機器人的頭部朝向。其中,角速度表徵為: ,其中△θ為機器人的頭部方向與目標物之間的夾角,ω max為機器人旋轉其頭部朝向的最大角速度,θ buffer 為機器人旋轉其頭部朝向的緩衝角度。
在本發明之一實施例中,依據持續時間以及估計移動速度及與障礙物間距離決定關聯於手動控制命令的第一權重值的步驟包括:當持續時間超過預設時間或估計移動速度低於預設速度或與障礙物間距離較遠時,增加第一權重值;以及當持續時間未超過預設時間或估計移動速度不低於預設速度或與障礙物間距離較近時,減少第一權重值。
本發明提供一種機器人裝置,其包括偵測單元、儲存單元以及處理單元。偵測單元偵測機器人所在的周圍環境。儲存單元儲存多個模組。處理單元耦接偵測單元及儲存單元,存取並執行儲存單元儲存的所述多個模組。所述多個模組包括累計模組、估計模組、產生模組、決定模組、組合模組以及移動模組。累計模組接收來自於遙控裝置的手動控制命令,並累計手動控制命令的持續時間,其中手動控制命令用於移動機器人。估計模組估計機器人移動速度。產生模組控制偵測單元偵測機器人所在的周圍環境,並依據周圍環境產生自主導航命令。決定模組依據持續時間以及估計手動速度決定關聯於移動控制命令的第一權重值。並根據第一權重值決定關聯於自主導航命令的第二權重值。組合模組依據第一權重值以及第二權重值線性組合手動控制命令以及自主導航命令,以產生移動控制命令。移動模組依據移動控制命令移動機器人。
在本發明之一實施例中,模組更包括控制模組,經配置以:因應於來自遙控裝置的目標選擇命令而鎖定物體;以及接收來自於遙控裝置的執行命令,並因應於執行命令而控制機器人的一機械手臂對物體執行一特定動作。
在本發明之一實施例中,偵測單元為雷射測距儀,且產生模組經配置以:透過雷射測距儀掃描周圍環境以產生掃描結果;以及基於掃描結果建立周圍環境的地圖,並在地圖中定位機器人的目前位置。
在本發明之一實施例中,周圍環境中包括目標物以及多個障礙物,且產生模組經配置以:依據機器人的最大移動速度、目標點之緩衝距離以及機器人的目前位置與目標物之間的距離向量產生第一移動速度向量;依據各障礙物與機器人的目前位置之間的位置向量以及機器人的最大安全距離產生第二移動速度向量;以及加總第一移動速度向量以及第二移動速度向量以產生自主導航命令。
在本發明之一實施例中,第一移動速度向量表徵為: 其中為機器人與該目標物之間的距離向量,V max為機器人的最大 移動速度,D buffer 為目標點的緩衝距離。
在本發明之一實施例中,第二移動速度向量表徵為: 其中α為一常數,為障礙物與機器人之間第i個位置向量,D max為機器人的最大安全距離。
在本發明之一實施例中,周圍環境中包括目標物,並且模組更包括旋轉模組,經配置以:依據機器人旋轉其頭部朝向的最大角速度、緩衝角度以及機器人的頭部方向與目標物之間的夾角計算機器人旋轉其頭部朝向的角速度;以及依據角速度旋轉機器人。其中,角速度表徵為: 其中△θ為機器人的頭部方向與目標物之間的夾角,ω max為機器人旋轉其頭部朝向的最大角速度,θ buffer 為機器人旋轉其頭部朝向的緩衝角度。
在本發明之一實施例中,決定模組經配置以:當持續時間超過預設時間或估計移動速度低於預設速度時或與障礙物間距離較遠,增加第一權重值;以及當持續時間未超過預設時間或估計移動速度不低於預設速度時或與障礙物距離較近時,減少第一權重值。
基於上述,本發明提供一種機器人及其控制方法,透過定義兩個可變動的權重值,使操控者與機器人可以透過此權重值分佈的變動來改變手動控制命令與自主導航命令在移動控制命令中的主導權比重。如此一來,機器人即可同時結合人類的意圖以及機器人本身的自主控制來改善機器人本身的移動方式,進而提升機器人的工作效率。
為讓本發明的上述特徵和優點能更明顯易懂,下文特舉實施例,並配合所附圖式作詳細說明如下。
100‧‧‧遙控裝置
110‧‧‧地圖重建影像
120‧‧‧機器人視覺影像
130‧‧‧頭部朝向拉桿
140‧‧‧動作選擇介面
141~146‧‧‧動作選項
150‧‧‧虛擬搖桿區域
155‧‧‧圓球
200‧‧‧機器人
210‧‧‧移動平台
220‧‧‧右機械臂
230‧‧‧左機械臂
240‧‧‧頭部
250‧‧‧顯示器
310‧‧‧偵測單元
320‧‧‧儲存單元
320_1‧‧‧累計模組
320_2‧‧‧估計模組
320_3‧‧‧產生模組
320_4‧‧‧決定模組
320_5‧‧‧組合模組
320_6‧‧‧移動模組
320_7‧‧‧旋轉模組
320_8‧‧‧控制模組
330‧‧‧處理單元
500‧‧‧周圍環境
510‧‧‧地圖
520‧‧‧目前位置
530、630‧‧‧障礙物
620、620’‧‧‧目標物
A、B‧‧‧地點
A1、B1‧‧‧方向
S410~S470‧‧‧步驟
圖1是依據本發明之一實施例繪示的遙控裝置示意圖。
圖2是依據本發明之一實施例繪示的機器人外觀的示意圖。
圖3是依據圖2實施例繪示的機器人功能方塊圖。
圖4是依據本發明之一實施例繪示的控制方法的流程圖。
圖5A是依據本發明之一實施例繪示的機器人的周圍環境。
圖5B是依據圖5A實施例繪示的基於掃描結果所建立的地圖。
圖6A是依據本發明之一實施例繪示的產生自主導航命令的示意圖。
圖6B是依據本發明之一實施例繪示的機器人旋轉頭部的示意圖。
圖1是依據本發明之一實施例繪示的遙控裝置示意圖。在本實施例中,遙控裝置100可以是智慧型手機、平板電腦、個人數位助理、筆記型電腦(Notebook PC)或其他類似的裝置。遙控裝置100可配置有互動式介面,其可讓操控者操作其中的元件來遙控機器人,或是顯示來自於機器人的影像或聲音等訊息。所述互動式介面例如是觸控面板、觸控螢幕或是其他可顯示資訊或是讓操控者輸入資訊的元件。
在一實施例中,所述互動式介面可包括地圖重建影像110、機器人視覺影像120、頭部朝向拉桿130、動作選擇介面140以及虛擬搖桿區域150。地圖重建影像110例如是機器人透過雷射 測距儀(Laser scanner)掃描機器人的周圍環境所取得的地圖資訊。機器人視覺影像120例如是由機器人的攝影裝置或其他具有影像擷取功能的電子裝置所擷取的影像。頭部朝向拉桿130可讓操控者透過向左或向右的方向控制來操控機器人的頭部朝向。動作選擇介面140可用於控制機器人的物理性動作。動作選擇介面140中的動作選項141~146例如包括左、右機械臂的抓取、放下、倒茶、遞送等物理性動作,但本發明不限於此。
虛擬搖桿區域150可用於控制機器人的移動方向與移動速度。虛擬搖桿區域150為一個圓型區域,正中間的圓球155為模擬一般的遊戲搖桿,因此,操控者可透過操作一般遊戲搖桿的控制方式來操作虛擬搖桿區域150。舉例而言,當操控者將圓球155往上/下/左/右移動時,即代表操控者欲控制機器人往前/後/左/右移動。另外,操控者移動圓球155的幅度可正比於操控者希望機器人移動的速度。舉例而言,當操控者移動圓球155的距離為所述圓型區域的半徑時(即,圓球155被移動至圓型區域的最外圈),即代表操控者希望機器人200以最大移動速度移動。然而,當操控者移動圓球155的距離為所述圓型區域半徑的50%時,即代表操控者希望機器人200以最大移動速度的50%移動,但本發明的可實施方式不限於此。
在其他實施例中,遙控裝置100亦可包括一前置鏡頭(未繪示),用以擷取操控者的影像,而遙控裝置100可透過例如行動通訊(例如第四代行動通訊系統)網路或無線網路(例如無線保 真度(wireless fidelity,Wi-Fi))來將此影像傳遞至機器人。
圖2是依據本發明之一實施例繪示的機器人外觀示意圖。在本實施例中,機器人200例如可受控於圖1所示的遙控裝置100而執行任務。遙控裝置100與機器人200之間的連線與通訊可透過無線網路以套接介面(socket)資料傳遞的方式進行。在操控機器人200的過程中,操控者可以利用遙控裝置100的互動式介面下達對機器人200的操作意圖,也可以透過遙控裝置100的互動式介面接收機器人200的周圍環境資訊(例如,地圖重建影像110及機器人視覺影像120等)。
機器人200配置有全向式的移動平台210、右機械臂220、左機械臂230、頭部240以及顯示器250,以因應操控者對於前述互動式平台的操作而移動及/或執行物理性動作。移動平台210可配置有具有相互耦接的馬達控制器(未繪示)、馬達驅動器(未繪示)及滾輪(未繪示)等元件。移動平台210可依據操控者對於圓球155所進行的操作及/或機器人200的自主導航機制來控制機器人200的移動方式。
右機械臂220以及左機械臂230則可依據操控者在動作選擇介面140中選取的動作選項而執行抓取、放下、倒茶、遞送等動作。頭部240可配置任何具有電荷耦合元件(Charge coupled device,CCD)鏡頭、互補式金氧半電晶體(Complementary metal oxide semiconductor transistors,CMOS)鏡頭及/或紅外線鏡頭的攝影機。頭部240所配置的各種攝影機可用於擷取機器人視覺影 像120,並透過機器人200中的通訊元件回傳至遙控裝置100。此外,頭部240也可配置Kinect感測器、深度攝影機或立體攝影機等元件。顯示器250例如是液晶顯示器(Liquid-Crystal Display,LCD)、電漿顯示器、真空螢光顯示器、發光二極體(Light-Emitting Diode,LED)顯示器、場發射顯示器(Field Emission Display,FED)及/或其他合適種類的顯示器。顯示器250可用於顯示遙控裝置100的前置鏡頭所擷取的操控者影像。
圖3是依據圖2實施例繪示的機器人功能方塊圖。在本實施例中,機器人200包括偵測單元310、儲存單元320以及處理單元330。偵測單元310例如為雷射測距儀,其可以雷射光來掃描並偵測機器人200周圍的物體,而得到機器人200與至少一相鄰物體與之間的距離感測值。儲存單元320例如是記憶體、硬碟或是其他任何可用於儲存資料的元件,而可用以記錄多個模組。
處理單元330耦接感測單元310以及儲存單元320。處理單元330可為一般用途處理器、特殊用途處理器、傳統的處理器、數位訊號處理器、多個微處理器(microprocessor)、一個或多個結合數位訊號處理器核心的微處理器、控制器、微控制器、特殊應用集成電路(Application Specific Integrated Circuit,ASIC)、場可程式閘陣列電路(Field Programmable Gate Array,FPGA)、任何其他種類的積體電路、狀態機、基於進階精簡指令集機器(Advanced RISC Machine,ARM)的處理器以及類似品。
在本實施例中,處理單元330可存取儲存單元320所儲 存的累計模組320_1、估計模組320_2、產生模組320_3、決定模組320_4、組合模組320_5以及移動模組320_6以執行本發明提出的控制方法的各個步驟。
圖4是依據本發明之一實施例繪示的機器人及其控制方法的流程圖。本實施例提出的方法可由圖3的機器人200執行,以下即搭配圖3的各個元件來說明本方法的詳細步驟。
在步驟S410中,累計模組320_1接收來自於遙控裝置100的手動控制命令,並累計手動控制命令的持續時間。在本實施例中,所述手動控制命令可用於移動機器人200及/或控制機器人200的物理性動作。在步驟S420中,估計模組320_2估計對應於手動控制命令的估計移動速度。
如先前實施例中所提及的,操控者可透過遙控裝置100的虛擬搖桿區域150控制機器人200的移動方向與移動速度。在操控者透過遙控裝置100的虛擬搖桿區域150控制機器人200的移動方向與移動速度的同時,遙控裝置100會傳送一個包含上述控制動作的手動控制指令給機器人200。在機器人200接收來自於遙控裝置100的手動控制命令之後,累計模組220_1會先累計手動控制命令的持續時間(即,操控者觸碰虛擬搖桿區域150直到停止觸碰的時間)。接下來,估計模組220_2估計對應於手動控制命令的估計移動速度。在一實施例中,估計模組220_2可依據操控者移動圓球155的距離來推得所述估計移動速度。具體而言,假設操控者移動圓球155的距離為虛擬搖桿區域150中圓型區域 半徑的30%時,則估計模組220_2可計算估計移動速度為機器人200的最大移動速度的30%,但本發明可不限於此。
應了解的是,估計移動速度僅對應於操控者希望機器人200移動的速度,但機器人200並不會確實依據估計移動速度進行移動。詳細而言,由於操控者並不一定熟悉機器人200的周圍環境,因此機器人200若忠實地依據操控者的操作移動的話,機器人200很可能會撞到周圍的障礙物。因此,在接下來的篇幅中,本發明實施例更引入了機器人200的自主導航及障礙物閃避機制,用以修正機器人200的移動方式。如此一來,當操控者遙控機器人200移動時,機器人200可適時地輔助操控者閃避機器人200周圍環境中的障礙物,進而提供較佳的操作體驗。
接下來,在步驟S430中,產生模組320_3控制偵測單元310偵測機器人所在的周圍環境,並依據周圍環境產生自主導航命令。在本實施例中,偵測單元310例如是雷射測距儀。在透過雷射測距儀掃描周圍環境之後,產生模組320_3可產生掃描結果以建立周圍環境的地圖,並在地圖中定位機器人200的目前位置。在一實施例中,產生模組320_3可結合極化掃描匹配(Polar Scan Matching,PSM)方法以及擴展卡門濾波(Extended Kalman Filter,EKF)演算法的概念來處理雷射測距儀的掃描結果,進而建立地圖以及在地圖中定位機器人200的目前位置。
請參照圖5A,圖5A是依據本發明之一實施例繪示的機器人的周圍環境。在本實施例中,假設周圍環境500為機器人200 的周圍環境,其中包括許多障礙物(以長方形框表示)。在此情況下,產生模組320_3可基於雷射測距儀的掃描結果來建立如圖5B所示的地圖510,並在地圖510中定位機器人200的目前位置520。
圖5B是依據圖5A實施例繪示的基於掃描結果所建立的地圖。具體而言,產生模組320_3可基於PSM方法將雷射測距儀的掃描結果以極座標表示,並將兩次的掃描結果進行點對點的匹配。接著,產生模組320_3可藉由兩次掃描結果的位置與角度差異來修正機器人200在地圖中的目前位置。由於每一次的匹配結果會因雜訊而產生誤差,使得定位結果無法有效的用於長距離的行走。因此,在本實施例中,產生模組320_3可引入擴展卡門濾波演算法、里程計以及PSM計算結果以減少機器人200定位時所產生的誤差。值得注意的是,機器人200的定位與地圖建立方式可以採用其他演算法來實現,本發明不限於此。
另外,在本實施例中,產生模組320_3所建立的地圖以及機器人200在地圖中的目前位置還可回傳至遙控裝置100並顯示為地圖重建影像110,以讓操控者在遙控機器人200可同時掌握機器人200的周圍環境。以圖5B為例,操控者可透過圖5B得知機器人200目前離障礙物530很近,因而可提升操控者操作機器人200的警覺性,進而降低機器人200碰撞障礙物530的機率。
在其他實施例中,當機器人200的周圍環境中存在目標物時,產生模組320_3可依據周圍環境來產生將機器人200導航至此目標物的自主導航命令。
在本實施例中,自主導航命令(以表示)可表徵為以下兩個向量的總和:(1)用於將機器人200往目標物直線前進的第一移動速度向量(2)用於讓機器人200閃避各個障礙物的第二移動速度向量。
在一實施例中,產生模組320_3可依據機器人200的最大移動速度、緩衝距離以及機器人200的目前位置與目標物之間的距離向量產生第一移動速度向量(以表示)。所述緩衝距離例如是足以讓機器人200從最大移動速度減速至靜止的安全距離,或是其他由設計者自行設計的距離。
在一實施例中,第一移動速度向量()可表徵為: 其中代表機器人200的目前位置與目標物之間的距離向量,V max代表機器人200最大移動速度以及D buffer 代表所述緩衝距離。從上式可看出,當機器人200與目標物之間的距離大於緩衝距離時,機器人200以最大移動速度向目標物前進。當機器人200與目標物之間的距離不大於緩衝距離時,機器人200可逐漸地減速,直到機器人200抵達目標物為止。
在另一實施例中,產生模組320_3可依據各障礙物與機器人200的目前位置之間的位置向量以及機器人200的最大安全距離產生第二移動速度向量(以表示)。所述最大安全距離例如 是足以讓機器人200避開障礙物的安全距離,或是其他由設計者自行設計的距離。
在一實施例中,第二移動速度向量()可以表徵為: 其中α代表一常數,代表障礙物與機器人200之間的第i個位置向量以及D max代表所述最大安全距離。
在本實施例中,可由雷射測距儀偵測得到。對於第i個障礙物而言,產生模組320_3可產生用於閃避此障礙物的向量(即,)。接著,產生模組320_3可將閃避所有障礙物的向量進行加總以產生第二移動向量()。
如先前所提及的,產生模組320_3可將第一移動速度向量以及第二移動速度向量加總以產生機器人200的自主導航命令(即,)。
請參照圖6A,圖6A是依據本發明之一實施例繪示的產生自主導航命令的示意圖。在本實施例中,產生模組320_3可產生將機器人200往目標物620直線前進的第一移動速度向量()以及讓機器人200閃避障礙物630的第二移動速度向量()。接著,產生模組320_3可加總第一移動速度向量以及第二移動速度向量以產生自主導航命令()。簡言之,自主導航命令()可讓機器人200在不碰撞障礙物630的情況下往目標物620前進。
值得注意的是,在產生模組320_3求得自主導航命令之 後,機器人200並不會立刻基於自主導航命令進行移動。具體而言,如先前實施例所提及的,機器人200的自主導航及障礙物閃避機制是用於輔助操控者操作機器人200的,因此自主導航命令還需透過某種機制與來自於遙控裝置100的手動控制命令結合,方能產生用於控制機器人200的確切移動方式的移動控制命令。結合手動控制命令以及自主導航命令的機制將在之後的篇幅中進行說明。
在其他實施例中,儲存單元320還可包括旋轉模組320_7,用以在機器人200的移動過程中旋轉頭部240朝向,以讓機器人200的臉部方向轉向目標物,進而擷取目標物的影像。在一實施例中,旋轉模組320_7可依據機器人200旋轉頭部240的最大角速度、緩衝角度以及機器人200的臉部方向與目標物之間的夾角計算機器人200旋轉的角速度。接著,旋轉模組320_7可依據此角速度旋轉機器人200的頭部朝向。所述緩衝角度例如是足以讓機器人200從最大角速度減速至靜止的安全角度,或是其他由設計者自行設計的角度。
在一實施例中,機器人200旋轉頭部朝向的角速度可表徵為: 其中ω max代表機器人200旋轉的最大角速度,θ buffer 代表所述緩衝角 度。從上式可看出,當機器人200的臉部方向與目標物之間的角度相差大於緩衝角度時,旋轉模組320_7可基於最大角速度旋轉頭部240。當機器人200的臉部方向與目標物之間的角度相差不大於緩衝角度時,則旋轉模組320_7可逐漸地減少旋轉頭部240的速度,直到機器人200的臉部方向朝向目標物為止。
請參照圖6B,圖6B是依據本發明之一實施例繪示的機器人旋轉頭部的示意圖。在本實施例中,當機器人200位於地點A時,其臉部方向例如是朝向目標物620’的方向A1。在機器人200移動至地點B之後,旋轉模組320_7可依據前述教示將機器人200的臉部方向從方向A1旋轉至朝向目標物620’的方向B1。
在一實施例中,用於結合手動控制命令與自主導航命令的機制例如是先為其決定對應的第一權重值與第二權重值,再依據第一權重值與第二權重值線性組合手動控制命令與自主導航命令以產生移動控制命令。第一權重值及第二權重值可個別視為一種控制增益,而此控制增益可反映出手動控制命令與自主導航命令在移動控制命令中的主導權比重。以下將介紹決定第一權重值及第二權重值的具體細節。
請再次參照圖4,在步驟S440中,決定模組320_4依據上述持續時間以及估計移動速度及與障礙物間距離決定關聯於手動控制命令的第一權重值。
在一實施例中,當持續時間超過一預設時間或估計移動速度低於一預設速度時,決定模組320_4可增加第一權重值。另 一方面,當持續時間未超過預設時間或估計移動速度不低於預設速度時,決定模組320_4可減少第一權重值。
詳細而言,當決定模組320_4偵測操控者觸碰虛擬搖桿區域150的持續時間超過一預設時間(例如,20秒)時,表示操控者較能夠專注於機器人200的移動控制,故決定模組320_4可增加第一權重值的大小,以提高手動控制命令在移動控制命令中的主導權比重。反之,若當決定模組320_4偵測操控者觸碰虛擬搖桿區域150的持續時間未超過所述預設時間時,則決定模組320_4可降低第一權重值的大小,以降低手動控制命令在移動控制命令中的主導權比重。
另一方面,當決定模組320_4偵測到機器人200的估計移動速度低於一預設速度(例如50公分/秒)時,代表機器人200即便確實以估計移動速度進行移動也不容易發生例如碰撞障礙物的意外。換言之,操控者較能確保機器人200的安全與穩定。因此,決定模組320_4亦可增加第一權重值的大小,以提高手動控制命令在移動控制命令中的主導權比重。反之,當決定模組320_4偵測到機器人200的估計移動速度不低於一預設速度時,代表機器人200若以估計移動速度進行移動的話容易發生例如碰撞障礙物的意外。換言之,操控者較能確保機器人200的安全與穩定。因此,決定模組320_4可降低第一權重值的大小,以降低手動控制命令在移動控制命令中的主導權比重。
在步驟S450中,決定模組320_4根據第一權重值決定關 聯於自主導航命令的第二權重值。在一實施例中,第一權重值與第二權重值之和等於1。
接著,在步驟S460中,組合模組320_5依據第一權重值以及第二權重值線性組合手動控制命令以及自主導航命令,以產生機器人200的移動控制命令。在一實施例中,組合模組320_5可將相乘後的第一權重值及手動控制命令與相乘後的第二權重值及自主導航命令加總以產生移動控制命令,但本發明的可實施方式不限於此。之後,在步驟S470中,移動模組320_6即可依據移動控制命令移動機器人200。
簡言之,本發明實施例的方法可依據手動控制命令的持續時間以及機器人200的周圍環境來調整關聯於手動控制命令的第一權重值以及關聯於自主導航命令的第二權重值。如此一來,在操控者透過遙控裝置100控制機器人200移動的同時,機器人200亦能夠透過自身的自主導航及障礙物閃避等能力來輔助操控者,進而避免發生例如碰撞障礙物等意外。
在其他實施例中,儲存單元320還可包括控制模組320_8,其可因應於操控者對於遙控裝置100的操作而控制機器人200對某物體執行物理性動作。
請再次參照圖1。在機器人視覺影像120中可包括兩個物體(例如是瓶子及杯子),而操控者可透過點擊物體的方式來決定其欲控制右機械臂220及/或左機械臂230執行特定動作的物體。假設操控者點擊機器人視覺影像120中的一物體(例如瓶子),則 遙控裝置100可將此操作轉換為一目標選擇命令,並轉發至機器人200。接著,控制模組320_8可因應於此目標選擇命令而鎖定此物體。在一實施例中,控制模組320_8可取得例如Kinect感測器所提供的深度影像,再以投影的方式轉換所述物體在三度空間中的位置,進而規劃將右機械臂220及/或左機械臂230往所述物體移動的路徑。
在操控者選擇所述物體之後,操控者可進一步在動作選擇介面140選取動作選項141~146的其中之一,以控制右機械臂220及/或左機械臂230對所述物體執行特定動作。在本實施例中,動作選擇介面140中右半邊的三個動作選項141~143例如可用於控制右機械臂220,而左半邊的三個動作選項144~146例如可用於控制左機械臂230。假設操控者選擇動作選項144,則代表操控者欲控制左機械臂230對物體進行抓取的特定動作。在此情況下,遙控裝置100可對應地產生執行命令,並發送至機器人200。接著,控制模組320_8可因應於此執行命令而控制左機械臂230抓取所述物體(例如,瓶子)。
在其他實施例中,當操控者透過遙控裝置100控制右機械臂220抓取另一物體(例如,杯子)時,控制模組320_8亦可基於上述教示而控制右機械臂220抓取杯子。
接著,當操控者點擊動作選項145以控制左機械臂230進行「倒茶」的特定動作時,遙控裝置100同樣可產生對應的執行命令並轉發此執行命令至機器人200。之後,控制模組320_8 即可因應此執行命令而控制左機械臂230將瓶子內的液體倒入右機械臂220所抓取的杯子中。
在完成「倒茶」的特定動作之後,操控者可在機器人視覺影像120中選擇一目標物(例如是一未繪示之人體)。此時,遙控裝置100同樣可將此操作轉換為一目標選擇命令,並轉發至機器人200。接著,控制模組320_8即可依據先前教示而鎖定此人體。之後,當操控者點擊動作選項143時,遙控裝置100可產生對應的執行命令,並轉發此執行命令至機器人200。因應於此執行命令,控制模組320_8即可控制右機械臂220將所抓取的盛裝液體的杯子遞送至所述人體。
簡言之,操控者可透過本發明提出的方法來控制機器人200執行特定動作的時間點,並且以更精準的方式控制機械臂所作用物體及動作。
本領域具通常知識者應可了解,先前實施例中所使用的各個裝置及其功能、演算法、任務及動作僅用以舉例,並非用以限定本發明的可實施方式。
綜上所述,本發明實施例的方法可依據手動控制命令的持續時間以及機器人的周圍環境來調整關聯於手動控制命令的第一權重值以及關聯於自主導航命令的第二權重值。如此一來,在操控者透過遙控裝置控制機器人移動的同時,機器人亦能夠透過自身的自主導航及障礙物閃避等能力來輔助操控者,進而避免發生例如碰撞障礙物等意外。此外,操控者可透過本發明提出的方 法來控制機器人執行特定動作的時間點,並且以更精準的方式控制機械臂所作用物體及動作。
雖然本發明已以實施例揭露如上,然其並非用以限定本發明,任何所屬技術領域中具有通常知識者,在不脫離本發明的精神和範圍內,當可作些許的更動與潤飾,故本發明的保護範圍當視後附的申請專利範圍所界定者為準。
S410~S470‧‧‧步驟

Claims (18)

  1. 一種控制方法,適於一機器人,包括:接收來自於一遙控裝置的一手動控制命令,並累計該手動控制命令的一持續時間,其中該手動控制命令用於移動該機器人;估計對應於該手動控制命令的一估計移動速度;偵測該機器人所在的一周圍環境,並依據該周圍環境產生一自主導航命令;依據該持續時間以及該估計移動速度及與障礙物間距離決定關聯於該手動控制命令的一第一權重值;依據該第一權重值決定關聯於該自主導航命令的一第二權重值;依據該第一權重值以及該第二權重值線性組合該手動控制命令以及該自主導航命令,以產生一移動控制命令;以及依據該移動控制命令移動。
  2. 如申請專利範圍第1項所述的方法,更包括:因應於來自該遙控裝置的一目標選擇命令而鎖定一物體;以及接收來自於該遙控裝置的一執行命令,並因應於該執行命令而控制該機器人的一機械手臂對該物體執行一特定動作。
  3. 如申請專利範圍第1項所述的方法,其中偵測該機器人所在的該周圍環境的步驟包括:透過一雷射測距儀掃描該周圍環境以產生一掃描結果;以及 基於該掃描結果建立該周圍環境的一地圖,並在該地圖中定位該機器人的一目前位置。
  4. 如申請專利範圍第3項所述的方法,其中該周圍環境中包括一目標物以及多個障礙物,且依據該周圍環境產生該自主導航命令的步驟包括:依據該機器人的一最大移動速度、一緩衝距離以及該機器人的該目前位置與該目標物之間的一距離向量產生一第一移動速度向量;依據各該障礙物與該機器人的該目前位置之間的一位置向量以及該機器人的一最大安全距離產生一第二移動速度向量;以及加總該第一移動速度向量以及該第二移動速度向量以產生該自主導航命令。
  5. 如申請專利範圍第4項所述的方法,其中該第一移動速度向量表徵為: 其中為該機器人與該目標物之間的該距離向量,V max為該機 器人的該最大移動速度,D buffer 為該機器人與該目標物的該緩衝距離。
  6. 如申請專利範圍第4項所述的方法,其中該第二移動速度向量表徵為: 其中α為一常數,為障礙物與該機器人之間的第i個位置向量,D max為該機器人的該最大安全距離。
  7. 如申請專利範圍第1項所述的方法,其中該周圍環境中包括一目標物,且所述方法更包括:依據該機器人旋轉其頭部朝向的一最大角速度、一緩衝角度以及該機器人的一臉部方向與該目標物之間的一夾角計算該機器人旋轉其頭部朝向的一角速度;以及依據該角速度旋轉該機器人的頭部朝向,其中,該角速度表徵為: ,其中△θ為該機器人的該臉部方向與該目標物之間的該夾角,ω max為該機器人旋轉其頭部朝向的該最大角速度,θ buffer 為該機器人旋轉其頭部朝向的該緩衝角度。
  8. 如申請專利範圍第1項所述的方法,其中依據該持續時間以及該估計移動速度及與障礙物間距離決定關聯於該手動控制命令的該第一權重值的步驟包括:當該持續時間超過一預設時間或該估計移動速度低於一預設速度時,增加該第一權重值;當該持續時間未超過該預設時間或該估計移動速度不低於該 預設速度時,減少該第一權重值;當該持續時間超過該預設時間或該與障礙物間距離大於一預設距離時,增加該第一權重值;以及當該持續時間未超過該預設時間或該與障礙物間距離不大於該預設速度時,減少該第一權重值。
  9. 如申請專利範圍第1項所述的方法,其中該第一權重值與該第二權重值之和等於1。
  10. 一種機器人,包括:一偵測單元,偵測該機器人所在的一周圍環境;一儲存單元,儲存多個模組;以及一處理單元,耦接該偵測單元及該儲存單元,存取並執行該儲存單元儲存的該些模組,該些模組包括:一累計模組,接收來自於一遙控裝置的一手動控制命令,並累計該手動控制命令的一持續時間,其中該手動控制命令用於移動該機器人;一估計模組,估計對應於該手動控制命令的一估計移動速度;一產生模組,控制該偵測單元偵測該機器人所在的該周圍環境,並依據該周圍環境產生一自主導航命令;一決定模組,依據該持續時間以及該估計移動速度及與障礙物間距離決定關聯於該手動控制命令的一第一權重值,並依據該第一權重值決定關聯於該自主導航命令的一第二權重值;一組合模組,依據該第一權重值以及該第二權重值線性組合 該手動控制命令以及該自主導航命令,以產生一移動控制命令;以及一移動模組,依據該移動控制命令移動該機器人。
  11. 如申請專利範圍第10項所述的機器人,其中該些模組更包括一控制模組,經配置以:因應於來自該遙控裝置的一目標選擇命令而鎖定一物體;以及接收來自於該遙控裝置的一執行命令,並因應於該執行命令而控制該機器人的一機械手臂對該物體執行一特定動作。
  12. 如申請專利範圍第10項所述的機器人,其中該偵測單元為一雷射測距儀,且該產生模組經配置以:透過該雷射測距儀掃描該周圍環境以產生一掃描結果;以及基於該掃描結果建立該周圍環境的一地圖,並在該地圖中定位該機器人的一目前位置。
  13. 如申請專利範圍第12項所述的機器人,其中該周圍環境中包括一目標物以及多個障礙物,且該產生模組經配置以:依據該機器人的一最大移動速度、一緩衝距離以及該機器人的該目前位置與該目標物之間的一距離向量產生一第一移動速度向量;依據各該障礙物與該機器人的該目前位置之間的一位置向量以及該機器人的一最大安全距離產生一第二移動速度向量;以及加總該第一移動速度向量以及該第二移動速度向量以產生該 自主導航命令。
  14. 如申請專利範圍第13項所述的機器人,其中該第一移動速度向量表徵為: 其中為該機器人與該目標物之間的該距離向量,V max為該機 器人的該最大移動速度,D buffer 為該機器人與該目標物的該緩衝距離。
  15. 如申請專利範圍第13項所述的機器人,其中該第二移動速度向量表徵為: 其中α為一常數,為障礙物與該機器人之間的第i個位置向量,D max為該機器人的該最大安全距離。
  16. 如申請專利範圍第10項所述的機器人,其中該周圍環境中包括一目標物,且該些模組更包括一旋轉模組,經配置以:依據該機器人旋轉其頭部朝向的一最大角速度、一緩衝角度以及該機器人的一臉部方向與該目標物之間的一夾角計算該機器人旋轉其頭部朝向的一角速度;以及依據該角速度旋轉該機器人的頭部朝向,其中,該角速度表徵為: ,其中△θ為該機器人的該臉部方向與該目標物之間的該夾角,ω max為該機器人旋轉其頭部朝向的該最大角速度,θ buffer 為該機器人旋轉其頭部朝向的該緩衝角度。
  17. 如申請專利範圍第10項所述的機器人,其中該決定模組經配置以:當該持續時間超過一預設時間或該估計移動速度低於一預設速度時,增加該第一權重值;當該持續時間未超過該預設時間或該估計移動速度不低於該預設速度時,減少該第一權重值;當該持續時間超過一預設時間或與該障礙物間距離大於一預設距離時,增加該第一權重值;以及當該持續時間未超過該預設時間或與該障礙物間距離不大於該預設速度時,減少該第一權重值。
  18. 如申請專利範圍第10項所述的機器人,其中該第一權重值與該第二權重值之和等於1。
TW103145723A 2014-12-26 2014-12-26 機器人及其控制方法 TWI558525B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
TW103145723A TWI558525B (zh) 2014-12-26 2014-12-26 機器人及其控制方法
US14/700,148 US9481087B2 (en) 2014-12-26 2015-04-30 Robot and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW103145723A TWI558525B (zh) 2014-12-26 2014-12-26 機器人及其控制方法

Publications (2)

Publication Number Publication Date
TW201622916A TW201622916A (zh) 2016-07-01
TWI558525B true TWI558525B (zh) 2016-11-21

Family

ID=56163177

Family Applications (1)

Application Number Title Priority Date Filing Date
TW103145723A TWI558525B (zh) 2014-12-26 2014-12-26 機器人及其控制方法

Country Status (2)

Country Link
US (1) US9481087B2 (zh)
TW (1) TWI558525B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI691913B (zh) * 2017-11-17 2020-04-21 日商三菱電機股份有限公司 3次元空間監視裝置、3次元空間監視方法、及3次元空間監視程式
TWI694904B (zh) * 2017-10-05 2020-06-01 國立交通大學 機器人語音操控系統及方法
US11458627B2 (en) 2020-08-13 2022-10-04 National Chiao Tung University Method and system of robot for human following

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016053378A1 (en) 2014-10-02 2016-04-07 ecoATM, Inc. Wireless-enabled kiosk for recycling consumer devices
US9895809B1 (en) 2015-08-20 2018-02-20 X Development Llc Visual annotations in robot control interfaces
US9789607B1 (en) * 2015-11-03 2017-10-17 Google Inc. Achieving a target gait in a legged robot based on steering commands
US11449061B2 (en) * 2016-02-29 2022-09-20 AI Incorporated Obstacle recognition method for autonomous robots
US10269110B2 (en) 2016-06-28 2019-04-23 Ecoatm, Llc Methods and systems for detecting cracks in illuminated electronic device screens
CN106540451B (zh) * 2016-11-17 2018-09-07 腾讯科技(深圳)有限公司 角色模型的移动控制方法、装置及数据同步方法、系统
TWI611280B (zh) * 2016-12-12 2018-01-11 財團法人工業技術研究院 遠端操作載具及其載具控制裝置與控制方法
JP2019018277A (ja) * 2017-07-14 2019-02-07 パナソニックIpマネジメント株式会社 ロボット
CN109531564A (zh) * 2017-09-21 2019-03-29 富泰华工业(深圳)有限公司 机器人服务内容编辑系统及方法
CN107728616B (zh) * 2017-09-27 2019-07-02 广东宝乐机器人股份有限公司 移动机器人的地图创建方法及移动机器人
TWI658377B (zh) * 2018-02-08 2019-05-01 佳綸生技股份有限公司 機器人輔助互動系統及其方法
TWI664573B (zh) 2018-05-11 2019-07-01 國立交通大學 動作計算裝置、機器人系統及機器人控制方法
JP7017469B2 (ja) * 2018-05-16 2022-02-08 株式会社安川電機 操作用デバイス、制御システム、制御方法及びプログラム
TWI695180B (zh) * 2018-07-24 2020-06-01 國立交通大學 機器人導引方法
CN109029473B (zh) * 2018-08-13 2019-08-23 中国石油大学(华东) 一种采用智能石油勘探机器人系统的石油勘探方法
CN109739223B (zh) * 2018-12-17 2020-07-03 中国科学院深圳先进技术研究院 机器人避障控制方法、装置、终端设备及存储介质
KR20210125526A (ko) 2019-02-12 2021-10-18 에코에이티엠, 엘엘씨 전자 디바이스 키오스크를 위한 커넥터 캐리어
CA3130587A1 (en) 2019-02-18 2020-08-27 Ecoatm, Llc Neural network based physical condition evaluation of electronic devices, and associated systems and methods
TWI683197B (zh) * 2019-03-19 2020-01-21 東元電機股份有限公司 移動平台圖資校正系統
TWI743519B (zh) * 2019-07-18 2021-10-21 萬潤科技股份有限公司 自走式裝置及其建立地圖方法
CA3165098A1 (en) * 2019-12-18 2021-06-24 Ecoatm, Llc Systems and methods for vending and/or purchasing mobile phones and other electronic devices
TWI730575B (zh) * 2019-12-31 2021-06-11 群邁通訊股份有限公司 確定標記物的深度標準值的方法、電腦裝置
US11922467B2 (en) 2020-08-17 2024-03-05 ecoATM, Inc. Evaluating an electronic device using optical character recognition
CN112589809A (zh) * 2020-12-03 2021-04-02 武汉理工大学 基于机器双目视觉和人工势场避障法的倒茶机器人

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101576384B (zh) * 2009-06-18 2011-01-05 北京航空航天大学 一种基于视觉信息校正的室内移动机器人实时导航方法
CN101833791B (zh) * 2010-05-11 2012-04-18 成都索贝数码科技股份有限公司 一种单摄像机下的场景建模方法及系统
CN103192987A (zh) * 2013-04-07 2013-07-10 南京理工大学 一种飞行和爬壁两栖机器人及其控制方法
TW201432619A (zh) * 2012-12-17 2014-08-16 Lsi Corp 用於合併使用相異深度成像技術所產生之深度影像之方法及裝置

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4530056A (en) * 1982-10-28 1985-07-16 Modular Automation Corp. Automated guided vehicle system
JPS59231607A (ja) * 1983-06-14 1984-12-26 Mitsubishi Electric Corp ロボツトの制御装置
US4925312A (en) * 1988-03-21 1990-05-15 Staubli International Ag Robot control system having adaptive feedforward torque control for improved accuracy
FR2648071B1 (fr) * 1989-06-07 1995-05-19 Onet Procede et appareil autonomes de nettoyage automatique de sol par execution de missions programmees
US6842877B2 (en) * 1998-12-18 2005-01-11 Tangis Corporation Contextual responses based on automated learning techniques
US6339735B1 (en) * 1998-12-29 2002-01-15 Friendly Robotics Ltd. Method for operating a robot
CA2407992C (en) 2000-05-01 2010-07-20 Irobot Corporation Method and system for remote control of mobile robot
US6741054B2 (en) * 2000-05-02 2004-05-25 Vision Robotics Corporation Autonomous floor mopping apparatus
JP2003228706A (ja) * 2002-02-05 2003-08-15 Fuji Xerox Co Ltd データ分類装置
JP2003256443A (ja) * 2002-03-05 2003-09-12 Fuji Xerox Co Ltd データ分類装置
US6925357B2 (en) 2002-07-25 2005-08-02 Intouch Health, Inc. Medical tele-robotic system
EP2145573B1 (en) * 2005-02-18 2011-09-07 iRobot Corporation Autonomous surface cleaning robot for wet and dry cleaning
US8467904B2 (en) * 2005-12-22 2013-06-18 Honda Motor Co., Ltd. Reconstruction, retargetting, tracking, and estimation of pose of articulated systems
US8577538B2 (en) * 2006-07-14 2013-11-05 Irobot Corporation Method and system for controlling a remote vehicle
US8924021B2 (en) * 2006-04-27 2014-12-30 Honda Motor Co., Ltd. Control of robots from human motion descriptors
KR100791381B1 (ko) 2006-06-01 2008-01-07 삼성전자주식회사 이동 로봇의 원격 조종을 위한 충돌방지 시스템, 장치 및방법
US8781629B2 (en) * 2010-09-22 2014-07-15 Toyota Motor Engineering & Manufacturing North America, Inc. Human-robot interface apparatuses and methods of controlling robots
CA2720886A1 (en) * 2010-11-12 2012-05-12 Crosswing Inc. Customizable virtual presence system
US9015092B2 (en) * 2012-06-04 2015-04-21 Brain Corporation Dynamically reconfigurable stochastic learning apparatus and methods
GB201220468D0 (en) * 2012-11-14 2012-12-26 Provost Fellows Foundation Scholars And The Other Members Of Board Of A control interface
US8996177B2 (en) * 2013-03-15 2015-03-31 Brain Corporation Robotic training apparatus and methods
TWM471913U (zh) 2013-11-04 2014-02-11 Univ Taipei Chengshih Science 體感遙控機器人遊戲裝置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101576384B (zh) * 2009-06-18 2011-01-05 北京航空航天大学 一种基于视觉信息校正的室内移动机器人实时导航方法
CN101833791B (zh) * 2010-05-11 2012-04-18 成都索贝数码科技股份有限公司 一种单摄像机下的场景建模方法及系统
TW201432619A (zh) * 2012-12-17 2014-08-16 Lsi Corp 用於合併使用相異深度成像技術所產生之深度影像之方法及裝置
CN103192987A (zh) * 2013-04-07 2013-07-10 南京理工大学 一种飞行和爬壁两栖机器人及其控制方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI694904B (zh) * 2017-10-05 2020-06-01 國立交通大學 機器人語音操控系統及方法
TWI691913B (zh) * 2017-11-17 2020-04-21 日商三菱電機股份有限公司 3次元空間監視裝置、3次元空間監視方法、及3次元空間監視程式
US11458627B2 (en) 2020-08-13 2022-10-04 National Chiao Tung University Method and system of robot for human following
TWI780468B (zh) * 2020-08-13 2022-10-11 國立陽明交通大學 機器人對人員跟隨之控制方法與系統

Also Published As

Publication number Publication date
TW201622916A (zh) 2016-07-01
US20160184990A1 (en) 2016-06-30
US9481087B2 (en) 2016-11-01

Similar Documents

Publication Publication Date Title
TWI558525B (zh) 機器人及其控制方法
US11830618B2 (en) Interfacing with a mobile telepresence robot
JP7465615B2 (ja) 航空機のスマート着陸
US9987744B2 (en) Generating a grasp pose for grasping of an object by a grasping end effector of a robot
US10379539B2 (en) Systems and methods for dynamic route planning in autonomous navigation
US10379545B2 (en) Detecting optical discrepancies in captured images
US8930019B2 (en) Mobile human interface robot
EP3224649A1 (en) Systems and methods for performing simultaneous localization and mapping using machine vision systems
WO2016031105A1 (ja) 情報処理装置、情報処理方法、及びプログラム
US9992480B1 (en) Apparatus and methods related to using mirrors to capture, by a camera of a robot, images that capture portions of an environment from multiple vantages
WO2019001237A1 (zh) 一种移动电子设备以及该移动电子设备中的方法
WO2022228019A1 (zh) 移动目标跟随方法、机器人和计算机可读存储介质
KR20200020295A (ko) 로봇과 인터랙션하는 증강현실 서비스 제공 장치 및 방법
US20210360849A1 (en) Mover robot system and controlling method for the same
WO2022227632A1 (zh) 基于图像的轨迹规划方法和运动控制方法以及使用该些方法的移动机器
JP2020064029A (ja) 移動体制御装置
JP2017107374A (ja) 遠隔操縦システム及び装置
CN114341761B (zh) 防撞方法、移动机器及存储介质