TW201310339A - 機器人控制系統及方法 - Google Patents
機器人控制系統及方法 Download PDFInfo
- Publication number
- TW201310339A TW201310339A TW100130443A TW100130443A TW201310339A TW 201310339 A TW201310339 A TW 201310339A TW 100130443 A TW100130443 A TW 100130443A TW 100130443 A TW100130443 A TW 100130443A TW 201310339 A TW201310339 A TW 201310339A
- Authority
- TW
- Taiwan
- Prior art keywords
- controller
- robot
- image
- active part
- active
- Prior art date
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1689—Teleoperation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40002—Camera, robot follows direction movement of operator head, helmet, headstick
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40116—Learn by operator observation, symbiosis, show, watch
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40413—Robot has multisensors surrounding operator, to understand intention of operator
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Multimedia (AREA)
- Manipulator (AREA)
Abstract
一種機器人控制系統,該系統包括:影像攝取模組,用於控制深度攝影機持續對控制者進行拍攝,取得控制者的即時三維影像;關係建立模組,用於根據機器人的N個活動部位,從控制者的一張三維影像中標定出控制者的N個活動部位,然後將控制者的N個活動部位分別與機器人的N個活動部位建立一一對應的關係;影像分析模組,用於對控制者的即時三維影像進行影像分析,得到控制者的每個活動部位的移動資料;及控制模組,根據控制者每個活動部位的移動資料,透過網路發送控制指令至機器人,以控制該機器人的每個活動部位執行相應的動作。
Description
本發明涉及一種機器人控制系統及方法。
隨著科技的不斷發展,可代替人類工作的機器人被應用在各種領域中。例如,從事製造業的工廠裏,很多工業機器人被應用在生產線。在其他應用領域,如建築業、石油鑽探、礦石開採、水下探索、毒害物質清理、搜救、醫學以及軍事領域等,也經常會使用到機器人。目前,許多的機器人均由控制者使用機器人的專用控制設備,或配戴具備感應功能的特殊裝置,對機器人的動作行為進行控制,這種控制方法需要控制者對專用控制設備進行深入的熟悉,顯得較為繁瑣,不直觀。
鑒於以上內容,有必要提供一種機器人控制系統,應用於主控設備中,該主控設備連接一個深度攝影機,並透過網路與一個機器人通訊連接。該系統包括:影像攝取模組,用於控制深度攝影機持續對控制者進行拍攝,以取得控制者的即時三維影像;關係建立模組,用於根據機器人的N個活動部位,從控制者的一張三維影像中標定出控制者的N個活動部位,然後將該控制者的N個活動部位分別與機器人的N個活動部位建立一一對應的關係;影像分析模組,用於對控制者的即時三維影像進行影像分析,得到所標定的控制者的每個活動部位的移動資料,該移動資料包括控制者每個活動部位的移動方向以及在該移動方向上的移動距離;及控制模組,根據控制者每個活動部位的移動資料,透過網路發送控制指令至機器人,以控制該機器人的每個活動部位執行與控制者相應活動部位相同的動作。
還有必要提供一種機器人控制方法,應用於主控設備中,該主控設備連接一個深度攝影機,並透過網路與一個機器人通訊連接。該方法包括:影像攝取步驟,控制深度攝影機持續對控制者進行拍攝,以取得控制者的即時三維影像;關係建立步驟,根據機器人的N個活動部位,從控制者的一張三維影像中標定出控制者的N個活動部位,然後將該控制者的N個活動部位分別與機器人的N個活動部位建立一一對應的關係;影像分析步驟,對控制者的即時三維影像進行影像分析,得到所標定的控制者的每個活動部位的移動資料,該移動資料包括控制者每個活動部位的移動方向以及在該移動方向上的移動距離;及控制步驟,根據控制者每個活動部位的移動資料,透過網路發送控制指令至機器人,以控制該機器人的每個活動部位執行與控制者相應活動部位相同的動作。
相較於習知技術,實施本發明機器人控制系統及方法,可使控制者能夠以更直覺、方便的方式對機器人進行控制作業。
如圖1所示,係本發明機器人控制系統較佳實施例的運行環境示意圖。該機器人控制系統10安裝在一個主控設備1中。主控設備1與一個深度攝影機2相連接,並透過網路3與機器人M1通訊連接,以與該機器人M1進行即時通訊。所述機器人控制系統10透過該深度攝影機2取得控制者M0的三維即時影像,並分析該三維即時影像以得到控制者M0的移動資料。然後,該機器人控制系統10根據該取得的移動資料透過所述網路3發送控制指令至機器人M1,進而控制機器人M1執行與控制者M0相同的動作。所述網路3可以是有線網路或無線網路。
應當說明的是,所述機器人M1可在所述控制者M0的視力範圍內工作,使得控制者M0能夠根據機器人M1當前所在位置的環境狀況作出恰當的動作,進而對機器人M1進行精確的控制。此外,當機器人M1在控制者M0視力範圍之外的其他遠端位置時,控制者M0可透過其他輔助設備取得機器人M1所在環境的視頻影像資料,根據該視頻影像資料作出恰當的動作,進而對機器人M1進行控制。進一步地,若所述機器人M1具備視覺功能,可由該機器人M1主動取得所述視頻影像資料,並透過網路3回傳給所述主控設備1,以供控制者M0參考。
所述深度攝影機2為一種使用深度感測(depth-sensing)技術的攝影機裝置,透過主動照明對特定場景發射光束,並透過計算反射光束的時間差或相位差來計算該深度攝影機2與場景中物體之間的距離,進而得到一組包括景深資訊的三維影像。該深度攝影機2可以是時間飛行(Time of Flight,TOF)攝影機。
如圖2所示,係所述主控設備1的架構圖。該主控設備1包括記憶體11、處理器12以及所述機器人控制系統10。該機器人控制系統10包括影像攝取模組101、關係建立模組102、影像分析模組103以及控制模組104。該機器人控制系統10可儲存在記憶體11中,並由處理器12控制該機器人控制系統10的執行。在本實施例中,該主控設備1可以是電腦、伺服器或其他具備三維影像處理以及資料傳輸等能力的控制設備。
所述影像攝取模組101用於控制深度攝影機2持續對控制者M0進行拍攝,以取得控制者M0的即時三維影像。該三維影像包括控制者M0身體各部位與深度攝影機2之間的距離資訊。例如圖3所示,係深度攝影機2所拍攝的一張人體三維影像的示意圖,該人體三維影像中包括XY方向上的人體影像畫面,以及Z方向上人體各部位與深度攝影機2之間的距離資訊。
所述關係建立模組102用於根據機器人M1的N個活動部位,如圖4中的S0’、S1’、S2’、S3’、S4’、S5’以及S6’,從控制者M0的一張三維影像中標定出控制者M0的N個活動部位,如圖4中的S0、S1、S2、S3、S4、S5以及S6,然後將該控制者M0的N個活動部位分別與機器人M1的N個活動部位建立一一對應的關係,如S0’與S0對應,S1’與S1對應,以及S6’與S6對應。當機器人M1的活動部位與標定的控制者M0的活動部位建立起一一對應的關係之後,在後續的控制過程中,機器人M1的每個活動部位將根據控制者M0相應的活動部位的動作而執行相對應的動作。此外,關係建立模組102還用於從該三維影像中提取出所標定的控制者M0的每個活動部位的特徵影像,並將該提取出的特徵影像儲存在記憶體11中。
所述影像分析模組103用於對攝取的控制者M0的即時三維影像進行影像分析,得到所標定的控制者M0的每個活動部位的移動資料。該移動資料包括控制者M0每個活動部位的移動方向以及在該移動方向上的移動距離等資料。
具體而言,在本實施例中,該影像分析模組103可將所攝取的控制者M0的當前幀三維影像與前一幀三維影像進行分析,透過比對控制者M0每個活動部位的特徵影像在該兩幀三維影像中的位置資訊(如三維座標資訊)計算出控制者M0每個活動部位的移動方向以及在該移動方向上的移動距離。例如,透過比對所述當前幀以及前一幀三維影像中控制者M0的活動部位S1在圖3所示的座標系XYZ中Z座標方向上的位置資訊,可計算出該活動部位S1前進或後退的距離,以及比對活動部位S1在X和Y座標方向上的位置資訊,可計算出該活動部位S1上下或左右移動的距離。
此外,該影像分析模組103也可與一個仲介分析軟體(例如openNI)建立連接,將所述攝取的即時三維影像輸入該仲介分析軟體,由該仲介分析軟體對該輸入的即時三維影像進行分析,直接得到控制者M0各活動部位的移動資料。所述OpenNI是Open Natural Interaction的縮寫,又稱為開放式自然操作,其提供一個標準的介面,用於對用戶的自然操作(如語音、手勢、身體動作等)進行分析和判斷。
所述控制模組104用於根據控制者M0每個活動部位的移動資料,透過所述網路3發送控制指令至機器人M1,以控制該機器人M1的每個活動部位執行相應的動作。在本實施例中,該控制指令包括控制者M0的每個活動部位的移動資料。當所述機器人M1接收到所述控制指令後,即可透過該機器人M1內含的制動系統根據該控制指令控制機器人M1的各活動部位執行相應的動作。
如圖5所示,係本發明機器人控制方法較佳實施例的流程圖。
步驟S01,所述影像攝取模組101控制深度攝影機2持續對控制者M0進行拍攝,以取得控制者M0的即時三維影像。該三維影像包括控制者M0身體各部位與深度攝影機2之間的距離資訊。
步驟S02,所述關係建立模組102根據機器人M1的N個活動部位,如圖4中的S0’、S1’、S2’、S3’、S4’、S5’以及S6’,從控制者M0的一張三維影像中標定出控制者M0的N個活動部位,如圖4中的S0、S1、S2、S3、S4、S5以及S6,然後將該控制者M0的N個活動部位分別與機器人M1的N個活動部位建立一一對應的關係。進一步地,該關係建立模組102從該三維影像中提取出所標定的控制者M0的每個活動部位的特徵影像,並將該提取出的特徵影像儲存在記憶體11中。
步驟S03,所述影像分析模組103對控制者M0的即時三維影像進行影像分析,得到所標定的控制者M0的每個活動部位的移動資料。該移動資料包括控制者M0每個活動部位的移動方向以及在該移動方向上的移動距離等資料。
步驟S04,所述控制模組104根據控制者M0的每個活動部位的移動資料,透過所述網路3發送控制指令至機器人M1,以控制該機器人M1的每個活動部位執行相應的動作。在本實施例中,該控制指令包括控制者M0每個活動部位的移動資料。當所述機器人M1接收到該控制指令後,即可透過該機器人M1內含的制動系統根據該控制指令控制機器人M1執行與控制者M0相同的動作。
最後應說明的是,以上實施方式僅用以說明本發明的技術方案而非限制,儘管參照較佳實施方式對本發明進行了詳細說明,本領域的普通技術人員應當理解,可以對本發明的技術方案進行修改或等同替換,而不脫離本發明技術方案的精神和範圍。
1...主控設備
2...深度攝影機
3...網路
M0...控制者
M1...機器人
10...機器人控制系統
11...記憶體
12...處理器
101...影像攝取模組
102...關係建立模組
103...影像分析模組
104...控制模組
圖1係為本發明機器人控制系統較佳實施例的運行環境示意圖。
圖2係為圖1中主控設備較佳實施例的架構圖。
圖3係為一張人體三維影像的示意圖。
圖4係為本發明較佳實施例中將控制者的運動部位與機器人的運動部位建立對應關係的示意圖。
圖5係為本發明機器人控制方法較佳實施例的流程圖。
1...主控設備
10...機器人控制系統
11...記憶體
12...處理器
101...影像攝取模組
102...關係建立模組
103...影像分析模組
104...控制模組
Claims (10)
- 一種機器人控制方法,應用於主控設備中,該主控設備連接一個深度攝影機,並透過網路與一個機器人通訊連接,該方法包括:
影像攝取步驟,控制深度攝影機持續對控制者進行拍攝,以取得控制者的即時三維影像;
關係建立步驟,根據機器人的N個活動部位,從控制者的一張三維影像中標定出控制者的N個活動部位,然後將該控制者的N個活動部位分別與機器人的N個活動部位建立一一對應的關係;
影像分析步驟,對控制者的即時三維影像進行影像分析,得到所標定的控制者的每個活動部位的移動資料,該移動資料包括控制者每個活動部位的移動方向以及在該移動方向上的移動距離;及
控制步驟,根據控制者每個活動部位的移動資料,透過網路發送控制指令至機器人,以控制該機器人的每個活動部位執行與控制者相應活動部位相同的動作。 - 如申請專利範圍第1項所述的機器人控制方法,所述關係建立步驟還包括:
從所述三維影像中提取出所標定的控制者的每個活動部位的特徵影像;及
將該提取出的特徵影像儲存在主控設備的記憶體中。 - 如申請專利範圍第2項所述的機器人控制方法,所述影像分析步驟包括:
將所攝取的控制者當前幀的三維影像與前一幀的三維影像進行分析,透過比對控制者每個活動部位的特徵影像在該兩幀三維影像中的位置資訊計算出所述移動資料。 - 如申請專利範圍第1項所述的機器人控制方法,所述影像分析步驟包括:
與一個仲介分析軟體進行連接;及
將所攝取的即時三維影像輸入該仲介分析軟體,由該仲介分析軟體對該輸入的即時三維影像進行分析,得到控制者各活動部位的移動資料。 - 如申請專利範圍第1項所述的機器人控制方法,所述控制指令包括所述移動資料,當所述機器人接收到該控制指令後,由該機器人內含的制動系統根據該控制指令控制機器人各活動部位執行與控制者相應活動部位相同的動作。
- 一種機器人控制系統,應用於主控設備中,該主控設備連接一個深度攝影機,並透過網路與一個機器人通訊連接,該系統包括:
影像攝取模組,用於控制深度攝影機持續對控制者進行拍攝,以取得控制者的即時三維影像;
關係建立模組,用於根據機器人的N個活動部位,從控制者的一張三維影像中標定出控制者的N個活動部位,然後將該控制者的N個活動部位分別與機器人的N個活動部位建立一一對應的關係;
影像分析模組,用於對控制者的即時三維影像進行影像分析,得到所標定的控制者的每個活動部位的移動資料,該移動資料包括控制者每個活動部位的移動方向以及在該移動方向上的移動距離;及
控制模組,根據控制者每個活動部位的移動資料,透過網路發送控制指令至機器人,以控制該機器人的每個活動部位執行與控制者相應活動部位相同的動作。 - 如申請專利範圍第6項所述的機器人控制系統,所述關係建立模組還用於從所述三維影像中提取出所標定的控制者的每個活動部位的特徵影像,並將該提取出的特徵影像儲存在主控設備的記憶體中。
- 如申請專利範圍第7項所述的機器人控制系統,所述影像分析模組透過以下步驟得到所述移動資料:
將所攝取的控制者當前幀的三維影像與前一幀的三維影像進行分析,透過比對控制者每個活動部位的特徵影像在該兩幀三維影像中的位置資訊計算出所述移動資料。 - 如申請專利範圍第6項所述的機器人控制系統,所述影像分析模組透過以下步驟得到所述移動資料:
與一個仲介分析軟體進行連接;及
將所攝取的即時三維影像輸入該仲介分析軟體,由該仲介分析軟體對該輸入的即時三維影像進行分析,得到控制者各活動部位的移動資料。 - 如申請專利範圍第6項所述的機器人控制系統,所述控制指令包括所述移動資料,當所述機器人接收到該控制指令後,由該機器人內含的制動系統根據該控制指令控制機器人各活動部位執行與控制者相應活動部位相同的動作。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW100130443A TW201310339A (zh) | 2011-08-25 | 2011-08-25 | 機器人控制系統及方法 |
US13/313,007 US20130054028A1 (en) | 2011-08-25 | 2011-12-07 | System and method for controlling robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW100130443A TW201310339A (zh) | 2011-08-25 | 2011-08-25 | 機器人控制系統及方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
TW201310339A true TW201310339A (zh) | 2013-03-01 |
Family
ID=47744809
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW100130443A TW201310339A (zh) | 2011-08-25 | 2011-08-25 | 機器人控制系統及方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20130054028A1 (zh) |
TW (1) | TW201310339A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105999719A (zh) * | 2016-05-25 | 2016-10-12 | 杭州如雷科技有限公司 | 一种基于动作示范的动作实时驱动系统及方法 |
TWI668623B (zh) * | 2017-09-21 | 2019-08-11 | 鴻海精密工業股份有限公司 | 機器人服務內容編輯系統及方法 |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105538307B (zh) * | 2014-11-04 | 2018-08-07 | 宁波弘讯科技股份有限公司 | 控制装置、系统及方法 |
US9676098B2 (en) | 2015-07-31 | 2017-06-13 | Heinz Hemken | Data collection from living subjects and controlling an autonomous robot using the data |
US10166680B2 (en) | 2015-07-31 | 2019-01-01 | Heinz Hemken | Autonomous robot using data captured from a living subject |
US10427305B2 (en) * | 2016-07-21 | 2019-10-01 | Autodesk, Inc. | Robotic camera control via motion capture |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6430997B1 (en) * | 1995-11-06 | 2002-08-13 | Trazer Technologies, Inc. | System and method for tracking and assessing movement skills in multidimensional space |
JP4160572B2 (ja) * | 2005-03-31 | 2008-10-01 | 株式会社東芝 | 画像処理装置及び画像処理方法 |
KR101494344B1 (ko) * | 2008-04-25 | 2015-02-17 | 삼성전자주식회사 | 휴머노이드 로봇의 움직임 제어 시스템 및 그 방법 |
-
2011
- 2011-08-25 TW TW100130443A patent/TW201310339A/zh unknown
- 2011-12-07 US US13/313,007 patent/US20130054028A1/en not_active Abandoned
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105999719A (zh) * | 2016-05-25 | 2016-10-12 | 杭州如雷科技有限公司 | 一种基于动作示范的动作实时驱动系统及方法 |
TWI668623B (zh) * | 2017-09-21 | 2019-08-11 | 鴻海精密工業股份有限公司 | 機器人服務內容編輯系統及方法 |
Also Published As
Publication number | Publication date |
---|---|
US20130054028A1 (en) | 2013-02-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10173324B2 (en) | Facilitating robot positioning | |
CN110073313B (zh) | 使用母设备和至少一个伴随设备与环境交互 | |
US10046459B2 (en) | Three-dimensional visual servoing for robot positioning | |
US10076840B2 (en) | Information processing apparatus, information processing method, and program | |
TW201310339A (zh) | 機器人控制系統及方法 | |
TW201339903A (zh) | 無人飛行載具控制系統及方法 | |
JP6598191B2 (ja) | 画像表示システムおよび画像表示方法 | |
WO2015051827A1 (en) | Method of determining a similarity transformation between first and second coordinates of 3d features | |
Xin et al. | 3D augmented reality teleoperated robot system based on dual vision | |
CN113829343A (zh) | 基于环境感知的实时多任务多人人机交互系统 | |
KR20220128655A (ko) | 제조 또는 산업 환경에서 협동 로봇과의 상호작용을 위한 가상/증강 현실 사용 시스템 및 방법 | |
CN110363811B (zh) | 用于抓取设备的控制方法、装置、存储介质及电子设备 | |
Kato | A remote navigation system for a simple tele-presence robot with virtual reality | |
Manns et al. | Identifying human intention during assembly operations using wearable motion capturing systems including eye focus | |
CN108115671B (zh) | 基于3d视觉传感器的双臂机器人控制方法及系统 | |
CN114419154A (zh) | 基于视觉与人机协同的机械臂双模式控制方法及系统 | |
CN102955563A (zh) | 机器人控制系统及方法 | |
WO2022032688A1 (en) | Method for remote assistance and device | |
Peake et al. | Cloud-based analysis and control for robots in industrial automation | |
EP3316222B1 (en) | Pre-visualization device | |
Yu et al. | Efficiency and learnability comparison of the gesture-based and the mouse-based telerobotic systems | |
TWI570594B (zh) | 控制裝置、系統及方法 | |
RU2685996C1 (ru) | Способ и система предиктивного избегания столкновения манипулятора с человеком | |
WO2022234668A1 (ja) | 稼働管理装置 | |
Sukumar et al. | Augmented reality-based tele-robotic system architecture for on-site construction |