TW201914785A - 機器人語音操控系統及方法 - Google Patents
機器人語音操控系統及方法 Download PDFInfo
- Publication number
- TW201914785A TW201914785A TW106134301A TW106134301A TW201914785A TW 201914785 A TW201914785 A TW 201914785A TW 106134301 A TW106134301 A TW 106134301A TW 106134301 A TW106134301 A TW 106134301A TW 201914785 A TW201914785 A TW 201914785A
- Authority
- TW
- Taiwan
- Prior art keywords
- command
- robot
- voice
- space
- robot body
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 230000007613 environmental effect Effects 0.000 claims abstract description 34
- 230000033001 locomotion Effects 0.000 claims abstract description 28
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 17
- 230000005540 biological transmission Effects 0.000 claims description 16
- 238000004891 communication Methods 0.000 claims description 8
- 230000000007 visual effect Effects 0.000 claims description 6
- 230000000875 corresponding effect Effects 0.000 description 17
- 239000013598 vector Substances 0.000 description 11
- 238000010586 diagram Methods 0.000 description 8
- 230000009471 action Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 230000007547 defect Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000004260 weight control Methods 0.000 description 2
- 241000252794 Sphinx Species 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000013398 bayesian method Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000474 nursing effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000010408 sweeping Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0011—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
- G05D1/0016—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the operator's input device
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/003—Controls for manipulators by means of an audio-responsive input
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J5/00—Manipulators mounted on wheels or on carriages
- B25J5/007—Manipulators mounted on wheels or on carriages mounted on wheels
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
- B25J9/1666—Avoiding collision or forbidden zones
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0011—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
- G05D1/0022—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the communication link
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/01—Mobile robot
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/02—Arm motion controller
- Y10S901/09—Closed loop, sensor feedback controls arm movement
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/46—Sensing device
- Y10S901/47—Optical
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Aviation & Aerospace Engineering (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Electromagnetism (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Optics & Photonics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Manipulator (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
一種機器人語音操控系統及方法,由手持裝置之語音輸入介面輸入語音命令,經由語音辨識程式轉換成語音操控指令。利用環境感測器偵測機器人本體周圍之環境資訊,經由自動閃避程式轉換成自動閃避指令。語音操控指令及環境資訊傳送至處理器,利用貝氏回歸演算法計算自由空間機率,取得語音命令權重及閃避命令權重,整合語音操控指令與語音命令權重及自動閃避指令與閃避命令權重,取得移動控制指令。控制器接收移動控制指令以驅動移動裝置。
Description
本發明是關於一種機器人語音操控系統及方法,特別是關於一種利用操作者語音命令控制,整合機器人自動閃避功能,使機器人在複雜環境中判斷最佳執行指令之操控系統及方法。
機器人的操控方式,除了原先預設的動作外,最常見的就是透過程式下達各種控制指令,使得機器人接收後能執行指令來驅動機器人移動或進行對應的動作。例如各種家用的家事機器人、看護機器人等,若要將機器人移動到特定位置,操作者必須透過遙控裝置的操作介面下達移動指令,或者利用機器人的按鈕或按鍵來使機器人執行特定的動作。無論何種操作方式,操作者都需要耗費時間來學習或訓練個別的操控方式,複雜的操作流程往往造成使用上之不便,進而降低使用的意願。
為解決上述問題,利用語音命令來操控機器人,就成為操控方法當中重要的一種方式,語音命令是操作者與機器人之間最為自然的溝通方式,直接由語音命令下達操作指令,無論是專業人員還是一般民眾,都是最直覺的操控方式。然而,以語音方式進行操控時,會產生語音辨識和資訊傳輸時的時間延遲,使得機器人在反應的即時性上有所缺陷。此外,若在複雜的環境中操控機器人,周圍障礙物的影響,也容易造成原本語音命令的意圖無法有效達成。
綜觀前所述,習知的機器人語音操控方式仍然具有相當之缺陷,因此,本發明藉由設計一種機器人語音操控系統及方法,針對現有技術之缺失加以改善,使機器人能安全的執行下達命令,讓操控上更為便利及人性化,進而增進產業上之實施利用。
有鑑於上述習知技藝之問題,本發明之目的就是在提供一種機器人語音操控系統及方法,使機器人能判斷語音命令及自主控制命令的最佳組合,使其在移動時能兼顧環境資訊以及語音命令,以解決語音延遲及環境安全性等問題。
根據本發明之一目的,提出一種機器人語音操控系統,其包含機器人本體、手持裝置、指令接收器、環境感測器、處理器以及控制器。其中,機器人本體包含移動裝置,移動裝置包含複數個轉向輪,控制機器人本體之轉向或移動。手持裝置包含顯示介面及語音輸入介面,由語音輸入介面輸入語音命令,經由語音辨識程式轉換成語音操控指令。指令接收器設置於機器人本體內,透過無線傳輸方式連接手持裝置以接收語音操控指令。環境感測器設置於機器人本體上,偵測機器人本體周圍之環境資訊,經由自動閃避程式轉換成自動閃避指令。處理器連接於指令接收器及環境感測器,接收語音操控指令及環境資訊,利用貝氏回歸演算法計算自由空間機率,進而取得語音命令權重及閃避命令權重,處理器整合語音操控指令與語音命令權重及自動閃避指令與閃避命令權重,取得移動控制指令。控制器連接於處理器及移動裝置,接收移動控制指令以驅動移動裝置。
較佳地,手持裝置可包含智慧型手機、平板電腦或筆記型電腦,無線傳輸方式可包含透過Wi-Fi或無線通訊網路。
較佳地,環境感測器可包含雷射掃描器,測量機器人本體與障礙物之相隔距離。
較佳地,環境感測器將環境資訊分為複數個移動空間,分別作為貝氏回歸演算法之事前機率,並輸出複數個移動空間各自之事後機率,由當中之最大值作為自由空間機率。
較佳地,複數個移動空間可包含向左空間、向前空間及向右空間,向左空間為機器人本體左側水平線至夾角75度之空間,向前空間為機器人本體朝前方左右夾角15度之空間,向右空間為機器人本體右側水平線至夾角75度之空間。
較佳地,機器人語音操控系統可進一步包含比較器,連接於處理器,比較語音操控指令是否與對應於自由空間機率之自由空間指令相等,若是,則以語音操控指令為輸出指令,若否,則以自由空間指令為輸出指令。
較佳地,機器人語音操控系統可進一步包含攝影機,設置於機器人本體以拍攝視覺影像,並藉由建立環境地圖顯示機器人本體之自我定位標示,透過無線傳輸方式傳送至手持裝置,於顯示介面呈現。
根據本發明之另一目的,提出一種機器人語音操控方法,適用於控制機器人本體之轉向及移動,機器人本體包含指令接收器、環境感測器、處理器、控制器及移動裝置。機器人語音操控方法包含以下步驟:由手持裝置之語音輸入介面輸入語音命令,經由語音辨識程式轉換成語音操控指令;透過無線傳輸方式將語音操控指令傳送至指令接收器;藉由環境感測器偵測機器人本體周圍之環境資訊,經由自動閃避程式轉換成自動閃避指令;由處理器接收語音操控指令及環境資訊,利用貝氏回歸演算法計算自由空間機率,進而取得語音命令權重及閃避命令權重;由處理器整合語音操控指令與語音命令權重及自動閃避指令與閃避命令權重,取得移動控制指令;以及將移動控制指令傳送至控制器,由控制器驅動移動裝置使機器人本體轉向或移動。
較佳地,手持裝置可包含智慧型手機、平板電腦或筆記型電腦,無線傳輸方式可包含透過Wi-Fi或無線通訊網路。
較佳地,環境感測器可藉由雷射掃描器測量機器人本體與障礙物之相隔距離。
較佳地,環境感測器可將環境資訊分為複數個移動空間,分別作為貝氏回歸演算法之事前機率,並輸出複數個移動空間各自之事後機率,由當中之最大值作為自由空間機率。
較佳地,複數個移動空間可包含向左空間、向前空間及向右空間,向左空間為機器人本體左側水平線至夾角75度之空間,向前空間為機器人本體朝前方左右夾角15度之空間,向右空間為機器人本體右側水平線至夾角75度之空間。
較佳地,機器人語音操控方法可進一步藉由比較器比較語音操控指令是否與對應於自由空間機率之自由空間指令相等,若是,則以語音操控指令為輸出指令,若否,則以自由空間指令為輸出指令。
較佳地,機器人語音操控方法可進一步藉由攝影機拍攝視覺影像,並藉由建立環境地圖顯示機器人本體之自我定位標示,透過無線傳輸方式傳送至手持裝置,於顯示介面呈現。
承上所述,依本發明之機器人語音操控系統及方法,其可具有一或多個下述優點:
(1)此機器人語音操控系統及方法可利用自然且直覺的語音命令來操控機器人,無須透過事前的操作訓練即可進行機器人的操控,簡化複雜的操控程序。
(2)此機器人語音操控系統及方法可藉由判斷使用者意圖與機器人自動閃避意圖的權重,取得最佳的操控命令,無須持續下達過多的語音指令即可達成使用者意圖,提升操控效率及安全性。
(3)此機器人語音操控系統及方法,可藉由無線網路傳送語音訊號,並可藉由攝影機回傳即時影像,及機器人建立之環境地圖與自我定位標示,讓使用者能進行遠端即時操控,增加機器人操控的便利性。
為利貴審查委員瞭解本發明之技術特徵、內容與優點及其所能達成之功效,茲將本發明配合附圖,並以實施例之表達形式詳細說明如下,而其中所使用之圖式,其主旨僅為示意及輔助說明書之用,未必為本發明實施後之真實比例與精準配置,故不應就所附之圖式的比例與配置關係解讀、侷限本發明於實際實施上的權利範圍,合先敘明。
請參閱第1圖,第1圖係為本發明實施例之機器人語音操控系統之方塊圖。如圖所示,機器人語音操控系統包含機器人本體10及手持裝置20,其中,機器人本體10安裝有指令接收器101、環境感測器102、處理器103、控制器104及移動裝置105,手持裝置20則包含語音輸入介面201及顯示介面202。在這系統當中,機器人本體10可為各種家用機器人或醫療照護裝置,例如掃地機器人、看護機器人或是電動輪椅等。主要的特性在於機器人本體10具有移動裝置105,可以經由使用者操控而移動到特定位置。移動裝置105包含乘載機器人架構的底盤或平台、驅動馬達及由馬達驅動的轉向輪,轉向輪的數量可依據機器人大小、重量或是轉動範圍來決定。
習知的機器人在開啟後僅能執行設定好之動作,或者是藉由遙控裝置開啟機器人以執行下達指令,若要操控機器人,例如要將其移動到特定位置,大多僅能藉由手動方式或預設程式來達成。然而,於本實施例當中,使用者可以透過手持裝置20來下達操控指令,並且是利用直覺的說話方式下達語音命令50,來即時操控機器人本體10的移動或動作。其中,手持裝置20可為智慧型手機、平板電腦或筆記型電腦,這些手持裝置20具備接收及辨識語音命令50的語音輸入介面201,例如麥克風,使用者口中說出的語音命令50,透過麥克風等收音裝置接收後,由手持裝置20當中安裝之語音辨識程式203進行辨識,例如利用CMU Sphinx語音辨識系統進行辨識,將其轉換成為語音操控指令。這些語音操控指令可透過Wi-Fi、藍芽或無線通訊網路等方式傳送至機器人本體10的指令接收器101。
除此之外,機器人可具備各種自主動作的功能,例如自動閃避障礙物的功能。機器人本體10上可設置環境感測器102,在移動過程中,若偵測到環境周遭有障礙物,內部的閃避機制會將偵測到的環境資訊60,透過自動閃避程式106轉換成自動閃避指令。自動閃避的目的在於避免機器人本體10在移動過程中有傾倒、翻覆或是碰撞而造成損害的可能。上述指令接收器101及環境感測器102各自連接於處理器103,將語音操控指令及自動閃避指令傳送到處理器103進行運算。在本實施例當中,處理器103包含中央處理器、微處理器等硬體設備,由其執行包含貝氏回歸演算法等運算程式,計算機器人本體10之自由空間機率,進而取得語音命令權重及閃避命令權重,並且在同時考量語音操控指令與語音命令權重,以及自動閃避指令與閃避命令權重後,取得實際操控的移動控制指令。自由空間機率及權重值計算方式,將於後續實施例中詳細描述。在決定移動控制指令後,處理器103即將指令傳送到控制器104,控制器104可為整合於積體電路之控制晶片,接收處理器103的控制訊號,進而操控移動裝置105的馬達及轉向輪,帶動機器人本體10移動至下達指令所對應之位置。
另外,機器人本體10還可進一步包含攝影機107,安裝於機器人本體10上,拍攝移動時實際的視覺影像或畫面,這些視覺影像或畫面可以透過Wi-Fi或無線通訊網路等無線傳輸的方式即時回傳至手持裝置20,由顯示介面202提供使用者即時影像資訊。攝影機107的設置讓使用者可依據智慧型手機螢幕顯示的畫面,即時下達各種移動指令,有助於使用者確認相對位置或是於遠端進行監控。
請參閱第2圖,第2圖係為本發明實施例之機器人本體及手持裝置之示意圖。如圖所示,機器人語音操控系統可包含機器人本體11及手持裝置21。本實施例當中,機器人本體11包含移動平台111及轉向輪112,對應於第1圖的移動裝置105。機身則包含觸控螢幕113以及雷射掃描器114,觸控螢幕113可為機器人本體11的操作介面,也可做為顯示機器人本體11操作狀態之顯示畫面。雷射掃描器114則對應於第1圖的環境感測器102,可即時測量機器人本體11周圍之環境以及與障礙物之間的相隔距離,但本發明不以此為限,雷射掃描器114也可以超音波掃描器或紅外線掃描器來取代。同時,機身安裝兩機器手臂115,機器手臂115可依據所需功能有所不同,例如可安裝六自由度(6-DOF)的機器手臂,由控制器控制手臂115進行多軸轉動之動作。機器人頭部前端可安裝攝影機116,拍攝機器人前端的即時影像。
本實施例的手持裝置21可為平板電腦,其顯示螢幕211可包含多個視窗,由雷射掃描器114所偵測的環境資訊以及攝影機116拍攝的即時影像,都可透過無線網路傳送至手持裝置21,分別呈現於環境圖資視窗212及即時影像視窗213,透過攝影機116拍攝的即時影像可以實際看到機器人本體11前方的影像,而環境資訊則可利用建立之環境地圖加上機器人本體11所在位置,顯示其自我定位的標示,協助判斷周圍環境狀態。當手持裝置21的麥可風接收到語音命令時,顯示螢幕211上也可於命令視窗214顯示語音辨識結果,以確認語音命令的辨識是否正確。當辨識無誤時,語音命令即可傳送至機器人本體11,操控其轉向或移動。
請參閱第3圖,第3圖係為本發明實施例之機器人語音操控方法之流程圖。如圖所示,其包含以下步驟(S1-S6):
步驟S1:由手持裝置之語音輸入介面輸入語音命令,經由語音辨識程式轉換成語音操控指令。本實施例當中,語音命令可分成三類:Go(行走)、Turn(轉向)及Move(移動),其分別控制機器人速度、角度及角速度。透過辨識使用者下達的語音命令,使機器人的動作按照這三種分類進行移動。在Go的狀態中只有改變機器人線速度,讓機器人保持固定角度向前(Go Forward)或向後(Go Backward)行走。Turn的命令中同時改變機器人角度和角速度,機器人會呈現有弧度的轉彎角度進行轉彎。Move的命令中保持原本的線速度與角速度,只改變機器人的移動角度,機器人朝向角不變,這個命令用來調整機器人位移路徑上的誤差。
步驟S2:透過無線傳輸方式將語音操控指令傳送至指令接收器。經由辨識產生的語音操控指令,則可透過Wi-Fi、藍芽或無線通訊網路等無線傳輸方式傳送到機器人本體的指令接收器,指令接收器可包含儲存裝置,例如暫存記憶體,儲存接收但還未執行的語音指令。
步驟S3:藉由環境感測器偵測環境資訊,經由自動閃避程式轉換成自動閃避指令。障礙閃避主要目的是為了閃避環境中未知的障礙物,在本實施例中所使用的閃避障礙方式是根據全向的運動方式所設計。當機器人進行任意方向的移動時,其速度大小與方向可以在空間中表示為一個向量。若機器人移動接近障礙物時,則自動閃避程式會在障礙物的相反方向產生自動閃避指令。此閃避速度向量可被表示為:
其中為常數,為第i
個障礙物在機器人座標系中的向量位置,為機器人閃避障礙物時最大安全距離。可由雷射掃描器對前方180度的空間進行掃描,並取得每範圍中的最小障礙物距離計算出位置向量。若機器人周遭出現了多個障礙物,則閃避速度向量將由多個障礙物位置向量計算結果相加而得。當機器人朝向障礙物運動的速度向量為,閃避速度向量為,為了避免機器人碰撞到障礙物,機器人將以兩者的速度向量相加的結果來運動,其速度向量總和表示為:
此閃避速度向量包含機器人在X-Y兩個方向的線速度,未包含機器人的角速度。因此,進行閃避過程時能夠在不改變機器人朝向的情況下進行。
步驟S4:由處理器接收語音操控指令及環境資訊,利用貝氏回歸演算法計算自由空間機率,進而取得語音命令權重及閃避命令權重。貝氏方法的優點,在於能將有關環境的特徵參數作為事前機率,用適當的數學公式所得到的環境參數,與由試驗所獲知的情報組合在一起。事前機率可能來自一般理論上的考慮,或來自之前試驗的結果。利用事前機率,經過貝氏定理的判定後,可得到欲求結果的事後機率密度函數,本實施例即透過事後機率來求得自由空間的機率分布。
針對利用利用貝氏回歸演算法的詳細流程,請進一步參閱第4圖及第5圖,第4圖係為本發明實施例之貝氏回歸演算法之流程圖,第5圖係為本發明實施例之移動空間之示意圖,如圖所示,貝氏回歸演算法包含以下步驟(S41-S46):
步驟S41:輸入語音操控命令。由手持裝置輸入語音命令後,藉由語音辨識程式轉換成語音操控指令,收到語音操控指令後,同時進行步驟S42及步驟S43。
步驟S42:更新環境資訊。代表雷射掃描器感測到的環境資訊。雷射掃描的環境資訊分為三個空間,分別為向左空間L、向前空間F及向右空間R,如第5圖所示,該向左空間L為機器人本體12左側水平線至夾角75度之空間,向前空間F為機器人本體12朝前方左右夾角15度之空間,向右空間R為機器人本體12右側水平線至夾角75度之空間。可用三個不同的控制命令(Turn Left、Go Forward、Turn Right) 分別代表三個方向的空間。
步驟S43:更新語音操控指令。代表使用者下達的語音操控指令。
步驟S44:計算事前機率。代表以和為條件的事前機率。在本實施例中,利用這三個空間當作事前機率的條件,其中事前機率如下式所示:
其中所代表的是三個方向的自由空間,分別是左方、前方及右方,代表是雷射掃描的環境資訊,代表使用者下達的語音操控指令,我們以前一個的環境資訊和上一個自由空間為條件來得到當下最有可能的自由空間
步驟S45:計算事後機率。是自由空間的事後機率,事後機率的推導則是利用從一開始到當下的環境資訊和使用者命令來獲得,如下式所示:
其中自由空間事後機率是由事前機率所得到,而事前機率就是三個切割出來的空間,所以輸出也就是包含使用者意圖的三個自由空間的機率值。
步驟S46:取得自由空間機率。自由空間事後機率越大的代表機器人走到那個自由空間意圖越大,在最後得到三個機率值帶入下式以取得自由空間機率最大者:
由於在貝氏回歸裡面已經有使用者命令的條件機率,也就代表執行的最大自由空間所對應的指令同時也代表有多少權重可以執行使用者命令。因此,由自由空間機率可作為執行使用者命令的語音命令權重,在本實施例中,語音命令權重和閃避命令權重所占控制比例以1為總和,因此在取得語音命令權重後,閃避命令權重即為。
步驟S5:由處理器整合語音操控指令與語音命令權重及自動閃避指令與閃避命令權重,取得移動控制指令。為了讓使用者能隨時說出機器人下一步的動作,提前讓機器人能自行計算使用者語音命令的最佳時機,可藉由比較器比較使用者的語音操控指令與自由空間機率,藉由決策流程讓機器人決定當下最適合的命令。比較結果包含兩種狀態,一是語音操控指令與自由空間機率所對應的指令相等的情況,此時直接以使用者的語音操控指令作為使用者意圖輸出。另一則是有語音操控指令與自由空間機率所對應的指令不相等的情況,在此情況下,由事後機率最高的自由空間指令來作為使用者意圖輸出。這種遞迴比對流程所代表的意義就是機器人會持續比對直到最佳的時間點執行使用者語音命令。當語音命令是帶有角度變化時,機器人也會偵測是否達到,如果沒有則會持續判斷當下最佳指令,直到轉到相對應角度,機器人才會清除使用者意圖讓機器人以自由空間指令當作使用者意圖,所以在機器人轉向過程中如果遇到障礙物,機器人避開後還是會朝向使用者所指定的方向前進 。在得到使用者意圖輸出後,本實施例中移動控制指令藉由下式取得:
其中,移動控制指令是將使用者語音操控指令之使用者意圖乘上再加上機器人自動閃避指令乘上,其中代表最大的自由空間的機率,和所占控制比例以1為總和,越低代表機器人的權重越高也就是機器人自動閃避的意志介入越多。
步驟S6:將移動控制指令傳送至控制器,由控制器驅動移動裝置使機器人本體轉向或移動。當取得移動控制指令後,處理器可將控制指令轉為控制訊號傳送到控制晶片,由控制晶片傳送馬達驅動訊號、轉向訊號等至移動裝置以操控祭器人本體轉向或移動。
上述選擇貝氏回歸演算法是因為考慮機器人在複雜環境中,移動的空間可能較為窄小,就算語音命令結合處理器的運算,使用者還是必須在正確的時機說出語音命令,所以這種方式下,藉由讓機器人自行判斷命令的使用時機,並將這種條件機率依據作為使用者語音命令與機器人自動閃避權重的分布,不僅能降低使用者負擔,對於未受訓練的操控者來說是更直覺且自然的語音操控方式。
請同時參閱第6圖及第7圖,第6圖係為本發明實施例之機器人操控環境與軌跡之示意圖,第7圖係為本發明實施例之權重控制與自由空間機率之示意圖。如圖所示,本實施例說明機器人由右側房間(a)點位置啟動,經由走廊移動到左側房間的(j)點位置停止之實際移動軌跡,第7圖中(a)點至(j)點分別對應於第6圖中(a)點位置至(j)點位置。圖中記錄在三個方向上的事後機率值來說明自由空間機率的變化,並且取當中之最大值作為語音命令權重,權重值變化則是呈現語音命令權重與機器人之閃避命令權重的變化關係。機器人當中的處理器依據上述權重值,計算移動控制指令,傳送到控制器後驅動移動裝置來使機器人移動或轉向。
詳細說明各點的狀態,在(a)點啟動機器人時因為尚未收到使用者語音命令,三個自由空間機率值只反映當下環境中左方有障礙物的情況,因而左方的自由空間機率最低,當使用者在(a)點說出前進(Go Forward)之語音命令,在第7圖的(a)點可以看到因為前進的語音命令使系統將使用者意圖加入前方機率計算中,造成向前事後機率上升至0.75,前方空間因此具有最大的自由空間機率值,同時,由於使用者命令符合相對應的最大自由空間機率,因此機器人會執行前進語音命令。
當機器人移動到(b)點附近,使用者說出左轉 (Turn Left)之語音命令,由於左方有障礙物,所以左方自由空間機率值雖加入使用者意圖上升到0.20,但並未到達當下最大自由空間,所以機器人並未執行左轉命令。當下擁有最高機率值仍為前方自由空間機率的0.59,因此機器人判斷當下的環境不是最佳的執行時間,還是執行當下機率值最高的前方自由空間所對應到的前進語音命令使機器人繼續往前直走。一直到(c)點位置,左方開始出現可行走空間,使得左方自由空間機率值到上升至0.76,為當下最大自由空間,因此機器人判斷此時為最佳執行左轉語音命令的時機,機器人開始執行左轉語音命令。
當機器人於(c)點左轉時,與左側障礙物距離會逐漸縮短,因此左方自由空間機率值再度下降到0.06,當下最高自由空間機率為前方的0.48,機器人會自動依據當下最高機率之自由空間所對應的指令去切換使用者語音操控指令,執行前進語音指令,並以前方自由空間機率作為語音命令權重。由於語音命令權重為0.48,機器人之閃避命令權重為0.52,因此,機器人會以較大之權重執行障礙物閃避。
當機器人移動至(d)點時,使用者可透過攝影機拍攝之即時影像發現來到門口,因此使用者下達左轉(Turn Left)之語音命令,與(b)點位置類似,左方自由空間的機率值雖上升至0.17,但並不是當下最大的自由空間機率,機器人反而是執行機率值最高的右方自由空間所對應的右轉命令來調整機器人之朝向角度,等到機器人在(e)點位置,左方出現自由空間機率值到達0.75並且成為最大值,機器人才會執行使用者下達的左轉語音命令,亦即判斷(e)點為左轉的最佳時機。
在走廊中,由於左側牆面使得左方自由空間機率值較低,機器人在完成左轉語音命令後,即轉動至預定朝向角度後,即繼續執行前進命令。圖中顯示在走廊中設置兩障礙物,可為可動的椅子或固定的花盆,為避免機器人在行經走廊與其碰撞,機器人的自動閃避機制會修正軌跡,閃避遇到的障礙物。例如在(f)點位置,前方障礙物造成前方自由空間機率持續下降,低於右方自由空間機率值0.42,因此,機器人執行右方空間所對應的右轉命令,並依照機器人自動閃避功能的權重分布進行障礙物閃避。此處機器人自動閃避之權重相較於語音命令權重值0.42應為0.58,因此機器人會以58%之權重來執行自動閃避指令,避免機器人在右轉過程中撞到障礙物。
當機器人繞過第一個障礙物時,由於執行右轉所造成機器人朝向角的變化必須補償回來,所以在(g)點位置時,機器人在左方出現較大自由空間,藉由貝式回歸演算法提升左方自由空間機率值為0.72,成為當下最大自由空間機率值,執行相對應的左轉命令,使機器人朝向角補償至使用者在(d)點所下達之左轉語音命令的角度,才會清除左轉命令之意圖,使自由空間機率恢復至純粹依據環境判斷最佳指令之情況。完成朝向角補償後,機器人以環境中的障礙物判斷最大自由空間為前方自由空間機率值0.66,並以最大自由空間所對應到的前進語音命令控制機器人,在此同時,機器人自動閃避之權重值0.34改變機器人自動閃避行為讓機器人在執行同一指令時也能以34%的閃避功能避開當下最佳指令可能會撞到的障礙物,例如改變角度以安全避開走廊中的第二個障礙物。
當機器人行進至(h)位置時,使用者由即時影像畫面看到走廊中的門牌或標示,例如牆上的海報,理解機器人已經接近左側房間的門,因此下達左轉(Turn Left)之語音命令。如圖所示,(h)點之左方自由空間的機率值上升至0.25,將前方自由空間之機率值拉低至0.27,反而右方自由空間機率值0.48成為最大之自由空間機率值,機器人執行右方自由空間所對應的右轉指令,使機器人開始向右調整朝向角,直到前方自由空間機率增大後,才開始執行前進的指令。當來到(i)點位置時,機器人左方出現最大自由空間機率0.57,機器人開始執行使用者所下的左轉語音命令。最後在機器人進入左側房間內後到達(j)點位置時,由使用者 說出停止(stop)之語音命令使機器人停止,三個方向的自由空間機率值回到沒有使用者意圖介入的狀態。
由上述的機器人語音操控方式可以發現,使用者在啟動機器人後,僅需要下達三個轉向指令,即可操控機器人移動到目標位置。相較於習知單純語音控制之機器人,必須下達多達14個語音指令才能使機器人移動至相同目標位置,過多的指令造成使用者操作上的負擔及複雜度。此外,辨識語音及傳送指令的延遲時間可能接近1秒,在這延遲時間內機器人仍持續執行前一指令,這在障礙物之環境當中就可能無法及時修正移動路徑而發生碰撞,造成機器人的損壞。
以上所述僅為舉例性,而非為限制性者。任何未脫離本發明之精神與範疇,而對其進行之等效修改或變更,均應包含於後附之申請專利範圍中。
10、11、12‧‧‧機器人本體
20、21‧‧‧手持裝置
50‧‧‧語音命令
60‧‧‧環境資訊
101‧‧‧指令接收器
102‧‧‧環境感測器
103‧‧‧處理器
104‧‧‧控制器
105‧‧‧移動裝置
106‧‧‧自動閃避程式
107、116‧‧‧攝影機
111‧‧‧移動平台
112‧‧‧轉向輪
113‧‧‧觸控螢幕
114‧‧‧雷射掃描器
115‧‧‧機器手臂
201‧‧‧語音輸入介面
202‧‧‧顯示介面
203‧‧‧語音辨識程式
211‧‧‧顯示螢幕
212‧‧‧環境圖資視窗
213‧‧‧即時影像視窗
214‧‧‧命令視窗
S1-S6、S41-S46‧‧‧步驟
F‧‧‧向前空間
L‧‧‧向左空間
R‧‧‧向右空間
第1圖係為本發明實施例之機器人語音操控系統之方塊圖。
第2圖係為本發明實施例之機器人本體及手持裝置之示意圖。
第3圖係為本發明實施例之機器人語音操控方法之流程圖。
第4圖係為本發明實施例之貝氏回歸演算法之流程圖。
第5圖係為本發明實施例之移動空間之示意圖。
第6圖係為本發明實施例之機器人操控環境與軌跡之示意圖。
第7圖係為本發明實施例之權重控制與自由空間機率之示意圖。
Claims (14)
- 一種機器人語音操控系統,其包含: 一機器人本體,係包含一移動裝置,該移動裝置包含複數個轉向輪,控制該機器人本體之轉向或移動; 一手持裝置,係包含一顯示介面及一語音輸入介面,由該語音輸入介面輸入一語音命令,經由一語音辨識程式轉換成一語音操控指令; 一指令接收器,係設置於該機器人本體內,透過無線傳輸方式連接該手持裝置以接收該語音操控指令; 一環境感測器,係設置於該機器人本體上,偵測該機器人本體周圍之一環境資訊,經由一自動閃避程式轉換成一自動閃避指令; 一處理器,係連接於該指令接收器及該環境感測器,接收該語音操控指令及該環境資訊,利用貝氏回歸演算法計算一自由空間機率,進而取得一語音命令權重及一閃避命令權重,該處理器整合該語音操控指令與該語音命令權重及該自動閃避指令與該閃避命令權重,取得一移動控制指令;以及 一控制器,係連接於該處理器及該移動裝置,接收該移動控制指令以驅動該移動裝置。
- 如申請專利範圍第1項所述之機器人語音操控系統,其中該手持裝置包含智慧型手機、平板電腦或筆記型電腦,該無線傳輸方式包含透過Wi-Fi或無線通訊網路。
- 如申請專利範圍第1項所述之機器人語音操控系統,其中該環境感測器包含一雷射掃描器,測量該機器人本體與一障礙物之一相隔距離。
- 如申請專利範圍第1項所述之機器人語音操控系統,其中該環境感測器將該環境資訊分為複數個移動空間,分別作為貝氏回歸演算法之一事前機率,並輸出該複數個移動空間各自之一事後機率,由當中之最大值作為該自由空間機率。
- 如申請專利範圍第4項所述之機器人語音操控系統,其中該複數個移動空間包含一向左空間、一向前空間及一向右空間,該向左空間為該機器人本體左側水平線至夾角75度之空間,該向前空間為該機器人本體朝前方左右夾角15度之空間,該向右空間為該機器人本體右側水平線至夾角75度之空間。
- 如申請專利範圍第1項所述之機器人語音操控系統,進一步包含一比較器,係連接於該處理器,比較該語音操控指令是否與對應於該自由空間機率之一自由空間指令相等,若是,則以該語音操控指令為一輸出指令,若否,則以該自由空間指令為該輸出指令。
- 如申請專利範圍第1項所述之機器人語音操控系統,進一步包含一攝影機,係設置於該機器人本體以拍攝一視覺影像,並藉由建立一環境地圖顯示該機器人本體之一自我定位標示,透過該無線傳輸方式傳送至該手持裝置,於該顯示介面呈現。
- 一種機器人語音操控方法,適用於控制一機器人本體之轉向及移動,該機器人本體包含一指令接收器、一環境感測器、一處理器、一控制器及一移動裝置,該機器人語音操控方法包含以下步驟: 由一手持裝置之語音輸入介面輸入一語音命令,經由一語音辨識程式轉換成一語音操控指令; 透過無線傳輸方式將該語音操控指令傳送至該指令接收器; 藉由該環境感測器偵測該機器人本體周圍之一環境資訊,經由一自動閃避程式轉換成一自動閃避指令; 由該處理器接收該語音操控指令及該環境資訊,利用貝氏回歸演算法計算一自由空間機率,進而取得一語音命令權重及一閃避命令權重; 由該處理器整合該語音操控指令與該語音命令權重及該自動閃避指令與該閃避命令權重,取得一移動控制指令;以及 將該移動控制指令傳送至該控制器,由該控制器驅動該移動裝置使該機器人本體轉向或移動。
- 如申請專利範圍第8項所述之機器人語音操控方法,其中該手持裝置包含智慧型手機、平板電腦或筆記型電腦,該無線傳輸方式包含透過Wi-Fi或無線通訊網路。
- 如申請專利範圍第8項所述之機器人語音操控方法,其中該環境感測器係藉由一雷射掃描器測量該機器人本體與一障礙物之一相隔距離。
- 如申請專利範圍第8項所述之機器人語音操控方法,其中該環境感測器將該環境資訊分為複數個移動空間,分別作為貝氏回歸演算法之一事前機率,並輸出該複數個移動空間各自之一事後機率,由當中之最大值作為該自由空間機率。
- 如申請專利範圍第11項所述之機器人語音操控方法,其中該複數個移動空間包含一向左空間、一向前空間及一向右空間,該向左空間為該機器人本體左側水平線至夾角75度之空間,該向前空間為該機器人本體朝前方左右夾角15度之空間,該向右空間為該機器人本體右側水平線至夾角75度之空間。
- 如申請專利範圍第8項所述之機器人語音操控方法,進一步藉由一比較器比較該語音操控指令是否與對應於該自由空間機率之一自由空間指令相等,若是,則以該語音操控指令為一輸出指令,若否,則以該自由空間指令為該輸出指令。
- 如申請專利範圍第8項所述之機器人語音操控方法,進一步藉由一攝影機拍攝一視覺影像,並藉由建立一環境地圖顯示該機器人本體之一自我定位標示,透過該無線傳輸方式傳送至該手持裝置,於一顯示介面呈現。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW106134301A TWI694904B (zh) | 2017-10-05 | 2017-10-05 | 機器人語音操控系統及方法 |
CN201711236142.8A CN109605363B (zh) | 2017-10-05 | 2017-11-30 | 机器人语音操控系统及方法 |
US15/904,435 US10768614B2 (en) | 2017-10-05 | 2018-02-26 | Robot speech control system and method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW106134301A TWI694904B (zh) | 2017-10-05 | 2017-10-05 | 機器人語音操控系統及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
TW201914785A true TW201914785A (zh) | 2019-04-16 |
TWI694904B TWI694904B (zh) | 2020-06-01 |
Family
ID=65993876
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW106134301A TWI694904B (zh) | 2017-10-05 | 2017-10-05 | 機器人語音操控系統及方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10768614B2 (zh) |
CN (1) | CN109605363B (zh) |
TW (1) | TWI694904B (zh) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10866783B2 (en) * | 2011-08-21 | 2020-12-15 | Transenterix Europe S.A.R.L. | Vocally activated surgical control system |
EP3338962B1 (en) | 2016-12-23 | 2021-12-01 | LG Electronics Inc. | Guide robot |
EP3338964B1 (en) | 2016-12-23 | 2021-02-17 | LG Electronics Inc. -1- | Guide robot |
EP3338963B1 (en) | 2016-12-23 | 2022-02-02 | LG Electronics Inc. | Guide robot |
KR102348041B1 (ko) | 2017-03-28 | 2022-01-05 | 엘지전자 주식회사 | 복수의 이동 로봇을 포함하는 로봇 시스템의 제어 방법 |
US10705538B2 (en) * | 2018-01-31 | 2020-07-07 | Metal Industries Research & Development Centre | Auto guided vehicle system and operating method thereof |
US10896675B1 (en) * | 2018-06-29 | 2021-01-19 | X Development Llc | Multi-tiered command processing |
US11417328B1 (en) * | 2019-12-09 | 2022-08-16 | Amazon Technologies, Inc. | Autonomously motile device with speech commands |
CN111283679A (zh) * | 2020-01-19 | 2020-06-16 | 路邦科技授权有限公司 | 一种多联语音控制自动导引运输系统及其控制方法 |
CN111443717B (zh) * | 2020-04-24 | 2021-07-06 | 南京硅基智能科技有限公司 | 一种基于语音识别控制的巡检机器人系统 |
CN113172643A (zh) * | 2021-04-26 | 2021-07-27 | 通标标准技术服务(青岛)有限公司 | 实验室自动物流系统机器人 |
CN116847957A (zh) | 2021-06-28 | 2023-10-03 | 三星电子株式会社 | 机器人和用于操作机器人的方法 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8930019B2 (en) * | 2010-12-30 | 2015-01-06 | Irobot Corporation | Mobile human interface robot |
TW201245931A (en) * | 2011-05-09 | 2012-11-16 | Asustek Comp Inc | Robotic device |
US9443527B1 (en) * | 2013-09-27 | 2016-09-13 | Amazon Technologies, Inc. | Speech recognition capability generation and control |
TWI558525B (zh) * | 2014-12-26 | 2016-11-21 | 國立交通大學 | 機器人及其控制方法 |
CN205043784U (zh) * | 2015-05-22 | 2016-02-24 | 上海思岚科技有限公司 | 一种可自主移动的多功能机器人 |
KR102388448B1 (ko) * | 2015-06-09 | 2022-04-21 | 삼성전자주식회사 | 이동 로봇 및 그 제어 방법 |
CN104965426A (zh) * | 2015-06-24 | 2015-10-07 | 百度在线网络技术(北京)有限公司 | 基于人工智能的智能机器人控制系统、方法和装置 |
CN105058389A (zh) * | 2015-07-15 | 2015-11-18 | 深圳乐行天下科技有限公司 | 一种机器人系统、机器人控制方法及机器人 |
CN105116902A (zh) * | 2015-09-09 | 2015-12-02 | 北京进化者机器人科技有限公司 | 一种移动机器人避障导航的方法和系统 |
CN106041879B (zh) * | 2016-06-30 | 2019-08-09 | 广州映博智能科技有限公司 | 智能避障机器人 |
CN106625670B (zh) * | 2016-12-26 | 2019-05-24 | 迈赫机器人自动化股份有限公司 | 一种多功能人机交互仿人教育机器人的控制系统和方法 |
JP2018176387A (ja) * | 2017-04-19 | 2018-11-15 | 富士ゼロックス株式会社 | ロボット装置及びプログラム |
CN107351058A (zh) * | 2017-06-08 | 2017-11-17 | 华南理工大学 | 基于增强现实的机器人示教方法 |
-
2017
- 2017-10-05 TW TW106134301A patent/TWI694904B/zh active
- 2017-11-30 CN CN201711236142.8A patent/CN109605363B/zh active Active
-
2018
- 2018-02-26 US US15/904,435 patent/US10768614B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
CN109605363A (zh) | 2019-04-12 |
US10768614B2 (en) | 2020-09-08 |
US20190107833A1 (en) | 2019-04-11 |
CN109605363B (zh) | 2021-10-26 |
TWI694904B (zh) | 2020-06-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TW201914785A (zh) | 機器人語音操控系統及方法 | |
US9481087B2 (en) | Robot and control method thereof | |
US10291765B2 (en) | Mobile device, robot cleaner, and method for controlling the same | |
WO2020221311A1 (zh) | 基于可穿戴设备的移动机器人控制系统及控制方法 | |
CN104503450B (zh) | 实现智能化越障的服务机器人 | |
JP5768273B2 (ja) | 歩行者の軌跡を予測して自己の回避行動を決定するロボット | |
CN104898662B (zh) | 一种实现智能化越障的服务机器人 | |
US20110118877A1 (en) | Robot system and method and computer-readable medium controlling the same | |
US11338429B2 (en) | Robot | |
US8924020B2 (en) | Apparatus for controlling robot and control method thereof | |
US20130218395A1 (en) | Autonomous moving apparatus and method for controlling the same | |
JP2007139710A (ja) | 歩行補助ロボット | |
JP5828088B2 (ja) | 遠隔制御システム | |
JP2007260822A (ja) | 道案内ロボット | |
US11687073B2 (en) | Specialist control for a wheelchair | |
CN107450556A (zh) | 一种基于ros的自主导航智能轮椅 | |
JP5145569B2 (ja) | 対象物特定方法および装置 | |
CN115698631A (zh) | 助行机器人导航方法、助行机器人及计算机可读存储介质 | |
JP2007265329A (ja) | 道案内システム | |
JP2010082714A (ja) | コミュニケーションロボット | |
JP6142307B2 (ja) | 注目対象推定システムならびにロボットおよび制御プログラム | |
JP5115886B2 (ja) | 道案内ロボット | |
CN115063879A (zh) | 手势识别装置、移动体、手势识别方法及存储介质 | |
JP6142306B2 (ja) | ロボット制御システム、ロボット、出力制御プログラムおよび出力制御方法 | |
KR101465706B1 (ko) | 모바일 로봇의 원격 제어 방법 및 시스템 |