TW202237349A - 控制移動機器人裝置的方法 - Google Patents
控制移動機器人裝置的方法 Download PDFInfo
- Publication number
- TW202237349A TW202237349A TW110110832A TW110110832A TW202237349A TW 202237349 A TW202237349 A TW 202237349A TW 110110832 A TW110110832 A TW 110110832A TW 110110832 A TW110110832 A TW 110110832A TW 202237349 A TW202237349 A TW 202237349A
- Authority
- TW
- Taiwan
- Prior art keywords
- mobile robotic
- person
- robotic device
- processor
- sensors
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 55
- 238000004891 communication Methods 0.000 claims abstract description 34
- 238000003066 decision tree Methods 0.000 claims abstract description 7
- 238000004590 computer program Methods 0.000 description 6
- 241000282412 Homo Species 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 3
- 208000024827 Alzheimer disease Diseases 0.000 description 2
- 206010012289 Dementia Diseases 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 208000020016 psychiatric disease Diseases 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 230000006735 deficit Effects 0.000 description 1
- 230000005670 electromagnetic radiation Effects 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 238000013213 extrapolation Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0255—Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0257—Control of position or course in two dimensions specially adapted to land vehicles using a radar
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Automation & Control Theory (AREA)
- General Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Electromagnetism (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Manipulator (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本發明提供控制移動機器人裝置的方法。所公開主題的實現提供在移動機器人裝置的通信介面、觸摸介面、麥克風或輸入裝置處接收命令。移動機器人裝置的處理器基於命令以及基於從移動機器人裝置的一個或多個感測器接收到的輸入以控制驅動系統以跟隨人或引導人。處理器基於來自處理器能夠訪問的記憶體中所儲存的決策樹的至少一個預定條件,控制驅動系統以停止跟隨或引導人。
Description
本發明係有關於一種控制移動機器人裝置的方法。
發明背景
為了針對人可能不熟悉的諸如建築物的內部等的區域進行導航,通常人必須使用基於試錯法的移動來尋找其目的地,或者查閱與建築物或區域佈局有關的建築物的已公佈資訊(如果可獲得的話)。一些人可能有認知和/或身體障礙,這使得這樣的導航是困難的,或者一些人可能因試圖導航到他們不熟悉的區域或建築物中的目的地而感到困惑或不知所措。
發明概要
根據所公開主題的實現,一種控制移動機器人裝置的方法可以包括在通信介面、觸摸介面、麥克風或移動機器人裝置的任何其它類型的輸入裝置處接收命令。所述方法可以基於所述命令以及基於從所述移動機器人裝置的一個或多個感測器接收到的輸入,在所述移動機器人裝置的處理器處控制驅動系統以跟隨人或引導人。所述方法可以基於來自所述處理器可訪問的記憶體中所儲存的決策樹的至少一個預定條件,在所述移動機器人裝置的處理器處控制所述驅動系統以停止跟隨或引導人。
可以通過考慮以下具體實施方式、附圖和請求項闡述或明確所公開主題的附加特徵、優點和實現。此外,應理解,前述的發明內容和以下的具體實施方式兩者都是例示性的,並且意在提供進一步的說明,而不限制請求項的範圍。
較佳實施例之詳細說明
所公開主題的實現提供了可以跟隨人和/或將人引導到目的地的移動機器人裝置。移動機器人裝置可以確定人是否需要幫助導航到目的地,和/或可以從人接收將他們引導到特定目的地的命令。例如,移動機器人裝置可以將人引導到諸如會議室、酒店房間、航空旅行的登機口、博物館的展覽或病房等的目的地。在一些實現中,移動機器人裝置可以提供與人和移動機器人正在行進通過的(諸如在博物館展覽、工廠遊覽、城市或歷史遊覽等中的)區域有關的資訊。在一些實現中,移動機器人裝置可以基於詢問來向人提供資訊,和/或可以幫助使用者查找物體。
移動機器人裝置可以在一種或多種文化模式下操作,該文化模式可以確定移動機器人裝置可以從人接收命令和/或向人提供資訊的語言、以及在行進期間移動機器人裝置可能距人的距離和位置等。區域和/或地理圍欄可以用於限制移動機器人裝置和/或人進入特定區域。
圖1至圖8示出根據所公開主題的實現的控制移動機器人裝置(例如,圖10至圖13中所示的移動機器人裝置100)以跟隨人或引導人的示例方法10。在圖1所示的操作12處,移動機器人裝置可以在通信介面(例如,圖12中所示的網路介面116)、觸摸介面(例如,圖12中所示的使用者介面110)、麥克風(例如,圖12中所示的麥克風102)或任何其它類型的輸入介面(例如,輸入裝置113和/或可連接到圖12中所示的移動機器人裝置100的匯流排122和/或網路介面116的任何輸入介面)處接收命令。
例如,人可以向移動機器人裝置提供命令以請求該移動機器人裝置跟隨人。移動機器人裝置可以經由通信介面從裝置(例如,智慧型電話、平板電腦或可穿戴計算裝置等,諸如圖13中所示的遠端使用者裝置170、180等)接收命令,和/或可以從遠端電腦或伺服器(例如,圖13中所示的伺服器140和/或遠端平臺160)接收命令。在另一示例中,人可以通過選擇在使用者介面(例如,圖12中所示的使用者介面110)的顯示器的觸摸介面上顯示的一個或多個選項來提供命令。在一些實現中,人可以選擇要被引導到的位置或者可以是供移動機器人裝置跟隨人的終點的位置,和/或可以使用在觸摸介面(例如,使用者介面110)上顯示的虛擬鍵盤來輸入位置或終點。在另一示例中,人可以提供諸如要引導到的位置或供機器人跟隨人的終點等的語音命令,該語音命令通過移動機器人裝置的麥克風(例如,圖12中所示的麥克風103)來接收。在又一示例中,人可以經由任何其它類型的輸入裝置(諸如輸入裝置113或者可以通信地耦接至圖12中所示的移動機器人裝置的匯流排122和/或網路介面116的輸入裝置等)來提供命令。
對於引導請求,人可能會迷路,並且可能不知道要去哪裡。人可以請求移動機器人裝置引導他們。移動機器人裝置可以經由圖12中所示的使用者介面110和/或麥克風103,或者經由移動機器人裝置的任何其它輸入裝置(諸如圖12中所示的輸入裝置113等)來接收請求。例如,當移動機器人裝置從要被引導的人接收到命令時,移動機器人裝置可以將人引導到會議室、會議廳、房間、病房、旅館房間、洗手間、博物館展覽、在機場的登機口位置或行李領取區、餐館和/或任何其它位置。移動機器人可以引導不熟悉區域和/或位置或者可能難以記住如何移動到最終目的地的人。可以通過移動機器人裝置將患有精神障礙、癡呆或阿爾茨海默氏病等的人引導到目的地。在一些實現中,如下面結合圖6所討論的,移動機器人裝置可以確定人是否將願意被引導。
在另一示例中,人可能與另一個人有會議(例如,商務會議、或與醫生的會議等),但是可能不知道如何查找會議的位置。人可以請求(例如,通過向移動機器人裝置提供命令)移動機器人裝置將人引導到會議位置。
在又一示例中,當人可能不記得汽車停在哪裡時,人可以請求移動機器人裝置將他們引導到停車場中的汽車處。用戶可以提供汽車的描述(例如,品牌、型號或年份等)、或者車牌號等。移動機器人裝置可以使用一個或多個感測器(例如,圖12中所示的102a、102b、102c和/或102d)來確定汽車的位置並引導人。
在一些實現中,人可以請求移動機器人裝置(例如,圖13中所示的移動機器人裝置100)將人引導到目的地,並且請求第二移動機器人裝置(例如,移動機器人裝置200)為人攜帶一個或多個物體(例如,袋子、包裹或盒子等)。移動機器人100裝置可以將人引導到目的地,並且移動機器人裝置200可以跟隨人和/或移動機器人裝置100。
在操作14處,移動機器人裝置的處理器(例如,圖12中所示的控制器114)可以基於命令以及基於從移動機器人裝置的一個或多個感測器(例如,圖10至圖12中所示的感測器102a、102b、102c和/或102d)接收到的輸入來控制驅動系統(例如,圖12中所示的驅動系統108)以跟隨人或引導人。感測器可以用於確定移動機器人裝置的位置,在人移動時跟蹤人,以及在移動機器人裝置正在移動時避開障礙物等。在一些實現中,移動機器人裝置可以將預定區域的地圖儲存在記憶體(例如,記憶體119和/或圖12中所示的固定儲存裝置)中,和/或可以經由通信介面從遠端電腦或伺服器接收地圖(例如,圖13中所示的伺服器140,資料庫150,遠端平臺160和/或移動使用者裝置170、180),並且可以使用地圖來引導人或者在跟隨人時使用地圖。
在一些實現中,移動機器人裝置可以輸出與當朝向目的地移動時正行進通過的區域有關的資訊。例如,資訊可以由圖12中所示的揚聲器107和/或使用者介面110的顯示器輸出。在一個示例中,移動機器人裝置可以引導人通過博物館展覽,並且可以輸出與一個或多個展覽品有關的資訊。可以通過通信介面(例如,圖12中所示的網路介面116)經由圖13中所示的網路130從伺服器140、資料庫150和/或遠端平臺160接收資訊。資訊可以儲存在圖12中所示的記憶體118和/或固定儲存裝置120中。在另一示例中,移動機器人裝置可以引導人通過飛機場,並識別可購物的商店、洗手間位置、以及可用的餐館或食品供應商的位置等。在一些實現中,移動機器人裝置可以幫助使用者在餐館或食品供應商處訂購食品,或者選擇在零售位置進行購買的物品等。
在操作16處,移動機器人裝置的處理器可以基於來自儲存在處理器可訪問的記憶體(例如,圖12中所示的記憶體118或固定儲存裝置120等)中的決策樹的至少一個預定條件來控制驅動系統以停止跟隨或引導人。在一些實現中,預定條件可以是當人進入如一個或多個感測器(例如,圖10至圖12中所示的感測器102a、102b、102c和/或102d)所檢測到的限制區域時。限制區域可以是移動機器人裝置所使用的地圖(例如,其儲存在圖12中所示的記憶體118和/或固定儲存裝置120中,和/或從圖13中所示的伺服器140、資料庫150和/或遠端平臺160檢索)上所指定的區域(在該區域中至少移動機器人裝置不被允許行進),和/或可以是限制一個或多個人進入的區域。例如,當人進入如一個或多個感測器所確定的限制區域時,移動機器人裝置可以基於決策樹停止跟隨人。移動機器人裝置可以基於決策樹等待人從限制區域出來(例如,當人被授權進入該限制區域時),或者可以移動到預定位置以等待此人或引導其他人。
在一些實現中,當使用者距限制區域預定距離並且此人沒有進入限制區域的授權時,移動機器人裝置可以經由揚聲器(例如,圖12中所示的揚聲器107)輸出通知。在該實現中,移動機器人裝置可以引導人遠離限制區域。
在另一實現中,預定條件可以是當人進入如一個或多個感測器所檢測到的指定房間時。指定房間可以在移動機器人裝置所使用的地圖上描繪,在該指定房間中移動機器人裝置不被允許行進。例如,當人進入指定房間時,移動機器人裝置可以停止跟隨人。在一些實現中,當用戶距指定房間預定距離和/或進入指定房間時,移動機器人裝置可以經由揚聲器(例如,圖12中所示的揚聲器107)輸出通知。移動機器人裝置可以等待人從指定房間出來,或者可以移動到預定位置以等待人或者引導其他人。
在一些實現中,預定條件可以是當人距如一個或多個感測器所檢測到的指定禁區在預定距離內和/或進入指定禁區時。可以在移動機器人裝置所使用的地圖上描繪指定禁區,在該指定禁區中不允許移動機器人裝置和/或未被授權的人行進。移動機器人裝置可以引導人以避免進入禁區。當用戶距禁區在預定距離內和/或進入禁區時,移動機器人裝置可以經由揚聲器(例如,圖12中所示的揚聲器107)輸出通知。當在禁區內的人未被授權和/或未被允許在禁區內時,移動機器人裝置可以引導人遠離禁區。
在一些實現中,預定條件可以是當移動機器人裝置遇到如一個或多個感測器所檢測到的虛擬圍欄時。虛擬圍欄可以在移動機器人裝置所使用的地圖上描繪,其中移動機器人裝置不被允許行進。例如,當人進入虛擬圍欄時,移動機器人裝置可以停止跟隨人。在一些實現中,當用戶距虛擬圍欄所標記的區域預定距離和/或進入虛擬圍欄所標記的區域時,移動機器人裝置可以經由揚聲器(例如,圖12中所示的揚聲器107)輸出通知。移動機器人裝置可以等待人從虛擬圍欄區域出來,或可以移動到預定位置以等待人或引導其他人。
在一些實現中,預定條件可以是當人已經到達期望的位置時。在一些實現中,當用戶已經到達預定位置時,移動機器人裝置可以經由揚聲器(例如,圖12中所示的揚聲器107)輸出通知。
處理器可以基於經由通信介面(例如,圖12中所示的網路介面116)接收到的路線或者儲存在與處理器通信地耦接的儲存裝置(例如,圖12中所示的記憶體118和/或固定儲存裝置120)中的路線來控制驅動系統以對移動機器人裝置進行移動。例如,可以從圖13中所示的伺服器140,資料庫150,遠端平臺160和/或遠端使用者裝置170、180接收路線。在一些實現中,移動機器人裝置的處理器可以基於經由通信介面接收到的命令來控制驅動系統以移動到預定區域中的位置以會見和引導人。
圖2示出根據所公開主題的實現,圖1的方法10可以包括基於接收到的參數來控制移動機器人裝置的移動的方法。如圖2中所示,方法10可以包括操作18,在操作18中移動機器人裝置接收一個或多個參數,該一個或多個參數可以包括跟隨人的距離以及用於移動機器人在旁邊跟隨人的該人的側。當移動機器人裝置已經接收到跟隨人的命令時,移動機器人裝置可以在保持與人的預定距離的同時接收跟隨人的參數。移動機器人裝置所接收到的參數可以包括與移動機器人裝置應當跟隨在人的左側、人的右側、還是在人後面等有關的資料。在操作20處,處理器可以基於接收到的一個或多個參數來控制移動機器人裝置的移動。在一些實現中,如果沒有接收到其它參數,則針對跟隨人的距離以及跟隨人的側,移動機器人裝置可以使用一個或多個預設參數(例如,儲存在記憶體118和/或固定儲存裝置120中)。
圖3示出根據所公開主題的實現,圖1的方法10可以包括基於所接收的文化操作模式來控制移動機器人裝置的移動的方法。在操作22處,移動機器人裝置可以接收文化操作模式的選擇。選擇可以通過圖12中所示的移動機器人裝置的網路介面116經由圖13中所示的網路130來接收。選擇可以由圖13中所示的伺服器140,資料庫150,遠端平臺160和/或遠端使用者裝置170、180提供。在一些實現中,文化操作模式可以是命令的語言的一個或多個參數、跟隨人的距離和/或在旁邊跟隨人的側等。例如,移動機器人裝置可以接收中國文化操作模式,在中國文化操作模式下移動機器人裝置可以接收中文命令,並且移動機器人裝置可以在人後面以預定距離(例如,2-3米)跟隨人。在另一示例中,移動機器人可以接收法國文化操作模式,並且移動機器人裝置可以接收法語命令,並且可以在人的左側以預定距離(例如,1-2米)跟隨人。在一些實現中,文化操作模式可以確定當與人通信時移動機器人裝置使用的語言類型。例如,在移動機器人裝置在中國文化操作模式下操作的情況下,當移動機器人裝置與人通信時(例如,經由圖12中所示的揚聲器107和/或使用者介面110),其所使用的語言可以是正式的、尊敬的和/或恭敬的。在另一示例中,在移動機器人裝置在美國模式下操作的情況下,當移動機器人裝置與人通信時,其可以使用非正式語言。
在一些實現中,可以通過語言檢測來設置移動機器人裝置的文化操作模式。例如,移動機器人裝置可以經由圖12中所示的麥克風103從人捕獲聲音,並且移動機器人裝置的處理器可以確定所說的語言。處理器可以基於檢測到的語言來選擇文化操作模式。處理器可以基於捕獲到的聲音使用機器學習或人工智慧來確定語言。
在一些實現中,跟隨人的距離可以是距離範圍。也就是說,人和機器人可能在具有不同可用空間(例如,走廊的寬度或房間的大小等)的不同區域中行進,並且移動機器人可能需要基於可用空間來調節到人的距離的量。跟隨人的距離範圍可以通過文化操作模式確定。在操作24處,處理器可以基於接收到的文化操作模式來控制移動機器人裝置的移動。
在一些實現中,移動機器人裝置的文化操作模式可以基於部署移動機器人裝置的位置和/或環境來設置。例如,如果移動機器人裝置部署在工廠或倉庫設置中,則用於位置和/或環境的文化模式可以確定移動機器人裝置所使用的語言、移動機器人與人保持的距離和/或移動機器人裝置相對於人的位置(例如,左側、右側、或人後面等)。
圖4示出根據所公開主題的實現,圖1的方法10可以包括基於終點位置以及基於移動機器人裝置的一個或多個感測器的輸出來控制移動機器人裝置的方法。在操作26處,移動機器人裝置可以在移動機器人裝置的通信介面(例如,圖12中所示的網路介面116)、觸摸介面(例如,圖12中所示的使用者介面110)、麥克風(例如,圖12中所示的麥克風103)或其它輸入裝置(例如,圖12中所示的輸入裝置11)處接收人正行進到的終點位置。在操作28處,處理器可以基於終點位置以及基於一個或多個感測器的輸出來控制驅動系統以對移動機器人裝置進行移動。例如,通信介面可以接收用於人的日程表條目,該日程表條目包括人的約會的終點位置。可以從圖13中所示的伺服器140,資料庫150,遠端平臺160和/或遠端使用者裝置170、180接收日程表條目。控制器可以控制驅動系統以將移動機器人裝置移動到所接收到的日程表條目中指定的終點位置。也就是說,移動機器人裝置可以引導人到如所接收到的日程表條目中提供的位置。
圖5示出根據所公開主題的實現,圖1的方法10可以包括定位移動機器人裝置的方法。在操作30處,移動機器人裝置的通信介面可以接收對要查找的移動機器人裝置的請求。也就是說,移動機器人裝置可能丟失,其中可以監控移動機器人裝置的(例如,在圖13中所示的伺服器140,遠端平臺160和/或遠端使用者裝置170、180處的)遠端計算系統的使用者可能無法定位移動機器人裝置。在操作32處,通信介面可以基於來自一個或多個感測器的資料來傳輸移動機器人裝置的位置。
當移動機器人裝置接收到請求時(例如,在操作S30處),可以基於儲存在移動機器人裝置的記憶體(例如,圖12中所示的記憶體118和/或固定儲存裝置120)中的地圖上的位置和/或來自移動機器人裝置的一個或多個感測器的感測器資料來確定移動機器人裝置的位置。可以基於所儲存的移動機器人裝置的最終目的地來確定移動機器人裝置的位置。可以在引導人之前接收最終目的地,和/或最終目的地可以是人的日程表條目的一部分,如上文詳細討論的那樣。移動機器人裝置的位置可以根據通信介面從通信網路(例如,圖13中所示的網路130)的中斷的日誌來確定。日誌可以儲存在圖12中所示的移動機器人裝置100的記憶體118和/或固定儲存裝置120中,和/或圖13中所示的伺服器140,資料庫150,遠端平臺160和/或遠端使用者裝置170、180中。
在一些實現中,當一個或多個感測器不能識別移動機器人裝置的位置和/或與通信網路(例如,圖13中所示的網路130)發生中斷時,移動機器人裝置可以傳輸被查找和/或接收位置資訊的請求。遠端計算系統可以使用移動機器人裝置外部的一個或多個感測器和/或通過確定從移動機器人裝置接收到的通信路徑來確定移動機器人裝置的位置。
圖6示出根據所公開主題的實現,圖1的方法10可以包括確定人是否需要引導。在操作34處,移動機器人裝置的處理器可以基於由移動機器人裝置的一個或多個感測器捕獲的圖像來確定人是否想要引導。在一些實現中,可以通過處理器(例如,圖12中所示的控制器114)應用人工智慧和/或機器學習來分析所捕獲的圖像中的人的面部表情,該面部表情可以指示人可能希望接收引導。可以通過處理器將捕獲的圖像與儲存在圖12中所示的記憶體118和/或固定儲存裝置120中的樣本圖像進行比較,和/或將捕獲的圖像與儲存在圖13中所示的伺服器140,資料庫150,遠端平臺160和/或遠端使用者裝置170、180中的圖像進行比較。在一些實現中,移動機器人裝置可以基於一個或多個感測器所捕獲的圖像來確定人是否丟失和/或是否具有精神障礙、癡呆或阿爾茨海默氏病等,以及是否可能希望移動機器人裝置對目的地的引導。
在操作36處,揚聲器(例如,圖12中所示的揚聲器107)和/或使用者介面(例如,圖12中所示的使用者介面110)可以基於該確定輸出用於引導的詢問。也就是說,可以基於所捕獲的圖像來從揚聲器(例如,圖12中所示的揚聲器107)輸出消息以確定人是否需要引導。在操作38處,處理器可以基於接收到的命令來控制移動機器人裝置的移動以引導人。也就是說,麥克風(例如,圖12中所示的麥克風103)可以捕獲來自人的與到目的地的引導有關的語音命令,並且處理器可以控制驅動系統(例如,圖12中所示的驅動系統108)以將人引導到目的地。
圖7示出根據所公開主題的實現,圖1的方法10可以包括確定人是否需要幫助。在操作40處,移動機器人裝置的處理器可以基於由移動機器人裝置的麥克風捕獲的音訊來確定人是否需要幫助。在一些實現中,可以通過處理器(例如,圖12中所示的控制器114)應用人工智慧、機器學習和/或語音辨識來分析麥克風接收到的語音以確定使用者需要幫助的內容。在操作42處,處理器可以基於該確定來控制移動機器人裝置的移動,或者可以經由使用者介面或揚聲器輸出資訊來幫助人。例如,移動機器人裝置可以經由揚聲器(例如,圖12中所示的揚聲器107)和/或經由使用者介面(例如,圖12中所示的使用者介面110)輸出對人的幫助請求的回答。移動機器人裝置可以使用儲存在圖12中所示的記憶體118和/或固定儲存裝置120中的資料來檢索用於回答人的請求的資訊,和/或從儲存在圖13中所示的伺服器140,資料庫150,遠端平臺160和/或遠端使用者裝置170、180中的資料檢索用於回答人的請求的資訊。
圖8出根據所公開主題的實現,圖1的方法10可以包括使移動機器人裝置查找物體或位置。在操作44處,通信介面(例如,圖12中所示的網路介面116)、麥克風(例如,圖12中所示的麥克風103)或移動機器人裝置的其它輸入裝置可以接收用於為人查找物體或位置的命令。例如,物品可能是人正在零售位置中尋找的物品、或者人在區域內丟失了的物品(例如,皮夾、鑰匙、智慧型電話、錢包或服裝物品等)等。在另一示例中,物品可以是在飛機場的人的行李等。移動機器人裝置可以將人引導到適當的行李傳送帶和/或行李領取區,並且可以使用一個或多個感測器來識別人的行李。移動機器人裝置可以基於來自人的對行李的描述、行李標籤(例如,移動機器人裝置可以捕獲來自人的行李標籤的圖像等)或條碼標籤(例如,該條碼標籤設置在行李上並且使用者具有移動機器人裝置可以使用一個或多個感測器來掃描的該條碼標籤的副本)等來識別行李。當移動機器人裝置找到行李時,移動機器人裝置可以經由圖12中所示的揚聲器107和/或使用者介面110輸出通知。
在一些實現中,可以通過處理器(例如,圖12中所示的控制器114)應用人工智慧、機器學習和/或語音辨識來分析麥克風所接收到的語音或移動機器人的輸入裝置(例如,圖12中所示的輸入裝置113)所接收到的輸入,以確定人正在尋找的物體或位置。移動機器人裝置可以使用儲存在圖12中所示的記憶體118和/或固定儲存裝置120處的資料來檢索資訊以幫助找到物品,和/或從儲存在圖13中所示的伺服器140,資料庫150,遠端平臺160和/或遠端使用者裝置170、180處的資料檢索資訊以幫助找到物品。在一些實現中,移動機器人裝置可以使用檢索到的資訊來建議期望的物品的替代物,諸如識別類似但具有降低的費用的物品等。在另一示例中,移動機器人裝置可以建議和幫助使用者定位替代物(諸如有機生長的食物物品等),以及/或者定位本地和/或區域生產的產品。在操作46處,處理器可以使用儲存在記憶體中和/或經由處理器可訪問的通信網路(例如,圖13中所示的通信網路130)檢索的地圖以及/或者來自一個或多個感測器的資料來控制移動機器人裝置的移動以查找物體或位置。
圖9示出根據所公開主題的實現,圖1的方法10可以包括跟蹤人的移動。在操作48處,處理器可以使用一個或多個感測器(例如,圖10至圖12中所示的感測器102a、102b、102c和/或102d)來識別人。例如,一個或多個感測器可以捕獲人的圖像和/或人的其它生物特徵資料,並且處理器可以將捕獲的圖像和/或生物特徵資料與以下資料進行比較來識別人:儲存在圖12中所示的記憶體118和/或固定儲存裝置120中的一個或多個資料簡檔,以及/或者來自儲存在圖13中所示的伺服器140、資料庫150、遠端平臺160和/或遠端使用者裝置170、180處的資料。在操作50處,當移動機器人裝置正在跟隨或引導人時,可以使用一個或多個感測器跟蹤所識別到的人的移動。在一些實現中,在當移動機器人裝置引導或跟隨人時存在多個人的情況下,移動機器人裝置可以使用對人的識別來確定此人相對於移動機器人裝置的位置。
操作52、54和/或56可以是圖9中所示的可選操作。在操作52處,當移動機器人裝置不能跟蹤人的移動時,處理器可以外推(extrapolate)人的移動。例如,在存在多個人和/或物體的環境中移動機器人裝置可能在跟蹤人時經歷困難,並且可以在移動機器人裝置不能跟蹤人時外推人的位置。外推可以通過處理器進行,並且可以基於如移動機器人裝置的一個或多個感測器所確定的人的移動速率和/或人之前朝向的方向,以能夠檢測到人的位置和/或預定終點(例如人的目的地)。在操作54處,一個或多個感測器可以用於基於所外推的人的移動來檢測人的位置。在操作56處,處理器可以基於儲存在儲存裝置(該儲存裝置通信地耦接到處理器)中的路線或經由通信介面接收到的路線來控制驅動系統以及一個或多個感測器以搜索人。也就是說,可以控制驅動系統以在基於所外推的人的移動的方向上移動,並且可以使用一個或多個感測器來檢測人的存在和/或位置。
圖10至圖11示出根據所公開主題的實現的示例移動機器人裝置100。移動機器人裝置100可以具有多個感測器。感測器102a可以是飛行時間感測器。感測器102b可以是RGB(紅、綠、藍圖像感測器)照相機和/或圖像感測器,以及感測器102c可以是RGB-D(RGB深度照相機)。在一些實現中,感測器102b、102c可以是立體視覺感測器、3D照相機、圖像感測器、熱感照相機或結構光照相機等。感測器102d可以是二維光檢測和測距(LiDAR)感測器、三維(3D)LiDAR感測器和/或雷達(無線電檢測和測距)感測器或超聲波感測器等。感測器102a、102b和/或102c可以用於控制移動機器人裝置的移動,和/或跟蹤移動機器人裝置所引導或跟隨的人。
移動機器人裝置100可以包括至少一個麥克風103。在一些實現中,移動機器人裝置100可以具有以陣列佈置的多個麥克風103。
移動機器人裝置100可以包括發光二極體(LED)、有機發光二極體(OLED)、燈和/或可以由控制器(例如,圖12中所示的控制器114)控制的任何合適的光源,以照明用於移動機器人裝置的導航的區域的一部分。
移動機器人裝置100可以包括用於對驅動系統108進行驅動的馬達,以在諸如房間或建築物等的區域中對移動機器人裝置進行移動。驅動系統108可以包括輪,輪可以是可調節的,使得驅動系統108可以控制移動機器人裝置100的方向。
移動機器人裝置100可以包括一個或多個揚聲器107。在諸如圖11所示的一些實現中,揚聲器107可以設置在使用者介面110的顯示器的第一側和第二側(例如,左側和右側)。使用者介面110可以是用於顯示圖像(諸如從遠端使用者裝置170接收到的那些圖像等)的液晶顯示器(LCD)、發光二極體(LED)顯示器或有機發光二極體(OLED)顯示器等。使用者介面110的顯示器可以是觸控式螢幕。
圖12示出適於提供所公開主題的實現的移動機器人裝置100的示例組件。移動機器人裝置100可以包括用於將移動機器人裝置100的主要組件進行互連的匯流排122,該主要組件諸如驅動系統108、(可操作以經由合適的網路連接與一個或多個遠端裝置進行通信的)網路介面116、控制器114、(諸如隨機存取記憶體(RAM)、唯讀記憶體(ROM)或快閃RAM等的)記憶體118、(可以是用於從人接收命令的任何裝置的)輸入裝置113、LED光源104、感測器102a、感測器102b、感測器102c、感測器102d、(可以包括一個或多個控制器、顯示器和諸如觸控式螢幕等的相關聯的使用者輸入裝置的)使用者介面110、(諸如硬碟和快閃儲存裝置等的)固定儲存裝置120、麥克風103以及(用於輸出音訊通知和/或其它資訊的)揚聲器107等。
匯流排122允許控制器114與一個或多個記憶體組件之間的資料通信,如前所述,該記憶體組件可以包括RAM、ROM和其它記憶體。通常,RAM是用於載入作業系統和應用程式的主記憶體。除了其它代碼外,ROM或快閃記憶體組件還可以包含基本輸入-輸出系統(BIOS),BIOS控制諸如與週邊組件的交互等的基本硬體操作。駐留在移動機器人裝置100的應用一般儲存在(諸如固態驅動器、硬碟驅動器、光驅動器或其它儲存介質等的)電腦可讀介質(例如,固定儲存裝置120)上並經由電腦可讀介質訪問。
網路介面116可以經由有線或無線連接(例如,圖12中所示的網路130)提供到遠端伺服器(例如,圖12中所示的伺服器140、資料庫150、遠端平臺160和/或遠端使用者裝置170)的直接連接。網路介面116可以使用本領域技術人將容易理解的任何合適的技術和協議來提供這樣的連接,包括數位蜂窩電話、WiFi、藍牙(R)和近場等。例如,如下面進一步詳細描述的,網路介面116可以允許移動機器人裝置100經由一個或多個本地、廣域或其它通信網路與其它電腦通信。移動機器人裝置可以經由網路介面向遠端使用者裝置傳輸資料,包括來自感測器的資料和/或圖像以及根據麥克風所捕獲的聲音生成的音訊信號等。
許多其它裝置或組件(未示出)可以以類似的方式連接。相反,不需要存在圖12中所示的所有組件來實施本公開內容。組件可以以與所示的方式不同的方式進行互連。用於實現本公開內容的代碼可以儲存在諸如記憶體118、固定儲存裝置120中的一個或多個等的電腦可讀儲存介質中,或者儲存在遠端儲存位置上。
圖13示出根據所公開主題的實現的示例網路佈置。上述移動機器人裝置100和/或類似的移動機器人裝置200可以經由網路130連接到其它裝置。網路130可以是局域網路、廣域網路、網際網路或者任何其它合適的通信網路,並且可以在包括有線和/或無線網路的任何合適的平臺上實現。移動機器人裝置100和/或移動機器人裝置200可以彼此通信,和/或可以與一個或多個遠端裝置(諸如伺服器140、資料庫150、遠端平臺160、遠端使用者裝置170和/或遠端使用者裝置180等)通信。遠端使用者裝置170可以是上述的第一使用者裝置,並且遠端使用者裝置180可以是上述的一個或多個其它使用者裝置。移動機器人裝置100、200可直接訪問遠端裝置,或者一個或多個其它裝置可以提供中間訪問(諸如伺服器140提供對儲存在資料庫150中的資源的訪問等)。移動機器人裝置100、200可以訪問遠端平臺160或由遠端平臺160提供的服務(諸如雲計算佈置和服務等)。遠端平臺160可以包括一個或多個伺服器140和/或資料庫150。遠端使用者裝置170、180可以經由網路130控制移動機器人裝置100、200,和/或接收感測器資料、一個或多個圖像以及音訊信號等。遠端使用者裝置170、180可以向移動機器人裝置100、200傳輸一個或多個圖像、視頻、命令以及音訊信號等。
更一般而言,本公開主題的各種實現可以包括電腦實現的處理和用於實踐這些處理的設備,或以電腦實現的處理和用於實踐這些處理的設備的形式來實施。實現還可以以電腦程式產品的形式實施,該電腦程式產品具有電腦程式代碼,該電腦程式代碼包含被包括在非暫時性和/或有形介質(諸如固態驅動器、DVD、CD-ROM、硬碟驅動器、USB(通用序列匯流排)驅動器或任何其它機器可讀儲存介質等)中的指令,使得當電腦程式代碼被載入到電腦中並由電腦執行時,電腦成為用於實施所公開主題的實現的設備。實現也可以以電腦程式代碼的形式實施,例如,該電腦程式代碼無論是儲存在儲存介質中、被載入到電腦中和/或由電腦執行,或者是通過一些傳輸介質(諸如通過電線或電纜、通過光纖或經由電磁輻射等)傳輸,都使得當電腦程式代碼被載入到電腦中並由電腦執行時,電腦成為用於實踐所公開主題的實現的設備。當在通用微處理器上實現時,電腦程式代碼片段將微處理器配置為創建特定邏輯電路。
在一些配置中,儲存在電腦可讀儲存介質上的電腦可讀指令集可以由通用處理器實現,這可以將通用處理器或包含通用處理器的裝置轉換為被配置成實現或執行指令的專用裝置。實現可以包括使用具有處理器(諸如通用微處理器和/或專用積體電路(ASIC)等)的硬體,該處理器在硬體和/或固件中實施根據所公開主題的實現的全部技術或部分技術。處理器可以耦接到記憶體(諸如RAM、ROM、快閃記憶體、硬碟或能夠儲存電子資訊的任何其它裝置等)。記憶體可以儲存適於由處理器執行的指令以進行根據所公開主題的實現的技術。
出於說明的目的,已經參考特定實現描述了前面的說明。然而,上述例示性討論不意在窮舉或將所公開主題的實現限制到所公開的精確形式。鑒於上述教導,許多修改和變形是可能的。選擇和描述這些實現是為了說明所公開主題的實現的原理及其實際應用,從而使得本領域其他技術人員能夠利用這些實現以及具有各種修改的各種實現,以能夠適合於所設想的特定用途。
10:示例方法
12,14,16,18,20,21,24,26,28,30,32,34,36,38,40,42,44,46,48,50,52,54,56:操作
100,200:移動機器人裝置
102;103:麥克風
102a,102b,102c,102d:感測器
104:LED光源
107:揚聲器
108:驅動系統
110:使用者介面
113:輸入裝置
114:控制器
116:網路介面
118:記憶體
120:固定儲存裝置
122:匯流排
130:網路
140:伺服器
150:資料庫
160:遠端平臺
170,180:遠端使用者裝置
被包括以提供對所公開主題的進一步理解的附圖被併入本說明書中並構成本說明書的一部分。附圖還例示了所公開主題的實現,並且與具體實施方式一起用於說明所公開主題的實現的原理。沒有試圖示出比對所公開主題和可以實踐該主題的各種方式進行基本理解所需的更詳細的結構細節。
圖1示出根據所公開主題的實現的控制移動機器人裝置以跟隨人或引導人的示例方法。
圖2示出根據所公開主題的實現,圖1的方法可以包括基於所接收到的參數來控制移動機器人裝置的移動的方法。
圖3示出根據所公開主題的實現,圖1的方法可以包括基於所接收的文化操作模式來控制移動機器人裝置的移動的方法。
圖4示出根據所公開主題的實現,圖1的方法可以包括基於終點位置以及基於移動機器人裝置的一個或多個感測器的輸出來控制移動機器人裝置的方法。
圖5示出根據所公開主題的實現,圖1的方法可以包括定位移動機器人裝置的方法。
圖6示出根據所公開主題的實現,圖1的方法可以包括確定人是否需要引導。
圖7示出根據所公開主題的實現,圖1的方法可以包括確定人是否需要幫助。
圖8示出根據所公開主題的實現,圖1的方法可以包括使移動機器人裝置查找物體或位置。
圖9示出根據所公開主題的實現,圖1的方法可以包括跟蹤人的移動。
圖10至圖11示出根據所公開主題的實現的示例移動機器人裝置。
圖12示出根據所公開主題的實現的圖9至圖10的移動機器人的示例配置。
圖13示出根據所公開主題的實現的可以包括多個移動機器人裝置的網路配置。
10:示例方法
12,14,16:操作
Claims (17)
- 一種控制移動機器人裝置的方法,包括: 在移動機器人裝置的通信介面、觸摸介面、麥克風或輸入裝置處接收命令; 基於所述命令,並且基於從所述移動機器人裝置的一個或多個感測器接收到的輸入,在所述移動機器人裝置的處理器處控制驅動系統以跟隨人或引導人;以及 基於來自所述處理器能夠訪問的記憶體中所儲存的決策樹的至少一個預定條件,在所述移動機器人裝置的處理器處控制所述驅動系統以停止跟隨或引導人。
- 如請求項1所述的方法,其中,所述預定條件是從如下的組中選擇的,該組包括:人進入所述一個或多個感測器所檢測到的限制區域;人進入所述一個或多個感測器所檢測到的指定房間;人進入所述一個或多個感測器所檢測到的指定禁區;所述移動機器人裝置遇到所述一個或多個感測器所檢測到的虛擬圍欄;以及人已經到達期望位置。
- 如請求項1所述的方法,還包括: 在所述移動機器人裝置處接收從如下的組中選擇的一個或多個參數,該組包括:跟隨人的距離、以及用於移動機器人在旁邊跟隨人的該人的側;以及 基於所接收到的一個或多個參數,在所述處理器處控制所述移動機器人裝置的移動。
- 如請求項1所述的方法,還包括: 在所述移動機器人裝置處接收文化操作模式的選擇;以及 基於所接收到的文化操作模式,在所述處理器處控制所述移動機器人裝置的移動。
- 如請求項4所述的方法,其中,所述文化操作模式包括從如下的組中選擇的一個或多個參數,該組包括:命令的語言、跟隨人的距離、以及在旁邊跟隨人的側。
- 如請求項1所述的方法,還包括: 在所述移動機器人裝置的通信介面、觸摸介面或麥克風處接收人正行進到的終點位置;以及 基於所述終點位置,並且基於所述一個或多個感測器的輸出,在所述處理器處控制所述驅動系統以移動所述移動機器人裝置。
- 如請求項6所述的方法,其中,所述通信介面接收用於人的日程表條目,所述日程表條目包括人的約會的終點位置,以及其中,所述處理器對所述驅動系統進行控制以將所述移動機器人裝置移動到來自所接收到的日程表條目的終點位置。
- 如請求項1所述的方法,還包括: 在所述移動機器人裝置的通信介面處接收對要查找的移動機器人裝置的請求;以及 基於來自所述一個或多個感測器的資料,在所述通信介面處傳輸所述移動機器人裝置的位置。
- 如請求項8所述的方法,還包括: 基於從如下的組中選擇的至少一者來確定所述移動機器人裝置的位置,該組包括:儲存在所述移動機器人裝置的記憶體中的地圖上的位置、來自所述移動機器人裝置的一個或多個感測器的感測器資料、所儲存的所述移動機器人裝置的最終目的地、以及通信介面從通信網路的中斷的日誌。
- 如請求項1所述的方法,還包括: 基於所述移動機器人裝置的一個或多個感測器所捕獲的圖像,在所述移動機器人裝置的處理器處確定人是否需要引導; 基於該確定,經由揚聲器或使用者介面輸出用於引導的詢問;以及 基於所接收到的命令,在所述處理器處控制所述移動機器人裝置的移動以引導人。
- 如請求項1所述的方法,還包括: 基於所述移動機器人裝置的麥克風所捕獲的音訊,在所述移動機器人裝置的處理器處確定人是否需要幫助;以及 基於該確定,在所述處理器處控制所述移動機器人裝置的移動或者經由使用者介面或揚聲器輸出資訊以幫助人。
- 如請求項1所述的方法,還包括: 在所述移動機器人裝置的通信介面或麥克風處接收用於為人查找物體或位置的命令;以及 使用來自如下的組中的至少一者,在所述處理器處控制所述移動機器人裝置的移動以查找物體或位置,該組包括:所述處理器能夠訪問的記憶體中所儲存的地圖、以及來自所述一個或多個感測器的資料。
- 如請求項1所述的方法,還包括: 基於經由所述通信介面所接收到的路線、或者通信地耦接到所述處理器的儲存裝置中所儲存的路線,在所述處理器處控制所述驅動系統以移動所述移動機器人裝置。
- 如請求項1所述的方法,還包括: 基於經由所述通信介面接收到的命令,在所述移動機器人裝置的處理器處控制所述驅動系統以移動到預定區域中的位置以會見和引導人。
- 如請求項1所述的方法,還包括: 使用所述一個或多個感測器,在所述處理器處識別人;以及 在所述移動機器人裝置正跟隨或引導人的情況下,使用所述一個或多個感測器跟蹤所識別到的人的移動。
- 如請求項15所述的方法,還包括: 在所述移動機器人裝置不能跟蹤人的移動的情況下,在所述處理器處外推人的移動;以及 基於所外推的人的移動,使用所述一個或多個感測器檢測人的位置。
- 如請求項16所述的方法,還包括: 基於通信地耦接到所述處理器的儲存裝置中所儲存的路線、或者經由所述通信介面所接收到的路線,在所述處理器處控制所述驅動系統和所述一個或多個感測器以搜索人。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US17/202,141 | 2021-03-15 | ||
US17/202,141 US20220288778A1 (en) | 2021-03-15 | 2021-03-15 | Methods of controlling a mobile robot device to follow or guide a person |
Publications (1)
Publication Number | Publication Date |
---|---|
TW202237349A true TW202237349A (zh) | 2022-10-01 |
Family
ID=75223138
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW110110832A TW202237349A (zh) | 2021-03-15 | 2021-03-25 | 控制移動機器人裝置的方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20220288778A1 (zh) |
EP (1) | EP4060448A1 (zh) |
CN (1) | CN115079685A (zh) |
TW (1) | TW202237349A (zh) |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150294496A1 (en) * | 2014-04-14 | 2015-10-15 | GM Global Technology Operations LLC | Probabilistic person-tracking using multi-view fusion |
US9945677B1 (en) * | 2015-07-23 | 2018-04-17 | X Development Llc | Automated lane and route network discovery for robotic actors |
US10197999B2 (en) * | 2015-10-16 | 2019-02-05 | Lemmings, Llc | Robotic golf caddy |
JP2019003360A (ja) * | 2017-06-14 | 2019-01-10 | 大日本印刷株式会社 | 案内ロボット、席管理装置及びプログラム |
WO2019004633A1 (ko) * | 2017-06-30 | 2019-01-03 | 엘지전자 주식회사 | 이동 로봇의 동작 방법 및 이동 로봇 |
US11422565B1 (en) * | 2017-08-18 | 2022-08-23 | Amazon Technologies, Inc. | System for robot movement that is informed by cultural conventions |
WO2020141637A1 (ko) * | 2019-01-03 | 2020-07-09 | 엘지전자 주식회사 | 로봇 시스템의 제어 방법 |
JP7133497B2 (ja) * | 2019-03-05 | 2022-09-08 | 株式会社日立製作所 | 移動範囲設定システム及び移動範囲設定方法 |
US20210382477A1 (en) * | 2019-06-10 | 2021-12-09 | Lg Electronics Inc. | Method of managing intelligent robot device |
KR102302239B1 (ko) * | 2019-07-18 | 2021-09-14 | 엘지전자 주식회사 | 이동 제한 구역에서 카트로봇을 제어하는 방법 및 이를 구현하는 카트로봇 |
CN110368275A (zh) * | 2019-08-12 | 2019-10-25 | 广州大学 | 一种导盲机器人及导盲系统、导盲方法 |
US11209832B2 (en) * | 2019-08-18 | 2021-12-28 | Cobalt Robotics Inc. | Elevator interactions by mobile robot |
KR102618732B1 (ko) * | 2019-08-27 | 2023-12-27 | 엘지전자 주식회사 | 얼굴 인식 활용 단말기 및 얼굴 인식 활용 방법 |
JP7234895B2 (ja) * | 2019-10-15 | 2023-03-08 | トヨタ自動車株式会社 | ロボット利用システム |
CN110926476B (zh) * | 2019-12-04 | 2023-09-01 | 三星电子(中国)研发中心 | 一种智能机器人的伴随服务方法及装置 |
US11775942B2 (en) * | 2020-03-27 | 2023-10-03 | Aristocrat Technologies, Inc. | Gaming service automation machine with digital wallet services |
JP2022030594A (ja) * | 2020-08-07 | 2022-02-18 | 本田技研工業株式会社 | 管理装置、管理システム、管理方法、およびプログラム |
-
2021
- 2021-03-15 US US17/202,141 patent/US20220288778A1/en not_active Abandoned
- 2021-03-25 TW TW110110832A patent/TW202237349A/zh unknown
- 2021-03-25 EP EP21164820.9A patent/EP4060448A1/en not_active Withdrawn
- 2021-04-09 CN CN202110381538.1A patent/CN115079685A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
EP4060448A1 (en) | 2022-09-21 |
US20220288778A1 (en) | 2022-09-15 |
CN115079685A (zh) | 2022-09-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9796093B2 (en) | Customer service robot and related systems and methods | |
US10845821B2 (en) | Route planning for a mobile robot using configuration-based preferences | |
US20200356101A1 (en) | Time-dependent navigation of telepresence robots | |
JP6705465B2 (ja) | 可観測性グリッドベースの自律的環境探索 | |
US10399223B2 (en) | Interfacing with a mobile telepresence robot | |
Li et al. | ISANA: wearable context-aware indoor assistive navigation with obstacle avoidance for the blind | |
US9294873B1 (en) | Enhanced guidance for electronic devices using objects within in a particular area | |
Legge et al. | Indoor navigation by people with visual impairment using a digital sign system | |
US11100457B2 (en) | Venue map based security infrastructure management | |
Xiao et al. | An assistive navigation framework for the visually impaired | |
US9316502B2 (en) | Intelligent mobility aid device and method of navigating and providing assistance to a user thereof | |
JP2018067314A (ja) | 室内自律走行ロボットのための制御方法及びシステム | |
US11654570B2 (en) | Self-driving robot and method of operating same | |
Ahn et al. | PDA-based mobile robot system with remote monitoring for home environment | |
US10859382B1 (en) | Systems and methods for indoor mapping | |
KR20210026595A (ko) | 로봇이 관리자 모드로 이동하는 방법 및 이를 구현하는 로봇 | |
US11590663B2 (en) | Virtual reality enabled activity allocation | |
Dias et al. | Future directions in indoor navigation technology for blind travelers | |
TW202237349A (zh) | 控制移動機器人裝置的方法 | |
Mishra et al. | IoT impact and challenges on robotic waiters in automation of restaurants and hotels | |
CA2938075A1 (en) | Shopping space mapping systems, devices and methods | |
JP7095220B2 (ja) | ロボット制御システム | |
US11379783B2 (en) | Package storage system and method of controlling same | |
GB2562902A (en) | Assignment of a motorized personal assistance apparatus | |
JP7103841B2 (ja) | 案内システム及び案内用ロボット |