JP2014509417A - 可動式ヒューマンインターフェースロボット - Google Patents
可動式ヒューマンインターフェースロボット Download PDFInfo
- Publication number
- JP2014509417A JP2014509417A JP2013547473A JP2013547473A JP2014509417A JP 2014509417 A JP2014509417 A JP 2014509417A JP 2013547473 A JP2013547473 A JP 2013547473A JP 2013547473 A JP2013547473 A JP 2013547473A JP 2014509417 A JP2014509417 A JP 2014509417A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- sensor
- scene
- imaging
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003384 imaging method Methods 0.000 claims abstract description 272
- 238000001514 detection method Methods 0.000 claims abstract description 98
- 230000033001 locomotion Effects 0.000 claims abstract description 72
- 238000004891 communication Methods 0.000 claims abstract description 34
- 238000000034 method Methods 0.000 claims description 40
- 238000005286 illumination Methods 0.000 claims description 21
- 230000003287 optical effect Effects 0.000 claims description 21
- 230000005855 radiation Effects 0.000 claims description 15
- 230000003247 decreasing effect Effects 0.000 claims 1
- 239000000725 suspension Substances 0.000 claims 1
- 230000006399 behavior Effects 0.000 description 39
- 230000000875 corresponding effect Effects 0.000 description 28
- 230000009471 action Effects 0.000 description 25
- 238000010586 diagram Methods 0.000 description 25
- 238000005259 measurement Methods 0.000 description 20
- 238000013507 mapping Methods 0.000 description 14
- 238000004590 computer program Methods 0.000 description 13
- 238000001125 extrusion Methods 0.000 description 8
- 230000004044 response Effects 0.000 description 8
- 230000008859 change Effects 0.000 description 7
- 230000008447 perception Effects 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 230000000007 visual effect Effects 0.000 description 7
- 238000004422 calculation algorithm Methods 0.000 description 6
- 230000005484 gravity Effects 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 5
- 238000011156 evaluation Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 230000009466 transformation Effects 0.000 description 5
- 230000000903 blocking effect Effects 0.000 description 4
- 230000002596 correlated effect Effects 0.000 description 4
- 238000013461 design Methods 0.000 description 4
- 238000003708 edge detection Methods 0.000 description 4
- 230000002441 reversible effect Effects 0.000 description 4
- 238000005096 rolling process Methods 0.000 description 4
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 230000002452 interceptive effect Effects 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 230000002688 persistence Effects 0.000 description 3
- 238000013439 planning Methods 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 238000000926 separation method Methods 0.000 description 3
- 238000000844 transformation Methods 0.000 description 3
- RTZKZFJDLAIYFH-UHFFFAOYSA-N Diethyl ether Chemical compound CCOCC RTZKZFJDLAIYFH-UHFFFAOYSA-N 0.000 description 2
- 235000014676 Phragmites communis Nutrition 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000004140 cleaning Methods 0.000 description 2
- 230000001276 controlling effect Effects 0.000 description 2
- 230000009977 dual effect Effects 0.000 description 2
- 230000002349 favourable effect Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000000737 periodic effect Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 239000000047 product Substances 0.000 description 2
- 238000002310 reflectometry Methods 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 238000007789 sealing Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 241000282320 Panthera leo Species 0.000 description 1
- 241001272996 Polyphylla fullo Species 0.000 description 1
- VYPSYNLAJGMNEJ-UHFFFAOYSA-N Silicium dioxide Chemical compound O=[Si]=O VYPSYNLAJGMNEJ-UHFFFAOYSA-N 0.000 description 1
- 101100162169 Xenopus laevis adrm1-a gene Proteins 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 230000004323 axial length Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000003139 buffering effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000007635 classification algorithm Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 238000012913 prioritisation Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000014616 translation Effects 0.000 description 1
- 230000009012 visual motion Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B13/00—Optical objectives specially designed for the purposes specified below
- G02B13/22—Telecentric objectives or lens systems
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0242—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using non-visible light signals, e.g. IR or UV signals
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0251—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0255—Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0272—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising means for registering the travel distance, e.g. revolutions of wheels
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
Abstract
【選択図】図19
Description
本米国特許出願は、2010年12月30日に出願された米国仮出願第61/428,717号、2010年12月30日に出願された米国仮出願第61/428,734号、2010年12月30日に出願された米国仮出願第61/428,759号、2011年1月5日に出願された米国仮出願第61/429,863号、2011年2月22日に出願された米国仮出願第61/445,408号、2011年2月22日に出願された米国仮出願第61/445,473号、および2011年4月25日に出願された米国仮出願第61/478,849号に対する米国特許法第119条(e)の下の優先権、ならびに2011年2月22日に出願された米国特許出願第13/032,312号、および2011年2月22日に出願された米国特許出願第13/032,228号に対する米国特許法120条の下の優先権を主張する。これらの先願の開示は、本願の開示の一部であると見なされ、それらの全体が参照することによって本明細書に組み込まれる。
可動式ロボットは、人と対話またはやりとりして、在宅支援から商業支援、およびその他に及ぶ多数のサービスを提供することができる。在宅支援の例では、可動式ロボットは、投薬計画の維持、移動支援、通信支援(例えば、テレビ会議、電話通信、インターネットアクセス等)、住居もしくは現場監視(屋内および/または屋外)、人監視、および/または個人用緊急対応システム(PERS)の提供を含むが、これらに限定されない、高齢者の日常生活を支援することができる。商業支援では、可動式ロボットは、テレビ会議(例えば、病院状況における)、売り場専用端末、対話型情報/マーケティング端末等を提供することができる。
Claims (50)
- 可動式ロボット(100)であって、
順駆動方向(F)を有する駆動システム(200)と、
前記駆動システム(200)と通信しているコントローラ(500)と、
前記駆動システム(200)の上方に支持され、かつ前記可動式ロボット(100)の移動方向の床面を含む空間体積から点群を取得することができるように方向付けられる、体積点群撮像デバイス(450)と、
前記体積点群撮像デバイス(450)によって検出不可能な空間体積(453)内の物体(12)を検出するように配設される検出界(492、2192)を有する、死角センサ(490、2190)と、を備え、
前記コントローラ(500)は、前記撮像デバイス(450)から点群信号と、前記死角センサ(490、2190)から検出信号とを受信し、少なくとも部分的に前記受信した点群信号および検出信号に基づき、前記駆動システム(200)に駆動コマンドを発行する、可動式ロボット(100)。 - 前記死角センサ(490、2190)は、体積点群撮像デバイス(450)、ソナーセンサ、カメラ、超音波センサ、LIDAR、LADAR、光学センサ、および赤外線センサのうちの少なくとも1つを備える、請求項1に記載の可動式ロボット(100)。
- 前記死角センサ(490、2190)の前記検出界(492、2192)は、前記体積点群撮像デバイス(450)によって検出不可能な空間体積(453)を包囲する、請求項1または2に記載の可動式ロボット(100)。
- 前記体積点群撮像デバイス(450)によって検出不可能な前記空間体積(453)は、第1の角度(α)、第2の角度(β)、および半径(RS)によって、好ましくは57°×45°×50cmによって画定される、請求項3に記載の可動式ロボット(100)。
- 前記死角センサ(490)の前記検出界(492)は、前記体積点群撮像デバイス(450)と前記体積点群撮像デバイス(450)の検出界(457)との間に配設される、請求項1〜4のいずれかに記載の可動式ロボット(100)。
- 前記死角センサ(2190)は、前記死角センサ(2190)から外向きに少なくとも3メートル延在する視界(2192)を有する、請求項1〜5のいずれかに記載の可動式ロボット(100)。
- 前記体積点群撮像デバイス(450)によって検出不可能な前記空間体積(453)内の物体(12)を検出するように配設される検出界(492、2192)を有する少なくとも1つの死角センサ(490、2190)を含む死角センサ(490、2190)のアレイをさらに備え、死角センサ(490)の前記アレイは、それらの視界(492、2192)が、前記順駆動方向(F)に沿った状態で、または前記ロボット(100)によって画定される垂直中心軸(Z)を中心に均等に分配された状態で配設される、請求項1〜6のいずれかに記載の可動式ロボット(100)。
- 前記撮像デバイス(450)は、前記ロボット(100)の周囲の情景(10)に光を放射し、前記ロボット(100)の前記駆動方向(F)に沿った前記情景(10)の画像を捕捉し、前記画像は、(a)3次元深度画像、(b)アクティブ照明画像、および(c)周囲照明画像のうちの少なくとも1つを含み、
前記コントローラ(500)は、前記画像に基づき、前記情景(10)内の物体(12)の位置を判定し、前記物体位置に基づき、前記情景(10)内で前記ロボット(100)を機動させるように、前記駆動システム(200)に駆動コマンドを発行する、
請求項1〜7のいずれかに記載の可動式ロボット(100)。 - 前記撮像デバイス(450)は、前記光の放射と前記情景(10)からの反射光の受けとりとの間の飛行時間を判定し、前記コントローラ(500)は、前記物体(12)の反射面までの距離を判定するために、前記飛行時間を使用する、請求項8に記載の可動式ロボット(100)。
- 前記撮像デバイス(450)は、
好ましくは間欠パルスの光を前記情景(10)に放射するための光源(1172、1310、1510)であって、より好ましくは、前記光源(1172、1310、1510)は、前記光パルスを第1の省電力周波数で放射し、センサ事象を受信すると、前記光パルスを第2のアクティブ周波数で放射し、前記センサ事象は、任意選択により、前記情景(10)内の物体(12)の存在を示すセンサ信号を含む、光源(1172、1310、1510)と、
前記情景(10)から前記放射光の反射を受けとるための撮像部(1174、1320、1520)と、を備え、
前記撮像部(1174、1320、1520)は、光検出ピクセル(1174p、1326、1522)のアレイを備える、請求項8または9に記載の可動式ロボット(100)。 - 前記撮像デバイス(450)は、第1および第2の部分(450a、450b)を備え、
前記第1の部分(450a)は、実質的に地面上に光を放射し、前記地面から前記放射光の反射を受けとるように配設され、
前記第2の部分(450b)は、前記地面の実質的に上方の情景(10)内に光を放射し、前記ロボット(100)の周囲の前記情景(10)から前記放射光の反射を受けとるように配設される、請求項1〜10のいずれかに記載の可動式ロボット(100)。 - 前記撮像デバイス(450)は、
光のスペックルパターンを前記ロボット(100)の駆動方向に沿った情景(10)に放射する、スペックル放射部(1310)と、
前記情景(10)内の物体(12)から前記スペックルパターンの反射を受けとる、撮像部(1320)と、を備え、
前記コントローラ(500)は、
前記情景(10)内の基準物体(12)から反射される前記スペックルパターンの基準画像を記憶し、前記基準画像は、前記基準物体(12)から様々な異なる距離(Zn)で捕捉され、
前記情景(10)内の標的物体(12)から反射される前記スペックルパターンの少なくとも1つの標的画像を前記基準画像と比較して、前記標的物体(12)の前記反射面の距離(ΔΖ)を判定する、請求項1〜11のいずれかに記載の可動式ロボット(100)。 - 前記コントローラ(500)は、前記標的物体(12)上の一次スペックルパターンを判定し、前記一次スペックルパターンと前記基準画像の前記スペックルパターンとの間のそれぞれの相互相関および非相関のうちの少なくとも1つを演算する、請求項12に記載の可動式ロボット(100)。
- 前記撮像センサ(450)は、前記撮像センサ(450)の横方向視界(452、θv-H)を増加させるように前記順駆動方向(F)に対して左右に、および/またはその垂直視界(452、θv-v)を増加させるように上下に走査する、請求項1〜13のいずれかに記載の可動式ロボット(100)。
- 前記コントローラ(500)は、前記駆動システム(200)に駆動コマンドを発行するために、受信後の閾値期間の後、前記受信した点群信号の使用を中止する、請求項1〜14のいずれかに記載の可動式ロボット(100)。
- 前記コントローラ(500)は、前記死角センサ(490、2190)からの前記受信した検出信号に基づき、前記体積点群撮像デバイス(450)によって検出不可能な前記空間体積(453)内の物体(12)の存在を判定すると、前記受信した点群信号の使用の中止を一時中断する、請求項15に記載の可動式ロボット(100)。
- 前記コントローラ(500)は、好ましくは前記死角センサ(490、2190)からの前記受信した検出信号に基づき、前記体積点群撮像デバイス(450)によって検出不可能な前記空間体積(453)にいかなる物体(12)もないと判定すると、受信後の前記閾値期間の後、前記受信した点群信号の使用の中止を継続する、請求項16に記載の可動式ロボット(100)。
- 可動式ロボット(100)であって、
基部(120)と、
前記基部(120)によって支持され、かつ垂直軸(Z)を画定する、ホロノミック駆動システム(200)であって、情景(10)の作業面(5)の上で前記ロボット(100)を機動させる、ホロノミック駆動システム(200)と、
前記駆動システム(200)と通信しているコントローラ(500)と、
前記基部(120)から上向きに延在する脚部(130)と、
前記脚部(130)によって支持される胴部(140)であって、前記基部(120)に対して前記垂直軸(Z)を中心に回転する、胴部(140)と、
前記胴部(140)上に配置され、前記ロボット(100)の周囲の前記情景(10)の体積点群を捕捉する、少なくとも1つの撮像センサ(450)と、を備え、
前記回転胴部(140)は、前記体積点群撮像デバイス(450)を前記垂直軸(Z)を中心に回動運動で移動させ、前記ロボット(100)の周囲の最大で360°の視界(452)を提供する、可動式ロボット(100)。 - 前記少なくとも1つの撮像センサ(450)は、前記駆動システム(200)の順駆動方向(F)に沿って下向きに照準を定めるように配設される撮像軸(455)を有する、請求項18に記載の可動式ロボット(100)。
- 前記少なくとも1つの撮像センサ(450)は、前記駆動システム(200)の順駆動方向(F)に沿って下向きに照準を定めるように配設される撮像軸(455)を有する、第1の撮像センサ(450、450a)と、前記作業面(5)に対して平行又は上方に、前記胴部(140)から離れるように照準を定めるように配設される撮像軸(455)を有する、第2の撮像センサ(450、450b)と、を備える、請求項18に記載の可動式ロボット(100)。
- 前記少なくとも1つの撮像センサ(450)は、前記撮像センサ(450)の横方向視界(452、θv-H)を増加させるように前記順駆動方向(F)に対して左右に、および/またはその垂直視界(452、θv-v)を増加させるように上下に走査する、請求項18〜20のいずれかに記載の可動式ロボット(100)。
- 前記少なくとも1つの撮像センサ(450)は、
光のスペックルパターンを前記情景(10)に放射する、スペックル放射部(1310)と、
前記情景(10)内の物体(12)から前記スペックルパターンの反射を受けとる、撮像部(1320)と、を備え、
前記コントローラ(500)は、
前記情景(10)内の基準物体(12)から反射される前記スペックルパターンの基準画像を記憶し、前記基準画像は、前記基準物体(12)から様々な異なる距離(Zn)で捕捉され、
前記情景(10)内の標的物体(12)から反射される前記スペックルパターンの少なくとも1つの標的画像を前記基準画像と比較して、前記標的物体(12)の前記反射面の距離(ΔΖ)を判定する、請求項18〜21のいずれかに記載の可動式ロボット(100)。 - 前記少なくとも1つの撮像センサ(450)は、前記ロボット(100)の駆動方向(F)に沿った前記情景(10)の画像を捕捉し、前記画像は、(a)3次元深度画像、(b)アクティブ照明画像、および(c)周囲照明画像のうちの少なくとも1つを含む、請求項22に記載の可動式ロボット(100)。
- 前記コントローラ(500)は、前記画像比較に基づき、前記情景(10)内の物体(12)の位置を判定し、前記物体位置に基づき、前記情景(10)内で前記ロボット(100)を機動させるように、前記駆動システム(200)に駆動コマンドを発行する、請求項22または23のいずれかに記載の可動式ロボット(100)。
- 前記コントローラ(500)は、前記標的物体(12)上の一次スペックルパターンを判定し、前記一次スペックルパターンと前記基準画像の前記スペックルパターンとの間のそれぞれの相互相関および非相関のうちの少なくとも1つを演算する、請求項22〜24のいずれかに記載の可動式ロボット(100)。
- 前記少なくとも1つの撮像センサ(450)は、前記作業面(5)の上方の2フィート(約61cm)を超える高さに位置付けられ、かつ前記ロボット(100)の移動方向(F)の床面(5)を含む空間体積から点群を取得することができるように方向付けられる、体積点群撮像デバイス(450)を備える、請求項18〜25のいずれかに記載の可動式ロボット(100)。
- 前記少なくとも1つの撮像センサ(450)は、少なくとも45度の水平視界(θv−Η)と、少なくとも40度および/または約1メートル〜約5メートルの範囲の垂直視界(θv-v)と、を有する、請求項18〜26のいずれかに記載の可動式ロボット(100)。
- 前記撮像センサ(450)は、約44msの待ち時間を有し、好ましくは、前記撮像センサ(450)の撮像出力は、待ち時間を補償するためにタイムスタンプを受ける、請求項18〜27のいずれかに記載の可動式ロボット(100)。
- 前記撮像センサ(450)によって検出不可能な空間体積(453)内の物体(12)を検出するように配設される検出界(492、2192)を有する、死角センサ(490、2190)をさらに備える、請求項18〜28のいずれかに記載の可動式ロボット(100)。
- 前記死角センサ(490、2190)は、体積点群撮像デバイス(450)、ソナーセンサ、カメラ、超音波センサ、LIDAR、LADAR、光学センサ、および赤外線センサのうちの少なくとも1つを備える、請求項29に記載の可動式ロボット(100)。
- 前記死角センサ(490、2190)の前記検出界(492、2192)は、前記体積点群撮像デバイス(450)によって検出不可能な空間体積(453)を包囲する、請求項29または30に記載の可動式ロボット(100)。
- 前記体積点群撮像デバイス(450)によって検出不可能な前記空間体積(453)は、第1の角度(α)、第2の角度(β)、および半径(RS)によって、好ましくは57°×45°×50cmによって画定される、請求項31に記載の可動式ロボット(100)。
- 前記死角センサ(490)の前記検出界(492)は、前記撮像センサ(450)と前記撮像センサ(450)の検出界(457)との間に配設される、請求項29〜32のいずれかに記載の可動式ロボット(100)。
- 前記死角センサ(2190)は、前記死角センサ(2190)から外向きに少なくとも3メートル延在する視界(2192)を有する、請求項29〜33のいずれかに記載の可動式ロボット(100)。
- 前記撮像センサ(450)によって検出不可能な前記空間体積(453)内の物体(12)を検出するように配設される検出界(492、2192)を有する少なくとも1つの死角センサ(490、2190)を含む死角センサ(490、2190)のアレイをさらに備え、死角センサ(490)の前記アレイは、それらの視界(492、2192)が、前記順駆動方向Fに沿った状態で、または前記ロボット(100)によって画定される垂直中心軸(Z)を中心に均等に分配された状態で配設される、請求項29〜34のいずれかに記載の可動式ロボット(100)。
- 前記コントローラ(500)は、前記駆動システム(200)に駆動コマンドを発行するために、閾値期間の後、前記撮像センサ(450)から受信した点群信号の使用を中止する、請求項29〜35のいずれかに記載の可動式ロボット(100)。
- 前記コントローラ(500)は、前記死角センサ(490、2190)から受信した検出信号に基づき、前記撮像センサ(450)によって検出不可能な前記空間体積(453)内の物体(12)の存在を判定すると、前記受信した点群信号の使用の中止を一時中断する、請求項36に記載の可動式ロボット(100)。
- 前記コントローラ(500)は、好ましくは前記死角センサ(490、2190)からの前記受信した検出信号に基づき、前記前記撮像センサ(450)によって検出不可能な前記空間体積(453)にいかなる物体(12)もないと判定すると、前記閾値期間の後、前記受信した点群信号の使用の中止を継続する、請求項37に記載の可動式ロボット(100)。
- 前記胴部(140)は、前記脚部(130)に対して前記垂直軸(Z)を中心に回転し、および/または前記脚部(130)は、前記基部(120)に対して前記垂直軸(Z)を中心に回転する、請求項18〜38のいずれかに記載の可動式ロボット(100)。
- 前記脚部(130)は、可変高さ(HL)を有する、請求項18〜39のいずれかに記載の可動式ロボット(100)。
- 可動式ロボット(100)のための物体検出の方法であって、
撮像センサ(450)を、前記ロボット(100)の垂直軸(Z)を中心に回転させるステップを含み、前記撮像センサ(450)は、前記ロボット(100)の周囲の情景(10)に光を放射し、前記情景(10)の画像を捕捉し、前記画像は、(a)3次元深度画像、(b)アクティブ照明画像、および(c)周囲照明画像のうちの少なくとも1つを含み、
前記画像に基づき、前記情景(10)内の物体(12)の位置を判定するステップと、
前記物体位置に信頼レベルを割り当てるステップと、
前記物体位置および対応する信頼レベルに基づき、前記情景(10)内で前記ロボット(100)を機動させるステップと、を更に含む、方法。 - 前記情景(10)の物体占領マップ(1700)を構築するステップをさらに含む、請求項41に記載の方法。
- それぞれの物体位置が新たに判定される物体位置で更新されるまで、前記各物体位置の前記信頼レベルを経時的に低下させることをさらに含む、請求項40または41に記載の方法。
- 好ましくは、前記撮像センサ(450)によって検出不可能な空間体積(453)内の物体(12)を検出するように配設される検出界(492、2192)を有する死角センサ(490、2190)を使用して、前記撮像センサ(450)によって検出不可能な前記空間体積(453)内の物体(12)を検出するステップと、
前記検出された物体(12)の前記信頼レベルの低下を中止するステップと、をさらに含む、請求項43に記載の方法。 - 前記撮像センサ(450)によって検出不可能な前記空間体積(453)にその物体(12)がないことを検出すると、前記検出された物体(12)の前記信頼レベルの低下を継続することをさらに含む、請求項44に記載の方法。
- 前記ロボット(100)を、少なくとも、
a)前記物体(12)と接触させ、前記物体(12)の周辺に沿って追従させるように、または
b)前記物体(12)を回避するように、
機動させることをさらに含む、請求項41〜45のいずれかに記載の方法。 - 任意選択により前記放射光パルスの周波数を変化させて、間欠パルスの前記光を前記情景(10)に放射するステップであって、好ましくは、前記光パルスを第1の省電力周波数で放射し、センサ事象を受信すると、前記光パルスを第2のアクティブ周波数で放射し、前記センサ事象は、好ましくは、前記情景(10)内の物体(12)の存在を示すセンサ信号を含む、前記ステップをさらに含む、請求項41〜46のいずれかに記載の方法。
- 光のスペックルパターンを前記情景(10)に放射するステップと、
前記情景(10)内の前記物体(12)から前記スペックルパターンの反射を受けとるステップと、
前記情景(10)内の基準物体(12)から反射される前記スペックルパターンの基準画像を記憶ステップであって、前記基準画像は、前記基準物体(12)から様々な異なる距離(Zn)で捕捉される、前記ステップと、
前記情景(10)内の標的物体(12)から反射される前記スペックルパターンの少なくとも1つの標的画像を捕捉するステップと、
前記少なくとも1つの標的画像を前記基準画像と比較して、前記標的物体(12)の前記反射面の距離(ΔΖ)を判定するステップと、
によって、前記情景(10)の前記3次元深度画像を構築するステップをさらに含む、請求項41〜47のいずれかに記載の方法。 - 前記標的物体(12)上の一次スペックルパターンを判定するステップと、前記一次スペックルパターンと前記基準画像の前記スペックルパターンとの間のそれぞれの相互相関および非相関のうちの少なくとも1つを演算するステップとをさらに含む、請求項48に記載の方法。
- 好ましくは約10Hz〜約90Hzの、あるフレーム速度で、前記標的物体(12)の表面からの前記放射されたスペックルパターンの反射のフレームを捕捉するステップと、任意選択により、前記標的物体(12)の識別のために、連続フレーム内に捕捉されるスペックルパターンの間の差を解決することをさらに含む、請求項48または49のいずれかに記載の方法。
Applications Claiming Priority (17)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201061428734P | 2010-12-30 | 2010-12-30 | |
US201061428759P | 2010-12-30 | 2010-12-30 | |
US201061428717P | 2010-12-30 | 2010-12-30 | |
US61/428,759 | 2010-12-30 | ||
US61/428,717 | 2010-12-30 | ||
US61/428,734 | 2010-12-30 | ||
US201161429863P | 2011-01-05 | 2011-01-05 | |
US61/429,863 | 2011-01-05 | ||
US201161445408P | 2011-02-22 | 2011-02-22 | |
US61/445,408 | 2011-02-22 | ||
US13/032,312 | 2011-02-22 | ||
US13/032,228 US9400503B2 (en) | 2010-05-20 | 2011-02-22 | Mobile human interface robot |
US13/032,312 US8918209B2 (en) | 2010-05-20 | 2011-02-22 | Mobile human interface robot |
US13/032,228 | 2011-02-22 | ||
US201161478849P | 2011-04-25 | 2011-04-25 | |
US61/478,849 | 2011-04-25 | ||
PCT/US2011/059980 WO2012091807A2 (en) | 2010-12-30 | 2011-11-09 | Mobile human interface robot |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014234846A Division JP5946147B2 (ja) | 2010-12-30 | 2014-11-19 | 可動式ヒューマンインターフェースロボット |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014509417A true JP2014509417A (ja) | 2014-04-17 |
Family
ID=45375473
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013547473A Pending JP2014509417A (ja) | 2010-12-30 | 2011-11-09 | 可動式ヒューマンインターフェースロボット |
JP2014234846A Active JP5946147B2 (ja) | 2010-12-30 | 2014-11-19 | 可動式ヒューマンインターフェースロボット |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014234846A Active JP5946147B2 (ja) | 2010-12-30 | 2014-11-19 | 可動式ヒューマンインターフェースロボット |
Country Status (7)
Country | Link |
---|---|
EP (1) | EP2659320A2 (ja) |
JP (2) | JP2014509417A (ja) |
AU (1) | AU2011352997B2 (ja) |
CA (1) | CA2824606A1 (ja) |
DE (1) | DE112011104645T5 (ja) |
GB (1) | GB2502213A (ja) |
WO (1) | WO2012091807A2 (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016133818A (ja) * | 2015-01-15 | 2016-07-25 | 株式会社東芝 | 空間情報可視化装置、プログラムおよび空間情報可視化方法 |
JP2018161734A (ja) * | 2017-03-27 | 2018-10-18 | 地方独立行政法人東京都立産業技術研究センター | 移動ロボット及び制御回路 |
JP2019211472A (ja) * | 2018-06-06 | 2019-12-12 | ハネウェル・インターナショナル・インコーポレーテッドHoneywell International Inc. | 大気特性評価lidar光学位置決めのための産業用マニピュレータを使用するためのシステム及び方法 |
JP2021004028A (ja) * | 2015-03-25 | 2021-01-14 | ウェイモ エルエルシー | 複数の光検出及び測距装置(lidar)付きの車両 |
JP2021534990A (ja) * | 2018-08-30 | 2021-12-16 | ヴェオ ロボティクス, インコーポレイテッド | 自動的センサ位置合わせおよび構成のためのシステムおよび方法 |
Families Citing this family (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8958911B2 (en) * | 2012-02-29 | 2015-02-17 | Irobot Corporation | Mobile robot |
CN102880178B (zh) * | 2012-08-23 | 2015-06-10 | 群耀光电科技(苏州)有限公司 | 虚拟墙系统 |
US9948917B2 (en) * | 2012-09-19 | 2018-04-17 | Follow Inspiration Unipessoal, Lda. | Self tracking system and its operation method |
US9367065B2 (en) | 2013-01-25 | 2016-06-14 | Google Inc. | Modifying behavior of autonomous vehicles based on sensor blind spots and limitations |
US11172126B2 (en) | 2013-03-15 | 2021-11-09 | Occipital, Inc. | Methods for reducing power consumption of a 3D image capture system |
US9208566B2 (en) * | 2013-08-09 | 2015-12-08 | Microsoft Technology Licensing, Llc | Speckle sensing for motion tracking |
DE102014206086A1 (de) | 2014-03-31 | 2015-10-01 | Robert Bosch Gmbh | Verfahren zum Betreiben einer selbstbeweglichen mobilen Plattform |
WO2016040862A2 (en) | 2014-09-12 | 2016-03-17 | Chizeck Howard Jay | Integration of auxiliary sensors with point cloud-based haptic rendering and virtual fixtures |
US9630319B2 (en) * | 2015-03-18 | 2017-04-25 | Irobot Corporation | Localization and mapping using physical features |
EP3203412A1 (en) * | 2016-02-05 | 2017-08-09 | Delphi Technologies, Inc. | System and method for detecting hand gestures in a 3d space |
KR102588486B1 (ko) * | 2016-03-15 | 2023-10-11 | 에이비 엘렉트로룩스 | 로봇 청소 장치 및 로봇 청소 장치에서의 절벽 검출 실시 방법 |
US10394244B2 (en) * | 2016-05-26 | 2019-08-27 | Korea University Research And Business Foundation | Method for controlling mobile robot based on Bayesian network learning |
JP6786912B2 (ja) * | 2016-07-05 | 2020-11-18 | 富士ゼロックス株式会社 | 移動ロボットおよび移動制御システム |
JP6565853B2 (ja) * | 2016-09-29 | 2019-08-28 | トヨタ自動車株式会社 | コミュニケーション装置 |
KR101865161B1 (ko) * | 2016-12-13 | 2018-06-07 | 주식회사 아프리카티비 | 방송 촬영 방법 및 장치 |
KR102326077B1 (ko) * | 2017-06-15 | 2021-11-12 | 엘지전자 주식회사 | 3차원 공간의 이동 객체를 식별하는 방법 및 이를 구현하는 로봇 |
DE102017117545A1 (de) | 2017-08-02 | 2019-02-07 | Jungheinrich Aktiengesellschaft | Verfahren zur Überwachung des Fahrwegs eines Flurförderzeuges sowie ein Flurförderzeug |
CN107289967B (zh) * | 2017-08-17 | 2023-06-09 | 珠海一微半导体股份有限公司 | 可分离式光学里程计及移动机器人 |
FR3070294B1 (fr) * | 2017-08-28 | 2021-01-22 | Fogale Nanotech | Dispositif de detection multi-distances pour un robot, et robot equipe de tel(s) dispositif(s) |
DE102017217844A1 (de) | 2017-10-06 | 2019-04-11 | Robert Bosch Gmbh | Verfahren und ein maschinelles Lernsystem zur Klassierung von Objekten |
WO2019147235A1 (en) * | 2018-01-24 | 2019-08-01 | Ford Global Technologies, Llc | Path planning for autonomous moving devices |
KR102165352B1 (ko) * | 2018-06-25 | 2020-10-13 | 엘지전자 주식회사 | 로봇 |
JP7035886B2 (ja) | 2018-07-30 | 2022-03-15 | トヨタ自動車株式会社 | 画像処理装置、画像処理方法 |
CN110967703A (zh) * | 2018-09-27 | 2020-04-07 | 广东美的生活电器制造有限公司 | 使用激光雷达和摄像头的室内导航方法及室内导航装置 |
US11921218B2 (en) * | 2018-11-30 | 2024-03-05 | Garmin Switzerland Gmbh | Marine vessel LIDAR system |
CN109828564B (zh) * | 2019-01-28 | 2022-06-17 | 广州杰赛科技股份有限公司 | 一种无人驾驶汽车路径规划的优化方法、装置及终端设备 |
US11607804B2 (en) * | 2019-05-28 | 2023-03-21 | X Development Llc | Robot configuration with three-dimensional lidar |
CN112338908B (zh) * | 2019-08-09 | 2022-07-22 | 科沃斯机器人股份有限公司 | 自主移动设备 |
JP7194288B2 (ja) * | 2019-09-23 | 2022-12-21 | 株式会社Fuji | 周辺監視装置 |
RU2769921C2 (ru) * | 2019-11-21 | 2022-04-08 | Общество с ограниченной ответственностью "Яндекс Беспилотные Технологии" | Способы и системы для автоматизированного определения присутствия объектов |
US11618167B2 (en) * | 2019-12-24 | 2023-04-04 | X Development Llc | Pixelwise filterable depth maps for robots |
CN111157996B (zh) * | 2020-01-06 | 2022-06-14 | 珠海丽亭智能科技有限公司 | 一种停车机器人行驶安全检测方法 |
DE102021000600A1 (de) | 2021-02-05 | 2022-08-11 | Mercedes-Benz Group AG | Verfahren und Vorrichtung zur Erkennung von Beeinträchtigungen im optischen Pfad einer Stereokamera |
WO2023137552A1 (en) * | 2022-01-21 | 2023-07-27 | Kinova Inc. | System for teaching a robotic arm |
KR20240016707A (ko) * | 2022-07-29 | 2024-02-06 | 삼성전자주식회사 | 라이다 센서가 탑재된 로봇 및 그의 제어 방법 |
KR102479774B1 (ko) * | 2022-09-15 | 2022-12-21 | 주식회사 라스테크 | 로봇팔을 구비하는 휴머노이드 로봇 |
KR102631521B1 (ko) * | 2023-12-01 | 2024-01-31 | 주식회사세오 | 바닥 감지 장치가 구비된 자율 주행 로봇 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0764631A (ja) * | 1993-08-27 | 1995-03-10 | Nissan Motor Co Ltd | 移動探査機の経路探索方法 |
JPH09249908A (ja) * | 1996-03-14 | 1997-09-22 | Kawasaki Steel Corp | 竪型円筒容器積載台車の停止位置制御方法および装置 |
JP2004034272A (ja) * | 2002-07-08 | 2004-02-05 | Mitsubishi Heavy Ind Ltd | 移動体の自己位置同定装置 |
JP2007216350A (ja) * | 2006-02-17 | 2007-08-30 | Toyota Motor Corp | 移動型ロボット |
US7433024B2 (en) * | 2006-02-27 | 2008-10-07 | Prime Sense Ltd. | Range mapping using speckle decorrelation |
JP2009199154A (ja) * | 2008-02-19 | 2009-09-03 | Ihi Corp | 水溜まり検出装置、無人走行車両及び水溜まり検出方法 |
Family Cites Families (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06202732A (ja) * | 1993-01-06 | 1994-07-22 | Amada Metrecs Co Ltd | 移動体の運航装置及びその装置を利用したセキュリティロボット |
US20020195548A1 (en) | 2001-06-06 | 2002-12-26 | Dowski Edward Raymond | Wavefront coding interference contrast imaging systems |
JP3531268B2 (ja) * | 1995-04-05 | 2004-05-24 | 松下電器産業株式会社 | 自走式掃除機 |
JP3601737B2 (ja) * | 1996-03-30 | 2004-12-15 | 技術研究組合医療福祉機器研究所 | 搬送ロボットシステム |
JP2000292538A (ja) * | 1999-04-07 | 2000-10-20 | Mitsubishi Electric Corp | 車両用障害物検出装置 |
US6323942B1 (en) | 1999-04-30 | 2001-11-27 | Canesta, Inc. | CMOS-compatible three-dimensional image sensor IC |
US6515740B2 (en) | 2000-11-09 | 2003-02-04 | Canesta, Inc. | Methods for CMOS-compatible three-dimensional image sensing using quantum efficiency modulation |
WO2003076984A1 (en) | 2002-03-14 | 2003-09-18 | Ramot At Tel Aviv University Ltd. | All optical extended depth-of-field imaging system |
JP2003316438A (ja) * | 2002-04-22 | 2003-11-07 | Fuji Heavy Ind Ltd | 自律走行作業車 |
JP2005216022A (ja) * | 2004-01-30 | 2005-08-11 | Funai Electric Co Ltd | 自律走行ロボットクリーナー |
WO2005098729A2 (en) * | 2004-03-27 | 2005-10-20 | Harvey Koselka | Autonomous personal service robot |
KR20060059006A (ko) * | 2004-11-26 | 2006-06-01 | 삼성전자주식회사 | 이동형 가전기기가 장애물을 회피하며 벽을 따라 이동하는방법 및 장치 |
ATE524784T1 (de) * | 2005-09-30 | 2011-09-15 | Irobot Corp | Begleitroboter für persönliche interaktion |
JP5001286B2 (ja) | 2005-10-11 | 2012-08-15 | プライム センス リミティド | 対象物再構成方法およびシステム |
KR101290379B1 (ko) * | 2005-12-02 | 2013-07-26 | 아이로보트 코퍼레이션 | 자동 커버리지 로봇 운행 시스템 |
CN101496033B (zh) | 2006-03-14 | 2012-03-21 | 普莱姆森斯有限公司 | 利用散斑图案的三维传感 |
KR101408959B1 (ko) | 2006-03-14 | 2014-07-02 | 프라임센스 엘티디. | 삼차원 감지를 위한 깊이 가변 광 필드 |
CN101657825B (zh) | 2006-05-11 | 2014-02-19 | 普莱姆传感有限公司 | 根据深度图对人形进行建模 |
US8350847B2 (en) | 2007-01-21 | 2013-01-08 | Primesense Ltd | Depth mapping using multi-beam illumination |
US8150142B2 (en) | 2007-04-02 | 2012-04-03 | Prime Sense Ltd. | Depth mapping using projected patterns |
TWI433052B (zh) | 2007-04-02 | 2014-04-01 | Primesense Ltd | 使用投影圖案之深度製圖 |
US8116910B2 (en) * | 2007-08-23 | 2012-02-14 | Intouch Technologies, Inc. | Telepresence robot with a printer |
JP2009070343A (ja) * | 2007-09-18 | 2009-04-02 | Univ Of Electro-Communications | 移動体制御装置 |
CN101984767B (zh) | 2008-01-21 | 2014-01-29 | 普莱姆森斯有限公司 | 用于使零级减少的光学设计 |
JP4788722B2 (ja) * | 2008-02-26 | 2011-10-05 | トヨタ自動車株式会社 | 自律移動ロボット、自己位置推定方法、環境地図の生成方法、環境地図の生成装置、及び環境地図のデータ構造 |
-
2011
- 2011-11-09 AU AU2011352997A patent/AU2011352997B2/en not_active Ceased
- 2011-11-09 JP JP2013547473A patent/JP2014509417A/ja active Pending
- 2011-11-09 DE DE112011104645T patent/DE112011104645T5/de not_active Withdrawn
- 2011-11-09 CA CA2824606A patent/CA2824606A1/en not_active Abandoned
- 2011-11-09 WO PCT/US2011/059980 patent/WO2012091807A2/en active Application Filing
- 2011-11-09 GB GB1313410.1A patent/GB2502213A/en not_active Withdrawn
- 2011-11-09 EP EP11799334.5A patent/EP2659320A2/en not_active Withdrawn
-
2014
- 2014-11-19 JP JP2014234846A patent/JP5946147B2/ja active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0764631A (ja) * | 1993-08-27 | 1995-03-10 | Nissan Motor Co Ltd | 移動探査機の経路探索方法 |
JPH09249908A (ja) * | 1996-03-14 | 1997-09-22 | Kawasaki Steel Corp | 竪型円筒容器積載台車の停止位置制御方法および装置 |
JP2004034272A (ja) * | 2002-07-08 | 2004-02-05 | Mitsubishi Heavy Ind Ltd | 移動体の自己位置同定装置 |
JP2007216350A (ja) * | 2006-02-17 | 2007-08-30 | Toyota Motor Corp | 移動型ロボット |
US7433024B2 (en) * | 2006-02-27 | 2008-10-07 | Prime Sense Ltd. | Range mapping using speckle decorrelation |
JP2009199154A (ja) * | 2008-02-19 | 2009-09-03 | Ihi Corp | 水溜まり検出装置、無人走行車両及び水溜まり検出方法 |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016133818A (ja) * | 2015-01-15 | 2016-07-25 | 株式会社東芝 | 空間情報可視化装置、プログラムおよび空間情報可視化方法 |
JP2021004028A (ja) * | 2015-03-25 | 2021-01-14 | ウェイモ エルエルシー | 複数の光検出及び測距装置(lidar)付きの車両 |
JP7204709B2 (ja) | 2015-03-25 | 2023-01-16 | ウェイモ エルエルシー | 複数の光検出及び測距装置(lidar)付きの車両 |
JP2018161734A (ja) * | 2017-03-27 | 2018-10-18 | 地方独立行政法人東京都立産業技術研究センター | 移動ロボット及び制御回路 |
JP2019211472A (ja) * | 2018-06-06 | 2019-12-12 | ハネウェル・インターナショナル・インコーポレーテッドHoneywell International Inc. | 大気特性評価lidar光学位置決めのための産業用マニピュレータを使用するためのシステム及び方法 |
US11879958B2 (en) | 2018-06-06 | 2024-01-23 | Honeywell International Inc. | System and method for using an industrial manipulator for atmospheric characterization lidar optics positioning |
JP7430036B2 (ja) | 2018-06-06 | 2024-02-09 | ハネウェル・インターナショナル・インコーポレーテッド | 大気特性評価lidar光学位置決めのための産業用マニピュレータを使用するためのシステム及び方法 |
JP2021534990A (ja) * | 2018-08-30 | 2021-12-16 | ヴェオ ロボティクス, インコーポレイテッド | 自動的センサ位置合わせおよび構成のためのシステムおよび方法 |
JP7299642B2 (ja) | 2018-08-30 | 2023-06-28 | ヴェオ ロボティクス, インコーポレイテッド | 自動的センサ位置合わせおよび構成のためのシステムおよび方法 |
Also Published As
Publication number | Publication date |
---|---|
GB201313410D0 (en) | 2013-09-11 |
JP2015092348A (ja) | 2015-05-14 |
AU2011352997A8 (en) | 2013-09-05 |
DE112011104645T5 (de) | 2013-10-10 |
CA2824606A1 (en) | 2012-07-05 |
WO2012091807A3 (en) | 2013-07-25 |
EP2659320A2 (en) | 2013-11-06 |
GB2502213A (en) | 2013-11-20 |
AU2011352997B2 (en) | 2015-06-18 |
WO2012091807A2 (en) | 2012-07-05 |
JP5946147B2 (ja) | 2016-07-05 |
AU2011352997A1 (en) | 2013-07-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5946147B2 (ja) | 可動式ヒューマンインターフェースロボット | |
JP5963372B2 (ja) | 移動式ロボットを作動させて人について行くようにする方法 | |
US8958911B2 (en) | Mobile robot | |
JP6039611B2 (ja) | 可動式ロボットシステム | |
US9400503B2 (en) | Mobile human interface robot | |
US10705535B2 (en) | Systems and methods for performing simultaneous localization and mapping using machine vision systems | |
US11400600B2 (en) | Mobile robot and method of controlling the same | |
TWI660703B (zh) | 移動式清掃機器人及其控制方法 | |
JP6526613B2 (ja) | 可動式ロボットシステム | |
CN106537186B (zh) | 用于使用机器视觉系统执行同时定位和映射的系统和方法 | |
WO2011146259A2 (en) | Mobile human interface robot | |
US20220257074A1 (en) | Mobile robot using artificial intelligence and controlling method thereof | |
AU2015202200A1 (en) | Mobile human interface robot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140519 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20140818 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20140825 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20140919 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20140929 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20141119 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20150527 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150924 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20151002 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20151204 |