JP6882296B2 - 自律視覚ナビゲーション - Google Patents
自律視覚ナビゲーション Download PDFInfo
- Publication number
- JP6882296B2 JP6882296B2 JP2018530846A JP2018530846A JP6882296B2 JP 6882296 B2 JP6882296 B2 JP 6882296B2 JP 2018530846 A JP2018530846 A JP 2018530846A JP 2018530846 A JP2018530846 A JP 2018530846A JP 6882296 B2 JP6882296 B2 JP 6882296B2
- Authority
- JP
- Japan
- Prior art keywords
- collision
- user input
- map
- robot
- determining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000000007 visual effect Effects 0.000 title claims description 18
- 238000005259 measurement Methods 0.000 claims description 59
- 238000000034 method Methods 0.000 claims description 55
- 230000033001 locomotion Effects 0.000 claims description 34
- 230000008859 change Effects 0.000 claims description 7
- 238000012545 processing Methods 0.000 description 37
- 238000013507 mapping Methods 0.000 description 23
- 238000010586 diagram Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 10
- 230000008901 benefit Effects 0.000 description 7
- 238000004590 computer program Methods 0.000 description 6
- 230000009471 action Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 230000001537 neural effect Effects 0.000 description 4
- 230000006399 behavior Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000010354 integration Effects 0.000 description 3
- 230000004807 localization Effects 0.000 description 3
- 238000007726 management method Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 239000005022 packaging material Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005315 distribution function Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000000946 synaptic effect Effects 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
- G01C21/206—Instruments for performing navigational calculations specially adapted for indoor navigation
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3833—Creation or updating of map data characterised by the source of data
- G01C21/3848—Data obtained from both position sensors and additional sensors
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/0055—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot with safety arrangements
- G05D1/0061—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot with safety arrangements for transition from automatic pilot to manual pilot and vice versa
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0251—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0253—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting relative motion information from a plurality of images taken successively, e.g. visual odometry, optical flow
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0255—Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Description
[0036] 従来のシステムでは、手動動作(manual operation)中、ロボットは、ロボットと障害物との間の範囲が、ある閾値よりも少ない場合、ロボットを一時停止(halt)させるために、ソナー(sonar)または超音波(ultrasound)のような、リアクティブ(reactive)(例えば、メモリレス(memoryless))システムに基づく仮想バンパーシステム(virtual bumper system)を使用することもある。仮想バンパーシステム(virtual bumper system)がメモリレスであるので、仮想バンパーは自律動作(autonomous operation)中に有用でないこともある。それゆえ、自律ロボットは、以前の測定値(measurement)に基づいて計画できない。さらに、仮想バンパーシステムは時間および姿勢(pose)にまたがってセンサ読取り値を統合しない。よって、このシステムは増加したノイズを有する。さらに、仮想バンパーシステムはリアクティブであるので、仮想バンパーシステムは、衝突を回避するために新たな軌跡(trajectory)および/または速度(velocity)を計画できない。むしろ、ロボットは衝突を回避するために動作(operation)を一時停止させ、障害物を迂回して方向転換(redirected around)されない。
以下に、本願の出願当初の特許請求の範囲に記載された発明を付記する。
[C1]
ロボットのための視覚ナビゲーションの方法であって、
3次元(3D)マップを生成するように深度マップを位置推定情報と統合することと、 前記3Dマップ、前記位置推定情報、またはユーザ入力に少なくとも部分的に基づいて運動計画をすることと、前記運動計画をすることは、前記ユーザ入力が衝突を引き起こすと予測されるとき前記ユーザ入力を無効にする、
を備える、方法。
[C2]
複数のカメラから前記深度マップを決定することと、
複数のセンサから前記位置推定情報を取得することと
をさらに備える、C1に記載の方法。
[C3]
前記位置推定情報は、画像情報(image information)、慣性センサ情報、またはこれらの組合せのうちの少なくとも1つを備える、C2に記載の方法。
[C4]
ジャイロスコープ、加速度計、またはこれらの組合せのうちの少なくとも1つから前記慣性センサ情報を取得することをさらに備える、C3に記載の方法。
[C5]
ステレオカメラから取得された測定値に基づいて前記深度マップを生成することをさらに備える、C1に記載の方法。
[C6]
前記ユーザ入力を無効にするときに、新たな軌跡、新たな速度、またはこれらの組合せのうちの少なくとも1つを選択することをさらに備える、C1に記載の方法。
[C7]
前記ユーザ入力を介して受信された軌跡、速度、またはこれらの組合せのうちの少なくとも1つが前記衝突を引き起こすと予測されるとき、前記ユーザ入力を無効にすることをさらに備える、C1に記載の方法。
[C8]
前記運動計画をすることは、
前記3Dマップ中の複数の衝突のない地点を無作為に選択することと、
前記複数の衝突のない地点のうちの少なくとも2つの間の少なくとも1つの衝突のない経路を決定することと、
前記少なくとも1つの衝突のない経路に少なくとも部分的に基づいて目標までの最小コスト経路を決定することと
を備える、C1に記載の方法。
[C9]
前記運動計画をすることは、前記最小コスト経路に沿って障害物が見られるとき前記最小コスト経路を変更することをさらに備える、C8に記載の方法。
[C10]
前記運動計画をすることは、
マッピングされていないエリア中の複数の予測される衝突のない地点を無作為に選択することと、
前記複数の予測される衝突のない地点のうちの少なくとも2つの間の少なくとも1つの予測される衝突のない経路を決定することと
をさらに備える、C8に記載の方法。
[C11]
メモリと、
前記メモリに結合された少なくとも1つのプロセッサと
を備え、前記少なくとも1つのプロセッサが、
3次元(3D)マップを生成するように深度マップを位置推定情報と統合することと、 前記3Dマップ、前記位置推定情報、またはユーザ入力に少なくとも部分的に基づいて運動計画をすることと、前記運動計画をすることは、前記ユーザ入力が衝突を引き起こすと予測されるとき前記ユーザ入力を無効にする、
を行うように構成された、装置。
[C12]
前記少なくとも1つのプロセッサは、
複数のカメラから前記深度マップを決定することと、
複数のセンサから前記位置推定情報を取得することと
をさらに行うように構成された、C11に記載の装置。
[C13]
前記位置推定情報は、画像情報、慣性センサ情報、またはこれらの組合せのうちの少なくとも1つを備える、C12に記載の装置。
[C14]
前記少なくとも1つのプロセッサは、ジャイロスコープ、加速度計、またはこれらの組合せのうちの少なくとも1つから前記慣性センサ情報を取得するようにさらに構成された、C13に記載の装置。
[C15]
前記少なくとも1つのプロセッサは、ステレオカメラから取得された測定値に基づいて前記深度マップを生成するようにさらに構成された、C11に記載の装置。
[C16]
前記少なくとも1つのプロセッサは、前記ユーザ入力を無効にするときに、新たな軌跡、新たな速度、またはこれらの組合せのうちの少なくとも1つを選択するようにさらに構成された、C11に記載の装置。
[C17]
前記少なくとも1つのプロセッサは、前記ユーザ入力を介して受信された軌跡、速度、またはこれらの組合せのうちの少なくとも1つが前記衝突を引き起こすと予測されるとき、前記ユーザ入力を無効にするようにさらに構成された、C11に記載の装置。
[C18]
前記少なくとも1つのプロセッサは、
前記3Dマップ中の複数の衝突のない地点を無作為に選択することと、
前記複数の衝突のない地点のうちの少なくとも2つの間の少なくとも1つの衝突のない経路を決定することと、
前記少なくとも1つの衝突のない経路に少なくとも部分的に基づいて目標までの最小コスト経路を決定することと
を行うようにさらに構成された、C11に記載の装置。
[C19]
前記少なくとも1つのプロセッサは、前記最小コスト経路に沿って障害物が見られるとき前記最小コスト経路を変更するようにさらに構成された、C18に記載の装置。
[C20]
前記少なくとも1つのプロセッサは、
マッピングされていないエリア中の複数の予測される衝突のない地点を無作為に選択することと、
前記複数の予測される衝突のない地点のうちの少なくとも2つの間の少なくとも1つの予測される衝突のない経路を決定することと
を行うようにさらに構成された、C18に記載の装置。
[C21]
3次元(3D)マップを生成するように深度マップを位置推定情報と統合するための手段と、
前記3Dマップ、前記位置推定情報、またはユーザ入力に少なくとも部分的に基づいて運動計画をするための手段と、前記運動計画をすることは、前記ユーザ入力が衝突を引き起こすと予測されるとき前記ユーザ入力を無効にする、
を備える、装置。
[C22]
複数のカメラから前記深度マップを決定するための手段と、
複数のセンサから前記位置推定情報を取得するための手段と
をさらに備える、C21に記載の装置。
[C23]
前記位置推定情報は、画像情報、慣性センサ情報、またはこれらの組合せのうちの少なくとも1つを備える、C22に記載の装置。
[C24]
ジャイロスコープ、加速度計、またはこれらの組合せのうちの少なくとも1つから前記慣性センサ情報を取得するための手段をさらに備える、C23に記載の装置。
[C25]
ステレオカメラから取得された測定値に基づいて前記深度マップを生成するための手段をさらに備える、C21に記載の装置。
[C26]
前記ユーザ入力を無効にするときに、新たな軌跡、新たな速度、またはこれらの組合せのうちの少なくとも1つを選択するための手段をさらに備える、C21に記載の装置。
[C27]
前記ユーザ入力を介して受信された軌跡、速度、またはこれらの組合せのうちの少なくとも1つが前記衝突を引き起こすと予測されるとき、前記ユーザ入力を無効にするための手段をさらに備える、C21に記載の装置。
[C28]
前記運動計画をするための手段は、
前記3Dマップ中の複数の衝突のない地点を無作為に選択するための手段と、
前記複数の衝突のない地点のうちの少なくとも2つの間の少なくとも1つの衝突のない経路を決定するための手段と、
前記少なくとも1つの衝突のない経路に少なくとも部分的に基づいて目標までの最小コスト経路を決定するための手段と
をさらに備える、C21に記載の装置。
[C29]
前記運動計画をするための手段は、前記最小コスト経路に沿って障害物が見られるとき前記最小コスト経路を変更するための手段をさらに備える、C28に記載の装置。
[C30]
前記運動計画をするための手段は、
マッピングされていないエリア中の複数の予測される衝突のない地点を無作為に選択するための手段と、
前記複数の予測される衝突のない地点のうちの少なくとも2つの間の少なくとも1つの予測される衝突のない経路を決定するための手段と
をさらに備える、C28に記載の装置。
[C31]
ロボットに視覚ナビゲーションを提供するためのプログラムコードを記録した非一時的なコンピュータ可読媒体であって、前記プログラムコードは、プロセッサによって実行され、
3次元(3D)マップを生成するように深度マップを位置推定情報と統合するためのプログラムコードと、
前記3Dマップ、前記位置推定情報、またはユーザ入力に少なくとも部分的に基づいて運動計画をするためのプログラムコードと、前記運動計画をすることは、前記ユーザ入力が衝突を引き起こすと予測されるとき前記ユーザ入力を無効にする、
を備える、非一時的なコンピュータ可読媒体。
[C32]
前記プログラムコードは、
複数のカメラから前記深度マップを決定するためのプログラムコードと、
複数のセンサから前記位置推定情報を取得するためのプログラムコードと
をさらに備える、C31に記載の非一時的なコンピュータ可読媒体。
[C33]
前記位置推定情報は、画像情報、慣性センサ情報、またはこれらの組合せのうちの少なくとも1つを備える、C32に記載の非一時的なコンピュータ可読媒体。
[C34]
前記プログラムコードは、ジャイロスコープ、加速度計、またはこれらの組合せのうちの少なくとも1つから前記慣性センサ情報を取得するためのプログラムコードをさらに備える、C33に記載の非一時的なコンピュータ可読媒体。
[C35]
前記プログラムコードは、ステレオカメラから取得された測定値に基づいて前記深度マップを生成するためのプログラムコードをさらに備える、C31に記載の非一時的なコンピュータ可読媒体。
[C36]
前記プログラムコードは、前記ユーザ入力を無効にするときに、新たな軌跡、新たな速度、またはこれらの組合せのうちの少なくとも1つを選択するためのプログラムコードをさらに備える、C31に記載の非一時的なコンピュータ可読媒体。
[C37]
前記運動計画をするためのプログラムコードは、前記ユーザ入力を介して受信された軌跡、速度、またはこれらの組合せのうちの少なくとも1つが前記衝突を引き起こすと予測されると、前記ユーザ入力を無効にするためのプログラムコードをさらに備える、C31に記載の非一時的なコンピュータ可読媒体。
[C38]
前記運動計画をするためのプログラムコードは、
前記3Dマップ中の複数の衝突のない地点を無作為に選択するためのプログラムコードと、
前記複数の衝突のない地点のうちの少なくとも2つの間の少なくとも1つの衝突のない経路を決定するためのプログラムコードと、
前記少なくとも1つの衝突のない経路に少なくとも部分的に基づいて目標までの最小コスト経路を決定するためのプログラムコードと
をさらに備える、C31に記載の非一時的なコンピュータ可読媒体。
[C39]
前記運動計画をするためのプログラムコードは、前記最小コスト経路に沿って障害物が見られるとき前記最小コスト経路を変更するためのプログラムコードをさらに備える、C38に記載の非一時的なコンピュータ可読媒体。
[C40]
前記運動計画をするためのプログラムコードは、
マッピングされていないエリア中の複数の予測される衝突のない地点を無作為に選択するためのプログラムコードと、
前記複数の予測される衝突のない地点のうちの少なくとも2つの間の少なくとも1つの予測される衝突のない経路を決定するためのプログラムコードと
をさらに備える、C38に記載の非一時的なコンピュータ可読媒体。
Claims (13)
- ロボットのための視覚ナビゲーションの方法であって、
ステレオカメラモジュールから取得された測定値に少なくとも部分的に基づいて深度マップを生成することと、
3次元(3D)マップを生成するように前記深度マップを位置推定情報と統合することと、
前記ロボットをナビゲートするためのユーザ入力を受信することと、
前記ユーザ入力が衝突を引き起こすと予測されることを決定することと、
前記ユーザ入力が前記衝突を引き起こすと予測されるとき前記ユーザ入力を無効にするように、前記3Dマップおよび前記位置推定情報に少なくとも部分的に基づいて運動計画をすることを備え、
前記運動計画をすることは、
前記3Dマップ中の複数の衝突のない地点を無作為に選択することと、
前記複数の衝突のない地点のうちの少なくとも2つの間の少なくとも1つの衝突のない経路を決定することと、
前記少なくとも1つの衝突のない経路に少なくとも部分的に基づいて目標までの最小コスト経路を決定することと、
前記最小コスト経路に沿って障害物が見られるとき前記最小コスト経路を変更することを備える、方法。 - 複数のセンサから前記位置推定情報を取得すること
をさらに備える、請求項1に記載の方法。 - 前記位置推定情報は、画像情報(image information)、慣性センサ情報、またはこれらの組合せのうちの少なくとも1つを備える、請求項2に記載の方法。
- ジャイロスコープ、加速度計、またはこれらの組合せのうちの少なくとも1つから前記慣性センサ情報を取得することをさらに備える、請求項3に記載の方法。
- 前記ユーザ入力を無効にするときに、新たな軌跡、新たな速度、またはこれらの組合せのうちの少なくとも1つを選択することをさらに備える、請求項1に記載の方法。
- 前記ユーザ入力を介して受信された軌跡、速度、またはこれらの組合せのうちの少なくとも1つが前記衝突を引き起こすと予測されるとき、前記ユーザ入力を無効にすることをさらに備える、請求項1に記載の方法。
- メモリと、
前記メモリに結合された少なくとも1つのプロセッサと
を備え、前記少なくとも1つのプロセッサが、
ステレオカメラモジュールから取得された測定値に少なくとも部分的に基づいて深度マップを生成することと、
3次元(3D)マップを生成するように前記深度マップを位置推定情報と統合することと、
ロボットをナビゲートするためのユーザ入力を受信することと、
前記ユーザ入力が衝突を引き起こすと予測されることを決定することと、
前記ユーザ入力が前記衝突を引き起こすと予測されるとき前記ユーザ入力を無効にするように、前記3Dマップおよび前記位置推定情報に少なくとも部分的に基づいて運動計画をすることと、
前記3Dマップ中の複数の衝突のない地点を無作為に選択することと、
前記複数の衝突のない地点のうちの少なくとも2つの間の少なくとも1つの衝突のない経路を決定することと、
前記少なくとも1つの衝突のない経路に少なくとも部分的に基づいて目標までの最小コスト経路を決定することと、
前記最小コスト経路に沿って障害物が見られるとき前記最小コスト経路を変更すること
を行うように構成されている、装置。 - 前記少なくとも1つのプロセッサは、複数のセンサから前記位置推定情報を取得することを行うようにさらに構成され、前記位置推定情報は、画像情報、慣性センサ情報、またはこれらの組合せのうちの少なくとも1つを備える、請求項7に記載の装置。
- 前記少なくとも1つのプロセッサは、ジャイロスコープ、加速度計、またはこれらの組合せのうちの少なくとも1つから前記慣性センサ情報を取得するようにさらに構成された、請求項8に記載の装置。
- ロボットに視覚ナビゲーションを提供するためのプログラムコードを記録した非一時的なコンピュータ可読媒体であって、前記プログラムコードは、プロセッサによって実行され、
ステレオカメラモジュールから取得された測定値に少なくとも部分的に基づいて深度マップを生成するためのプログラムコードと、
3次元(3D)マップを生成するように前記深度マップを位置推定情報と統合するためのプログラムコードと、
前記ロボットをナビゲートするためのユーザ入力を受信するためのプログラムコードと、
前記ユーザ入力が衝突を引き起こすと予測されると決定するためのプログラムコードと、
前記ユーザ入力が前記衝突を引き起こすと予測されるとき前記ユーザ入力を無効にするように、前記3Dマップおよび前記位置推定情報に少なくとも部分的に基づいて運動計画をするためのプログラムコードとを備え、
前記運動計画をすることは、
前記3Dマップ中の複数の衝突のない地点を無作為に選択することと、
前記複数の衝突のない地点のうちの少なくとも2つの間の少なくとも1つの衝突のない経路を決定することと、
前記少なくとも1つの衝突のない経路に少なくとも部分的に基づいて目標までの最小コスト経路を決定することと、
前記最小コスト経路に沿って障害物が見られるとき前記最小コスト経路を変更することを備える、非一時的なコンピュータ可読媒体。 - ロボットのための視覚ナビゲーションの方法であって、
ステレオカメラモジュールから取得された測定値に少なくとも部分的に基づいて深度マップを生成することと、
3次元(3D)マップを生成するように前記深度マップを位置推定情報と統合することと、
前記ロボットをナビゲートするためのユーザ入力を受信することと、
前記ユーザ入力が衝突を引き起こすと予測されることを決定することと、
前記ユーザ入力が前記衝突を引き起こすと予測されるとき前記ユーザ入力を無効にするように、前記3Dマップおよび前記位置推定情報に少なくとも部分的に基づいて運動計画をすることを備え、
前記運動計画をすることは、
前記3Dマップ中の複数の衝突のない地点を無作為に選択することと、
前記複数の衝突のない地点のうちの少なくとも2つの間の少なくとも1つの衝突のない経路を決定することと、
前記少なくとも1つの衝突のない経路に少なくとも部分的に基づいて目標までの最小コスト経路を決定することと、
マッピングされていないエリア中の複数の予測される衝突のない地点を無作為に選択することと、
前記複数の予測される衝突のない地点のうちの少なくとも2つの間の少なくとも1つの予測される衝突のない経路を決定することと
を備える、方法。 - メモリと、
前記メモリに結合された少なくとも1つのプロセッサと
を備え、前記少なくとも1つのプロセッサが、
ステレオカメラモジュールから取得された測定値に少なくとも部分的に基づいて深度マップを生成することと、
3次元(3D)マップを生成するように前記深度マップを位置推定情報と統合することと、
ロボットをナビゲートするためのユーザ入力を受信することと、
前記ユーザ入力が衝突を引き起こすと予測されることを決定することと、
前記ユーザ入力が前記衝突を引き起こすと予測されるとき前記ユーザ入力を無効にするように、前記3Dマップおよび前記位置推定情報に少なくとも部分的に基づいて運動計画をすることと、
前記3Dマップ中の複数の衝突のない地点を無作為に選択することと、
前記複数の衝突のない地点のうちの少なくとも2つの間の少なくとも1つの衝突のない経路を決定することと、
前記少なくとも1つの衝突のない経路に少なくとも部分的に基づいて目標までの最小コスト経路を決定することと、
マッピングされていないエリア中の複数の予測される衝突のない地点を無作為に選択することと、
前記複数の予測される衝突のない地点のうちの少なくとも2つの間の少なくとも1つの予測される衝突のない経路を決定すること、
を行うように構成されていることを特徴とする、装置。 - ロボットに視覚ナビゲーションを提供するためのプログラムコードを記録した非一時的なコンピュータ可読媒体であって、前記プログラムコードは、プロセッサによって実行され、
ステレオカメラモジュールから取得された測定値に少なくとも部分的に基づいて深度マップを生成するためのプログラムコードと、
3次元(3D)マップを生成するように前記深度マップを位置推定情報と統合するためのプログラムコードと、
前記ロボットをナビゲートするためのユーザ入力を受信するためのプログラムコードと、
前記ユーザ入力が衝突を引き起こすと予測されると決定するためのプログラムコードと、
前記ユーザ入力が前記衝突を引き起こすと予測されるとき前記ユーザ入力を無効にするように、前記3Dマップおよび前記位置推定情報に少なくとも部分的に基づいて運動計画をするためのプログラムコードとを備え、
前記運動計画をすることは、
前記3Dマップ中の複数の衝突のない地点を無作為に選択することと、
前記複数の衝突のない地点のうちの少なくとも2つの間の少なくとも1つの衝突のない経路を決定することと、
前記少なくとも1つの衝突のない経路に少なくとも部分的に基づいて目標までの最小コスト経路を決定することと、
マッピングされていないエリア中の複数の予測される衝突のない地点を無作為に選択することと、
前記複数の予測される衝突のない地点のうちの少なくとも2つの間の少なくとも1つの予測される衝突のない経路を決定することと
を備える、非一時的なコンピュータ可読媒体。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201562267886P | 2015-12-15 | 2015-12-15 | |
US62/267,886 | 2015-12-15 | ||
US15/249,250 | 2016-08-26 | ||
US15/249,250 US10705528B2 (en) | 2015-12-15 | 2016-08-26 | Autonomous visual navigation |
PCT/US2016/059171 WO2017105643A1 (en) | 2015-12-15 | 2016-10-27 | Autonomous visual navigation |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2019500693A JP2019500693A (ja) | 2019-01-10 |
JP2019500693A5 JP2019500693A5 (ja) | 2019-11-14 |
JP6882296B2 true JP6882296B2 (ja) | 2021-06-02 |
Family
ID=59020531
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018530846A Active JP6882296B2 (ja) | 2015-12-15 | 2016-10-27 | 自律視覚ナビゲーション |
Country Status (9)
Country | Link |
---|---|
US (1) | US10705528B2 (ja) |
EP (1) | EP3391166B1 (ja) |
JP (1) | JP6882296B2 (ja) |
KR (1) | KR102226350B1 (ja) |
CN (1) | CN108475059B (ja) |
BR (1) | BR112018011944A2 (ja) |
CA (1) | CA3004262A1 (ja) |
TW (1) | TW201728876A (ja) |
WO (1) | WO2017105643A1 (ja) |
Families Citing this family (65)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10198008B2 (en) * | 2013-11-15 | 2019-02-05 | Hitachi, Ltd. | Mobile robot system |
US10372968B2 (en) * | 2016-01-22 | 2019-08-06 | Qualcomm Incorporated | Object-focused active three-dimensional reconstruction |
WO2017214581A1 (en) | 2016-06-10 | 2017-12-14 | Duke University | Motion planning for autonomous vehicles and reconfigurable motion planning processors |
US11726485B2 (en) | 2016-09-05 | 2023-08-15 | Kubota Corporation | Autonomous work vehicle travel system, travel route managing device, travel route generating device, and travel route determining device |
US10410320B2 (en) | 2016-09-30 | 2019-09-10 | Sony Interactive Entertainment Inc. | Course profiling and sharing |
US10377484B2 (en) | 2016-09-30 | 2019-08-13 | Sony Interactive Entertainment Inc. | UAV positional anchors |
US10679511B2 (en) * | 2016-09-30 | 2020-06-09 | Sony Interactive Entertainment Inc. | Collision detection and avoidance |
US10357709B2 (en) | 2016-09-30 | 2019-07-23 | Sony Interactive Entertainment Inc. | Unmanned aerial vehicle movement via environmental airflow |
US10336469B2 (en) | 2016-09-30 | 2019-07-02 | Sony Interactive Entertainment Inc. | Unmanned aerial vehicle movement via environmental interactions |
US10416669B2 (en) | 2016-09-30 | 2019-09-17 | Sony Interactive Entertainment Inc. | Mechanical effects by way of software or real world engagement |
US10850838B2 (en) | 2016-09-30 | 2020-12-01 | Sony Interactive Entertainment Inc. | UAV battery form factor and insertion/ejection methodologies |
WO2018101351A1 (ja) * | 2016-12-02 | 2018-06-07 | 株式会社クボタ | 走行経路管理システム及び走行経路決定装置 |
US10846541B2 (en) * | 2017-01-04 | 2020-11-24 | Qualcomm Incorporated | Systems and methods for classifying road features |
WO2018191818A1 (en) * | 2017-04-18 | 2018-10-25 | Clearpath Robotics Inc. | Stand-alone self-driving material-transport vehicle |
US10303180B1 (en) * | 2017-04-20 | 2019-05-28 | X Development Llc | Generating and utilizing non-uniform volume measures for voxels in robotics applications |
US10949798B2 (en) * | 2017-05-01 | 2021-03-16 | Symbol Technologies, Llc | Multimodal localization and mapping for a mobile automation apparatus |
WO2018213931A1 (en) | 2017-05-25 | 2018-11-29 | Clearpath Robotics Inc. | Systems and methods for process tending with a robot arm |
US10578453B2 (en) * | 2017-07-14 | 2020-03-03 | Rosemount Aerospace Inc. | Render-based trajectory planning |
WO2019041043A1 (en) | 2017-08-31 | 2019-03-07 | Clearpath Robotics Inc. | SYSTEMS AND METHODS FOR GENERATING A MISSION FOR A SELF-CONTAINING MATERIAL TRANSPORT VEHICLE |
US11334086B2 (en) * | 2017-09-27 | 2022-05-17 | Intel Corporation | Autonomous robots and methods of operating the same |
US20190113919A1 (en) * | 2017-10-18 | 2019-04-18 | Luminar Technologies, Inc. | Controlling an autonomous vehicle using smart control architecture selection |
US9990767B1 (en) | 2017-10-24 | 2018-06-05 | Lowe's Companies, Inc. | Generation of 3D models using stochastic shape distribution |
US10366531B2 (en) * | 2017-10-24 | 2019-07-30 | Lowe's Companies, Inc. | Robot motion planning for photogrammetry |
WO2019084686A1 (en) | 2017-10-31 | 2019-05-09 | Clearpath Robotics Inc. | Systems and methods for operating robotic equipment in controlled zones |
WO2019090417A1 (en) | 2017-11-10 | 2019-05-16 | Clearpath Robotics Inc. | Systems and methods for updating an electronic map |
US11073828B2 (en) * | 2017-12-08 | 2021-07-27 | Samsung Electronics Co., Ltd. | Compression of semantic information for task and motion planning |
CN108242102B (zh) * | 2017-12-28 | 2020-04-24 | 纳恩博(北京)科技有限公司 | 信息处理方法及装置、电子设备及存储介质 |
WO2019139815A1 (en) | 2018-01-12 | 2019-07-18 | Duke University | Apparatus, method and article to facilitate motion planning of an autonomous vehicle in an environment having dynamic objects |
TWI822729B (zh) * | 2018-02-06 | 2023-11-21 | 美商即時機器人股份有限公司 | 用於儲存一離散環境於一或多個處理器之一機器人之運動規劃及其改良操作之方法及設備 |
ES2928250T3 (es) | 2018-03-21 | 2022-11-16 | Realtime Robotics Inc | Planificación del movimiento de un robot para diversos entornos y tareas y mejora del funcionamiento del mismo |
CN108955682A (zh) * | 2018-04-03 | 2018-12-07 | 哈尔滨工业大学深圳研究生院 | 手机室内定位导航方法 |
US10802492B2 (en) * | 2018-04-05 | 2020-10-13 | Ford Global Technologies, Llc | Vehicle path identification |
US11407111B2 (en) * | 2018-06-27 | 2022-08-09 | Abb Schweiz Ag | Method and system to generate a 3D model for a robot scene |
WO2020056301A1 (en) * | 2018-09-13 | 2020-03-19 | The Charles Stark Draper Laboratory, Inc. | Robot interaction with human co-workers |
CN109582032B (zh) * | 2018-10-11 | 2021-10-12 | 天津大学 | 多旋翼无人机在复杂环境下的快速实时避障路径选择方法 |
US11192253B2 (en) | 2018-10-12 | 2021-12-07 | Toyota Research Institute, Inc. | Systems and methods for conditional robotic teleoperation |
JP6508691B1 (ja) * | 2018-10-15 | 2019-05-08 | 株式会社Mujin | 制御装置、作業ロボット、プログラム、及び、制御方法 |
JP7241517B2 (ja) * | 2018-12-04 | 2023-03-17 | 三菱電機株式会社 | 航法装置、航法パラメータ計算方法およびプログラム |
TWI672206B (zh) * | 2018-12-19 | 2019-09-21 | 財團法人工業技術研究院 | 機械手臂非接觸式工具中心點校正裝置及其方法以及具有校正功能的機械手臂系統 |
US10948300B2 (en) * | 2018-12-27 | 2021-03-16 | Beijing Voyager Technology Co., Ltd. | Systems and methods for path determination |
KR102198187B1 (ko) * | 2018-12-28 | 2021-01-04 | 엘지전자 주식회사 | 이동 로봇 |
EP3924868A4 (en) * | 2019-02-11 | 2022-11-30 | 643AI Ltd. | SYSTEMS AND PROCEDURES FOR MANAGEMENT OF MULTIPLE AUTONOMOUS VEHICLES |
CN109814574B (zh) * | 2019-02-22 | 2022-07-19 | 百度在线网络技术(北京)有限公司 | 自动驾驶车道汇合处的速度规划方法、装置和存储介质 |
CN109685048A (zh) * | 2019-03-04 | 2019-04-26 | 上海卓易科技股份有限公司 | 人体测量方法、装置、终端及存储介质 |
WO2020206071A1 (en) | 2019-04-02 | 2020-10-08 | Brain Corporation | Systems, apparatuses, and methods for cost evaluation and motion planning for robotic devices |
JP7479064B2 (ja) | 2019-06-03 | 2024-05-08 | リアルタイム ロボティクス, インコーポレーテッド | 動的障害物を有する環境における動作計画を容易にする装置、方法及び物品 |
JP7124797B2 (ja) * | 2019-06-28 | 2022-08-24 | トヨタ自動車株式会社 | 機械学習方法および移動ロボット |
JPWO2021006134A1 (ja) * | 2019-07-08 | 2021-01-14 | ||
US11875678B2 (en) * | 2019-07-19 | 2024-01-16 | Zoox, Inc. | Unstructured vehicle path planner |
EP3993963A4 (en) | 2019-08-23 | 2022-08-24 | Realtime Robotics, Inc. | MOTION PLANNING FOR ROBOTS TO OPTIMIZE SPEED WHILE RESPECTING ACCELERATION AND JERK LIMITS |
US11233937B1 (en) * | 2019-09-26 | 2022-01-25 | Amazon Technologies, Inc. | Autonomously motile device with image capture |
CN112818727A (zh) * | 2019-11-18 | 2021-05-18 | 华为技术有限公司 | 一种道路约束确定方法及装置 |
TW202146189A (zh) | 2020-01-22 | 2021-12-16 | 美商即時機器人股份有限公司 | 於多機器人操作環境中之機器人之建置 |
CN111650931B (zh) * | 2020-04-26 | 2023-03-14 | 广东博智林机器人有限公司 | 多个移动设备的路径确定的方法、装置与存储介质 |
US20220034669A1 (en) * | 2020-07-28 | 2022-02-03 | Bae Systems Information And Electronic Systems Integration Inc. | Navigation architecture for contested environments |
CN112454367B (zh) * | 2020-12-10 | 2022-04-26 | 北京市商汤科技开发有限公司 | 一种轨迹规划方法、装置以及计算机存储介质 |
CN112797986B (zh) * | 2021-02-07 | 2023-03-31 | 江西省智能产业技术创新研究院 | 基于无人自主技术的智能物流机器人定位系统及方法 |
CN112991527B (zh) * | 2021-02-08 | 2022-04-19 | 追觅创新科技(苏州)有限公司 | 目标对象的躲避方法及装置、存储介质、电子装置 |
CN112904366B (zh) * | 2021-03-19 | 2023-06-16 | 北京小狗吸尘器集团股份有限公司 | 应用于扫地机的重定位方法、装置、电子设备和介质 |
KR102551275B1 (ko) * | 2021-05-14 | 2023-07-04 | (주)로보티즈 | 자율 주행 로봇을 위한 거리 변환 지도 기반의 반응형 네비게이션 |
US20230031289A1 (en) * | 2021-07-30 | 2023-02-02 | Toyota Research Institute, Inc. | Monocular 2d semantic keypoint detection and tracking |
US11580690B1 (en) | 2021-08-31 | 2023-02-14 | Raytheon Company | Horizon-based navigation |
WO2023066772A1 (en) * | 2021-10-20 | 2023-04-27 | Syddansk Universitet | A method and a system for collision avoidance of a 3d robotic concrete printer |
CN114384939B (zh) * | 2022-03-24 | 2022-07-29 | 江苏深瑞光学技术有限公司 | 一种微型水下探测机器人自主导航系统 |
CN116342827B (zh) * | 2023-05-26 | 2023-08-08 | 厦门精图信息技术有限公司 | 一种地图元素三维呈现系统及方法 |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6667592B2 (en) * | 2001-08-13 | 2003-12-23 | Intellibot, L.L.C. | Mapped robot system |
US8577538B2 (en) * | 2006-07-14 | 2013-11-05 | Irobot Corporation | Method and system for controlling a remote vehicle |
JP2007257200A (ja) * | 2006-03-22 | 2007-10-04 | Toyota Motor Corp | 移動体及びその制御方法 |
US8509965B2 (en) * | 2006-12-12 | 2013-08-13 | American Gnc Corporation | Integrated collision avoidance system for air vehicle |
JP4661838B2 (ja) * | 2007-07-18 | 2011-03-30 | トヨタ自動車株式会社 | 経路計画装置及び方法、コスト評価装置、並びに移動体 |
CN100468265C (zh) * | 2007-08-24 | 2009-03-11 | 北京航空航天大学 | 一种复合式视觉导航方法与装置 |
JP2009193240A (ja) * | 2008-02-13 | 2009-08-27 | Toyota Motor Corp | 移動ロボット及び環境地図の生成方法 |
US8229618B2 (en) | 2008-09-11 | 2012-07-24 | Deere & Company | Leader-follower fully autonomous vehicle with operator on side |
JP5321214B2 (ja) * | 2009-04-15 | 2013-10-23 | トヨタ自動車株式会社 | 移動体及びその制御方法 |
KR101667032B1 (ko) * | 2009-10-30 | 2016-10-17 | 삼성전자 주식회사 | 로봇의 경로 계획 장치 및 그 방법 |
WO2012021192A2 (en) | 2010-05-12 | 2012-02-16 | Irobot Corporation | Remote vehicle control system and method |
US9213905B2 (en) | 2010-10-25 | 2015-12-15 | Trimble Navigation Limited | Automatic obstacle location mapping |
US8761990B2 (en) * | 2011-03-30 | 2014-06-24 | Microsoft Corporation | Semi-autonomous mobile device driving with obstacle avoidance |
CN102866706B (zh) * | 2012-09-13 | 2015-03-25 | 深圳市银星智能科技股份有限公司 | 一种采用智能手机导航的清扫机器人及其导航清扫方法 |
KR101339480B1 (ko) * | 2012-12-14 | 2013-12-10 | 고려대학교 산학협력단 | Rrt 기반의 듀얼 트리 구조를 이용한 이동 로봇의 궤적 계획 방법 |
US9674507B2 (en) | 2013-04-30 | 2017-06-06 | Qualcomm Incorporated | Monocular visual SLAM with general and panorama camera movements |
US20140355869A1 (en) * | 2013-06-03 | 2014-12-04 | Elbit Systems Ltd. | System and method for preventing aircrafts from colliding with objects on the ground |
EP2884364B1 (en) * | 2013-12-12 | 2018-09-26 | Hexagon Technology Center GmbH | Autonomous gardening vehicle with camera |
DE102014226084A1 (de) * | 2014-12-16 | 2016-06-16 | Robert Bosch Gmbh | Verfahren zur Kartierung einer Bearbeitungsfläche für autonome Roboterfahrzeuge |
CN104865965B (zh) * | 2015-05-20 | 2017-12-26 | 深圳市锐曼智能装备有限公司 | 机器人用深度摄像头与超声波结合的避障控制方法及系统 |
CN204695100U (zh) * | 2015-05-20 | 2015-10-07 | 深圳市锐曼智能装备有限公司 | 机器人用深度摄像头与超声波结合的避障控制装置 |
US10341633B2 (en) * | 2015-11-20 | 2019-07-02 | Qualcomm Incorporated | Systems and methods for correcting erroneous depth information |
-
2016
- 2016-08-26 US US15/249,250 patent/US10705528B2/en active Active
- 2016-10-27 KR KR1020187016758A patent/KR102226350B1/ko active IP Right Grant
- 2016-10-27 EP EP16795194.6A patent/EP3391166B1/en active Active
- 2016-10-27 CN CN201680073157.4A patent/CN108475059B/zh active Active
- 2016-10-27 BR BR112018011944A patent/BR112018011944A2/pt not_active Application Discontinuation
- 2016-10-27 WO PCT/US2016/059171 patent/WO2017105643A1/en active Search and Examination
- 2016-10-27 JP JP2018530846A patent/JP6882296B2/ja active Active
- 2016-10-27 CA CA3004262A patent/CA3004262A1/en not_active Abandoned
- 2016-11-16 TW TW105137353A patent/TW201728876A/zh unknown
Also Published As
Publication number | Publication date |
---|---|
JP2019500693A (ja) | 2019-01-10 |
CN108475059B (zh) | 2021-11-09 |
TW201728876A (zh) | 2017-08-16 |
CN108475059A (zh) | 2018-08-31 |
US10705528B2 (en) | 2020-07-07 |
US20170168488A1 (en) | 2017-06-15 |
EP3391166A1 (en) | 2018-10-24 |
CA3004262A1 (en) | 2017-06-22 |
BR112018011944A2 (pt) | 2018-11-27 |
KR102226350B1 (ko) | 2021-03-12 |
KR20180093934A (ko) | 2018-08-22 |
WO2017105643A1 (en) | 2017-06-22 |
EP3391166B1 (en) | 2020-02-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6882296B2 (ja) | 自律視覚ナビゲーション | |
US11592845B2 (en) | Image space motion planning of an autonomous vehicle | |
US20220234733A1 (en) | Aerial Vehicle Smart Landing | |
US11861892B2 (en) | Object tracking by an unmanned aerial vehicle using visual sensors | |
JP6906011B2 (ja) | オブジェクトの二次元境界枠を自動運転車両の三次元位置に転換するための方法[method for transforming 2d bounding boxes of objects into 3d positions for autonomous driving vehicles (advs)] | |
US11749124B2 (en) | User interaction with an autonomous unmanned aerial vehicle | |
CN108007452B (zh) | 根据障碍物更新环境地图的方法、装置及机器人 | |
JP2007249632A (ja) | 障害物のある環境下で自律移動する移動ロボットおよび移動ロボットの制御方法。 | |
JP7278740B2 (ja) | 移動体制御装置 | |
JP2021114222A (ja) | ロボットシステムおよびその位置推定方法 | |
WO2023127337A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
Mohan et al. | A comprehensive review of SLAM techniques | |
US20230150543A1 (en) | Systems and methods for estimating cuboid headings based on heading estimations generated using different cuboid defining techniques | |
Hutsebaut-Buysse et al. | Directed Real-World Learned Exploration |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180824 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191004 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191004 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20200326 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20200615 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200623 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200923 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201215 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210315 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210406 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210506 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6882296 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |