JP7438515B2 - 俯瞰データ生成装置、学習装置、俯瞰データ生成プログラム、俯瞰データ生成方法、及びロボット - Google Patents
俯瞰データ生成装置、学習装置、俯瞰データ生成プログラム、俯瞰データ生成方法、及びロボット Download PDFInfo
- Publication number
- JP7438515B2 JP7438515B2 JP2023022034A JP2023022034A JP7438515B2 JP 7438515 B2 JP7438515 B2 JP 7438515B2 JP 2023022034 A JP2023022034 A JP 2023022034A JP 2023022034 A JP2023022034 A JP 2023022034A JP 7438515 B2 JP7438515 B2 JP 7438515B2
- Authority
- JP
- Japan
- Prior art keywords
- ground
- movement
- bird
- observed
- eye view
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 240000004050 Pentaglottis sempervirens Species 0.000 title claims description 171
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 title claims description 171
- 238000000034 method Methods 0.000 title claims description 37
- 230000033001 locomotion Effects 0.000 claims description 284
- 239000013598 vector Substances 0.000 claims description 122
- 238000009826 distribution Methods 0.000 claims description 52
- 238000003860 storage Methods 0.000 description 19
- 238000010606 normalization Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 13
- 230000003068 static effect Effects 0.000 description 13
- 230000010365 information processing Effects 0.000 description 11
- 238000013500 data storage Methods 0.000 description 10
- 238000004364 calculation method Methods 0.000 description 8
- 238000013528 artificial neural network Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 3
- 230000000052 comparative effect Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Landscapes
- Navigation (AREA)
- Traffic Control Systems (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Image Analysis (AREA)
Description
図1は、本発明の第1実施形態に係るロボット100の概略構成を示す図である。図1に示すように、ロボット100は、カメラ10、俯瞰データ生成装置20、報知部50、及び自律走行部60を備える。俯瞰データ生成装置20は、取得部22、追跡部24、生成部26、モデル記憶部27、及び制御部28を備える。なお、ロボット100が、観測移動体の一例であり、カメラ10が、観測装置の一例である。
次に、第2実施形態に係る俯瞰データ生成装置について説明する。なお、第1実施形態と同様の構成となる部分については、同一符号を付して詳細な説明を省略する。
次に、第3実施形態に係る俯瞰データ生成装置について説明する。なお、第3実施形態に係る俯瞰データ生成装置は、第1実施形態と同様の構成であるため、同一符号を付して詳細な説明を省略する。
また、図11Bに示すような、次の時刻の人物の各々の地面上の位置の分布を表す俯瞰データを生成してもよい。図11Bでは、縦軸、横軸は距離を表し、ロボット(逆三角)、人の位置の分布を含む俯瞰図の例を示している。等高線の楕円は、不確かさの分布を伴う人の位置を示し、点線はロボット100のカメラの視界を示している。図11Bの例は、ロボット100内の情報を表した図のため、ロボットの位置は固定(不確かさの分布はない)され、人のみが不確かさの分布を持つ。
上記第1実施形態の俯瞰データ生成装置20により、画像の時系列データから、俯瞰データを生成した例について説明する。
なお、上記の実施形態では、ロボット100や情報処理端末200が俯瞰データ生成装置20、220を備えた場合について説明したが、俯瞰データ生成装置20、220の機能を外部サーバに設けてもよい。この場合、ロボット100や情報処理端末200は、カメラ10で撮影した画像の時系列データを外部サーバに送信する。外部サーバは、送信された画像の時系列データから、俯瞰データを生成し、ロボット100や情報処理端末200に送信する。
動的な環境において観測装置を搭載した観測移動体からの視点で観測された少なくとも1つの移動体を表す2次元観測情報の時系列データを取得する取得部と、
前記観測移動体の地面上の動き、及び前記移動体の各々の地面上の動きを推定する学習済みモデルを用いて、
前記2次元観測情報の時系列データから、前記観測移動体を俯瞰した位置から観測した場合に得られる、前記観測移動体の地面上の移動軌跡、及び前記移動体の各々の地面上の移動軌跡を表す俯瞰データを生成する生成部と、
を含む俯瞰データ生成装置。
前記生成部は、
前記観測移動体の地面上の動き、及び前記移動体の各々の地面上の動きの分布を推定する学習済みモデルを用いて、
前記2次元観測情報の時系列データから、前記観測移動体を俯瞰した位置から観測した場合に得られる、前記観測移動体の地面上の移動軌跡、及び前記移動体の各々の地面上の位置分布を表す移動軌跡を表す俯瞰データを生成する付記1記載の俯瞰データ生成装置。
前記2次元観測情報の時系列データから、前記移動体の各々を追跡し、前記2次元観測情報上の前記移動体の各々の各時刻の位置及び大きさを取得する追跡部を更に含み、
前記生成部は、前記2次元観測情報上の前記移動体の各々の各時刻の位置及び大きさを入力として、前記観測移動体の地面上の動き、及び前記移動体の各々の地面上の動きを推定する前記学習済みモデルを用いて、前記俯瞰データを生成する付記1又は2記載の俯瞰データ生成装置。
前記学習済みモデルは、
前記移動体の各々の対象時刻の位置及び大きさを入力とし、ベクトルを出力する第1エンコーダと、
一時刻前について得られた、前記観測移動体の地面上の動き、及び前記移動体の各々の地面上の動きを入力とし、ベクトルを出力する第2エンコーダと、
前記第1エンコーダによって出力された前記ベクトル、及び前記第2エンコーダによって出力された前記ベクトルを入力とし、前記対象時刻についての前記観測移動体の地面上の動き、及び前記移動体の各々の地面上の動きを出力するデコーダとを含む付記3記載の俯瞰データ生成装置。
動的な環境において観測装置を搭載した観測移動体からの視点で観測された少なくとも1つの移動体を表す2次元観測情報上の前記移動体の各々の各時刻の位置及び大きさの時系列データと、前記観測移動体の地面上の動き、及び前記移動体の各々の地面上の動きの時系列データとの組み合わせを教師データとして取得する取得部と、
前記教師データに基づいて、前記2次元観測情報上の前記移動体の各々の各時刻の位置及び大きさを入力として、前記観測移動体の地面上の動き、及び前記移動体の各々の地面上の動きを推定するモデルを学習する学習部と、
を含む学習装置。
前記モデルは、
前記移動体の各々の対象時刻の位置及び大きさを入力とし、ベクトルを出力する第1エンコーダと、
一時刻前について得られた、前記観測移動体の地面上の動き、及び前記移動体の各々の地面上の動きを入力とし、ベクトルを出力する第2エンコーダと、
前記第1エンコーダによって出力された前記ベクトル、及び前記第2エンコーダによって出力された前記ベクトルを入力とし、対象時刻についての前記観測移動体の地面上の動き、及び前記移動体の各々の地面上の動きを出力するデコーダとを含む付記5記載の学習装置。
動的な環境において観測装置を搭載した観測移動体からの視点で観測された少なくとも1つの移動体を表す2次元観測情報の時系列データを取得する取得部と、
前記観測移動体の地面上の動き、及び前記移動体の各々の地面上の動きを予測する学習済みモデルを用いて、
前記2次元観測情報の時系列データから、前記観測移動体を俯瞰した位置から観測した場合に得られる、前記観測移動体の地面上の移動軌跡、及び前記移動体の各々の地面上の移動軌跡を表す俯瞰データの予測結果を生成する生成部と、
を含む俯瞰データ生成装置。
前記生成部は、
前記観測移動体の地面上の動き、及び前記移動体の各々の地面上の動きの分布を予測する学習済みモデルを用いて、
前記2次元観測情報の時系列データから、前記観測移動体を俯瞰した位置から観測した場合に得られる、前記観測移動体の地面上の移動軌跡、及び前記移動体の各々の地面上の位置分布を表す移動軌跡を表す俯瞰データの予測結果を生成する付記7記載の俯瞰データ生成装置。
コンピュータに、
動的な環境において観測装置を搭載した観測移動体からの視点で観測された少なくとも1つの移動体を表す2次元観測情報の時系列データを取得する取得工程と、
前記観測移動体の地面上の動き、及び前記移動体の各々の地面上の動きを推定する学習済みモデルを用いて、
前記2次元観測情報の時系列データから、前記観測移動体を俯瞰した位置から観測した場合に得られる、前記観測移動体の地面上の移動軌跡、及び前記移動体の各々の地面上の移動軌跡を表す俯瞰データを生成する生成工程と、
を含む処理を実行させるための俯瞰データ生成プログラム。
コンピュータが、
動的な環境において観測装置を搭載した観測移動体からの視点で観測された少なくとも1つの移動体を表す2次元観測情報の時系列データを取得する取得工程と、
前記観測移動体の地面上の動き、及び前記移動体の各々の地面上の動きを推定する学習済みモデルを用いて、
前記2次元観測情報の時系列データから、前記観測移動体を俯瞰した位置から観測した場合に得られる、前記観測移動体の地面上の移動軌跡、及び前記移動体の各々の地面上の移動軌跡を表す俯瞰データを生成する生成工程と、
を含む処理を実行する俯瞰データ生成方法。
動的な環境において観測装置を搭載したロボットからの視点で観測された少なくとも1つの移動体を表す2次元観測情報の時系列データを取得する取得部と、
前記ロボットの地面上の動き、及び前記移動体の各々の地面上の動きを推定する学習済みモデルを用いて、
前記2次元観測情報の時系列データから、前記ロボットを俯瞰した位置から観測した場合に得られる、前記ロボットの地面上の移動軌跡、及び前記移動体の各々の地面上の移動軌跡を表す俯瞰データを生成する生成部と、
前記ロボットを自律走行させる自律走行部と、
前記俯瞰データを用いて、前記ロボットが目的地に移動するように前記自律走行部を制御する制御部と、
を含むロボット。
コンピュータに、
動的な環境において観測装置を搭載した観測移動体からの視点で観測された少なくとも1つの移動体を表す2次元観測情報の時系列データを取得する取得工程と、
前記観測移動体の地面上の動き、及び前記移動体の各々の地面上の動きを予測する学習済みモデルを用いて、
前記2次元観測情報の時系列データから、前記観測移動体を俯瞰した位置から観測した場合に得られる、前記観測移動体の地面上の移動軌跡、及び前記移動体の各々の地面上の移動軌跡を表す俯瞰データの予測結果を生成する生成工程と、
を含む処理を実行させるための俯瞰データ生成プログラム。
コンピュータが、
動的な環境において観測装置を搭載した観測移動体からの視点で観測された少なくとも1つの移動体を表す2次元観測情報の時系列データを取得する取得工程と、
前記観測移動体の地面上の動き、及び前記移動体の各々の地面上の動きを予測する学習済みモデルを用いて、
前記2次元観測情報の時系列データから、前記観測移動体を俯瞰した位置から観測した場合に得られる、前記観測移動体の地面上の移動軌跡、及び前記移動体の各々の地面上の移動軌跡を表す俯瞰データの予測結果を生成する生成工程と、
を含む処理を実行する俯瞰データ生成方法。
動的な環境において観測装置を搭載したロボットからの視点で観測された少なくとも1つの移動体を表す2次元観測情報の時系列データを取得する取得部と、
前記ロボットの地面上の動き、及び前記移動体の各々の地面上の動きを予測する学習済みモデルを用いて、
前記2次元観測情報の時系列データから、前記ロボットを俯瞰した位置から観測した場合に得られる、前記ロボットの地面上の移動軌跡、及び前記移動体の各々の地面上の移動軌跡を表す俯瞰データの予測結果を生成する生成部と、
前記ロボットを自律走行させる自律走行部と、
前記俯瞰データの予測結果を用いて、前記ロボットが目的地に移動するように前記自律走行部を制御する制御部と、
を含むロボット。
20 俯瞰データ生成装置
22 取得部
24 追跡部
26 生成部
28 制御部
50 報知部
60 自律走行部
70 学習済みモデル
72 第1エンコーダ
74 第2エンコーダ
76 デコーダ
100 ロボット
120 学習装置
122 教師データ記憶部
124 取得部
126 学習部
200 情報処理端末
220 俯瞰データ生成装置
Claims (16)
- 動的な環境において観測装置を搭載した観測移動体からの視点で観測された少なくとも1つの移動体を表す時系列データを取得する取得部と、
前記観測移動体の地面上の動き、及び前記移動体の各々の地面上の動きを推定する学習済みモデルを用いて、
前記時系列データから、前記観測移動体を俯瞰した位置から観測した場合に得られる、前記観測移動体の地面上の移動軌跡、及び前記移動体の各々の地面上の移動軌跡を表す俯瞰データを生成する生成部と、
を含む俯瞰データ生成装置。 - 前記生成部は、
前記観測移動体の地面上の動き、及び前記移動体の各々の地面上の動きの分布を推定する学習済みモデルを用いて、
前記時系列データから、前記観測移動体を俯瞰した位置から観測した場合に得られる、前記観測移動体の地面上の移動軌跡、及び前記移動体の各々の地面上の位置分布を表す移動軌跡を表す俯瞰データを生成する請求項1記載の俯瞰データ生成装置。 - 前記時系列データから、前記移動体の各々を追跡し、前記移動体の各々の各時刻の位置及び大きさを取得する追跡部を更に含み、
前記生成部は、前記移動体の各々の各時刻の位置及び大きさを入力として、前記観測移動体の地面上の動き、及び前記移動体の各々の地面上の動きを推定する前記学習済みモデルを用いて、前記俯瞰データを生成する請求項1記載の俯瞰データ生成装置。 - 前記学習済みモデルは、
前記移動体の各々の対象時刻の位置及び大きさを入力とし、ベクトルを出力する第1エンコーダと、
一時刻前について得られた、前記観測移動体の地面上の動き、及び前記移動体の各々の地面上の動きを入力とし、ベクトルを出力する第2エンコーダと、
前記第1エンコーダによって出力された前記ベクトル、及び前記第2エンコーダによって出力された前記ベクトルを入力とし、前記対象時刻についての前記観測移動体の地面上の動き、及び前記移動体の各々の地面上の動きを出力するデコーダとを含む請求項3記載の俯瞰データ生成装置。 - 動的な環境において観測装置を搭載した観測移動体からの視点で観測された少なくとも1つの移動体の各々の各時刻の位置及び大きさの時系列データと、前記観測移動体の地面上の動き、及び前記移動体の各々の地面上の動きの時系列データとの組み合わせを教師データとして取得する取得部と、
前記教師データに基づいて、前記移動体の各々の各時刻の位置及び大きさを入力として、前記観測移動体の地面上の動き、及び前記移動体の各々の地面上の動きを推定するモデルを学習する学習部と、
を含む学習装置。 - 前記モデルは、
前記移動体の各々の対象時刻の位置及び大きさを入力とし、ベクトルを出力する第1エンコーダと、
一時刻前について得られた、前記観測移動体の地面上の動き、及び前記移動体の各々の地面上の動きを入力とし、ベクトルを出力する第2エンコーダと、
前記第1エンコーダによって出力された前記ベクトル、及び前記第2エンコーダによって出力された前記ベクトルを入力とし、対象時刻についての前記観測移動体の地面上の動き、及び前記移動体の各々の地面上の動きを出力するデコーダとを含む請求項5記載の学習装置。 - 動的な環境において観測装置を搭載した観測移動体からの視点で観測された少なくとも1つの移動体を表す時系列データを取得する取得部と、
前記観測移動体の地面上の動き、及び前記移動体の各々の地面上の動きを予測する学習済みモデルを用いて、
前記時系列データから、前記観測移動体を俯瞰した位置から観測した場合に得られる、前記観測移動体の地面上の移動軌跡、及び前記移動体の各々の地面上の移動軌跡を表す俯瞰データの予測結果を生成する生成部と、
を含む俯瞰データ生成装置。 - 前記生成部は、
前記観測移動体の地面上の動き、及び前記移動体の各々の地面上の動きの分布を予測する学習済みモデルを用いて、
前記時系列データから、前記観測移動体を俯瞰した位置から観測した場合に得られる、前記観測移動体の地面上の移動軌跡、及び前記移動体の各々の地面上の位置分布を表す移動軌跡を表す俯瞰データの予測結果を生成する請求項7記載の俯瞰データ生成装置。 - コンピュータに、
動的な環境において観測装置を搭載した観測移動体からの視点で観測された少なくとも1つの移動体を表す時系列データを取得する取得工程と、
前記観測移動体の地面上の動き、及び前記移動体の各々の地面上の動きを推定する学習済みモデルを用いて、
前記時系列データから、前記観測移動体を俯瞰した位置から観測した場合に得られる、前記観測移動体の地面上の移動軌跡、及び前記移動体の各々の地面上の移動軌跡を表す俯瞰データを生成する生成工程と、
を含む処理を実行させるための俯瞰データ生成プログラム。 - コンピュータが、
動的な環境において観測装置を搭載した観測移動体からの視点で観測された少なくとも1つの移動体を表す時系列データを取得する取得工程と、
前記観測移動体の地面上の動き、及び前記移動体の各々の地面上の動きを推定する学習済みモデルを用いて、
前記時系列データから、前記観測移動体を俯瞰した位置から観測した場合に得られる、前記観測移動体の地面上の移動軌跡、及び前記移動体の各々の地面上の移動軌跡を表す俯瞰データを生成する生成工程と、
を含む処理を実行する俯瞰データ生成方法。 - 動的な環境において観測装置を搭載したロボットからの視点で観測された少なくとも1つの移動体を表す時系列データを取得する取得部と、
前記ロボットの地面上の動き、及び前記移動体の各々の地面上の動きを推定する学習済みモデルを用いて、
前記時系列データから、前記ロボットを俯瞰した位置から観測した場合に得られる、前記ロボットの地面上の移動軌跡、及び前記移動体の各々の地面上の移動軌跡を表す俯瞰データを生成する生成部と、
前記ロボットを自律走行させる自律走行部と、
前記俯瞰データを用いて、前記ロボットが目的地に移動するように前記自律走行部を制御する制御部と、
を含むロボット。 - コンピュータに、
動的な環境において観測装置を搭載した観測移動体からの視点で観測された少なくとも1つの移動体を表す時系列データを取得する取得工程と、
前記観測移動体の地面上の動き、及び前記移動体の各々の地面上の動きを予測する学習済みモデルを用いて、
前記時系列データから、前記観測移動体を俯瞰した位置から観測した場合に得られる、前記観測移動体の地面上の移動軌跡、及び前記移動体の各々の地面上の移動軌跡を表す俯瞰データの予測結果を生成する生成工程と、
を含む処理を実行させるための俯瞰データ生成プログラム。 - コンピュータが、
動的な環境において観測装置を搭載した観測移動体からの視点で観測された少なくとも1つの移動体を表す時系列データを取得する取得工程と、
前記観測移動体の地面上の動き、及び前記移動体の各々の地面上の動きを予測する学習済みモデルを用いて、
前記時系列データから、前記観測移動体を俯瞰した位置から観測した場合に得られる、前記観測移動体の地面上の移動軌跡、及び前記移動体の各々の地面上の移動軌跡を表す俯瞰データの予測結果を生成する生成工程と、
を含む処理を実行する俯瞰データ生成方法。 - 動的な環境において観測装置を搭載したロボットからの視点で観測された少なくとも1つの移動体を表す時系列データを取得する取得部と、
前記ロボットの地面上の動き、及び前記移動体の各々の地面上の動きを予測する学習済みモデルを用いて、
前記時系列データから、前記ロボットを俯瞰した位置から観測した場合に得られる、前記ロボットの地面上の移動軌跡、及び前記移動体の各々の地面上の移動軌跡を表す俯瞰データの予測結果を生成する生成部と、
前記ロボットを自律走行させる自律走行部と、
前記俯瞰データの予測結果を用いて、前記ロボットが目的地に移動するように前記自律走行部を制御する制御部と、
を含むロボット。 - 前記取得部は、カメラ、レーザーレーダー、及びミリ波レーダーのいずれかを含む請求項1の俯瞰データ生成装置。
- 前記取得工程は、カメラ、レーザーレーダー、及びミリ波レーダーのいずれかを用いて観測された前記少なくとも1つの移動体を表す時系列データを取得する請求項13の俯瞰データ生成方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2023/009949 WO2023176854A1 (ja) | 2022-03-15 | 2023-03-14 | 俯瞰データ生成装置、学習装置、俯瞰データ生成プログラム、俯瞰データ生成方法、及びロボット |
JP2024015106A JP2024059653A (ja) | 2022-03-15 | 2024-02-02 | 俯瞰データ生成装置、学習装置、俯瞰データ生成プログラム、俯瞰データ生成方法、及びロボット |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022039936 | 2022-03-15 | ||
JP2022039936 | 2022-03-15 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024015106A Division JP2024059653A (ja) | 2022-03-15 | 2024-02-02 | 俯瞰データ生成装置、学習装置、俯瞰データ生成プログラム、俯瞰データ生成方法、及びロボット |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2023135615A JP2023135615A (ja) | 2023-09-28 |
JP2023135615A5 JP2023135615A5 (ja) | 2023-12-14 |
JP7438515B2 true JP7438515B2 (ja) | 2024-02-27 |
Family
ID=88144318
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023022034A Active JP7438515B2 (ja) | 2022-03-15 | 2023-02-15 | 俯瞰データ生成装置、学習装置、俯瞰データ生成プログラム、俯瞰データ生成方法、及びロボット |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7438515B2 (ja) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019067174A (ja) | 2017-10-02 | 2019-04-25 | 株式会社エイチアイ | 移動体用画像生成記録表示装置及びプログラム |
WO2020202741A1 (ja) | 2019-03-29 | 2020-10-08 | ソニー株式会社 | 情報処理装置及び情報処理方法、コンピュータプログラム、並びに移動体装置 |
WO2021095464A1 (ja) | 2019-11-13 | 2021-05-20 | オムロン株式会社 | ロボット制御モデル学習方法、ロボット制御モデル学習装置、ロボット制御モデル学習プログラム、ロボット制御方法、ロボット制御装置、ロボット制御プログラム、及びロボット |
WO2021095463A1 (ja) | 2019-11-13 | 2021-05-20 | オムロン株式会社 | 自己位置推定モデル学習方法、自己位置推定モデル学習装置、自己位置推定モデル学習プログラム、自己位置推定方法、自己位置推定装置、自己位置推定プログラム、及びロボット |
JP2021163096A (ja) | 2020-03-31 | 2021-10-11 | パナソニックIpマネジメント株式会社 | 物体検出方法、物体検出装置、及び、プログラム |
US11210533B1 (en) | 2020-08-09 | 2021-12-28 | Phantom AI, Inc. | Method of predicting trajectory of vehicle |
-
2023
- 2023-02-15 JP JP2023022034A patent/JP7438515B2/ja active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019067174A (ja) | 2017-10-02 | 2019-04-25 | 株式会社エイチアイ | 移動体用画像生成記録表示装置及びプログラム |
WO2020202741A1 (ja) | 2019-03-29 | 2020-10-08 | ソニー株式会社 | 情報処理装置及び情報処理方法、コンピュータプログラム、並びに移動体装置 |
WO2021095464A1 (ja) | 2019-11-13 | 2021-05-20 | オムロン株式会社 | ロボット制御モデル学習方法、ロボット制御モデル学習装置、ロボット制御モデル学習プログラム、ロボット制御方法、ロボット制御装置、ロボット制御プログラム、及びロボット |
WO2021095463A1 (ja) | 2019-11-13 | 2021-05-20 | オムロン株式会社 | 自己位置推定モデル学習方法、自己位置推定モデル学習装置、自己位置推定モデル学習プログラム、自己位置推定方法、自己位置推定装置、自己位置推定プログラム、及びロボット |
JP2021163096A (ja) | 2020-03-31 | 2021-10-11 | パナソニックIpマネジメント株式会社 | 物体検出方法、物体検出装置、及び、プログラム |
US11210533B1 (en) | 2020-08-09 | 2021-12-28 | Phantom AI, Inc. | Method of predicting trajectory of vehicle |
Non-Patent Citations (1)
Title |
---|
柴山 悠毅,金 享官,上条 俊介,車載カメラを用いた歩行者検出と相対軌跡取得技術の開発,電子情報通信学会技術研究報告,日本,社団法人電子情報通信学会,2011年05月,第111巻,第13~18頁 |
Also Published As
Publication number | Publication date |
---|---|
JP2023135615A (ja) | 2023-09-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11138751B2 (en) | Systems and methods for semi-supervised training using reprojected distance loss | |
US11788861B2 (en) | Map creation and localization for autonomous driving applications | |
US11176709B2 (en) | Systems and methods for self-supervised scale-aware training of a model for monocular depth estimation | |
US11436743B2 (en) | Systems and methods for semi-supervised depth estimation according to an arbitrary camera | |
US11036965B2 (en) | Shape estimating apparatus | |
CN110796692A (zh) | 用于同时定位与建图的端到端深度生成模型 | |
US11138465B2 (en) | Systems and methods for transforming coordinates between distorted and undistorted coordinate systems | |
US10909411B2 (en) | Information processing apparatus, information processing method, and computer program product | |
KR20170106963A (ko) | 위치 데이터 및 이미지 데이터의 스케일 공간 표현들을 이용한 오브젝트 검출 | |
KR20150144730A (ko) | ADoG 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법 | |
JP2010282615A (ja) | 3dワーピング手法と固有対象物運動(pom)の検出の組み合わせに基づく対象物の動き検出システム | |
Lagisetty et al. | Object detection and obstacle avoidance for mobile robot using stereo camera | |
WO2021095463A1 (ja) | 自己位置推定モデル学習方法、自己位置推定モデル学習装置、自己位置推定モデル学習プログラム、自己位置推定方法、自己位置推定装置、自己位置推定プログラム、及びロボット | |
JP2009178782A (ja) | 移動体、環境地図生成装置、及び環境地図生成方法 | |
KR101835632B1 (ko) | 차량의 이동 거리 산출 장치 및 방법 | |
JP7438515B2 (ja) | 俯瞰データ生成装置、学習装置、俯瞰データ生成プログラム、俯瞰データ生成方法、及びロボット | |
CN112800822A (zh) | 利用结构约束和物理约束进行3d自动标记 | |
WO2023176854A1 (ja) | 俯瞰データ生成装置、学習装置、俯瞰データ生成プログラム、俯瞰データ生成方法、及びロボット | |
JP7438510B2 (ja) | 俯瞰データ生成装置、俯瞰データ生成プログラム、俯瞰データ生成方法、及びロボット | |
JP2023054608A (ja) | 実スケール奥行算出装置、実スケール奥行算出方法、および実スケール奥行算出プログラム | |
Yang et al. | Inertial-aided vision-based localization and mapping in a riverine environment with reflection measurements | |
US20230077856A1 (en) | Systems and methods for single-shot multi-object 3d shape reconstruction and categorical 6d pose and size estimation | |
US20230326049A1 (en) | Self-supervised monocular depth estimation via rigid-motion embeddings | |
Ravipati | Vision Based Vehicle Localization for Infrastructure Enabled Autonomy | |
Będkowski | Trajectory Estimation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
AA64 | Notification of invalidation of claim of internal priority (with term) |
Free format text: JAPANESE INTERMEDIATE CODE: A241764 Effective date: 20230328 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230406 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231130 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231130 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20231130 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240109 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240205 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7438515 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |