JP7133926B2 - 情報処理装置、システム、情報処理方法 - Google Patents
情報処理装置、システム、情報処理方法 Download PDFInfo
- Publication number
- JP7133926B2 JP7133926B2 JP2018004468A JP2018004468A JP7133926B2 JP 7133926 B2 JP7133926 B2 JP 7133926B2 JP 2018004468 A JP2018004468 A JP 2018004468A JP 2018004468 A JP2018004468 A JP 2018004468A JP 7133926 B2 JP7133926 B2 JP 7133926B2
- Authority
- JP
- Japan
- Prior art keywords
- learning
- information processing
- unit
- orientation
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 87
- 238000003672 processing method Methods 0.000 title claims 4
- 238000003384 imaging method Methods 0.000 claims description 119
- 238000000034 method Methods 0.000 claims description 55
- 238000012545 processing Methods 0.000 claims description 55
- 238000004364 calculation method Methods 0.000 claims description 32
- 230000008569 process Effects 0.000 claims description 30
- 238000004590 computer program Methods 0.000 claims description 10
- 230000006870 function Effects 0.000 claims description 8
- 230000036544 posture Effects 0.000 claims 1
- 238000005259 measurement Methods 0.000 description 42
- 238000012986 modification Methods 0.000 description 18
- 230000004048 modification Effects 0.000 description 18
- 238000010586 diagram Methods 0.000 description 16
- 230000007613 environmental effect Effects 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 7
- 238000005286 illumination Methods 0.000 description 7
- 238000013527 convolutional neural network Methods 0.000 description 5
- 238000012549 training Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 241001465754 Metazoa Species 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/04—Control of altitude or depth
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/10—Simultaneous control of position or course in three dimensions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Automation & Control Theory (AREA)
- Radar, Positioning & Navigation (AREA)
- Aviation & Aerospace Engineering (AREA)
- Remote Sensing (AREA)
- Medical Informatics (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Description
前記学習データを用いて学習モデルに前記仮想空間の画像と前記幾何情報との対応関係を学習させる学習手段と、
撮像装置により撮像された現実空間の撮像画像を前記学習モデルに入力することで該学習モデルから出力される幾何情報に基づいて、前記撮像装置の位置及び姿勢の少なくとも一方を算出する算出手段と
を備えることを特徴とする。
本実施形態では、自動車の自動運転を行うために該自動車の位置及び/又は姿勢(以下、「位置及び/又は姿勢」を位置姿勢と称する)の算出を行うシステムについて説明する。本実施形態に係るシステムの構成例について、図1のブロック図を用いて説明する。
第1の実施形態では、幾何情報としてデプスマップを用いたが、仮想視点から見える仮想空間の幾何形状を表す情報であれば、幾何情報は如何なる情報であっても構わない。
撮像部11はRGBカラーカメラに限定されるものではなく、グレースケールカメラや赤外線カメラであっても良い。また、撮像部11の配置場所はフロントガラスの裏に限定されるものではなく、自動車1の上部外側、前方外側・内側、サイドミラー部であっても良い。また、撮像部11を複数個設けて、自動車1の進行方向に対して前方だけでなく、斜め前方、横方向、斜め後方、後方を撮像するよう自動車1に配置しても良い。
上記の通り、表示部12はタッチパネル画面を有することに限らず、例えば、自動車1のフロントガラスやダッシュボードに備えられたHUD(Head-Up Display)であっても良い。
上記の通り、モデルデータには、様々なデータが適用可能であり、例えば、三次元計測部や撮像部を利用して得た実環境における距離データ(点群データ)と色情報との組み合わせをモデルデータとしても良い。あるいは、三次元計測部や撮像部を利用して得たデプスマップと色情報とを有し且つ環境の位置姿勢に対応付いたキーフレーム情報をモデルデータとしても良い。
上記の通り、視点パラメータ、環境パラメータの情報処理装置10への入力方法は特定の入力方法に限らない。例えば、視点パラメータに含まれている配置パラメータや撮像パラメータについては、自動車1や撮像部11のメーカ・型番・配置情報を元に予め情報処理装置10に設定されていても良いし、撮像部11から取得して情報処理装置10に設定しても良い。また、情報処理装置10に予め設定されている若しくは撮像部11から取得したパラメータを、GUI400において該当する箇所に初期値として表示しても良い。
情報処理装置10によって推定された撮像部11の位置姿勢の使用用途は自動車の自動運転に限らない。つまり、撮像部11による撮像画像に基づいて該撮像部11若しくは該撮像部11を搭載する装置の周囲環境や位置姿勢をより高精度に取得することが要求される分野に情報処理装置10を適用しても良い。
学習モデルはCNNに限らず、例えば、機械学習のモデルであっても良いし、強化学習のモデルであっても良い。なお、学習データは、利用する学習モデルの学習処理に対応したデータ(例えば、画像と幾何情報のセット)を用いることになる。
本実施形態を含め、以下の各実施形態及び各変形例では、第1の実施形態との差分について説明し、以下で特に触れない限りは第1の実施形態と同様であるものとする。本実施形態では、情報処理装置10を搭載した自動車1とは別個の自動車2において現実空間を計測/撮像することで現実空間のモデルデータを生成し、該モデルデータを情報処理装置10の保持部101に登録する。
本実施形態に係るモデルデータは、距離情報が表す点群におけるそれぞれの点に、撮像画像において対応する画素の色情報を対応させて付与したもの、としたが、これに限らない。例えば、モデルデータは、距離情報が表す点群におけるそれぞれの点に、予め作成されたテクスチャにおいて対応する画素の色情報を対応させて付与したものであっても良い。また例えば、モデルデータは、予め生成された物体のポリゴンや点群に、撮像画像において対応する画素の色情報を対応付けたものであっても良い。
本実施形態に係るモデルデータは、距離情報が表す点群におけるそれぞれの点に、撮像画像において対応する画素の色情報を対応させて付与したもの、としたが、これに限らない。例えば、モデルデータは、計測部21や撮像部22を利用して得た距離情報と色情報とを元に生成したデプスマップと色情報とを有し且つ環境における位置姿勢に対応付いたキーフレーム情報であっても良い。環境における位置姿勢は例えばGPSなどを使って得ることができる。
本実施形態では、複数台の撮像部22によって自動車2の周囲(全周)を撮像した複数の撮像画像を取得した。しかし、撮像部22としてパノラマ撮影が可能なカメラを用いる場合には、該撮像部22によるパノラマ撮影によって得られる撮像画像を取得するようにしても良い。また、自動車2にパノラマ撮影が可能なカメラを複数台搭載したり、通常の撮影を行うカメラと組み合わせて搭載したりしても良い。
保持部101には第1の実施形態で説明したモデルデータを格納しておいて、これを仮想空間画像及び幾何情報の生成に使用し、後に、保持部101のモデルデータを情報処理装置20が生成したモデルデータに置換するようにしても良い。「保持部101のモデルデータを情報処理装置20が生成したモデルデータに置換する」タイミングとしては、例えば、「情報処理装置20において規定の範囲内のモデルデータが生成された場合」がある。これにより、位置姿勢推定の精度が上がっていく。
本実施形態では、状況別に学習モデルを生成しておき、撮像画像から幾何情報を推定する際には、該推定時における状況に応じた学習モデルを用いて該推定を行う。本実施形態に係るシステムの機能構成例について、図7のブロック図を用いて説明する。
学習モデルは、例えば、配置パラメータ、撮像パラメータ、時刻、季節、天気、周囲に存在する物体、地域等の項目のうち1つ以上の着目項目について複数生成し、計測パラメータに含まれる該着目項目の値に対応する学習モデルを選択するようにしても良い。
本実施形態では、仮想空間画像、視点パラメータ、環境パラメータを入力とし、幾何情報を出力とする学習モデルを学習処理によって生成し、該学習モデルに撮像画像及び計測パラメータを入力することで対応する幾何情報を取得するシステムについて説明する。
本実施形態では、保持しているモデルデータを、新たに撮像された撮像画像及び該撮像画像から学習モデルを用いて推定した幾何情報を用いて更新する。本実施形態に係るシステムの機能構成例について、図11のブロック図を用いて説明する。
本実施形態では、撮像画像と、該撮像画像を学習モデルに入力することで該学習モデルから出力される幾何情報と、を用いて該学習モデルの追加学習を行う。本実施形態に係るシステムの機能構成例について、図13のブロック図を用いて説明する。
以上の各実施形態や各変形例において説明した構成はその一部若しくは全部を適宜組み合わせて使用しても構わない。また、以上の各実施形態や各変形例において説明した構成はその一部若しくは全部を選択的に使用しても構わない。また、以上説明したパラメータの種別や数値などは、具体的な説明を行うために使用した一例であり、適宜変更しても構わない。
[第8の実施形態]
図2、5、7、9、11、13に示した情報処理装置の各機能部はハードウェア(例えば組み込みハードウェア)で実装しても良いし、一部をソフトウェア(コンピュータプログラム)で実装しても良い。後者の場合、例えば、保持部として説明したものをメモリで実装し、それ以外の機能部をソフトウェアで実装するようにしても良い。この場合、該メモリを有し、且つ該ソフトウェアを実行可能なプロセッサを有するコンピュータ装置であれば、上記の各実施形態や各変形例にて説明した情報処理装置に適用可能である。このようなコンピュータ装置のハードウェア構成例について、図15のブロック図を用いて説明する。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
Claims (22)
- 現実空間に対応する仮想空間における仮想視点の位置姿勢ごとの、該位置姿勢の仮想視点から見える該仮想空間の画像及び該位置姿勢の仮想視点から見える該仮想空間の幾何形状を示す幾何情報を学習データとして生成する生成手段と、
前記学習データを用いて学習モデルに前記仮想空間の画像と前記幾何情報との対応関係を学習させる学習手段と、
撮像装置により撮像された現実空間の撮像画像を前記学習モデルに入力することで該学習モデルから出力される幾何情報に基づいて、前記撮像装置の位置及び姿勢の少なくとも一方を算出する算出手段と
を備えることを特徴とする情報処理装置。 - 前記生成手段は、前記仮想空間における視点に係るパラメータと、前記仮想空間の環境に係るパラメータと、の少なくともいずれか一方と、前記仮想空間の幾何形状を表すモデルデータと、を用いて前記画像及び前記幾何情報を生成することを特徴とする請求項1に記載の情報処理装置。
- 前記視点に係るパラメータは、前記視点の位置及び姿勢の少なくとも一方、前記視点の個数、前記視点の移動速度、前記視点の焦点距離、主点、露光時間、フォーカス位置、のうち少なくともいずれか1つを含むことを特徴とする請求項2に記載の情報処理装置。
- 前記環境に係るパラメータは、前記仮想空間における照明条件を規定するパラメータ、前記仮想空間中に配置するモデルの種類、数、位置、姿勢、大きさ、のうち少なくともいずれか1つを含むことを特徴とする請求項2又は3に記載の情報処理装置。
- 更に、
前記視点に係るパラメータと、前記環境に係るパラメータと、を設定する手段を備えることを特徴とする請求項2乃至4の何れか1項に記載の情報処理装置。 - 前記モデルデータは、前記現実空間を三次元計測することで得られる情報に基づいて前記情報処理装置とは別個の装置が生成したデータであることを特徴とする請求項2乃至5の何れか1項に記載の情報処理装置。
- 更に、
前記撮像画像と、該撮像画像を前記学習モデルに入力することで該学習モデルから出力される幾何情報と、に基づいて前記モデルデータを更新する手段を備えることを特徴とする請求項2乃至6の何れか1項に記載の情報処理装置。 - 前記学習手段は、前記撮像画像と、該撮像画像を前記学習モデルに入力することで該学習モデルから出力される幾何情報と、に基づいて、前記学習モデルの追加学習を行うことを特徴とする請求項1乃至7の何れか1項に記載の情報処理装置。
- 前記生成手段は、規定の状況ごとに前記学習データを生成し、
前記学習手段は、規定の状況ごとに、該状況について前記生成手段が生成した学習データを用いて学習モデルの学習処理を行い、
前記算出手段は、規定の状況ごとに前記学習手段が生成した学習モデルのうち、測定した状況に対応する学習モデルを選択し、該選択した学習モデルに前記撮像画像を入力することで該学習モデルから出力される幾何情報に基づいて、前記撮像装置の位置及び姿勢の少なくとも一方を算出することを特徴とする請求項1乃至8の何れか1項に記載の情報処理装置。 - 前記生成手段は、規定の状況ごとに前記学習データを生成し、
前記学習手段は、前記学習データと、該学習データに対応する状況と、を用いて学習モデルの学習処理を行い、
前記算出手段は、前記学習モデルに前記撮像画像及び測定した状況を入力することで該学習モデルから出力される幾何情報に基づいて、前記撮像装置の位置及び姿勢の少なくとも一方を算出することを特徴とする請求項1乃至8の何れか1項に記載の情報処理装置。 - 前記幾何情報は前記仮想空間のデプスマップであることを特徴とする請求項1乃至10の何れか1項に記載の情報処理装置。
- 前記生成手段は、前記仮想空間の画像及び該仮想空間の幾何情報を所定の範囲内にある縮尺で生成することを特徴とする請求項1乃至11の何れか1項に記載の情報処理装置。
- 前記撮像画像と前記学習モデルから出力される前記幾何情報とは所定の範囲内にある縮尺であることを特徴とする請求項1乃至12の何れか1項に記載の情報処理装置。
- 現実空間に対応する仮想空間の画像及び該仮想空間の幾何情報を学習データとして生成する生成手段と、
前記学習データを用いて学習モデルの学習処理を行う学習手段と、
撮像装置により撮像された現実空間の撮像画像を前記学習モデルに入力することで該学習モデルから出力される幾何情報に基づいて、前記撮像装置の位置及び姿勢の少なくとも一方を算出する算出手段と、
前記撮像画像と、前記幾何情報と、前記撮像装置の位置及び姿勢の少なくとも一方と、に基づいて前記現実空間の三次元マップの生成・更新を行う手段と
を備え、
前記算出手段は、前記幾何情報と、前記三次元マップと、に基づいて、前記撮像装置の位置及び姿勢の少なくとも一方を算出する
ことを特徴とする情報処理装置。 - 前記算出手段は、前記撮像装置の位置及び姿勢の少なくとも一方に基づいて前記情報処理装置を搭載している車両の位置及び姿勢の少なくとも一方を算出することを特徴とする請求項1乃至14の何れか1項に記載の情報処理装置。
- 請求項15に記載の情報処理装置と、
前記算出手段が算出した前記車両の位置及び姿勢の少なくとも一方と、前記幾何情報と、に基づいて前記車両の運転制御を行う制御手段と
を備えることを特徴とするシステム。 - 前記システムは、前記撮像装置を有することを特徴とする請求項16に記載のシステム。
- 前記システムは、表示装置を有することを特徴とする請求項16又は17に記載のシステム。
- 前記制御手段は、
前記算出手段が算出した前記車両の位置及び姿勢の少なくとも一方と、前記幾何情報と、に基づいて、前記運転制御のための情報を生成する手段と、
前記運転制御のための情報に基づいて前記車両の運転制御を行うアクチュエータ部と
を備えることを特徴とする請求項16乃至18の何れか1項に記載のシステム。 - 情報処理装置が行う情報処理方法であって、
前記情報処理装置の生成手段が、現実空間に対応する仮想空間における仮想視点の位置姿勢ごとの、該位置姿勢の仮想視点から見える該仮想空間の画像及び該位置姿勢の仮想視点から見える該仮想空間の幾何形状を示す幾何情報を学習データとして生成する生成工程と、
前記情報処理装置の学習手段が、前記学習データを用いて学習モデルに前記仮想空間の画像と前記幾何情報との対応関係を学習させる学習工程と、
前記情報処理装置の算出手段が、撮像装置により撮像された現実空間の撮像画像を前記学習モデルに入力することで該学習モデルから出力される幾何情報に基づいて、前記撮像装置の位置及び姿勢の少なくとも一方を算出する算出工程と
を備えることを特徴とする情報処理方法。 - 情報処理装置が行う情報処理方法であって、
前記情報処理装置の生成手段が、現実空間に対応する仮想空間の画像及び該仮想空間の幾何情報を学習データとして生成する生成工程と、
前記情報処理装置の学習手段が、前記学習データを用いて学習モデルの学習処理を行う学習工程と、
前記情報処理装置の算出手段が、撮像装置により撮像された現実空間の撮像画像を前記学習モデルに入力することで該学習モデルから出力される幾何情報に基づいて、前記撮像装置の位置及び姿勢の少なくとも一方を算出する算出工程と、
前記情報処理装置の更新手段が、前記撮像画像と、前記幾何情報と、前記撮像装置の位置及び姿勢の少なくとも一方と、に基づいて前記現実空間の三次元マップの生成・更新を行う更新工程と
を備え、
前記算出工程では、前記幾何情報と、前記三次元マップと、に基づいて、前記撮像装置の位置及び姿勢の少なくとも一方を算出する
ことを特徴とする情報処理方法。 - コンピュータを、請求項1乃至15の何れか1項に記載の情報処理装置の各手段として機能させるためのコンピュータプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018004468A JP7133926B2 (ja) | 2018-01-15 | 2018-01-15 | 情報処理装置、システム、情報処理方法 |
US16/244,312 US11657319B2 (en) | 2018-01-15 | 2019-01-10 | Information processing apparatus, system, information processing method, and non-transitory computer-readable storage medium for obtaining position and/or orientation information |
CN201910037242.0A CN110060297B (zh) | 2018-01-15 | 2019-01-15 | 信息处理装置、系统、信息处理方法和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018004468A JP7133926B2 (ja) | 2018-01-15 | 2018-01-15 | 情報処理装置、システム、情報処理方法 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2019124538A JP2019124538A (ja) | 2019-07-25 |
JP2019124538A5 JP2019124538A5 (ja) | 2021-02-04 |
JP7133926B2 true JP7133926B2 (ja) | 2022-09-09 |
Family
ID=67214008
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018004468A Active JP7133926B2 (ja) | 2018-01-15 | 2018-01-15 | 情報処理装置、システム、情報処理方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11657319B2 (ja) |
JP (1) | JP7133926B2 (ja) |
CN (1) | CN110060297B (ja) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11170224B2 (en) * | 2018-05-25 | 2021-11-09 | Vangogh Imaging, Inc. | Keyframe-based object scanning and tracking |
DE102020111318A1 (de) * | 2019-04-30 | 2020-11-05 | Apple Inc. | Lokalisieren von inhalten in einer umgebung |
CN111859199A (zh) | 2019-04-30 | 2020-10-30 | 苹果公司 | 在环境中定位内容 |
JP7463686B2 (ja) * | 2019-10-24 | 2024-04-09 | 株式会社Jvcケンウッド | 画像記録装置、画像記録方法及び画像記録プログラム |
EP4073690A4 (en) * | 2019-12-12 | 2023-06-07 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | TARGET DETECTION METHOD, TERMINAL, AND MEDIUM |
SG10201913873QA (en) * | 2019-12-30 | 2021-07-29 | Singpilot Pte Ltd | Sequential Mapping And Localization (SMAL) For Navigation |
JP7337458B2 (ja) * | 2020-01-28 | 2023-09-04 | アルパイン株式会社 | 3次元位置推定装置および3次元位置推定方法 |
JP6846765B1 (ja) * | 2020-03-26 | 2021-03-24 | 株式会社 情報システムエンジニアリング | 情報処理プログラム |
JP7136849B2 (ja) * | 2020-07-13 | 2022-09-13 | 三菱ロジスネクスト株式会社 | 学習用データの生成方法、人検知モデルの学習方法、及び学習用データの生成装置 |
JP7427556B2 (ja) | 2020-07-27 | 2024-02-05 | 株式会社東芝 | 運転制御装置、運転制御方法及びプログラム |
WO2023149174A1 (ja) * | 2022-02-02 | 2023-08-10 | ソニーグループ株式会社 | 情報処理装置、情報処理方法及びプログラム |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002083297A (ja) | 2000-06-28 | 2002-03-22 | Matsushita Electric Ind Co Ltd | 物体認識方法および物体認識装置 |
JP2011198349A (ja) | 2010-02-25 | 2011-10-06 | Canon Inc | 情報処理方法及びその装置 |
JP2011248445A (ja) | 2010-05-24 | 2011-12-08 | Toyota Central R&D Labs Inc | 可動物予測装置及びプログラム |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102005024716B4 (de) * | 2005-05-30 | 2023-09-21 | Robert Bosch Gmbh | Verfahren und Vorrichtung zur Erkennung und Klassifizierung von Objekten |
US8812226B2 (en) * | 2009-01-26 | 2014-08-19 | GM Global Technology Operations LLC | Multiobject fusion module for collision preparation system |
US9279661B2 (en) | 2011-07-08 | 2016-03-08 | Canon Kabushiki Kaisha | Information processing apparatus and information processing method |
US9437005B2 (en) | 2011-07-08 | 2016-09-06 | Canon Kabushiki Kaisha | Information processing apparatus and information processing method |
US8195394B1 (en) * | 2011-07-13 | 2012-06-05 | Google Inc. | Object detection and classification for autonomous vehicles |
JP6004809B2 (ja) | 2012-03-13 | 2016-10-12 | キヤノン株式会社 | 位置姿勢推定装置、情報処理装置、情報処理方法 |
CN104321665B (zh) * | 2012-03-26 | 2017-02-22 | 罗伯特·博世有限公司 | 基于多表面模型的跟踪 |
US9097800B1 (en) * | 2012-10-11 | 2015-08-04 | Google Inc. | Solid object detection system using laser and radar sensor fusion |
US9563199B1 (en) * | 2013-11-27 | 2017-02-07 | Google Inc. | Assisted perception for autonomous vehicles |
AU2014240213B2 (en) * | 2014-09-30 | 2016-12-08 | Canon Kabushiki Kaisha | System and Method for object re-identification |
JP6676294B2 (ja) | 2015-06-30 | 2020-04-08 | キヤノン株式会社 | 情報処理装置、情報処理方法、プログラム |
US9720415B2 (en) * | 2015-11-04 | 2017-08-01 | Zoox, Inc. | Sensor-based object-detection optimization for autonomous vehicles |
US10353053B2 (en) * | 2016-04-22 | 2019-07-16 | Huawei Technologies Co., Ltd. | Object detection using radar and machine learning |
JP6987508B2 (ja) * | 2017-02-20 | 2022-01-05 | オムロン株式会社 | 形状推定装置及び方法 |
US11521009B2 (en) * | 2018-09-04 | 2022-12-06 | Luminar, Llc | Automatically generating training data for a lidar using simulated vehicles in virtual space |
-
2018
- 2018-01-15 JP JP2018004468A patent/JP7133926B2/ja active Active
-
2019
- 2019-01-10 US US16/244,312 patent/US11657319B2/en active Active
- 2019-01-15 CN CN201910037242.0A patent/CN110060297B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002083297A (ja) | 2000-06-28 | 2002-03-22 | Matsushita Electric Ind Co Ltd | 物体認識方法および物体認識装置 |
JP2011198349A (ja) | 2010-02-25 | 2011-10-06 | Canon Inc | 情報処理方法及びその装置 |
JP2011248445A (ja) | 2010-05-24 | 2011-12-08 | Toyota Central R&D Labs Inc | 可動物予測装置及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP2019124538A (ja) | 2019-07-25 |
CN110060297B (zh) | 2023-04-25 |
CN110060297A (zh) | 2019-07-26 |
US11657319B2 (en) | 2023-05-23 |
US20190220775A1 (en) | 2019-07-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7133926B2 (ja) | 情報処理装置、システム、情報処理方法 | |
JP7204326B2 (ja) | 情報処理装置及びその制御方法及びプログラム、並びに、車両の運転支援システム | |
JP7011472B2 (ja) | 情報処理装置、情報処理方法 | |
CN110758243A (zh) | 一种车辆行驶过程中的周围环境显示方法和系统 | |
US11887336B2 (en) | Method for estimating a relative position of an object in the surroundings of a vehicle and electronic control unit for a vehicle and vehicle | |
KR20200071293A (ko) | 3차원 컬러 맵 기반의 측위 방법 및 장치 | |
CN110969064B (zh) | 一种基于单目视觉的图像检测方法、装置及存储设备 | |
US11748998B1 (en) | Three-dimensional object estimation using two-dimensional annotations | |
CN111627054A (zh) | 用于预测高置信度密集点云的深度补全误差地图的方法和装置 | |
WO2023185354A1 (zh) | 实景导航方法、装置、设备及存储介质、程序产品 | |
US11756317B2 (en) | Methods and systems for labeling lidar point cloud data | |
CN114765972A (zh) | 用于示出车辆的周围环境模型的显示方法、计算机程序、控制器和车辆 | |
JP4466963B2 (ja) | 車両前方画像表示装置及び方法 | |
JP2023146041A (ja) | 機械学習システム | |
CN114463713A (zh) | 一种车辆在3d空间的信息检测方法、装置及电子设备 | |
JP7337617B2 (ja) | 推定装置、推定方法及びプログラム | |
CN114648743A (zh) | 三维交通标志检测 | |
CN112389459B (zh) | 基于全景环视的人机交互方法及装置 | |
EP3809363B1 (en) | Method and device for providing a surround view image, and vehicle | |
WO2020223868A1 (zh) | 地面信息处理方法、装置和无人驾驶车辆 | |
US11645364B2 (en) | Systems and methods for object detection using stereovision information | |
US11681047B2 (en) | Ground surface imaging combining LiDAR and camera data | |
CN113544742A (zh) | 泊车辅助系统 | |
CN116608874A (zh) | 基于定位匹配的地图构建方法、系统、存储介质及设备 | |
CN117727011A (zh) | 基于图像融合的目标识别方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201216 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201216 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20210103 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210113 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211129 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220107 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220307 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220801 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220830 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7133926 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |