JP6110256B2 - 対象物推定装置および対象物推定方法 - Google Patents
対象物推定装置および対象物推定方法 Download PDFInfo
- Publication number
- JP6110256B2 JP6110256B2 JP2013171774A JP2013171774A JP6110256B2 JP 6110256 B2 JP6110256 B2 JP 6110256B2 JP 2013171774 A JP2013171774 A JP 2013171774A JP 2013171774 A JP2013171774 A JP 2013171774A JP 6110256 B2 JP6110256 B2 JP 6110256B2
- Authority
- JP
- Japan
- Prior art keywords
- value
- acquired
- transition information
- information
- estimated value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 34
- 230000007704 transition Effects 0.000 claims description 149
- 230000002159 abnormal effect Effects 0.000 claims description 107
- 238000012937 correction Methods 0.000 claims description 43
- 230000002123 temporal effect Effects 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 description 71
- 230000014509 gene expression Effects 0.000 description 13
- 230000003287 optical effect Effects 0.000 description 12
- 239000011159 matrix material Substances 0.000 description 11
- 238000004088 simulation Methods 0.000 description 8
- 238000002474 experimental method Methods 0.000 description 5
- 230000000052 comparative effect Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/06—Automatic manoeuvring for parking
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/269—Analysis of motion using gradient-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/292—Multi-camera tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- Automation & Control Theory (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Psychiatry (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
- Measurement Of Optical Distance (AREA)
- Image Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
Description
画像取得手段が異なる位置から撮影した複数の画像に基づいて、当該画像中の対象物の位置および速度を推定する対象物推定装置であって、
前記複数の画像のうち基準となる基準画像において、時間的に前後するフレームから対応する画素の位置の時間的な推移情報を取得する推移情報取得手段と、
前記複数の画像から対応する各画素の視差情報を前記基準画像を基準として取得する視差情報取得手段と、
前記推移情報取得手段が取得した推移情報と、前記視差情報取得手段が取得した視差情報とに基づいて、前記対象物の3次元空間上の位置および速度の推定値をフィルタを用いて推定する推定値取得手段と、
前記推移情報取得手段が取得した推移情報および前記視差情報取得手段が取得した視差情報が、それぞれ異常値であるか否か判定する判定手段と、
前記判定手段の判定結果に基づいて、前記推定値取得手段が取得した前記推定値を補正する補正手段とを備え、
前記補正手段は、前記推移情報取得手段が取得した前記推移情報が異常値であると前記判定手段が判定した場合と、前記視差情報取得手段が取得した前記視差情報が異常値であると前記判定手段が判定した場合とで、前記推定値取得手段が取得した推定値を異なる方法で補正することを特徴とする。
図1は、本実施形態に係る対象物推定装置10が搭載された自動車のシステム構成を示すブロック図であって、対象物推定装置10は、画像取得部12(画像取得手段)および車両情報取得部14に電気的に接続されている。そして、対象物推定装置10は、画像取得部12および車両情報取得部14からの入力に基づいて、画像取得部12で撮影された対象物(例えば、他の車両や歩行者)の状態(位置および速度)を推定する。
画像取得部12は、例えば自動車のフロントガラス(ウインドシールドガラス)(図示せず)の車両室側に取り付けられ、自動車の進行方向の前方を撮影する。本実施形態の画像取得部12は、左右(自動車の進行方向に対し垂直な水平方向)に離間する一対のカメラ16,18を備えたステレオカメラである。なお、以下の説明では、左側のカメラを第1カメラ16(第1撮影手段)、右側のカメラを第2カメラ18(第2撮影手段)とそれぞれ指称する。
車両情報取得部14は、自動車の走行状態を検出するものであって、自動車のヨーレートを検出するヨーレートセンサ20および自動車の車速(走行速度)を検出する車速センサ22を備えている。車両情報取得部14で取得されたヨーレートおよび車速は、対象物推定装置10の後述する推定値取得部26に出力する。
図1に示すように、対象物推定装置10は、入力値取得部24および推定値取得部26を基本構成としている。
入力値取得部24は、推移情報算出部28(推移情報取得手段)および視差情報算出部30(視差情報取得手段)を備えている。入力値取得部24は、画像取得部12が取得した第1の画像および第2の画像に基づいて、推定値取得部26に入力する入力値(後述する視差情報および推移情報)を取得する。
先ず始めに、推移情報(u,v)が異常値であると判定された場合に、補正部36が推定値を補正する方法について、図4を用いて説明する。なお、図4に示す画像は、推移情報算出部28が算出した推移情報(u,v)を示すものであって、図3(c)で説明したものと同一である。
次に、視差情報dが異常値であると判定された場合に、補正部36が推定値を補正する方法について、図5を用いて説明する。なお、図5の左側の画像は、視差情報算出部30が算出した視差情報dを示すものであって、図3(b)で説明したものと同一である。また、図5の右側の画像は、左側の画像の対応するフレームでのトラッキング(推移情報)を示したものである。なお、図中の円形の囲み線は、対象物の同一箇所(追跡点C)を示しており、tフレームにおいて視差情報dが異常値となっている。なお、推移情報(u,d)については、全てのフレームにおいて適正に算出されたものとする。すなわち、追跡点Cについてのトラッキングは、正確に行われている。
次に、前述した対象物推定装置10の効果を確認するべく、視差情報dに異常値が生じる場合での実証実験(実験例)を行った。図7に示すように、対象物推定装置10が搭載された自動車42は、車速25km/hで道路を直進するものとする。そして、自動車42の走行方向の前方を走行する車両(以下、他車両44という)を対象物として、当該他車両44の位置および速度を推定した。なお、座標系は、図7に示す通りであり、第1カメラ16のレンズの中心を原点位置とした。
前述した実施形態に係る対象物推定装置は、以下のように変更することが可能である。
Claims (10)
- 画像取得手段(12)が異なる位置から撮影した複数の画像に基づいて、当該画像中の対象物の位置および速度を推定する対象物推定装置であって、
前記複数の画像のうち基準となる基準画像において、時間的に前後するフレームから対応する画素の位置の時間的な推移情報を取得する推移情報取得手段(28)と、
前記複数の画像から対応する各画素の視差情報を前記基準画像を基準として取得する視差情報取得手段(30)と、
前記推移情報取得手段が取得した推移情報と、前記視差情報取得手段が取得した視差情報とに基づいて、前記対象物の3次元空間上の位置および速度の推定値をフィルタを用いて推定する推定値取得手段(32)と、
前記推移情報取得手段が取得した推移情報および前記視差情報取得手段が取得した視差情報が、それぞれ異常値であるか否か判定する判定手段(34)と、
前記判定手段の判定結果に基づいて、前記推定値取得手段が取得した前記推定値を補正する補正手段(36)とを備え、
前記補正手段は、前記推移情報取得手段が取得した前記推移情報が異常値であると前記判定手段が判定した場合と、前記視差情報取得手段が取得した前記視差情報が異常値であると前記判定手段が判定した場合とで、前記推定値取得手段が取得した推定値を異なる方法で補正する
ことを特徴とする対象物推定装置。 - 前記補正手段は、前記推移情報取得手段が取得した前記推移情報を前記判定手段が異常値であると判定した場合に、前記推定値取得手段が取得した前記推定値を無効にすると共に、前記フィルタを初期状態にリセットする請求項1記載の対象物推定装置。
- 前記推定値取得手段は、前記対象物が予め設定したプロセスモデルに従うと仮定して、過去に取得した前記推定値から前記対象物の位置および速度の予測値を取得し、
前記補正手段は、前記視差情報取得手段が取得した前記視差情報が異常値であると前記判定手段が判定した場合に、前記推定値取得手段が取得した前記推定値を当該推定値取得手段が取得した前記予測値の値に補正する請求項1または2記載の対象物推定装置。 - 前記判定手段は、前記推移情報取得手段が取得した前記推移情報と、前記推定値取得手段が取得した前記予測値から算出され、前記推移情報に対応する予測推移情報との差に基づいて、当該推移情報が異常値であるか否か判定する請求項3記載の対象物推定装置。
- 前記判定手段は、前記視差情報取得手段が取得した前記視差情報と、前記推定値取得手段が取得した前記予測値から算出され、前記視差情報に対応する予測視差情報との差に基づいて、当該視差情報が異常値であるか否か判定する請求項3または4記載の対象物推定装置。
- 画像取得手段(12)が異なる位置から撮影した複数の画像に基づいて、当該画像中の対象物の位置および速度を推定する対象物推定方法であって、
前記複数の画像のうち基準となる基準画像において、時間的に前後するフレームから対応する画素の位置の時間的な推移情報を推移情報取得手段(28)が取得するステップ(S18)と、
前記複数の画像から対応する各画素の視差情報を前記基準画像を基準として視差情報取得手段(30)が取得するステップ(S20)と、
前記推移情報取得手段が取得した推移情報と、前記視差情報取得手段が取得した視差情報とに基づいて、前記対象物の3次元空間上の位置および速度の推定値をフィルタを用いて推定値取得手段(32)が推定するステップ(S24)と、
前記推移情報取得手段が取得した推移情報および前記視差情報取得手段が取得した視差情報が、それぞれ異常値であるか否か判定手段(34)が判定するステップ(S26,S28)と、
前記判定手段の判定結果に基づいて、前記推定値取得手段が取得した前記推定値を補正手段(36)が補正するステップ(S32,S34,S36)とを備え、
前記補正手段は、前記推移情報取得手段が取得した前記推移情報が異常値であると前記判定手段が判定した場合と、前記視差情報取得手段が取得した前記視差情報が異常値であると前記判定手段が判定した場合とで、前記推定値取得手段が取得した推定値を異なる方法で補正する
ことを特徴とする対象物推定方法。 - 前記補正手段は、前記推移情報取得手段が取得した前記推移情報を前記判定手段が異常値であると判定した場合に、前記推定値取得手段が取得した前記推定値を無効にすると共に(S34)、前記フィルタを初期状態にリセットする(S32)請求項6記載の対象物推定方法。
- 前記推定値取得手段は、前記対象物が予め設定したプロセスモデルに従うと仮定して、過去に取得した前記推定値から前記対象物の位置および速度の予測値を取得し、
前記補正手段は、前記視差情報取得手段が取得した前記視差情報が異常値であると前記判定手段が判定した場合に、前記推定値取得手段が取得した前記推定値を前記推定値取得手段が取得した前記予測値の値に補正する(S36)請求項6または7記載の対象物推定方法。 - 前記判定手段は、前記推移情報取得手段が取得した前記推移情報と、前記推定値取得手段が取得した前記予測値から算出され、前記推移情報に対応する予測推移情報との差に基づいて、当該推移情報が異常値であるか否か判定する請求項8記載の対象物推定方法。
- 前記判定手段は、前記視差情報取得手段が取得した前記視差情報と、前記推定値取得手段が取得した前記予測値から算出され、前記視差情報に対応する予測視差情報との差に基づいて、当該視差情報が異常値であるか否か判定する請求項8または9記載の対象物推定方法。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013171774A JP6110256B2 (ja) | 2013-08-21 | 2013-08-21 | 対象物推定装置および対象物推定方法 |
US14/912,885 US9767367B2 (en) | 2013-08-21 | 2014-08-20 | Object estimation apparatus and object estimation method |
DE112014003818.0T DE112014003818T5 (de) | 2013-08-21 | 2014-08-20 | Objektschätzvorrichtung und Objektschätzverfahren |
PCT/JP2014/071800 WO2015025897A1 (ja) | 2013-08-21 | 2014-08-20 | 対象物推定装置および対象物推定方法 |
CN201480046274.2A CN105474265B (zh) | 2013-08-21 | 2014-08-20 | 对象物推断装置以及对象物推断方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013171774A JP6110256B2 (ja) | 2013-08-21 | 2013-08-21 | 対象物推定装置および対象物推定方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015041238A JP2015041238A (ja) | 2015-03-02 |
JP6110256B2 true JP6110256B2 (ja) | 2017-04-05 |
Family
ID=52483668
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013171774A Active JP6110256B2 (ja) | 2013-08-21 | 2013-08-21 | 対象物推定装置および対象物推定方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US9767367B2 (ja) |
JP (1) | JP6110256B2 (ja) |
CN (1) | CN105474265B (ja) |
DE (1) | DE112014003818T5 (ja) |
WO (1) | WO2015025897A1 (ja) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6110256B2 (ja) | 2013-08-21 | 2017-04-05 | 株式会社日本自動車部品総合研究所 | 対象物推定装置および対象物推定方法 |
KR101832189B1 (ko) * | 2015-07-29 | 2018-02-26 | 야마하하쓰도키 가부시키가이샤 | 이상화상 검출장치, 이상화상 검출장치를 구비한 화상 처리 시스템 및 화상 처리 시스템을 탑재한 차량 |
JP6643215B2 (ja) | 2016-09-29 | 2020-02-12 | 株式会社デンソー | 他車線監視装置 |
JP6815856B2 (ja) * | 2016-12-14 | 2021-01-20 | 日立オートモティブシステムズ株式会社 | 先行車両の走行軌跡予測装置及びその搭載車両 |
US10146225B2 (en) * | 2017-03-02 | 2018-12-04 | GM Global Technology Operations LLC | Systems and methods for vehicle dimension prediction |
EP3407273A1 (de) * | 2017-05-22 | 2018-11-28 | Siemens Aktiengesellschaft | Verfahren und anordnung zur ermittlung eines anomalen zustands eines systems |
JP6936098B2 (ja) * | 2017-09-29 | 2021-09-15 | トヨタ自動車株式会社 | 対象物推定装置 |
JP6849569B2 (ja) * | 2017-09-29 | 2021-03-24 | トヨタ自動車株式会社 | 路面検出装置 |
JP7142468B2 (ja) * | 2018-05-30 | 2022-09-27 | スズキ株式会社 | 移動体追跡装置 |
JP7223587B2 (ja) * | 2019-02-04 | 2023-02-16 | 日産自動車株式会社 | 物体運動推定方法及び物体運動推定装置 |
WO2020170462A1 (ja) * | 2019-02-22 | 2020-08-27 | 公立大学法人会津大学 | 動画像距離算出装置および動画像距離算出用プログラムを記録したコンピュータ読み取り可能な記録媒体 |
DE102020201505A1 (de) | 2020-02-07 | 2021-08-12 | Robert Bosch Gesellschaft mit beschränkter Haftung | Verfahren und Vorrichtung zum kamerabasierten Ermitteln einer Geschwindigkeit eines Fortbewegungsmittels |
CN112435475B (zh) * | 2020-11-23 | 2022-04-29 | 北京软通智慧科技有限公司 | 一种交通状态检测方法、装置、设备及存储介质 |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5109425A (en) * | 1988-09-30 | 1992-04-28 | The United States Of America As Represented By The United States National Aeronautics And Space Administration | Method and apparatus for predicting the direction of movement in machine vision |
EP0631683B1 (en) * | 1992-03-20 | 2001-08-01 | Commonwealth Scientific And Industrial Research Organisation | An object monitoring system |
JPH0894320A (ja) | 1994-09-28 | 1996-04-12 | Nec Corp | 移動物体計測装置 |
US7321386B2 (en) * | 2002-08-01 | 2008-01-22 | Siemens Corporate Research, Inc. | Robust stereo-driven video-based surveillance |
US7450735B1 (en) * | 2003-10-16 | 2008-11-11 | University Of Central Florida Research Foundation, Inc. | Tracking across multiple cameras with disjoint views |
JP4151631B2 (ja) | 2004-09-08 | 2008-09-17 | 日産自動車株式会社 | 物体検出装置 |
DE102005008131A1 (de) | 2005-01-31 | 2006-08-03 | Daimlerchrysler Ag | Objektdetektion auf Bildpunktebene in digitalen Bildsequenzen |
JP5063023B2 (ja) * | 2006-03-31 | 2012-10-31 | キヤノン株式会社 | 位置姿勢補正装置、位置姿勢補正方法 |
KR100927096B1 (ko) * | 2008-02-27 | 2009-11-13 | 아주대학교산학협력단 | 기준 좌표상의 시각적 이미지를 이용한 객체 위치 측정방법 |
JP4985516B2 (ja) | 2008-03-27 | 2012-07-25 | ソニー株式会社 | 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム |
US8594920B2 (en) * | 2009-02-27 | 2013-11-26 | Toyota Jidosha Kabushiki Kaisha | Vehicle relative position estimation apparatus and vehicle relative position estimation method |
JP4733756B2 (ja) * | 2009-04-28 | 2011-07-27 | 本田技研工業株式会社 | 車両周辺監視装置 |
JP5528151B2 (ja) * | 2010-02-19 | 2014-06-25 | パナソニック株式会社 | 対象物追跡装置、対象物追跡方法、および対象物追跡プログラム |
JP5389002B2 (ja) * | 2010-12-07 | 2014-01-15 | 日立オートモティブシステムズ株式会社 | 走行環境認識装置 |
US20130197736A1 (en) * | 2012-01-30 | 2013-08-01 | Google Inc. | Vehicle control based on perception uncertainty |
GB2506338A (en) * | 2012-07-30 | 2014-04-02 | Sony Comp Entertainment Europe | A method of localisation and mapping |
US9641763B2 (en) * | 2012-08-29 | 2017-05-02 | Conduent Business Services, Llc | System and method for object tracking and timing across multiple camera views |
JP6014440B2 (ja) * | 2012-09-26 | 2016-10-25 | 日立オートモティブシステムズ株式会社 | 移動物体認識装置 |
JP6110256B2 (ja) | 2013-08-21 | 2017-04-05 | 株式会社日本自動車部品総合研究所 | 対象物推定装置および対象物推定方法 |
JP6225889B2 (ja) * | 2014-11-19 | 2017-11-08 | 株式会社豊田中央研究所 | 車両位置推定装置及びプログラム |
US9710712B2 (en) * | 2015-01-16 | 2017-07-18 | Avigilon Fortress Corporation | System and method for detecting, tracking, and classifiying objects |
-
2013
- 2013-08-21 JP JP2013171774A patent/JP6110256B2/ja active Active
-
2014
- 2014-08-20 WO PCT/JP2014/071800 patent/WO2015025897A1/ja active Application Filing
- 2014-08-20 DE DE112014003818.0T patent/DE112014003818T5/de not_active Ceased
- 2014-08-20 CN CN201480046274.2A patent/CN105474265B/zh active Active
- 2014-08-20 US US14/912,885 patent/US9767367B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015041238A (ja) | 2015-03-02 |
CN105474265B (zh) | 2017-09-29 |
US20160203376A1 (en) | 2016-07-14 |
DE112014003818T5 (de) | 2016-05-04 |
WO2015025897A1 (ja) | 2015-02-26 |
US9767367B2 (en) | 2017-09-19 |
CN105474265A (zh) | 2016-04-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6110256B2 (ja) | 対象物推定装置および対象物推定方法 | |
US9729858B2 (en) | Stereo auto-calibration from structure-from-motion | |
KR101961001B1 (ko) | 단일-카메라 거리 추정 | |
US10007998B2 (en) | Image processor, apparatus, and control system for correction of stereo images | |
KR102507248B1 (ko) | 에고모션 추정 시스템 및 방법 | |
WO2014199929A1 (ja) | 単眼モーションステレオ距離推定方法および単眼モーションステレオ距離推定装置 | |
JP6743171B2 (ja) | 自動車両の道路付近の物体を検出するための方法、コンピュータデバイス、運転者支援システム、及び、自動車両 | |
JP7212486B2 (ja) | 位置推定装置 | |
WO2020137110A1 (ja) | 移動量推定装置 | |
JP6455164B2 (ja) | 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム | |
JP6543935B2 (ja) | 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム | |
JP2019066302A (ja) | 対象物推定装置 | |
JP7303064B2 (ja) | 画像処理装置、および、画像処理方法 | |
JP6747176B2 (ja) | 画像処理装置、撮影装置、プログラム、機器制御システム及び機器 | |
JP2021193340A (ja) | 自己位置推定装置 | |
US10536646B2 (en) | Imaging control device and imaging control method | |
JP7223587B2 (ja) | 物体運動推定方法及び物体運動推定装置 | |
JP6489645B2 (ja) | 画像処理装置 | |
JP2021043486A (ja) | 位置推定装置 | |
JP7457574B2 (ja) | 画像処理装置 | |
JP5682266B2 (ja) | 移動量推定装置および移動量推定方法 | |
JP2017049146A (ja) | 画像処理装置 | |
JP2020087210A (ja) | キャリブレーション装置及びキャリブレーション方法 | |
JP2020027057A (ja) | ステレオカメラ装置 | |
JP2019029986A (ja) | 撮像制御装置および撮像制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160112 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170214 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170309 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6110256 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |