JP6439757B2 - 画像処理装置および画像処理方法 - Google Patents
画像処理装置および画像処理方法 Download PDFInfo
- Publication number
- JP6439757B2 JP6439757B2 JP2016136130A JP2016136130A JP6439757B2 JP 6439757 B2 JP6439757 B2 JP 6439757B2 JP 2016136130 A JP2016136130 A JP 2016136130A JP 2016136130 A JP2016136130 A JP 2016136130A JP 6439757 B2 JP6439757 B2 JP 6439757B2
- Authority
- JP
- Japan
- Prior art keywords
- tracking
- map
- occlusion
- image
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/223—Analysis of motion using block-matching
- G06T7/231—Analysis of motion using block-matching using full search
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/04—Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20172—Image enhancement details
- G06T2207/20192—Edge enhancement; Edge preservation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30236—Traffic on road, railway or crossing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30242—Counting objects in image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Traffic Control Systems (AREA)
Description
連続して撮影された複数の画像に含まれる追跡対象物を追跡する画像処理装置であって、画像を取得する画像取得手段と、前記画像に含まれる追跡対象物に対応するテンプレートを取得するテンプレート取得手段と、前記画像に含まれる追跡対象物の、他の物体によ
る遮蔽度合いを示すマップである遮蔽マップを生成する遮蔽マップ生成手段と、前記テンプレートを用いて前記画像に含まれる追跡対象物を検出するとともに、前記テンプレートと、前記遮蔽マップの双方に基づいて、複数の画像間における前記追跡対象物の移動量および移動方向を取得する追跡手段と、を有することを特徴とする。
遮蔽マップ生成手段は、他の物体によって追跡対象物が遮蔽されている度合いを表したマップ(遮蔽マップ)を生成する手段である。遮蔽マップは、例えば、追跡対象物に対応する領域を複数のブロックに分割したマップであってもよい。また、遮蔽の度合いは何段階で表してもよい。
、前記追跡手段は、ブロックに対応する遮蔽度合いが大きいほど、当該ブロックの重みを小さく設定することを特徴としてもよい。
<システム構成>
以下、本発明の好ましい実施形態について図面を参照しながら説明する。
本実施形態に係る画像処理システムは、道路上を走行する車両を撮影した画像を連続して取得し、取得した複数の画像に基づいて車両の動きを追跡するシステムである。
画像処理装置100は、画像取得部101、車両検出部102、車両追跡部103、遮蔽状態取得部104、記憶部105から構成される。
なお、実施形態の説明では、連続して取得される道路画像のうちの一枚という意味で、フレームという語を用いるが、フレームと道路画像は等価である。また、連続したフレームにおいて、撮影範囲外から新規の車両(まだ追跡を行っていない車両)が現れることを流入、追跡中の車両が撮影範囲外に出て行くことを流出と称する。
車両検出部102は、追跡を行っていない新しい車両が現れたことを検出する手段であり、それ以降のフレームにおける車両の追跡は、車両追跡部103が行う。
なお、本実施形態では、カメラ200の撮影範囲の全域において車両を追跡するものとするが、車両を追跡する範囲は別途定められていてもよい。
ここで、遮蔽状態と遮蔽マップについて説明する。図3は、カメラ200によって撮影された道路画像の例である。本実施形態に係る画像処理システムは、道路上に設置されたカメラによって撮影された車両を追跡するシステムであるため、追跡対象の車両が前後の車両によって隠れてしまうケースが多く発生する。
例えば、図3の例では、車両10Aおよび10Cが、後続車両によって遮蔽されている。
このような場合、従来用いられているテンプレートマッチングなどの手法を適用すると、正確な位置が検出できなくなるおそれがある。特に、車両10Cは、対応する領域のうち半分近くが隠れているため、マッチングにおけるスコアが低下し、追跡が中断されてしまうケースも発生しうる。
次に、遮蔽状態取得部104によって生成される遮蔽マップの詳細について説明する。図4は、追跡対象車両の遮蔽状態と、対応する遮蔽マップを示した図である。
遮蔽マップとは、追跡対象車両に対応する領域を16個のブロック(4×4)に分割し、各ブロックに対して遮蔽の程度を表す値(遮蔽度)を割り当てたマップである。なお、遮蔽度は、完全に遮蔽されている状態を1とし、全く遮蔽されていない状態を0とした実数によって表される。
本実施形態に係る画像処理装置は、このような遮蔽マップを、追跡対象車両およびフレームごとに生成し、割り当てられた値に基づいて重み付けを行ったうえでテンプレートマッチングを実施する。すなわち、遮蔽されているブロックに対してより小さい重みを与え、遮蔽されていないブロックに対してより大きい重みを与える。このようにすることで、遮蔽の影響を排除しつつ、追跡対象車両の位置を検出することができる。
遮蔽マップの具体的な生成方法については後述する。なお、本例では、遮蔽度は0〜1の範囲をとる実数であるが、遮蔽度はこれ以外であってもよい。また、遮蔽度は必ずしも0〜1の範囲をとる必要はない。例えば、0〜255の範囲をとる整数であってもよい。
次に、画像処理装置100が行う画像処理の詳細について、処理フローチャートである図5を参照しながら説明する。図5に示した処理は、画像取得部101が新規のフレームを取得するごとに実行される。例えば、フレームレートが10fpsである場合、秒間10回実行される。
まず、ステップS11で、画像取得部101が、カメラ200を介して道路画像を取得し、記憶部105に一時的に記憶させる。なお、取得された道路画像は、時系列順に記憶され、処理が完了すると削除される。
ここでは、図6(A)に示した画像600内において新しい車両を検出したものとする。
新しい車両が検出されると、処理はステップS14へ遷移する。また、新しい車両が検出されなかった場合、当該フレームに対する処理は終了する。
ステップS12の処理は、設定されている「追跡中車両数」が1台以上である場合に実行される。すなわち、ステップS12が実行されるタイミングでは、時系列順に二つ以上のフレームが記憶部105に記憶されている。
ームにおける当該対象車両の位置を推定してもよい。また、カルマンフィルタなどを用いて車両の位置を推定してもよい。
なお、推定を行うための十分な情報が無い場合、ステップS13または直前のフレームで検出した位置の近傍に当該対象車両がいるものと推定してもよいし、絞り込み自体を省略してもよい。
なお、ここでは、テンプレート画像を4×4の16ブロックに分割し、ステップS22で推定した位置の近傍において、ブロックごとにマッチングを行う。この結果、16個のマッチング結果が得られるため、前フレームとの位置の変化に基づいて、16ブロックぶんの移動ベクトルvblock(x,y)を生成する(x,yは座標)。
ステップS23の処理が完了すると、直前のフレームと、現在のフレームとの間における、ブロックごとの移動ベクトルが取得された状態となる。
具体的には、まず、16個の移動ベクトルのうち、外れ値、すなわち、値が他のベクトルから大きくずれているベクトルを除外する。例えば、平均値や最頻値から20%以上外れているベクトルを除外する。
ここで利用される遮蔽マップは、前フレームにおける追跡対象車両の遮蔽状態を表すマップである。初回の処理では、遮蔽マップはデフォルト(すなわち、遮蔽度が全て0)であるため、移動ベクトルは変化しない。
最後に、複数の移動ベクトルの平均を取り、追跡対象車両に対応する単一の移動ベクトルvとする。
なお、前述した単一の移動ベクトルの取得方法は、上記に例示した方法に限定されない。例えば、最も重みが大きいブロックに対応する移動ベクトルを、車両に対応する単一の移動ベクトルとしてもよいし、所定の閾値よりも重みが大きいブロックについて移動ベクトルの平均を取ったものを、車両に対応する単一の移動ベクトルとしてもよい。
に領域の大きさは前フレームと同じでもよいし、適宜調整してもよい。調整する場合は所定の係数に基づいて拡大または縮小する方法や、検出されたブロック間の距離の変化に基づいて拡大または縮小する方法がある。
具体的には、車両に対応する移動ベクトルvと、16個の移動ベクトルvblock(x,y)との差分(ΔP(x,y)とおく)をそれぞれ取得し、ΔP(x,y)の大きさに定数kを乗じた値(k|ΔP(x,y)|)を、遮蔽マップに設定されている現在の値にそれぞれ加算する。すな
わち、遮蔽マップの各ブロックが有する遮蔽度は、初回の処理では、0+k|ΔP(x,y)
|となる。
図8の例の場合、左下の二ブロックが後続車両によって遮蔽されているため、左下の二ブロックのみが、他のブロックよりも高い遮蔽度によって更新される。
の値以下となった場合に、遮蔽が解消したと判断してもよい。もちろん、他の手法を採用してもよい。
以上で、n番目の車両に対する追跡処理が終了する。
また、遮蔽マップは、フレームの処理が進むごとに随時更新される。これにより、i番目のフレームを処理した際に得た遮蔽マップを、i+1番目のフレームを処理する際に使用することができる。このようにすることで、時刻の経過とともに刻々と変化する遮蔽状態を随時反映させることができる。すなわち、連続したフレームにおいて遮蔽が動的に発生した場合であっても、遮蔽マップを適切に更新することができる。
例えば、i番目のフレームで更新された遮蔽マップを、i+2番目のフレームの処理に用いてもよい。また、例えば、10フレームごとに遮蔽マップを更新するように構成したうえで、i番目のフレームで更新された遮蔽マップを、i+1番目からi+10番目のフレームの処理に用いるようにしてもよい。
第二の実施形態は、画像上におけるエッジの強さに基づいて遮蔽度を補正する実施形態
である。
なお、車両の進行方向は、予め定義されていてもよいし、検出手段を設け、検出結果に応じて動的に設定するようにしてもよい。例えば、過去の追跡結果に基づいて学習を行い、車両の進行方向を推定するようにしてもよい。
上記の実施形態はあくまでも一例であって、本発明はその要旨を逸脱しない範囲内で適宜変更して実施しうる。
例えば、実施形態の説明では、追跡対象車両を16個のブロックに分割して処理を行ったが、分割方法はこれ以外であってもよい。ブロックが多いほど精度は向上するが、処理時間も長くなるため、ブロック数やブロックサイズは、要求される仕様に基づいて適宜設定すればよい。
また、実施形態の説明では、車両に対応する移動ベクトルと、16個の移動ベクトルの差分をそれぞれ求めることで遮蔽マップを生成したが、遮蔽の度合いを求めることができれば、遮蔽度の演算方法は例示した方法に限られない。
101 画像取得部
102 車両検出部
103 車両追跡部
104 遮蔽状態取得部
105 記憶部
200 カメラ
Claims (8)
- 連続して撮影された複数の画像に含まれる追跡対象物を追跡する画像処理装置であって、
画像を取得する画像取得手段と、
前記画像に含まれる追跡対象物に対応するテンプレートを取得するテンプレート取得手段と、
前記画像に含まれる追跡対象物の、他の物体による遮蔽度合いを示すマップである遮蔽マップを生成する遮蔽マップ生成手段と、
前記テンプレートを用いて前記画像に含まれる追跡対象物を検出し、さらに、前記テンプレートと、前記遮蔽マップの双方に基づいて、複数の画像間における前記追跡対象物の移動量および移動方向を取得する追跡手段と、
を有し、
前記遮蔽マップは、前記テンプレートを複数のブロックに分割し、各ブロックに遮蔽度合いを関連付けたマップであり、
前記遮蔽マップ生成手段は、前記追跡対象物を画像間で追跡して得られた単一のベクトルと、前記複数のブロックをそれぞれ画像間で追跡して得られた複数のベクトルのそれぞれと、を比較した結果に基づいて前記遮蔽マップを生成する
ことを特徴とする、画像処理装置。 - 前記追跡手段は、前記テンプレートを前記ブロック単位で用いてマッチングを行い、さらに、各ブロックに対応する遮蔽度合いを用いて重み付けを行った結果に基づいて、前記追跡対象物の移動量および移動方向を取得する
ことを特徴とする、請求項1に記載の画像処理装置。 - 前記遮蔽マップ生成手段は、前記単一のベクトルと前記複数のベクトルのそれぞれを比較した結果の間の差が大きいほど、対応するブロックの遮蔽度合いを大きく設定し、
前記追跡手段は、ブロックに対応する遮蔽度合いが大きいほど、当該ブロックの重みを小さく設定する
ことを特徴とする、請求項1または2に記載の画像処理装置。 - 前記遮蔽マップ生成手段は、前記追跡手段が追跡結果を生成するごとに前記遮蔽マップを更新し、
前記追跡手段は、次フレームにおける前記追跡対象物の検出処理において、前記更新された遮蔽マップを利用する
ことを特徴とする、請求項1から3のいずれかに記載の画像処理装置。 - 前記遮蔽マップに設定される遮蔽度合いは、対応するブロック内における、前記追跡対象物の移動方向に対して垂直なエッジが強くなるほど小さくなる
ことを特徴とする、請求項1から4のいずれかに記載の画像処理装置。 - 前記テンプレート取得手段は、前記追跡手段が検出した前記追跡対象物をクリッピングして得られた画像を、次フレームにおけるテンプレートとする、
ことを特徴とする、請求項1から5のいずれかに記載の画像処理装置。 - 連続して撮影された複数の画像に含まれる追跡対象物を追跡する画像処理装置が行う画像処理方法であって、
画像を取得する画像取得ステップと、
前記画像に含まれる追跡対象物に対応するテンプレートを取得するテンプレート取得ステップと、
前記画像に含まれる追跡対象物の、他の物体による遮蔽度合いを示すマップである遮蔽マップを生成する遮蔽マップ生成ステップと、
前記テンプレートを用いて前記画像に含まれる追跡対象物を検出し、さらに、前記テンプレートと、前記遮蔽マップの双方に基づいて、複数の画像間における前記追跡対象物の移動量および移動方向を取得する追跡ステップと、
を含み、
前記遮蔽マップは、前記テンプレートを複数のブロックに分割し、各ブロックに遮蔽度合いを関連付けたマップであり、
前記遮蔽マップ生成ステップでは、前記追跡対象物を画像間で追跡して得られた単一のベクトルと、前記複数のブロックをそれぞれ画像間で追跡して得られた複数のベクトルのそれぞれと、を比較した結果に基づいて前記遮蔽マップを生成する
ことを特徴とする、画像処理方法。 - 請求項7に記載の画像処理方法をコンピュータに実行させるプログラム。
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016136130A JP6439757B2 (ja) | 2016-07-08 | 2016-07-08 | 画像処理装置および画像処理方法 |
CN201780002921.3A CN107924568B (zh) | 2016-07-08 | 2017-02-27 | 图像处理装置、图像处理方法和存储介质 |
US15/756,084 US10497133B2 (en) | 2016-07-08 | 2017-02-27 | Object tracking apparatus and object tracking method |
EP17823793.9A EP3483834B1 (en) | 2016-07-08 | 2017-02-27 | Image processing device and image processing method |
KR1020187005263A KR102011231B1 (ko) | 2016-07-08 | 2017-02-27 | 화상 처리 장치 및 화상 처리 방법 |
PCT/JP2017/007312 WO2018008184A1 (ja) | 2016-07-08 | 2017-02-27 | 画像処理装置および画像処理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016136130A JP6439757B2 (ja) | 2016-07-08 | 2016-07-08 | 画像処理装置および画像処理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018005839A JP2018005839A (ja) | 2018-01-11 |
JP6439757B2 true JP6439757B2 (ja) | 2018-12-19 |
Family
ID=60912433
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016136130A Active JP6439757B2 (ja) | 2016-07-08 | 2016-07-08 | 画像処理装置および画像処理方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US10497133B2 (ja) |
EP (1) | EP3483834B1 (ja) |
JP (1) | JP6439757B2 (ja) |
KR (1) | KR102011231B1 (ja) |
CN (1) | CN107924568B (ja) |
WO (1) | WO2018008184A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11107223B2 (en) * | 2016-03-31 | 2021-08-31 | Nec Corporation | Image detection device, image detection method and storage medium storing program |
CN109816701B (zh) * | 2019-01-17 | 2021-07-27 | 北京市商汤科技开发有限公司 | 一种目标跟踪方法及装置、存储介质 |
JP7549509B2 (ja) * | 2020-10-21 | 2024-09-11 | 株式会社Subaru | 対象物推定装置、その対象物推定方法、および、車両 |
CN112330717B (zh) * | 2020-11-11 | 2023-03-10 | 北京市商汤科技开发有限公司 | 目标跟踪方法及装置、电子设备和存储介质 |
WO2023089706A1 (ja) * | 2021-11-17 | 2023-05-25 | 日本電信電話株式会社 | 画像処理装置、画像処理方法およびプログラム |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3768073B2 (ja) | 1999-06-15 | 2006-04-19 | 株式会社日立国際電気 | 物体追跡方法及び物体追跡装置 |
US6687386B1 (en) * | 1999-06-15 | 2004-02-03 | Hitachi Denshi Kabushiki Kaisha | Object tracking method and object tracking apparatus |
JP4469980B2 (ja) * | 2004-12-21 | 2010-06-02 | 国立大学法人静岡大学 | 移動体追跡のための画像処理方法 |
JP2008042659A (ja) | 2006-08-08 | 2008-02-21 | Sony Corp | 画像処理装置および方法、プログラム、並びにプログラム格納媒体 |
JP4775277B2 (ja) * | 2007-02-07 | 2011-09-21 | 株式会社デンソー | 画像処理装置及び画像処理方法 |
KR20080073933A (ko) * | 2007-02-07 | 2008-08-12 | 삼성전자주식회사 | 객체 트래킹 방법 및 장치, 그리고 객체 포즈 정보 산출방법 및 장치 |
JP4884331B2 (ja) * | 2007-08-20 | 2012-02-29 | セコム株式会社 | 移動物体追跡装置 |
JP5128339B2 (ja) | 2007-09-11 | 2013-01-23 | 株式会社日立製作所 | 交通流計測システム |
JP2009199417A (ja) * | 2008-02-22 | 2009-09-03 | Denso Corp | 顔追跡装置及び顔追跡方法 |
US9349189B2 (en) * | 2013-07-01 | 2016-05-24 | Here Global B.V. | Occlusion resistant image template matching using distance transform |
CN104794733B (zh) | 2014-01-20 | 2018-05-08 | 株式会社理光 | 对象跟踪方法和装置 |
CN104091348B (zh) * | 2014-05-19 | 2017-04-05 | 南京工程学院 | 融合显著特征和分块模板的多目标跟踪方法 |
CN105469380A (zh) * | 2014-09-05 | 2016-04-06 | 株式会社理光 | 对于对象的遮挡进行检测的方法和装置 |
CN105654515A (zh) * | 2016-01-11 | 2016-06-08 | 上海应用技术学院 | 基于分片及多特征自适应融合的目标跟踪方法 |
CN105678809A (zh) * | 2016-01-12 | 2016-06-15 | 湖南优象科技有限公司 | 手持式自动跟拍装置及其目标跟踪方法 |
-
2016
- 2016-07-08 JP JP2016136130A patent/JP6439757B2/ja active Active
-
2017
- 2017-02-27 EP EP17823793.9A patent/EP3483834B1/en active Active
- 2017-02-27 WO PCT/JP2017/007312 patent/WO2018008184A1/ja unknown
- 2017-02-27 KR KR1020187005263A patent/KR102011231B1/ko active IP Right Grant
- 2017-02-27 US US15/756,084 patent/US10497133B2/en active Active
- 2017-02-27 CN CN201780002921.3A patent/CN107924568B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN107924568B (zh) | 2021-08-10 |
EP3483834B1 (en) | 2021-09-22 |
KR102011231B1 (ko) | 2019-08-14 |
US10497133B2 (en) | 2019-12-03 |
KR20180033552A (ko) | 2018-04-03 |
US20190114788A1 (en) | 2019-04-18 |
WO2018008184A1 (ja) | 2018-01-11 |
EP3483834A4 (en) | 2020-02-26 |
EP3483834A1 (en) | 2019-05-15 |
CN107924568A (zh) | 2018-04-17 |
JP2018005839A (ja) | 2018-01-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6439757B2 (ja) | 画像処理装置および画像処理方法 | |
US7262710B2 (en) | Collision time estimation apparatus for vehicles, collision time estimation method for vehicles, collision alarm apparatus for vehicles, and collision alarm method for vehicles | |
JP6390671B2 (ja) | 画像処理装置および画像処理方法 | |
US8995714B2 (en) | Information creation device for estimating object position and information creation method and program for estimating object position | |
US10937176B2 (en) | Object recognition apparatus | |
CN110033476A (zh) | 目标速度估计方法、装置和图像处理设备 | |
US10055674B2 (en) | Confidence estimation for optical flow | |
CN111047908B (zh) | 跨线车辆的检测装置、方法及视频监控设备 | |
CN113269007A (zh) | 道路监控视频的目标跟踪装置以及方法 | |
CN111382606A (zh) | 摔倒检测方法、摔倒检测装置和电子设备 | |
JP2013069045A (ja) | 画像認識装置、画像認識方法および画像認識プログラム | |
KR101492366B1 (ko) | 차량 사고 감지 방법 및 그 장치 | |
CN114037977B (zh) | 道路灭点的检测方法、装置、设备及存储介质 | |
JP5125214B2 (ja) | 障害物検出方法および障害物検出装置 | |
CN116434156A (zh) | 目标检测方法、存储介质、路侧设备及自动驾驶系统 | |
JP4075879B2 (ja) | 車両用衝突警報装置及び車両用衝突警報方法 | |
JP4573590B2 (ja) | 画像処理による移動物体計測方法及び装置 | |
JP4847303B2 (ja) | 障害物検出方法、障害物検出プログラムおよび障害物検出装置 | |
JP7435258B2 (ja) | 車両速度の検出方法及び装置 | |
JP7260499B2 (ja) | 物体検出装置 | |
US20230196773A1 (en) | Object detection device, object detection method, and computer-readable storage medium | |
CN117078607A (zh) | 航向角修正方法、装置及电子设备、存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180417 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180614 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181023 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181105 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6439757 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |