JP6935690B2 - 検出プログラム、方法、及び装置 - Google Patents

検出プログラム、方法、及び装置 Download PDF

Info

Publication number
JP6935690B2
JP6935690B2 JP2017130196A JP2017130196A JP6935690B2 JP 6935690 B2 JP6935690 B2 JP 6935690B2 JP 2017130196 A JP2017130196 A JP 2017130196A JP 2017130196 A JP2017130196 A JP 2017130196A JP 6935690 B2 JP6935690 B2 JP 6935690B2
Authority
JP
Japan
Prior art keywords
traveling direction
detection
moving body
area
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017130196A
Other languages
English (en)
Other versions
JP2019012496A (ja
Inventor
井上 智博
智博 井上
阿部 大輔
大輔 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2017130196A priority Critical patent/JP6935690B2/ja
Publication of JP2019012496A publication Critical patent/JP2019012496A/ja
Application granted granted Critical
Publication of JP6935690B2 publication Critical patent/JP6935690B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Description

開示の技術は、検出プログラム、検出方法、及び検出装置に関する。
従来、移動体の形状情報に依存することなく、移動体の識別をする移動体識別装置が提案されている。この装置は、撮像装置によって時系列画像を取得し、この時系列画像に基づいて、任意の画像中における所定の複数の位置について画像間における動き情報を検出する。また、この装置は、検出された動き情報に基づいて、所定の動き情報と異なる動き情報に対応した任意の画像中における領域を移動体領域として抽出する。そして、この装置は、少なくとも抽出された移動体領域に包含される複数の位置について検出された動き情報に基づいて、移動体領域に存在する移動体を識別する。
また、逆走車両を検知し、運転者にその情報を提供する危険走行情報提供システムが提案されている。このシステムでは、車両に搭載された車載装置で時々刻々測位し、測位位置と測位時刻とを関連付けた走行軌跡である時系列情報(軌跡情報)を蓄積する。また、このシステムは、道路の各車線上に設置された路上通信装置の通信部の路車間通信領域を通過する際に、軌跡情報を路上通信装置に送信し、軌跡情報に基づいて車両の走行方位を算出する。そして、このシステムは、記憶部に記憶している軌跡情報を送ってきた路上通信装置の通信部が設けられている車線における車両の進行方位と比較し、両者が略逆向きであると判定した場合には、車両は逆走車両であると判定する。
特開平9−249083号公報 特開2009−294812号公報
画像内の動体の進行方向を特定する場合において、従来技術の手法では、例えば、他の車両等の障害物の陰に隠れていた車両が突然出現する場合などには、所定の動き情報と比較するための十分な動き情報を検出することができない可能性がある。この場合、動体の進行方向を特定することができず、動体の異常な方向への進行を検出できなかったり、誤検出したりする可能性がある。
一つの側面として、本発明は、画像内の動体の異常な方向への進行を精度良く検出することを目的とする。
1つの態様では、道路を含む範囲についての撮影画像を所定の大きさの領域に分割し、分割された各領域について、時間的な画像の変化に基づいて動体の進行方向を特定する。そして、特定した前記領域それぞれの進行方向と、前記各領域について過去の所定期間の異なる時間に特定された前記動体の進行方向が所定回数連続で同一の場合に前記各領域と対応付けて前記進行方向が記憶された記憶部に記憶された前記領域それぞれにおける動体の進行方向との一致度に基づいて動体の異常な方向への進行を検出する。
一つの側面として、画像内の動体の異常な方向への進行を精度良く検出することができる、という効果を有する。
本実施形態に係る検出装置の機能ブロック図である。 車両領域の検出を説明するための図である。 分割領域を説明するための概略図である。 方向マップの一例を示す概略図である。 正解マップの一例を示す概略図である。 逆走車両の検出を説明するための図である。 検出結果の一例を示す図である。 本実施形態に係る検出装置として機能するコンピュータの概略構成を示すブロック図である。 学習処理の一例を示すフローチャートである。 方向マップ作成処理の一例を示すフローチャートである。 正解マップ更新処理の一例を示すフローチャートである。 逆走検出処理の一例を示すフローチャートである。 本実施形態の効果を説明するための図である。
以下、図面を参照して開示の技術に係る実施形態の一例を詳細に説明する。本実施形態では、動体の異常な方向への進行の検出の一例として、道路を走行する車両の逆走を検出する場合を説明する。
図1に示すように、本実施形態に係る検出装置10は、道路を含む範囲を撮影範囲とする位置に設置された固定カメラ(図示省略)で撮影された撮影画像(動画像)を入力として取得し、逆走車両の検出結果を出力する。検出装置10は、機能的には、車両検出部11と、分割部12と、特定部13と、学習部14と、逆走検出部15とを含む。また、検出装置10の所定の記憶領域には、正解マップ20が記憶される。なお、逆走検出部15は、開示の技術の検出部の一例である。
車両検出部11は、検出装置10に入力された撮影画像を取得し、撮影画像の各フレーム画像に対して画像処理を行って、撮影画像から動体である車両を示す車両領域を検出する。車両領域の検出には、背景差分法等の従来既知の手法を適用することができる。例えば、車両検出部11は、図2に示すように、各フレーム画像22について、平滑化処理を行い、前フレーム画像との差分画像を生成し、差分画像を二値化処理した二値化画像24から、動体を示す画素を抽出する。また、車両検出部11は、二値化画像24に対して、伸縮処理及び膨張処理を行い、動体を示す画素の一群の各々を車両領域26の各々として検出する。以下では、車両領域26が検出される画像を車両領域検出画像28という。
分割部12は、フレーム画像22及び車両領域検出画像28の各々を、所定の大きさの複数の領域に分割する。以下では、分割された各領域を分割領域という。図3に、車両領域検出画像28を分割領域に分割した例を概略的に示す。図3の例では、各マスが1つの分割領域32に相当する。
特定部13は、分割部12で分割された各分割領域32について、時間的な画像の変化に基づいて、車両の進行方向を特定する。具体的には、特定部13は、車両領域検出画像28において車両領域26を少なくとも一部に含む分割領域32に対応するフレーム画像22の分割領域32について、前フレーム画像22とのブロックマッチングなどにより、動きベクトルを算出する。そして、特定部13は、算出した動きベクトルを、予め定めた所定数の方向(例えば、16方向)のうち、その動きベクトルが示す方向と最も近い方向に割り当てた方向情報を算出し、算出した方向情報を分割領域32に対応付けて格納した方向マップを作成する。例えば、図4に、方向マップ34を画像化した一例を概略的に示す。図4の例では、各分割領域32に格納された方向情報36を矢印で表している。なお、図4では、説明を分かり易くするため、方向マップ34に車両領域26も合せて表記している。
学習部14は、過去の所定時間の間に、道路を含む範囲を通過した車両の情報を利用して、分割領域32毎に車両の進行方向の正解の情報が格納された正解マップを作成する。具体的には、学習部14は、所定時間分の撮影画像の各フレーム画像22について、特定部13で作成された方向マップ34の方向情報36を、分割領域32毎に統合した正解情報を、各分割領域32に対応付けて記憶することで、正解マップを作成する。ここで、所定時間分の撮影画像の中に、逆走車両が含まれる場合、すなわち、異常な方向情報36が格納された方向マップ34が含まれる場合がある。この場合を考慮して、学習部14は、例えば、過去のフレーム画像22の各々から作成された方向マップ34を分割領域32毎に参照し、方向情報36が格納されている分割領域32を抽出する。そして、学習部14は、抽出した分割領域32に格納されている方向情報36が所定回数連続で同一の場合に、その方向情報36を正解情報とすることができる。図5に、正解マップ20を画像化した一例を概略的に示す。図5の例では、各分割領域32に格納された正解情報38を矢印で表している。
逆走検出部15は、特定部13で作成された方向マップ34の方向情報36が示す方向と、学習部14で作成された正解マップ20の正解情報38が示す方向との一致度に基づいて、逆走車両を検出する。具体的には、逆走検出部15は、方向マップ34において方向情報36が格納されている各分割領域32について、図6に示すように、方向情報36が示す方向と、正解情報38が示す方向とが一致するか否かを示すフラグを立てる。図6では、方向が一致する場合に一致フラグ「0」、一致していない場合に不一致フラグ「1」を立てた例を示している。逆走検出部15は、1つの車両領域26を含む1又は複数の分割領域32(図6中の破線部)に対して、不一致フラグが立てられた分割領域32の割合が所定の閾値以上の場合に、その車両領域26を、逆走車両を示す車両領域26として検出する。なお、逆走検出部15は、1つの車両領域26を含む1又は複数の分割領域32に対して、一致フラグが立てられた分割領域32の割合が所定の閾値未満の場合に、その車両領域26を、逆走車両を示す車両領域26として検出してもよい。
逆走検出部15は、逆走車両を示す車両領域26を検出した場合には、例えば、図7に示すように、検出された車両領域26の外接矩形を撮影画像に重畳するなどして、検出結果として出力する。
検出装置10は、例えば図8に示すコンピュータ40で実現することができる。コンピュータ40は、Central Processing Unit(CPU)41と、一時記憶領域としてのメモリ42と、不揮発性の記憶部43とを備える。また、コンピュータ40は、入力装置、表示装置等の入出力装置44と、記憶媒体49に対するデータの読み込み及び書き込みを制御するRead/Write(R/W)部45と、インターネット等のネットワークに接続される通信(Interface)I/F46を備える。CPU41、メモリ42、記憶部43、入出力装置44、R/W部45、及び通信I/F46は、バス47を介して互いに接続される。
記憶部43は、Hard Disk Drive(HDD)、Solid State Drive(SSD)、フラッシュメモリ等によって実現できる。記憶媒体としての記憶部43には、コンピュータ40を、検出装置10として機能させるための検出プログラム50が記憶される。検出プログラム50は、車両検出プロセス51と、分割プロセス52と、特定プロセス53と、学習プロセス54と、逆走検出プロセス55とを有する。また、記憶部43は、正解マップ20を構成する情報が記憶される情報記憶領域60を有する。
CPU41は、検出プログラム50を記憶部43から読み出してメモリ42に展開し、検出プログラム50が有するプロセスを順次実行する。CPU41は、車両検出プロセス51を実行することで、図1に示す車両検出部11として動作する。また、CPU41は、分割プロセス52を実行することで、図1に示す分割部12として動作する。また、CPU41は、特定プロセス53を実行することで、図1に示す特定部13として動作する。また、CPU41は、学習プロセス54を実行することで、図1に示す学習部14として動作する。また、CPU41は、逆走検出プロセス55を実行することで、図1に示す逆走検出部15として動作する。また、CPU41は、情報記憶領域60から情報を読み出して、メモリ42に正解マップ20を展開する。これにより、検出プログラム50を実行したコンピュータ40が、検出装置10として機能することになる。なお、プログラムを実行するCPU41はハードウェアである。
次に、本実施形態に係る検出装置10の作用について説明する。正解マップ20を作成する学習段階において、過去の所定時間分の撮影画像が検出装置10に入力されると、検出装置10において、図9に示す学習処理が実行される。また、逆走車両を実際に検出する段階では、時々刻々撮影画像が検出装置10に入力され、検出装置10において、図12に示す逆走検出処理が実行される。以下、学習処理及び逆走検出処理の各々について詳述する。
図9に示す学習処理のステップS10で、学習部14が、フレーム画像22と同一サイズの画像領域を、所定の大きさの複数の分割領域32に分割した空の正解マップ20を用意する。
次に、ステップS12で、車両検出部11が、入力された撮影画像の先頭フレームから順に1つのフレーム画像を処理対象のフレーム画像22として設定する。そして、車両検出部11は、処理対象のフレーム画像22から、背景差分法などにより、車両を示す車両領域26を検出した車両領域検出画像28を作成し、フレーム画像22と共に分割部12へ受け渡す。
次に、ステップS14で、分割部12が、フレーム画像22及び車両領域検出画像28の各々を、正解マップ20と同様に複数の分割領域32に分割する。すなわち、フレーム画像22、車両領域検出画像28、及び正解マップ20の各々は、それぞれ対応する分割領域32に分割されている。分割部12は、分割領域32に分割されたフレーム画像22及び車両領域検出画像28の各々を特定部13へ受け渡す。
次に、ステップS20で、方向マップ作成処理が実行される。ここで、図10を参照して、方向マップ作成処理について説明する。
ステップS21で、特定部13が、フレーム画像22と同一サイズの画像領域を、フレーム画像22と同様に複数の分割領域32に分割した空の方向マップ34を用意する。すなわち、フレーム画像22、車両領域検出画像28、及び方向マップ34の各々は、それぞれ対応する分割領域32に分割されている。
次に、ステップS22で、特定部13が、方向マップ34の分割領域32から以下のステップS23及びS24の処理が未処理の分割領域32を1つ選択し、処理対象の分割領域32として設定する。
次に、ステップS23で、特定部13が、方向マップ34における処理対象の分割領域32に対応する車両領域検出画像28の分割領域32に、車両検出部11で検出された車両領域26が含まれるか否かを判定する。車両領域26が含まれる場合には、処理はステップS24へ移行し、車両領域26が含まれない場合には、処理はステップS25へ移行する。
ステップS24では、特定部13が、方向マップ34における処理対象の分割領域32に対応するフレーム画像22の分割領域32について、前フレーム画像22とのブロックマッチングなどにより、動きベクトルを算出する。そして、特定部13は、算出した動きベクトルを、予め定めた所定数の方向(例えば、16方向)のうち、その動きベクトルが示す方向と最も近い方向に割り当てた方向情報36を算出し、方向マップ34における処理対象の分割領域32に格納する。
次に、ステップS25で、特定部13が、方向マップ34の全ての分割領域32について処理が終了したか否かを判定する。未処理の分割領域32が存在する場合には、処理はステップS22に戻り、全て終了した場合には、処理は学習処理(図9)に戻る。
次に、ステップS30で、正解マップ更新処理が実行される。ここで、図11を参照して、正解マップ更新処理について説明する。
ステップS31で、学習部14が、正解マップ20の分割領域32から以下のステップS32〜S35の処理が未処理の分割領域32を1つ選択し、処理対象の分割領域32として設定する。
次に、ステップS32で、学習部14が、正解マップ20における処理対象の分割領域32に対応する方向マップ34の分割領域32に方向情報36が格納されているか否かを判定する。方向情報36が格納されている場合には、処理はステップS33へ移行し、格納されていない場合には、処理はステップS36へ移行する。
ステップS33では、学習部14が、過去のフレーム画像22の各々から作成された方向マップ34の各々における処理対象の分割領域32の各々を参照し、方向情報36が格納されている分割領域32を抽出する。そして、学習部14は、抽出した分割領域32に格納されている方向情報36がX回(例えば、5回)連続で、上記ステップS32で格納されていると判定された方向情報36と同一か否かを判定する。方向情報36がX回連続で同一の場合には、処理はステップS34へ移行し、同一ではない場合には、処理はステップS35へ移行する。
ステップS34では、学習部14が、X回連続で同一と判定した方向情報36を正解情報38として正解マップ20の処理対象の分割領域32に格納する。一方、ステップS35では、学習部14が、正解マップ20の処理対象の分割領域32に格納されている正解情報38をリセットする。
次に、ステップS36で、学習部14が、正解マップ20の全ての分割領域32について処理が終了したか否かを判定する。未処理の分割領域32が存在する場合には、処理はステップS31に戻り、全て終了した場合には、処理は学習処理(図9)に戻る。
次に、ステップS40で、車両検出部11が、入力された撮影画像の次のフレーム画像が存在するか否かを判定する。次のフレーム画像が存在する場合には、処理はステップS12に戻り、入力された撮影画像の全てのフレーム画像について処理が終了した場合には、正解マップ20を所定の記憶領域に記憶して、学習処理は終了する。
次に、図12を参照して逆走検出処理について説明する。
ステップS51〜S53で、学習処理のステップS12、S14、及びS20と同様に、フレーム画像から車両領域26を検出して、方向マップ34を作成する。
次に、ステップS54で、逆走検出部15が、上記ステップS53で作成された方向マップ34の分割領域32のうち、方向情報36が格納されている分割領域32から、以下のステップS55〜S57の処理が未処理の分割領域32を1つ選択する。そして、逆走検出部15は、選択した分割領域32を処理対象の分割領域32として設定する。
次に、ステップS55で、逆走検出部15が、方向マップ34の処理対象の分割領域32に格納された方向情報36が示す方向と、正解マップ20の処理対象の分割領域32に格納された正解情報38が示す方向とが一致するか否かを判定する。方向が一致する場合には、処理はステップS56へ移行し、逆走検出部15が、方向マップ34の処理対象の分割領域32に一致フラグを立てる。一方、方向が一致しない場合には、処理はステップS57へ移行し、逆走検出部15が、方向マップ34の処理対象の分割領域32に不一致フラグを立てる。
次に、ステップS58で、逆走検出部15が、方向マップ34の分割領域32のうち、方向情報36が格納された分割領域32の全てについて処理が終了したか否かを判定する。未処理の分割領域32が存在する場合には、処理はステップS54に戻り、全て終了した場合には、処理はステップS59へ移行する。
ステップS59では、逆走検出部15が、上記ステップS51で作成された車両領域検出画像28に含まれる車両領域26から、以下のステップS60及びS61の処理が未処理の車両領域26を1つ選択し、処理対象の車両領域26として設定する。
次に、ステップS60で、逆走検出部15が、処理対象の車両領域26を少なくとも一部に含む分割領域32に対応する方向マップ34における分割領域32に立てられたフラグを集計する。
次に、ステップS61で、逆走検出部15が、車両領域26に対応する分割領域に対して、不一致フラグが立てられた分割領域32の割合(不一致割合)が所定の閾値以上か否かを判定する。不一致割合が閾値以上の場合には、処理はステップS62へ移行し、不一致割合が閾値未満の場合には、処理はステップS63へ移行する。
ステップS62では、逆走検出部15が、不一致割合が閾値以上であると判定した車両領域26を、逆走車両を示す車両領域26として検出し、その車両領域26のフレーム画像22上での位置等の情報を一旦所定の記憶領域に記憶する。
次に、ステップS63で、逆走検出部15が、車両領域検出画像28に含まれる全ての車両領域26について処理が終了したか否かを判定する。未処理の車両領域26が存在する場合には、処理はステップS59に戻り、全ての車両領域26について処理が終了した場合には、処理はステップS64へ移行する。
ステップS64では、逆走検出部15が、所定の記憶領域に記憶した逆走車両を示す車両領域26の情報に基づいて、例えば、検出された車両領域26の外接矩形を撮影画像に重畳するなどして、検出結果として出力する。そして、処理はステップS51に戻る。
以上説明したように、本実施形態に係る検出装置10は、撮影画像を所定の大きさの領域に分割した分割領域毎に、動体の正解の進行方向の情報を記憶しておく。そして、検出装置10は、撮影画像から検出された車両の進行方向を特定し、記憶しておいた正解の進行方向との一致するか否かを判定して、異常な方向へ進行する動体を検出する。このように、本実施形態に係る検出装置10は、分割領域毎に動体の進行方向が異常か否かを判定することができる。そのため、本実施形態に係る検出装置10は、例えば、他の車両等の障害物の陰から突然出現した動体などについても、少なくとも2フレーム分の撮影画像が取得できれば、精度良く進行方向を特定することができる。
ここで、例えば、図13の破線部に示すように、撮影画像の端部などでは、実際には、道路に沿った方向とは異なる方向の動きベクトルが算出される。したがって、道路に沿った方向を正解の方向として記憶しておいた場合には、異常な方向へ進行する動体を精度良く検出できない。本実施形態に係る検出装置10では、過去の撮影画像内の動体の進行方向の情報に基づいて、分割領域毎に正解情報が格納された正解マップを作成する。そのため、本実施形態に係る検出装置10は、図13に示すような実際に算出される動きベクトルに基づく正解情報を記憶しておくことができ、撮影画像の端部などでも、異常な方向へ進行する動体を精度良く検出することができる。
また、本実施形態に係る検出装置10は、車両領域に対応する複数の分割領域における正解情報との一致度の判定結果に基づいて、その車両領域が逆走車両を示す車両領域か否かを判定する。これにより、例えば、トラックの荷台部分など、動体の一部が対向車線の領域に入ってしまっている場合などでも、動体自体の進行方向が正常であれば、分割領域の多数は正解情報と一致すると判定される。そのため、異常な方向へ進行する動体であると誤検出されることを抑制できる。
なお、上記実施形態では、算出した動きベクトルの方向を所定方向へ割り当てて、方向マップの方向情報を算出する場合について説明したが、これに限定されない。例えば、算出した動きベクトルをそのまま方向情報として方向マップの各分割領域に格納してもよい。この場合、所定時間分の撮影画像の各フレーム画像から作成された方向マップの各々において、同一の分割領域32に格納されている動きベクトルの平均を、正解マップの分割領域32に格納する正解情報とすることができる。そして、逆走車両の検出の際には、方向マップに格納された動きベクトルと、正解マップに格納された正解情報が示すベクトルとのなす角が所定の閾値以下か否かにより、一致度を判定することができる。なお、本実施形態のように動きベクトルを所定方向に割り当てて方向情報を算出する場合も、割り当てる方向の数を細分化するなどして設定することができる。これにより、結果的に、正解情報が示すベクトルと検出された車両領域の動きベクトルとのなす角が閾値以下になる場合を、正解の方向と一致する場合と判定することができる。
また、本実施形態では、逆走車両の検出処理とは別に、過去の所定時間分の撮影画像を入力して学習処理を実行する場合について説明したが、学習処理と逆走車両の検出処理とを並列に実行してもよい。この場合、例えば、図9に示す学習処理のステップS30の前若しくは後、又はステップS30の処理と並列に、図12に示す逆走検出処理のステップS54〜S64の処理を実行すればよい。
また、上記実施形態では、全ての分割領域が同じサイズの場合について説明したが、これに限定されない。例えば、撮影画像の奥行き方向に沿って奥に行くほど(画像の上に行くほど)、撮影装置からの距離が遠くなることを考慮して、撮影画像の奥行き方向に沿って奥に行くほど(画像の上に行くほど)、分割領域のサイズを小さくするようにしてもよい。
なお、上記実施形態では、異常な方向に進行する動体の一例として逆走車両を検出する場合について説明したが、動体は車両に限定されない。また、対象の動体に応じて、異常な進行方向も逆走の場合に限定されない。
また、上記実施形態では、検出プログラム50が記憶部43に予め記憶(インストール)されている態様を説明したが、これに限定されない。開示の技術に係るプログラムは、CD−ROM、DVD−ROM、USBメモリ等の記憶媒体に記憶された形態で提供することも可能である。
以上の実施形態に関し、更に以下の付記を開示する。
(付記1)
道路を含む範囲についての撮影画像を所定の大きさの領域に分割し、
分割された各領域について、時間的な画像の変化に基づいて動体の進行方向を特定し、
特定した前記領域それぞれの進行方向と、記憶部に記憶した前記領域それぞれにおける動体の進行方向との一致度に基づいて動体の異常な方向への進行を検出する、
処理をコンピュータに実行させることを特徴とする検出プログラム。
(付記2)
記憶部に記憶した前記領域それぞれにおける動体の進行方向として、過去の所定時間の間に前記道路を含む範囲を通過した動体の情報を利用する処理をコンピュータに実行させることを特徴とする付記1に記載の検出プログラム。
(付記3)
前記一致度に基づいて動体の異常な方向への進行を検出する際、前記動体の存在する複数の領域における進行方向の一致度に基づき検出する処理をコンピュータに実行させることを特徴とする付記1又は付記2に記載の検出プログラム。
(付記4)
前記一致度を判定する際、記憶部に記憶した前記領域それぞれにおける動体の進行方向と、特定した前記領域ごとの進行方向との方向の角度の差が所定の値以下である場合に一致であると判定する付記1乃至付記3のいずれか一項に記載の検出プログラム。
(付記5)
前記撮影画像として、前記道路を含む範囲を撮影可能な位置に固定された撮影装置により撮影される撮影画像を取得する付記1〜付記4のいずれか1項記載の検出プログラム。
(付記6)
道路を含む範囲についての撮影画像を所定の大きさの領域に分割し、
分割された各領域について、時間的な画像の変化に基づいて動体の進行方向を特定し、
特定した前記領域それぞれの進行方向と、記憶部に記憶した前記領域それぞれにおける動体の進行方向との一致度に基づいて動体の異常な方向への進行を検出する
処理をコンピュータが実行することを特徴とする検出方法。
(付記7)
記憶部に記憶した前記領域それぞれにおける動体の進行方向として、過去の所定時間の間に前記道路を含む範囲を通過した動体の情報を利用する処理をコンピュータが実行することを特徴とする付記6に記載の検出方法。
(付記8)
前記一致度に基づいて動体の異常な方向への進行を検出する際、前記動体の存在する複数の領域における進行方向の一致度に基づき検出する処理をコンピュータが実行することを特徴とする付記6又は付記7に記載の検出方法。
(付記9)
前記一致度を判定する際、記憶部に記憶した前記領域それぞれにおける動体の進行方向と、特定した前記領域ごとの進行方向との方向の角度の差が所定の値以下である場合に一致であると判定する付記6乃至付記8のいずれか一項に記載の検出方法。
(付記10)
前記撮影画像として、前記道路を含む範囲を撮影可能な位置に固定された撮影装置により撮影される撮影画像を取得する付記6乃至付記9のいずれか一項記載の検出方法。
(付記11)
道路を含む範囲についての撮影画像を所定の大きさの領域に分割する分割部と、
分割された各領域について、時間的な画像の変化に基づいて動体の進行方向を特定する特定部と、
特定した前記領域それぞれの進行方向と、記憶部に記憶した前記領域それぞれにおける動体の進行方向との一致度に基づいて動体の異常な方向への進行を検出する検出部と、
を有することを特徴とする検出装置。
(付記12)
記憶部に記憶した前記領域それぞれにおける動体の進行方向として、過去の所定時間の間に前記道路を含む範囲を通過した動体の情報を利用する学習部を含むことを特徴とする付記11に記載の検出装置。
(付記13)
前記検出部は、前記一致度に基づいて動体の異常な方向への進行を検出する際、前記動体の存在する複数の領域における進行方向の一致度に基づき検出することを特徴とする付記11又は付記12に記載の検出装置。
(付記14)
前記検出部は、前記一致度を判定する際、記憶部に記憶した前記領域それぞれにおける動体の進行方向と、特定した前記領域ごとの進行方向との方向の角度の差が所定の値以下である場合に一致であると判定する付記11乃至付記13のいずれか一項に記載の検出装置。
(付記15)
前記撮影画像として、前記道路を含む範囲を撮影可能な位置に固定された撮影装置により撮影される撮影画像を取得する付記11〜付記14のいずれか1項記載の検出装置。
(付記16)
道路を含む範囲についての撮影画像を所定の大きさの領域に分割し、
分割された各領域について、時間的な画像の変化に基づいて動体の進行方向を特定し、
特定した前記領域それぞれの進行方向と、記憶部に記憶した前記領域それぞれにおける動体の進行方向との一致度に基づいて動体の異常な方向への進行を検出する、
処理をコンピュータに実行させることを特徴とする検出プログラムを記憶した記憶媒体。
10 検出装置
11 車両検出部
12 分割部
13 特定部
14 学習部
15 逆走検出部
20 正解マップ
22 フレーム画像
26 車両領域
28 車両領域検出画像
32 分割領域
34 方向マップ
36 方向情報
38 正解情報
40 コンピュータ
41 CPU
42 メモリ
43 記憶部
49 記憶媒体
50 検出プログラム

Claims (7)

  1. 道路を含む範囲についての撮影画像を所定の大きさの領域に分割し、
    分割された各領域について、時間的な画像の変化に基づいて動体の進行方向を特定し、
    特定した前記領域それぞれの進行方向と、前記各領域について過去の所定期間の異なる時間に特定された前記動体の進行方向が所定回数連続で同一の場合に前記各領域と対応付けて前記進行方向が記憶された記憶部に記憶された前記領域それぞれにおける動体の進行方向との一致度に基づいて動体の異常な方向への進行を検出する、
    処理をコンピュータに実行させることを特徴とする検出プログラム。
  2. 記憶部に記憶した前記領域それぞれにおける動体の進行方向として、前記過去の所定期間に前記道路を含む範囲を通過した動体の情報を利用する処理をコンピュータに実行させることを特徴とする請求項1に記載の検出プログラム。
  3. 前記一致度に基づいて動体の異常な方向への進行を検出する際、前記動体の存在する複数の領域における進行方向の一致度に基づき検出する処理をコンピュータに実行させることを特徴とする請求項1又は請求項2に記載の検出プログラム。
  4. 前記一致度を判定する際、記憶部に記憶した前記領域それぞれにおける動体の進行方向と、特定した前記領域ごとの進行方向との方向の角度の差が所定の値以下である場合に一致であると判定する請求項1乃至請求項3のいずれか一項に記載の検出プログラム。
  5. 前記撮影画像として、前記道路を含む範囲を撮影可能な位置に固定された撮影装置により撮影される撮影画像を取得する請求項1〜請求項4のいずれか1項記載の検出プログラム。
  6. 道路を含む範囲についての撮影画像を所定の大きさの領域に分割し、
    分割された各領域について、時間的な画像の変化に基づいて動体の進行方向を特定し、
    特定した前記領域それぞれの進行方向と、前記各領域について過去の所定期間の異なる時間に特定された前記動体の進行方向が所定回数連続で同一の場合に前記各領域と対応付けて前記進行方向が記憶された記憶部に記憶された前記領域それぞれにおける動体の進行方向との一致度に基づいて動体の異常な方向への進行を検出する
    処理をコンピュータが実行することを特徴とする検出方法。
  7. 道路を含む範囲についての撮影画像を所定の大きさの領域に分割する分割部と、
    分割された各領域について、時間的な画像の変化に基づいて動体の進行方向を特定する特定部と、
    特定した前記領域それぞれの進行方向と、前記各領域について過去の所定期間の異なる時間に特定された前記動体の進行方向が所定回数連続で同一の場合に前記各領域と対応付けて前記進行方向が記憶された記憶部に記憶された前記領域それぞれにおける動体の進行方向との一致度に基づいて動体の異常な方向への進行を検出する検出部と、
    を有することを特徴とする検出装置。
JP2017130196A 2017-07-03 2017-07-03 検出プログラム、方法、及び装置 Active JP6935690B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017130196A JP6935690B2 (ja) 2017-07-03 2017-07-03 検出プログラム、方法、及び装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017130196A JP6935690B2 (ja) 2017-07-03 2017-07-03 検出プログラム、方法、及び装置

Publications (2)

Publication Number Publication Date
JP2019012496A JP2019012496A (ja) 2019-01-24
JP6935690B2 true JP6935690B2 (ja) 2021-09-15

Family

ID=65226421

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017130196A Active JP6935690B2 (ja) 2017-07-03 2017-07-03 検出プログラム、方法、及び装置

Country Status (1)

Country Link
JP (1) JP6935690B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7144124B2 (ja) * 2019-02-06 2022-09-29 アルパイン株式会社 システム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001357484A (ja) * 2000-06-14 2001-12-26 Kddi Corp 道路異常検出装置
JP4209826B2 (ja) * 2004-09-29 2009-01-14 三菱電機株式会社 交通流監視装置
JP2006285399A (ja) * 2005-03-31 2006-10-19 Tama Tlo Kk 交差点における車両の動きを監視するための映像監視方法及び装置
JP5400718B2 (ja) * 2010-07-12 2014-01-29 株式会社日立国際電気 監視システムおよび監視方法

Also Published As

Publication number Publication date
JP2019012496A (ja) 2019-01-24

Similar Documents

Publication Publication Date Title
US8687896B2 (en) Picture image processor, method for processing picture image and method for processing picture image
CN107924569B (zh) 图像处理装置、图像处理方法和存储介质
US9619895B2 (en) Image processing method of vehicle camera and image processing apparatus using the same
US20150367781A1 (en) Lane boundary estimation device and lane boundary estimation method
US20100021010A1 (en) System and Method for detecting pedestrians
JP7077910B2 (ja) 区画線検出装置及び区画線検出方法
CN106020182B (zh) 车辆和车辆停车系统
RU2621826C1 (ru) Устройство вычисления собственного положения и способ вычисления собственного положения
KR102052833B1 (ko) 영상 추적을 이용한 차량 속도 검출 장치 및 방법
JP6188592B2 (ja) 物体検出装置、物体検出方法、および物体検出プログラム
JP2018081545A (ja) 画像データ抽出装置及び画像データ抽出方法
JP2016194925A (ja) 道路境界物の検出方法及び装置
US9747507B2 (en) Ground plane detection
JP6700373B2 (ja) ビデオ動画の人工知能のための学習対象イメージパッケージング装置及び方法
WO2014132490A1 (ja) 車両諸元計測処理装置、車両諸元計測方法及び記録媒体
JP6515704B2 (ja) 車線検出装置及び車線検出方法
CN106611147B (zh) 车辆追踪方法和装置
JP6935690B2 (ja) 検出プログラム、方法、及び装置
KR101635831B1 (ko) 차량 위치 인식 장치 및 방법
JP7095559B2 (ja) 区画線検出装置及び区画線検出方法
JP4575315B2 (ja) 物体検出装置及びその方法
JP4155252B2 (ja) 車両検出装置
JP2001180404A (ja) 車両の後方監視装置
JP6235956B2 (ja) 画像合成方法、プログラム、及び装置
KR102286250B1 (ko) Cctv를 이용한 차량 번호 인식 시스템

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200310

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210412

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210420

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210616

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210727

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210809

R150 Certificate of patent or registration of utility model

Ref document number: 6935690

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150