JP7081108B2 - 同定装置、マッチング方法、およびマッチングプログラム - Google Patents

同定装置、マッチング方法、およびマッチングプログラム Download PDF

Info

Publication number
JP7081108B2
JP7081108B2 JP2017194343A JP2017194343A JP7081108B2 JP 7081108 B2 JP7081108 B2 JP 7081108B2 JP 2017194343 A JP2017194343 A JP 2017194343A JP 2017194343 A JP2017194343 A JP 2017194343A JP 7081108 B2 JP7081108 B2 JP 7081108B2
Authority
JP
Japan
Prior art keywords
vehicle
point
attribute
detection data
reliability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017194343A
Other languages
English (en)
Other versions
JP2019067294A (ja
Inventor
海虹 張
慎也 湯淺
浩一郎 梶谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2017194343A priority Critical patent/JP7081108B2/ja
Priority to PCT/JP2018/036314 priority patent/WO2019069814A1/ja
Publication of JP2019067294A publication Critical patent/JP2019067294A/ja
Application granted granted Critical
Publication of JP7081108B2 publication Critical patent/JP7081108B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Description

この発明は、第1地点で撮像した撮像画像に撮像されている車両、人等のオブジェクトと、第2地点で撮像した撮像画像に撮像されている車両、人等のオブジェクトとを対応付ける技術に関する。
従来、車両の走行路(一般道路や高速道路等)における2地点間の車両の旅行時間を交通情報として取得する装置があった(例えば、特許文献1参照)。この装置は、走行路(道路)の上流地点、および下流地点の2地点のそれぞれにおいて、車両の特徴量(車高、車長、車幅、車速、車両の色等)をセンサで検知するとともに、その地点における当該車両の検知時刻を取得する。また、この装置は、車両毎に収集した、その車両の特徴量、および検知時刻を含む車両検知データを用いて、上流地点で検知された車両と、下流地点で検知された車両と、を対応付けるマッチングを行い、2地点間の車両の旅行時間を取得する。上流地点で検知された車両と、下流地点で検知された車両との対応付けは、公知のDP(Dynamic Programming)マッチング等で行える。2地点間の車両の旅行時間は、車両が上流地点を通過してから、下流地点に到達するまでの走行時間(上流地点の通過時刻から、下流地点の通過時刻までの経過時間)である。
特開2000-207675号公報
しかしながら、センサにより検知される走行している車両の特徴量は、検知地点における対象車両の走行状態や周辺環境の影響を受けて適正に検知されないことがある。対象車両とは、特徴量を検知する対象の車両である。対象車両の走行状態とは、例えば対象車両の速度、対象車両の周辺に位置する他の車両の台数、対象車両と周辺に位置する車両との相対的な位置関係等である。また、周辺環境とは、気温、天気(晴れ、曇り、雨等)、明るさ(日射量、照明の光量)、影の有無や形状等である。
特許文献1等に記載されている従来の装置は、特徴量が適正に検知されていることを前提にして、マッチングを行う構成である。したがって、従来の装置は、少なくとも一方の地点で特徴量を適正に検知できていなければ、2地点間での車両の対応付けが適正に行えない。言い換えれば、少なくとも一方の地点で特徴量を適正に検知できていなければ、2地点における車両のマッチングの精度が低下し、その結果、取得される2地点間の車両の旅行時間の精度も低下する。このようなことから、2地点間でのマッチング精度の向上が要望されている。
この発明の目的は、第1地点で検知されたオブジェクトと、第2地点間で検知されたオブジェクトとを対応付けるマッチング精度の向上が図れる技術を提供することにある。
この発明の同定装置は、上記目的を達するために、以下のように構成している。
第1入力部には、第1の撮像装置によって撮像された第1地点のフレーム画像に撮像されているオブジェクトについて、予め定められた複数種類の属性毎に、その属性について検知された検知結果と当該検知結果の信頼度とを対にした第1検知データが入力される。また、第2入力部には、第2の撮像装置によって撮像された第2地点のフレーム画像に撮像されているオブジェクトについて、予め定められた複数種類の属性毎に、その属性について検知された検知結果と当該検知結果の信頼度とを対にした第2検知データが入力される。そして、マッチング部が、第1検知データ、および第2検知データに含まれる属性の検知結果、およびその検知結果の信頼度を用いて算出した一致度によって、第1地点のフレーム画像に撮像されていたオブジェクトと、第2地点のフレーム画像に撮像されていたオブジェクトとを対応付ける。
この構成によれば、第1地点で検知されたオブジェクトと、第2地点で検知されたオブジェクトとの対応付けが、オブジェクトの属性についての検知結果だけでなく、その検知結果の信頼度をも用いて行われる。ここで言うオブジェクトの属性とは、例えばオブジェクトが車両であれば、車両の種別(大型車両、中型車両、小型車両等)、車両の高さ(車高(全高))、車両の幅(車幅(全幅))、車両の長さ(車長(全長))、車両の色(赤、黒、白等)等が属性である。また、オブジェクトが人であれば、性別、年齢、身長、服の色、服の種類(スーツ、Tシャツ、ジャンパー、ズボン、スカート等)、帽子の着用の有無、マスクの着用の有無等が属性である。したがって、マッチング部は、信頼度が低い属性、すなわち誤検知が生じている可能性が高い属性、の影響を抑えたオブジェクトのマッチングが行える。このため、第1地点で検知されたオブジェクトと、第2地点間で検知されたオブジェクトとを対応付けるマッチング精度の向上が図れる。
また、同定装置は、第2地点のフレーム画像に撮像されていたオブジェクトの中から、第1地点のフレーム画像に撮像されていたオブジェクトに対応付けるオブジェクト候補を抽出する候補抽出部を備え、マッチング部が、候補抽出部が抽出したオブジェクト候補に属するオブジェクトについて一致度を算出する構成にしてもよい。
このように構成すれば、第1地点のフレーム画像に撮像されていたオブジェクトに対応付ける、第2地点のフレーム画像に撮像されていたオブジェクトを絞り込むことができるので、マッチングにかかる処理負荷を低減できる。
また、マッチング部は、第1地点のフレーム画像に撮像されていたオブジェクトと、第2地点のフレーム画像に撮像されていたオブジェクトとの対応付けを、オブジェクトの属性毎に、算出した一致度の総和に基づいて行う構成にしてもよい。このように構成すれば、オブジェクト間における一致度が特定の属性でのみ高かった場合に、これらのオブジェクトを不適正に対応付けてしまうのを抑制できる。
さらに、マッチング部は、第1地点のフレーム画像に撮像されていたオブジェクトと、第2地点のフレーム画像に撮像されていたオブジェクトとの対応付けを、属性の中で、信頼度が所定値以上である属性について算出した一致度の総和に基づいて行う構成にしてもよい。このように構成すれば、信頼度が低い属性の検知結果を除外して、オブジェクトの対応付けが行えるので、オブジェクトを不適正に対応付けてしまうのを抑制できる。
この発明によれば、第1地点で検知されたオブジェクトと、第2地点間で検知されたオブジェクトとを対応付けるマッチング精度の向上が図れる。
旅行時間取得システムを示す概略図である。 この例にかかる同定装置の主要部の構成を示すブロック図である。 検知データを示す図である。 同定装置におけるマッチング処理にかかる動作を示すフローチャートである。 別の例にかかる同定装置のマッチング処理を示すフローチャートである。 別の例にかかる同定装置のマッチング処理を示すフローチャートである。
以下、この発明の実施形態について説明する。
<1.適用例>
図1は、この発明の実施形態にかかる同定装置を用いた旅行時間取得システムを示す概略図である。この例にかかる旅行時間取得システムは、同定装置1、属性検知装置2a、2b、およびカメラ5a、5bを備えている。この図1に示す例は、第1地点P1を通過した車両と、第2地点P2を通過した車両とを対応付けることにより、第1地点P1から第2地点P2までの車両の旅行時間を取得するシステムである。この例では、第1地点P1が、第2地点P2の上流地点である。言い換えれば、第2地点P2が、第1地点P1の下流地点であり、車両は、第1地点P1から第2地点P2に向かって走行する。
カメラ5aは、第1地点P1を撮像する。カメラ5bは、第2地点P2を撮像する。カメラ5a、5bのフレームレートは、数十フレーム/Sec(例えば、10~30フレーム/Sec)である。カメラ5aは、第1地点P1を撮像したフレーム画像を属性検知装置2aに出力する。カメラ5bは、第2地点P2を撮像したフレーム画像を属性検知装置2bに出力する。
属性検知装置2aは、カメラ5aから入力されたフレーム画像を処理し、撮像されている車両について予め定められている複数種類の属性毎に、その属性を検知する。また、属性検知装置2aは、検知した属性の検知結果の信頼度を取得する。属性検知装置2bは、カメラ5bから入力されたフレーム画像を処理し、撮像されている車両について予め定められている複数種類の属性毎に、その属性を検知する。また、属性検知装置2bは、検知
した属性の検知結果の信頼度を取得する。ここで言う車両の属性とは、車両の種別(大型車両、中型車両、小型車両等)、車両の高さ(車高(全高))、車両の幅(車幅(全幅))、車両の長さ(車長(全長))、車両の色(赤、黒、白等)等である。また、属性の検知結果の信頼度とは、その検知結果の確からしさを示す度合いである。言い換えれば、属性の検知結果の信頼度とは、その属性について誤検知が生じている可能性を示す度合いである。属性検知装置2a、2bは、例えば機械学習や深層学習(ディープラーニング)によって学習させたコンピュータ(所謂、人口知能(AI(Artificial Intelligence)))である。
この例では、車両がこの発明で言うオブジェクトに相当する。また、この例では、カメラ5aがこの発明で言う第1の撮像装置に相当し、カメラ5bがこの発明で言う第2の撮像装置に相当する。
属性検知装置2aは、車両の属性毎に、その属性について検知した検知結果と、当該検知結果の信頼度とを対にした検知データ(第1地点P1の検知データ)を同定装置1に出力する。また、属性検知装置2bは、車両の属性毎に、その属性について検知した検知結果と、当該検知結果の信頼度とを対にした検知データ(第2地点P2の検知データ)を同定装置1に出力する。
なお、属性検知装置2a、2bは、単一の装置で構成してもよい。また、第1地点P1の検知データには、その車両が第1地点P1で検知された時刻が含まれている。同様に、第2地点P2の検知データには、その車両が第2地点で検知された時刻が含まれている。また、この例では、第1地点P1、および第2地点P2を示し、第1地点P1で検知された車両と第2地点P2で検知された車両とを対応付けるものとして説明するが、車両の対応付けが行える2地点は、第1地点P1、および第2地点P2に限られない。例えば、図示していない、第3地点と第4地点等においても、検知データを得られる構成であれば、これらの地点間等においても、車両の対応付けが行える。
同定装置1は、属性検知装置2aから入力された第1地点P1の検知データ、および属性検知装置2bから入力された第2地点P2の検知データに含まれる、車両の属性の検知結果、およびその検知結果の信頼度を用いて算出した一致度によって、第1地点P1のフレーム画像に撮像されていた車両と、第2地点P2のフレーム画像に撮像されていた車両とを対応付けるマッチング処理を行う。
このように、同定装置1は、車両の属性の検知結果だけで第1地点P1のフレーム画像に撮像されていた車両と、第2地点P2のフレーム画像に撮像されていた車両とを対応付けるのではなく、車両の属性の検知結果の信頼度をも用いて第1地点P1のフレーム画像に撮像されていた車両と、第2地点P2のフレーム画像に撮像されていた車両とを対応付ける。このため、車両の属性を誤検知している可能性の大きさを考慮して、第1地点P1のフレーム画像に撮像されていた車両と、第2地点P2のフレーム画像に撮像されていた車両とを対応付けるマッチング処理が行える。したがって、第1地点P1のフレーム画像に撮像されていた車両と、第2地点P2のフレーム画像に撮像されていた車両とを対応付けるマッチングの精度が、車両の属性の誤検知により低下するのを抑えることができる。すなわち、マッチング精度の向上を図ることができる。
同定装置1は、例えば第1地点P1から第2地点P2までの車両の旅行時間を取得し、取得した車両の旅行時間を上位装置に出力する。上位装置は、例えば交通管制センタのサーバである。
<2.構成例>
図2は、この例にかかる同定装置の主要部の構成を示すブロック図である。同定装置1は、制御ユニット11と、第1入力部12と、第2入力部13と、第1検知データ記憶部14と、第2検知データ記憶部15と、通信部16とを備えている。
制御ユニット11は、同定装置1本体各部の動作を制御する。また、制御ユニット11は、候補抽出部21と、マッチング部22と、旅行時間取得部23とを備える。候補抽出部21、マッチング部22、および旅行時間取得部23については、後述する。
第1入力部12は、属性検知装置2aにおいて出力された車両の検知データ(以下、第1検知データと言う。)の入力を受け付ける。第1入力部12は、属性検知装置2aとの間におけるデータの入出力を行うインタフェースである。また、第2入力部13は、属性検知装置2bにおいて出力された車両の検知データ(以下、第2検知データと言う。)の入力を受け付ける。第2入力部13は、属性検知装置2bとの間におけるデータの入出力を行うインタフェースである。
なお、第1入力部12、および第2入力部13は、1つのハードウェアで構成してもよいし、独立した2つのハーウェアで構成してもよい。
第1検知データ記憶部14は、第1入力部12に入力された第1検知データを蓄積的に記憶する。第2検知データ記憶部15は、第2入力部13に入力された第2検知データを蓄積的に記憶する。第1検知データ記憶部14、および第2検知データ記憶部15は、ハードディスク、メモリカード等の記憶媒体によって構成される。第1検知データ、および第2検知データの詳細については後述する。
なお、第1検知データ記憶部14、および第2検知データ記憶部15は、1つのハードウェア(記憶媒体)で構成してもよいし、独立した2つのハーウェア(記憶媒体)で構成してもよい。
通信部16は、上位装置との間におけるデータ通信を行う。
次に、制御ユニット11が備える候補抽出部21、マッチング部22、および旅行時間取得部23について説明する。候補抽出部21は、属性検知装置2a、または属性検知装置2bの一方において検知された車両の中から、属性検知装置2a、または属性検知装置2bの他方において検知された車両に対応づける車両候補を抽出する。この例では、候補抽出部21は、属性検知装置2bにおいて検知された車両の中から、属性検知装置2aにおいて検知された車両に対応づける車両候補を抽出する場合を例にして説明する。候補抽出部21は、前回取得した第1地点P1から第2地点P2までの車両の旅行時間を基にして車両候補を抽出する。具体的には、候補抽出部21は、属性検知装置2aにおいて検知された対象車両が、属性検知装置2bにおいて検知される時間帯(すなわち、対象車両が第2地点P2に到達する時間帯)を推定する。候補抽出部21は、対象車両が属性検知装置2bにおいて検知される時間帯として、その時間帯の開始時刻、および終了時刻とを推定する。
候補抽出部21は、例えば、属性検知装置2aにおける対象車両の検知時刻がT1であり、前回取得した第1地点P1から第2地点P2までの車両の旅行時間がt1である場合、
対象車両が属性検知装置2bにおいて検知される時間帯の開始時刻を、例えば、
開始時刻=T1+t1×0.8、または
開始時刻=T1+t1-Δt
等によって推定する。
また、候補抽出部21は、対象車両が属性検知装置2bにおいて検知される時間帯の終了時刻を、例えば、
終了時刻=T1+t1×1.2、または
終了時刻=T1+t1+Δt
等によって推定する。
候補抽出部21は、推定した対象車両が属性検知装置2bにおいて検知される時間帯において、属性検知装置2bにおいて検知された車両を車両候補として抽出する。
マッチング部22は、属性検知装置2aにおいて検知された対象車両を、候補抽出部21が抽出した車両候補のいずれかに対応付けるマッチング処理を行う。このマッチング処理では、対象車両がいずれの車両候補にも対応付けられないこともある。マッチング処理は、対象車両の検知データと、各車両候補の検知データとを対比して、対象車両と、この対象車両と同一の車両であると判定した車両候補とを対応付ける処理である。
旅行時間取得部23は、マッチング部22において対応付けられた複数組の車両について、第1地点P1で検知されてから第2地点P2で検知されるまでの時間の平均を車両の旅行時間として算出する。
ここで、検知データについて説明する。図3は、ある車両の検知データを示す図である。属性検知装置2aが検知した車両について出力する検知データと、属性検知装置2bが検知した車両について出力する検知データとは同じ形式である。検知データには、図3に示すように、車両IDと、検知時刻と、各属性の検知結果および信頼度とが含まれている。車両IDは、車両を識別するコードである。この車両IDは、その車両を検知した属性検知装置2a、2bを示すコードも含まれている。すなわち、各属性検知装置2a、2bは、検知した車両に付与する車両IDが他の属性検知装置2a、2bで使用されることがない。したがって、属性検知装置2a、2bは、検知した車両に車両IDを付与するとき、他の属性検知装置2a、2bがすでに使用した車両IDであるかどうかを考慮する必要がない。
なお、上記の説明から明らかなように、同一の車両であっても、その車両を検知した属性検知装置2a、2bによって、車両IDが異なる。
検知時刻は、例えば属性検知装置2a、2bがその車両を検知したフレーム画像の撮像時刻である。車両の属性は、上述したように、車両の種別、車高、車幅、車長、車両の色等である。車両の属性には、ここで例示しているものに限らず、他の属性が含まれていてもよいし、ここに例示しているものの一部が含まれていなくてもよい。検知データには、車両の属性毎に、その属性の検知結果、および当該検知結果の信頼度が対応づけられている。
同定装置1の制御ユニット11は、ハードウェアCPU、メモリ、その他の電子回路によって構成されている。ハードウェアCPUが、この発明にかかるマッチングプログラムを実行したときに、候補抽出部21、マッチング部22、および旅行時間取得部23として動作する。また、メモリは、この発明にかかる同定プログラムを展開する領域や、この同定プログラムの実行時に生じたデータ等を一時記憶する領域を有している。制御ユニット11は、ハードウェアCPU、メモリ等を一体化したLSIであってもよい。また、ハードウェアCPUが、この発明にかかるマッチング方法を実行するコンピュータである。
<3.動作例>
この例にかかる同定装置1の動作について説明する。図4は、同定装置におけるマッチング処理にかかる動作を示すフローチャートである。同定装置1は、特に図示していないが、属性検知装置2aから第1入力部12に検知データが入力されると、入力された検知データを第1検知データ記憶部14に記憶し、属性検知装置2bから第2入力部13に検知データが入力されると、入力された検知データを第2検知データ記憶部15に記憶する検知データ記憶処理を、図4に示すマッチング処理と並行して実行する。
同定装置1は、属性検知装置2aによって検知された車両の中から対象車両を決定する(s1)。s1では、属性検知装置2aによって検知された車両であって、すでに第2地点P2を通過していると推定され、且つ属性検知装置2bによって検知された車両とのマッチング処理を行っていない車両を、対象車両に決定する。第2地点P2を通過しているかどうかの推定は、例えば、属性検知装置2aによって検知された検知時刻からの経過時間が、前回取得した第1地点P1から第2地点P2までの車両の旅行時間t1の1.5倍程度の時間以上であるかどうかによって行えばよい。
同定装置1は、s1で決定した対象車両に対応付ける車両候補を抽出する(s2)。s2では、s1で決定した対象車両が、第2地点P2を通過する時間帯を推定し、属性検知装置2bが、ここで推定した時間帯に検知した車両を車両候補として抽出する。s1で決定した対象車両が、第2地点P2を通過する時間帯は、上述したように、例えば、属性検知装置2aにおける対象車両の検知時刻がT1であり、前回取得した第1地点P1から第2地点P2までの車両の旅行時間がt1である場合、
対象車両が属性検知装置2bにおいて検知される時間帯の開始時刻を、
開始時刻=T1+t1×0.8、または
開始時刻=T1+t1-Δt
等によって推定する。
また、対象車両が属性検知装置2bにおいて検知される時間帯の終了時刻を、
終了時刻=T1+t1×1.2、または
終了時刻=T1+t1+Δt
等によって推定する。
s1、およびs2にかかる処理は、候補抽出部21によって行われる。このs2にかかる処理を実行することにより、s1で決定した対象車両について、対応付ける車両の絞り込みが行えるので、処理負荷を無駄に増大させることなく、以下に示すs3以降の処理が効率的に行える。
同定装置1は、優先順位が最上位である属性を対象属性として選択する(s3)。属性の優先順位は、予め定められている。属性の優先順位は、例えば、車種、車両の色、車長、車高、車幅の順番である。同定装置1は、s1で決定した対象車両について、s3で選択した対象属性の信頼度が所定値以上であるかどうかを判定する(s4)。s4は、信頼度が低い属性の検知結果での車両のマッチングを制限(禁止)し、車両の対応付けが不適正になるのを抑制するための処理である。同定装置1は、s3で選択した対象属性の信頼度が所定値以上でなければ、後述するs8に進む。
同定装置1は、s3で選択した対象属性の信頼度が所定値以上であると、s2で抽出した車両候補毎に、s3で選択した対象属性の一致度を算出する(s5)。この一致度の算出は、対象車両における対象属性の信頼度、および一致度を算出する車両候補における対象属性の信頼度を用いて算出する。例えば、一致度は、以下の算出式により算出する。
一致度=α×(1-|(対象車両における対象属性の信頼度)-(車両候補における対象属性の信頼度)|)
ただし、対象車両における対象属性の検知結果と車両候補における対象属性の検知結果とが一致している場合、α=1であり、
対象車両における対象属性の検知結果と車両候補における対象属性の検知結果とが一致していない場合、α=0である。
同定装置1は、各車両候補について算出した一致度に基づき、対象車両をいずれかの車両候補に対応付けられるかどうかを判定する(s6)。s6では、s5で算出した一致度が予め定めた閾値(例えば0.90)以上であり、且つ一致度が最大である車両候補が1台である場合に、対象車両をいずれかの車両候補に対応付けられると判定する。同定装置1は、対象車両をいずれかの車両候補に対応付けられると判定すると、対象車両と、s5で算出した一致度が最大であった車両候補とを対応付け(s7)、s1に戻る。
同定装置1は、対象車両をいずれかの車両候補に対応付けられないと判定すると、s5で算出した一致度が閾値以上であった車両候補の有無を判定する(s8)。同定装置1は、s8で、算出した一致度が閾値以上であった車両候補が無ければ、今回s1で決定した対象車両をいずれの車両候補にも対応付けできないと判定し(s10)、s1に戻る。
また、同定装置1は、s5で算出した一致度が閾値以上であった車両候補が複数台であれば、未処理の属性の有無を判定する(s9)。同定装置1は、未処理の属性が無ければ、s10で対象車両をいずれの車両候補にも対応付けできないと判定し、s1に戻る。
同定装置1は、s9で未処理の属性があると判定すると、次に優先順位が高い属性を選択し(s11)、s4に戻る。s11では、未処理の属性の中で、優先順位が最も高い属性を選択している。
また、s11で選択した属性についてs4以降の処理を行う場合、車両候補は、直前に算出した一致度が閾値以上であった車両に絞り込む。言い換えれば、s11で選択した属性についてs4以降の処理を行う場合、車両候補には、直前に算出した一致度が閾値未満であった車両が含まれない。
s3~s11にかかる処理は、マッチング部22によって行われる。
このように、この例にかかる同定装置1は、第1地点P1で検知された車両と、第2地点P2で検知された車両との対応付けを、車両の属性についての検知結果だけでなく、その検知結果の信頼度をも用いて行う。また、同定装置1は、s4にかかる処理を実行し、信頼度が低い属性の検知結果での車両のマッチングを制限(禁止)しているので、第1地点P1で検知された車両と、第2地点P2で検知された車両との対応付けが不適正になるのを抑制できる。したがって、この例にかかる同定装置1は、第1地点P1で検知された車両と、第2地点P2で検知された車両とを対応付けるマッチング精度の向上が図れる。
また、同定装置1は、所定時間毎(例えば、5分毎、または10分毎)に、第1地点P1から第2地点までの車両の旅行時間t1を取得する。具体的には、旅行時間取得部23が、前回旅行時間t1を取得してから、今回旅行時間を取得するまでの期間に、上述したマッチング処理で対応付けられた各車両の旅行時間の平均値を、今回の旅行時間t1として取得する。
なお、同定装置1は、第1地点P1における複数台の車両の通過順と、第2地点P2における複数台の車両の通過順とを用いて、これら複数台の車両に対する上述したマッチング処理による対応付けが適正であるかどうかを判断し、マッチング処理における車両の対応付けを補正する機能を備えてもよい。この判断は、例えば、公知のDPマッチングによって、第1地点P1で検知された車両と、第2地点P2で検知された車両との対応付けを行い、このDPマッチングによる車両の対応付けを参照して、図4に示した処理による車両の対応付けを補正すればよい。この補正は、図4に示した処理による車両の対応付けを、公知のDPマッチングによる車両の対応付けに合わせる処理ではない。
<4.変形例>
この変形例にかかる同定装置1は、図4に示したマッチング処理を、図5に示すマッチング処理に置き換えたものである。図5は、この変形例にかかる同定装置のマッチング処理を示すフローチャートである。
同定装置1は、属性検知装置2aによって検知された車両の中から対象車両を決定し(s21)、ここで決定した対象車両に対応付ける車両候補を抽出する(s22)。s21、およびs22にかかる処理は、上述したs1、およびs2にかかる処理と同じである。
同定装置1は、車両候補毎に、一致度の総和を算出する(s23)。s23では、車両候補毎に、検知データに含まれる各属性の一致度を算出し、その総和を算出する。より具体的には、同定装置1は、車種、車両の色、車長、車高、車幅等のそれぞれの属性について、一致度を算出する。この属性毎の一致度の算出は、上述した例と同じである。そして、同定装置1は、各属性について算出した一致度の総和を算出する。
同定装置1は、s23で算出した一致度の総和が最大である車両候補を選択する(s24)。同定装置1は、s24で選択した車両候補の一致度の総和が閾値以上であるかどうかを判定する(s25)。s25では、一致度を算出した属性の種類がn個である場合、例えば、閾値は、n×0.85である。同定装置1は、選択した車両候補との一致度の総和が閾値以上であれば、対象車両と選択した車両候補とを対応付け(s26)、s21に戻る。一方、同定装置1は、選択した車両候補との一致度の総和が閾値未満であれば、対象車両をいずれの車両候補にも対応付けできないと判定し(s27)、s21に戻る。
s23~s27にかかる処理は、マッチング部22によって行われる。
この変形例にかかる同定装置1は、第1地点P1で検知された車両と、第2地点P2で検知された車両との対応付けを、車両の属性についての検知結果だけでなく、その検知結果の信頼度をも用いて行う。したがって、この変形例にかかる同定装置1は、第1地点P1で検知された車両と、第2地点P2で検知された車両とを対応付けるマッチング精度の向上が図れる。
また、別の変形例にかかる同定装置1について説明する。この変形例にかかる同定装置1は、図4、または図5に示したマッチング処理を、図6に示すマッチング処理に置き換えたものである。図6は、この変形例にかかる同定装置のマッチング処理を示すフローチャートである。
同定装置1は、属性検知装置2aによって検知された車両の中から対象車両を決定し(s31)、ここで決定した対象車両に対応付ける車両候補を抽出する(s32)。s31、およびs32にかかる処理は、上述したs1、およびs2(またはs21、およびs22)にかかる処理と同じである。
同定装置1は、s32で抽出した車両候補の中から、以下に示すs34~s38にかかる処理を行う車両候補を選択する(s33)。同定装置1は、s33で選択した車両候補について、以下に示すs35、s36にかかる処理を行う属性を選択する(s34)。同定装置1は、対象車両、および車両候補の両方において、s34で選択した属性の信頼度が所定値以上であるかどうかを判定する(s35)。同定装置1は、対象車両、および車両候補の両方において、s34で選択した属性の信頼度が所定値以上であれば、この属性について一致度を算出する(s36)。s36にかかる処理は、上述したs5と同じ処理である。同定装置1は、s36で属性の一致度を算出すると、s35、s36にかかる処理を行っていない未処理の属性があるかどうかを判定し(s37)、未処理の属性があれば、s34に戻る。
また、同定装置1は、s35で対象車両、および車両候補の少なくとも一方において、s34で選択した属性の信頼度が所定値未満であると判定すると、s37で未処理の属性があるかどうかを判定する。
同定装置1は、s37で未処理の属性が無いと判定すると、s33で選択した車両候補について、s36で算出した一致度の総和を算出する(s38)。s38で算出される一致度の総和は、信頼度が所定値未満である属性を除外したものである。
同定装置1は、s34~s38にかかる処理を行っていない未処理の車両候補があるかどうかを判定し(s39)、未処理の車両候補があればs33に戻る。したがって、同定装置1は、s32で抽出した車両候補毎に、信頼度が所定値未満である属性を除外した一致度の総和を算出する。
同定装置1は、s38で算出した一致度の総和が最大である車両候補を選択する(s40)。同定装置1は、s40で選択した車両候補の一致度の総和が閾値以上であるかどうかを判定する(s41)。閾値は、s34~s37にかかる処理を行った属性の種類の個数によって決定してもよいし、s36で一致度を算出した属性の種類の個数によって決定してもよい。s34~s37にかかる処理を行った属性の種類の個数によって決定される閾値は、例えば、n×0.70(ただし、nはs34~s37にかかる処理を行った属性の種類の個数である。)にすればよい。また、s36で一致度を算出した属性の種類の個数によって決定される閾値は、例えば、m×0.85(ただし、mはs36で一致度を算出した属性の種類の個数である。)にすればよい。
同定装置1は、s40で選択した車両候補との一致度の総和が閾値以上であれば、対象車両と選択した車両候補とを対応付け(s42)、s31に戻る。一方、同定装置1は、s40で選択した車両候補との一致度の総和が閾値未満であれば、対象車両をいずれの車両候補にも対応付けできないと判定し(s43)、s31に戻る。
s33~s43にかかる処理は、マッチング部22によって行われる。
この変形例にかかる同定装置1は、第1地点P1で検知された車両と、第2地点P2で検知された車両との対応付けを、車両の属性についての検知結果だけでなく、その検知結果の信頼度をも用いて行う。また、同定装置1は、信頼度が低い属性の検知結果を用いないで車両のマッチングを行うので、第1地点P1で検知された車両と、第2地点P2で検知された車両との対応付けが不適正になるのを抑制できる。したがって、この変形例にかかる同定装置1も、第1地点P1で検知された車両と、第2地点P2で検知された車両とを対応付けるマッチング精度の向上が図れる。
また、上述した各例における一致度を算出する算出式、信頼度の所定値、一致度の閾値、および一致度の総和の閾値は、あくまでも例示であり、同定装置1の運用環境等に応じて適宜設定されるものである。
また、上記の例では、車両を対応付ける同定装置を例にして説明したが、本願発明は、車両以外のオブジェクト(例えば人)を対応付ける装置にも適用可能である。
なお、この発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態に亘る構成要素を適宜組み合せてもよい。
さらに、この発明にかかる構成と上述した実施形態にかかる構成との対応関係は、以下の付記のように記載できる。
<付記>
第1の撮像装置5aによって撮像された第1地点P1のフレーム画像に撮像されているオブジェクトについて、予め定められた複数種類の属性毎に、その属性について検知された検知結果と当該検知結果の信頼度とを対にした第1検知データが入力される第1入力部12と、
第2の撮像装置5bによって撮像された第2地点P2のフレーム画像に撮像されているオブジェクトについて、予め定められた複数種類の属性毎に、その属性について検知された検知結果と当該検知結果の信頼度とを対にした第2検知データが入力される第2入力部13と、
前記第1検知データ、および前記第2検知データに含まれる前記属性の検知結果、およびその検知結果の信頼度を用いて算出した一致度によって、前記第1地点P1のフレーム画像に撮像されていたオブジェクトと、前記第2地点P2のフレーム画像に撮像されていたオブジェクトとを対応付けるマッチング部22と、を備えた、同定装置。
P1…第1地点
P2…第2地点
1…同定装置
2a、2b…属性検知装置
5a、5b…カメラ
11…制御ユニット
12…第1入力部
13…第2入力部
14…第1検知データ記憶部
15…第2検知データ記憶部
16…通信部
21…候補抽出部
22…マッチング部
23…旅行時間取得部

Claims (7)

  1. 第1の撮像装置によって撮像された第1地点のフレーム画像に撮像されているオブジェクトについて、予め定められた複数種類の属性毎に、その属性について検知された検知結果と当該検知結果の信頼度とを対にした第1検知データが入力される第1入力部と、
    第2の撮像装置によって撮像された第2地点のフレーム画像に撮像されているオブジェクトについて、予め定められた複数種類の属性毎に、その属性について検知された検知結果と当該検知結果の信頼度とを対にした第2検知データが入力される第2入力部と、
    前記第1検知データ、および前記第2検知データに含まれる前記属性の検知結果、およびその検知結果の信頼度を用いて算出した一致度によって、前記第1地点のフレーム画像に撮像されていたオブジェクトと、前記第2地点のフレーム画像に撮像されていたオブジェクトとを対応付けるマッチング部と、を備え
    前記マッチング部は、前記一致度の算出を、前記第1検知データの信頼度と前記第2検知データの信頼度との差分の絶対値を用い、この差分の絶対値が大きいほど算出される値が小さくなる算出式によって行う、
    同定装置。
  2. 前記マッチング部は、前記一致度の算出を、
    一致度=α×(1-(前記第1検知データの信頼度と前記第2検知データの信頼度との差分の絶対値))
    により行う、
    但しαは、前記第1検知データと前記第2検知データとが一致している場合、α=1、
    前記第1検知データと前記第2検知データとが一致していない場合、α=0、である、
    請求項1に記載の同定装置。
  3. 前記第2地点のフレーム画像に撮像されていたオブジェクトの中から、前記第1地点のフレーム画像に撮像されていたオブジェクトに対応付けるオブジェクト候補を抽出する候補抽出部を備え、
    前記マッチング部は、前記候補抽出部が抽出したオブジェクト候補に属するオブジェクトについて前記一致度を算出する、請求項1、または2に記載の同定装置。
  4. 前記マッチング部は、前記第1地点のフレーム画像に撮像されていたオブジェクトと、前記第2地点のフレーム画像に撮像されていたオブジェクトとの対応付けを、オブジェクトの前記属性毎に、算出した前記一致度の総和に基づいて行う、請求項1~3のいずれかに記載の同定装置。
  5. 前記マッチング部は、前記第1地点のフレーム画像に撮像されていたオブジェクトと、前記第2地点のフレーム画像に撮像されていたオブジェクトとの対応付けを、前記属性の中で、前記信頼度が所定値以上である属性について算出した前記一致度の総和に基づいて行う、請求項1~3のいずれかに記載の同定装置。
  6. 第1の撮像装置によって撮像された第1地点のフレーム画像に撮像されているオブジェクトについて、予め定められた複数種類の属性毎に、その属性について検知された検知結果と当該検知結果の信頼度とを対にした第1検知データが第1入力部に入力され、
    第2の撮像装置によって撮像された第2地点のフレーム画像に撮像されているオブジェクトについて、予め定められた複数種類の属性毎に、その属性について検知された検知結果と当該検知結果の信頼度とを対にした第2検知データが第2入力部に入力される、同定装置のコンピュータが、
    前記第1検知データ、および前記第2検知データに含まれる前記属性の検知結果、およびその検知結果の信頼度を用いて一致度を算出する算出ステップと、
    前記算出ステップで算出した前記一致度によって、前記第1地点のフレーム画像に撮像されていたオブジェクトと、前記第2地点のフレーム画像に撮像されていたオブジェクトとを対応付ける同定ステップと、を実行し、
    前記算出ステップは、前記第1検知データの信頼度と前記第2検知データの信頼度との差分の絶対値を用い、この差分の絶対値が大きいほど算出される値が小さくなる算出式によって、前記一致度の算出を行うステップである、
    マッチング方法。
  7. 第1の撮像装置によって撮像された第1地点のフレーム画像に撮像されているオブジェクトについて、予め定められた複数種類の属性毎に、その属性について検知された検知結果と当該検知結果の信頼度とを対にした第1検知データが第1入力部に入力され、
    第2の撮像装置によって撮像された第2地点のフレーム画像に撮像されているオブジェクトについて、予め定められた複数種類の属性毎に、その属性について検知された検知結果と当該検知結果の信頼度とを対にした第2検知データが第2入力部に入力される、同定装置のコンピュータに、
    前記第1検知データ、および前記第2検知データに含まれる前記属性の検知結果、およびその検知結果の信頼度を用いて一致度を算出する算出ステップと、
    前記算出ステップで算出した前記一致度によって、前記第1地点のフレーム画像に撮像されていたオブジェクトと、前記第2地点のフレーム画像に撮像されていたオブジェクトとを対応付ける同定ステップと、を実行させ、
    前記算出ステップは、前記第1検知データの信頼度と前記第2検知データの信頼度との差分の絶対値を用い、この差分の絶対値が大きいほど算出される値が小さくなる算出式によって、前記一致度の算出を行うステップである、
    マッチングプログラム。
JP2017194343A 2017-10-04 2017-10-04 同定装置、マッチング方法、およびマッチングプログラム Active JP7081108B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017194343A JP7081108B2 (ja) 2017-10-04 2017-10-04 同定装置、マッチング方法、およびマッチングプログラム
PCT/JP2018/036314 WO2019069814A1 (ja) 2017-10-04 2018-09-28 同定装置、マッチング方法、およびマッチングプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017194343A JP7081108B2 (ja) 2017-10-04 2017-10-04 同定装置、マッチング方法、およびマッチングプログラム

Publications (2)

Publication Number Publication Date
JP2019067294A JP2019067294A (ja) 2019-04-25
JP7081108B2 true JP7081108B2 (ja) 2022-06-07

Family

ID=65994716

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017194343A Active JP7081108B2 (ja) 2017-10-04 2017-10-04 同定装置、マッチング方法、およびマッチングプログラム

Country Status (2)

Country Link
JP (1) JP7081108B2 (ja)
WO (1) WO2019069814A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011060024A (ja) 2009-09-10 2011-03-24 Toshiba Corp 画像認識処理に適用する特徴情報選択装置及び画像認識処理装置
JP2013137604A (ja) 2011-12-28 2013-07-11 Glory Ltd 画像照合処理装置、画像照合処理方法及び画像照合処理プログラム
JP2017041022A (ja) 2015-08-18 2017-02-23 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011060024A (ja) 2009-09-10 2011-03-24 Toshiba Corp 画像認識処理に適用する特徴情報選択装置及び画像認識処理装置
JP2013137604A (ja) 2011-12-28 2013-07-11 Glory Ltd 画像照合処理装置、画像照合処理方法及び画像照合処理プログラム
JP2017041022A (ja) 2015-08-18 2017-02-23 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム

Also Published As

Publication number Publication date
WO2019069814A1 (ja) 2019-04-11
JP2019067294A (ja) 2019-04-25

Similar Documents

Publication Publication Date Title
US10572736B2 (en) Image processing apparatus, image processing system, method for image processing, and computer program
JP5127583B2 (ja) 対象物判定装置及びプログラム
JP5115556B2 (ja) 物体領域検出装置、物体領域検出システム、物体領域検出方法及びプログラム
US9269155B2 (en) Region growing method for depth map/color image
JP5498454B2 (ja) 追跡装置、追跡方法およびプログラム
US10074029B2 (en) Image processing system, image processing method, and storage medium for correcting color
US20140233796A1 (en) Image processing device, image processing method, and image processing program
TW201835805A (zh) 遠距離的身份辨識方法及其系統與電腦可讀取記錄媒體
JP2010039788A (ja) 画像処理装置及びその方法並びに画像処理プログラム
US20190171910A1 (en) Best Image Crop Selection
US20180307896A1 (en) Facial detection device, facial detection system provided with same, and facial detection method
JP2007156655A (ja) 変動領域検出装置及びその方法
JP2007233871A (ja) 画像処理装置、コンピュータの制御方法及びプログラム
JP2019020777A (ja) 情報処理装置、及び、情報処理装置の制御方法、コンピュータプログラム、記憶媒体
US11380133B2 (en) Domain adaptation-based object recognition apparatus and method
KR102022971B1 (ko) 영상의 객체 처리 방법 및 장치
KR20160129402A (ko) 열화상 카메라를 이용한 객체의 실신 상황 감지 방법 및 장치
JP7081108B2 (ja) 同定装置、マッチング方法、およびマッチングプログラム
JP6434718B2 (ja) 顔画像認識装置及び顔画像認識プログラム
JP6772059B2 (ja) 電子制御装置、電子制御システムおよび電子制御方法
JP5954212B2 (ja) 画像処理装置、画像処理方法、および画像処理プログラム
JP2010003116A (ja) 対象物判定装置及びプログラム
JP6555940B2 (ja) 被写体追跡装置、撮像装置、及び被写体追跡装置の制御方法
US20210390712A1 (en) Image processing apparatus, image processing method, and storage medium
US11495006B2 (en) Object detection method for static scene and associated electronic device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200807

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211005

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220426

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220509

R150 Certificate of patent or registration of utility model

Ref document number: 7081108

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150