JP7242309B2 - 画像処理装置、画像処理方法およびプログラム - Google Patents
画像処理装置、画像処理方法およびプログラム Download PDFInfo
- Publication number
- JP7242309B2 JP7242309B2 JP2019004964A JP2019004964A JP7242309B2 JP 7242309 B2 JP7242309 B2 JP 7242309B2 JP 2019004964 A JP2019004964 A JP 2019004964A JP 2019004964 A JP2019004964 A JP 2019004964A JP 7242309 B2 JP7242309 B2 JP 7242309B2
- Authority
- JP
- Japan
- Prior art keywords
- image processing
- constraint
- processing apparatus
- state
- subject
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 201
- 238000003672 processing method Methods 0.000 title claims description 3
- 238000003384 imaging method Methods 0.000 claims description 84
- 238000000034 method Methods 0.000 claims description 41
- 230000007704 transition Effects 0.000 claims description 37
- 230000008569 process Effects 0.000 claims description 33
- 238000012937 correction Methods 0.000 claims description 23
- 239000000284 extract Substances 0.000 claims description 8
- 230000008859 change Effects 0.000 description 20
- 238000009826 distribution Methods 0.000 description 18
- 230000006870 function Effects 0.000 description 8
- 238000001514 detection method Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 238000002360 preparation method Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 230000001815 facial effect Effects 0.000 description 4
- 238000000605 extraction Methods 0.000 description 3
- 238000012790 confirmation Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 230000036544 posture Effects 0.000 description 1
- 238000011410 subtraction method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
- G06V40/173—Classification, e.g. identification face re-identification, e.g. recognising unknown faces across different face tracks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/18—Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/97—Determining parameters from multiple pictures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Pure & Applied Mathematics (AREA)
- Computational Mathematics (AREA)
- Mathematical Physics (AREA)
- Mathematical Optimization (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Analysis (AREA)
- Multimedia (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Quality & Reliability (AREA)
- Operations Research (AREA)
- Probability & Statistics with Applications (AREA)
- Databases & Information Systems (AREA)
- Algebra (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
Description
特許文献1には、撮像装置間で被写体を同定して追尾する場合において、追尾対象とした被写体の追尾結果に誤りがある場合に、当該追尾結果を修正する作業を簡単に行うことができるようにする技術が開示されている。この技術は、追尾対象とした被写体と関連度の高い被写体が写った撮像画像を候補画像として表示画面に表示し、監視者に追尾対象とした被写体が写った候補画像を選択させることにより、追尾結果を修正する技術である。
被写体同定処理では、被写体の画像特徴とともに、撮像装置間に設定された制約条件が用いられる場合がある。撮像装置間の制約条件は、ある撮像装置から別の撮像装置への被写体の遷移確率や遷移時間といった時空間制約を含む。同定処理に失敗する原因の一つとして、上記の撮像装置間に設定された制約条件が不適切であることが挙げられる。
そこで、本発明は、撮像装置間に設定された、当該撮像装置間における被写体の同定処理に関する制約条件の修正を容易とすることを課題としている。
なお、以下に説明する実施の形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。
本実施形態における画像処理システムは、被写体の画像の特徴量と、撮像装置間に設定された制約条件とを用いて、被写体の同定処理を行う。本実施形態では、撮像装置間に設定された制約条件は、ある撮像装置から別の撮像装置までの被写体が移動に要する時間である遷移時間である場合について説明する。
ネットワーク400は、撮像装置100A~100D、画像処理装置200および画像データベース300の間で通信可能な構成であれば、その通信規格、規模および構成は問わない。ネットワーク400は、インターネットや有線LAN(Local Area Network)、無線LAN(Wireless LAN)、WAN(Wide Area Network)、若しくはこれらの複合により実現してもよい。
また、カメラ100A~100Dは、PoE(Power Over Ethernet(登録商標))に対応していてもよいし、LANケーブル等を介して電力が供給される構成でもよい。さらに、図1では、4台のカメラ100A~100Dがネットワーク400に接続されているが、ネットワーク400には2台以上のカメラが接続されていればよく、接続台数は図1に示す数に限定されない。
画像処理装置200は、汎用コンピュータと、画像を表示可能なモニタと、を備える表示装置とすることができる。画像処理装置200は、例えば、パーソナルコンピュータ(PC)やモバイル端末などにより構成することができる。
なお、本実施形態では、同定対象とする被写体が人物である場合について説明するが、同定対象とする被写体は人物に限定されるものではなく、撮像画像から特徴量を抽出可能な、カメラ間を移動する移動体であればよい。
特徴抽出部201は、ネットワーク400を介してカメラ100A~100Dから撮像画像を取得し、撮像画像から被写体を検出し、検出した被写体の特徴量を抽出する。
被写体追尾部202は、同一カメラ内で被写体を追尾する追尾処理を行う。
同定部203は、複数のカメラ間で同一の被写体を対応付ける同定処理を行う。
記録部204は、同定部203によるカメラ間の同定結果を記憶域208に記録する。
出力部206は、決定部205によって決定されたカメラ間の状態に基づいて、ユーザに提示する情報を出力する。本実施形態では、出力部206は、画像処理装置200が備える表示部216(図2参照)に情報を出力し、当該情報を画面上に表示させる表示制御を行う。しかしながら、出力部206は、他の装置に情報を出力し、当該情報をユーザに提示させるようにしてもよい。
設定部207は、ユーザにより設定された情報を取得する。設定部207が取得する情報は、ユーザにより設定された同定対象の被写体に関する情報を含む。
記憶域208は、被写体追尾部202による追尾結果である追尾情報を記憶することができる。また、記憶域208は、同定部203による同定結果や、カメラ間の制約条件、カメラ間の状態を記憶することもできる。
画像処理装置200は、CPU211、ROM212、RAM213、外部メモリ214、入力部215、表示部216および通信I/F217を備える。CPU211、ROM212、RAM213、外部メモリ214、入力部215、表示部216および通信I/F217は、内部バス218に接続されている。
CPU211は、画像処理装置200における動作を統括的に制御する。ROM212は、CPU211が処理を実行するために必要なプログラムやデータを記憶する不揮発性
メモリである。RAM213は、CPU211の主メモリ、ワークエリア等として機能する。CPU211は、処理の実行に際してROM212から必要なプログラム等をRAM213にロードし、当該プログラム等を実行することで各種の機能動作を実現する。
入力部215は、キーボードやマウス等のポインティングデバイスを含む、ユーザが操作可能なI/O機器である。表示部216は、液晶ディスプレイ(LCD)等のモニタを備え、ユーザに対して情報を提示することができる。通信I/F217は、ネットワーク400を介してカメラ100A~100Dや画像データベース300との間でデータの送受信を行う。
図3(a)は、画像処理装置200が実行するカメラ間状態決定処理のフローチャートである。この図3(a)の処理は、カメラ100A~100Dが撮像を開始したタイミングで開始することができる。ただし、図3(a)の処理の開始タイミングは、上記のタイミングに限らない。画像処理装置200は、CPU211が必要なプログラムを読み出して実行することにより、図3(a)に示す処理を実現することができる。以降、アルファベットSはフローチャートにおけるステップを意味するものとする。
まずS1において、画像処理装置200は、画像データベース300に保存された撮像画像を、撮像時刻および撮像したカメラIDとともに一定フレーム間隔で取得する。
S2では、画像処理装置200は、S1において取得された撮像画像から被写体を検出する検出処理を行い、被写体の検出処理を行った後、被写体の画像から被写体の特徴量を抽出する。
また、本実施形態では、画像処理装置200は、被写体の特徴として被写体の顔特徴を抽出する。特徴量としては、顔器官(目・鼻・口等)の位置とその周囲の色の勾配情報を表すHOG(Histograms of Oriented Gradients)特徴量を利用することができる。また、画像上でのサイズに依存しないように、特徴量の値が0から1の間に収まるように正規化処理を行ってもよい。なお、被写体の特徴は、顔特徴に限定されるものではなく、被写体の同定が可能となる特徴であればよい。
200は、追尾状態にある被写体の領域については、追尾IDを割り当てる。そして、画像処理装置200は、追尾IDとともに、カメラID、被写体領域の中心位置(x、y)、被写体領域を包含する矩形領域の大きさ(幅w、高さh)、被写体の特徴量(f)および撮像時刻を、追尾情報として記憶域208に記憶する。記憶域208に記憶される追尾情報の一例を図4に示す。
ここで、被写体領域の中心位置は、被写体領域を囲む矩形領域の中心位置として定義する。本実施形態における被写体の追尾処理では、画像処理装置200は、前フレームに含まれる被写体領域の中心位置と、現フレームに含まれる被写体領域の中心位置とに基づいて、被写体の対応付けを行う。そして、画像処理装置200は、被写体の追尾処理の結果として、同じ被写体であることを示す追尾IDを付与する。
画像処理装置200は、S2において抽出された被写体の特徴量と撮像時刻、S3において記憶域208に記憶された被写体の特徴量と撮像時刻、およびカメラ間に設定された制約条件に基づいて、カメラ間での被写体の同定処理を行う。なお、本実施形態では、カメラ間の制約条件は、カメラ間の遷移時間である場合について説明する。
次に、画像処理装置200は、取得した追尾IDに紐付いた特徴量を記憶域208から読み込み、他のカメラにより撮像された撮像画像から抽出された被写体の特徴量との差異を表す被写体間距離を算出する。被写体間距離としては、例えば特徴空間上でのユークリッド距離を用いることができる。
次に、画像処理装置200は、カメラ間に設定された制約条件を用いて、被写体の特徴量をもとに算出された被写体間距離を修正する。カメラ間の制約条件は、図4(b)に示すように、横軸を時間tとした正規分布で設定されているものとする。この場合、画像処理装置200は、この正規分布の平均の時間t1と、同定対象の被写体の2つのカメラ間での撮像時間差t2(実際の被写体のカメラ間の遷移時間)とを用いて、被写体間距離を修正する。
l´=l×|t2-t1| ………(1)
上記(1)式は、正規分布の平均の時間t1と、同定対象の被写体の撮像時間差t2との差が小さいほど、被写体間距離l´が短くなることを表す。
最後に、画像処理装置200は、被写体間距離l´を所定の閾値と比較し、被写体間距離l´が閾値以下であれば同一被写体であると判定する。また、画像処理装置200は、同一被写体と判定された被写体領域について、カメラID、被写体領域の特徴量、被写体領域の中心位置、被写体領域を包含する矩形領域の大きさおよび撮像時刻を、同一の追尾IDを付して追尾情報として記憶域208に記憶する。
このように、画像処理装置200は、カメラ間の同定処理に際し、一方のカメラにより
撮像された撮像画像から同定対象とする被写体を設定する。また、画像処理装置200は、各カメラによりそれぞれ撮像された撮像画像から被写体の特徴量を抽出する。そして、画像処理装置200は、抽出された特徴量と、カメラ間に設定された制約条件とに基づいて、他方のカメラにより撮像された撮像画像から、同定対象とする被写体と同一の被写体を判定する。
図4(b)は、記憶域208に記録される同定結果の一例である。この図4(b)では、被写体の遷移時間は、各カメラ間でヒストグラムとして記録されている。例えばヒストグラムのビンの幅を1(分)として、同定が行われるたびに、該当する遷移時間のビンに投票されるようにする。このように、画像処理装置200は、カメラ間毎に同定処理の結果を履歴として記憶域208に記録していく。
v1=Σt(|g(t)-b(t)|) ………(2)
ここで、g(t)は制約条件の分布、b(t)は同定結果のヒストグラムの時間tにおけるビンの値である。上記(2)式により算出される積算値v1は、同定結果と制約条件との乖離の程度を示す乖離度である。
そして、画像処理装置200は、算出された積算値v1とカメラ間の現在の状態に基づいて、カメラ間の状態を変化させる必要があるか否かを示す要状態変更フラグを設定する。
画像処理装置200は、カメラ間の現在の状態が「通常状態」で且つ算出された積算値v1が所定の閾値以上であるか、カメラ間の現在の状態が「修正推奨状態」で且つ算出された積算値v1が所定の閾値未満である場合、要状態変更フラグを立てる。つまり、カメラ間の現在の状態が「通常状態」であり、同定結果と制約条件とに乖離がある場合は、カメラ間の状態を「通常状態」から「修正推奨状態」へ変更する必要があると判定して要状態変更フラグを立てる。また、カメラ間の現在の状態が「修正推奨状態」であり、同定結果と制約条件とに乖離がない場合は、カメラ間の状態を「修正推奨状態」から「通常状態」へ変更する必要があると判定して要状態変更フラグを立てる。
一方、画像処理装置200は、カメラ間の現在の状態が「通常状態」で且つ算出された積算値v1が所定の閾値未満であるか、カメラ間の現在の状態が「修正推奨状態」で且つ算出された積算値v1が所定の閾値以上である場合、要状態変更フラグを立てない。つまり、カメラ間の状態を変更する必要はないと判定する。
S8では、画像処理装置200は、要状態変更フラグが立っているカメラ間の状態を変
更する。つまり、要状態変更フラグが立っているカメラ間の現在の状態が「通常状態」であれば「修正推奨状態」へ、当該カメラ間の現在の状態が「修正推奨状態」であれば「通常状態」へ変更する。
S10では、画像処理装置200は、「修正推奨状態」にあるカメラ間の制約条件の修正を促すメッセージを表示部216に表示させる表示制御を行う。例えば、画面上に「制約条件の修正をお勧めします」というポップアップを表示するようにする。このとき、制約条件の修正画面に遷移するボタンを表示するようにしてもよい。また、ポップアップ表示部にテキストボックスを設け、「修正推奨状態」のカメラ間の制約条件を直接修正できるようにしてもよい。
この図3(b)の処理は、ユーザが制約条件の修正画面を起動する指示を入力したタイミングで開始することができる。例えば、図3(b)の処理は、図3(a)のS10において画像処理装置200が表示させた制約条件の修正画面に遷移するためのボタンを、ユーザが押下したことを検知したタイミングで開始することができる。画像処理装置200は、CPU211が必要なプログラムを読み出して実行することにより、図3(b)に示す処理を実現することができる。
次にS12において、画像処理装置200は、記憶域208からカメラ間の制約条件を取得するとともに、カメラの実空間上の配置情報および実空間を表したマップを取得し、これらの情報を画面上に表示させる表示制御を行う。制約条件表示画面の一例を図5に示す。
図5に示すように、画面上のウィンドウ500にはマップが表示され、マップ上におけるカメラ100A~100Dの配置位置に対応する位置には、カメラのマーク501~504が重畳表示される。なお、カメラのマーク501~504の近傍には、それぞれカメラID(1101~1104)を表示させてもよい。
さらに、図5に示すように、カメラ間の状態が「修正推奨状態」であることを示す線分512には、吹き出し状の図形520を重畳表示し、この吹き出し状の図形520の中に、制約条件と同定結果との比較結果521を表示させてもよい。ここで、比較結果520は、制約条件を表す分布に同定結果を重畳表示して表示させることができる。また、吹き出し状の図形520の中には、ユーザの入力を受け付けるテキストボックス522を設けてもよい。当該テキストボックス522に数値を入力することで、ユーザは制約条件の分布の平均値の変更を指示することができる。ここで、テキストボックス522には、デフォルトの値として現在の制約条件の分布の平均値を入力しておいてもよい。
、例えば「修正推奨状態」に対応する線分のみを表示するようにしてもよい。この場合、ウィンドウ500において情報過多となることを抑制することができ、ユーザは、制約条件の修正が必要なカメラ間を容易に確認することが可能となる。また、ウィンドウ500には、すべてのカメラ間に吹き出し状の図形を表示させてもよい。この場合、カメラ間の状態に応じて、吹き出し状の図形の大きさを変更するようにしてもよい。
また、ユーザが修正する値は制約条件に関するパラメータ値であればよく、例えば平均値だけでなく分散も含めてもよい。さらに、テキストボックスへの数値入力に限定されるものではなく、例えばスライダーバーを利用することも可能である。
また、図5に示す例では、カメラ間の状態をマップ上に重畳表示させる場合について説明したが、マップを用いた表示に限定されるものではない。
S14では、画像処理装置200、ユーザが入力した値を、記憶域208に記録されている制約条件に適用することで制約条件を修正し、図3(b)の処理を終了する。例えば、図4(b)に示すカメラ1012-1013間の制約条件のパラメータ値として「15」が入力された場合、画像処理装置200は、カメラ1012-1013間の制約条件の分布の平均値を20分から15分へ修正する。
上記実施形態においては、制約条件は正規分布に従うと仮定したが、他の分布を表すような関数でも代用可能である。この場合、制約条件の分布を表す関数の係数にあたる部分を、図3(b)のS12においてユーザに入力させるようにしてもよい。また、同定結果にフィットする関数そのものをユーザに選ばせるようにしてもよい。さらに、制約条件は、例えばヒストグラムのように、ある区切られた時間それぞれに対して値が入力されているようなものであってもよい。
さらに、制約条件は、図6に示すようにカメラ間の接続関係を示す情報を含んでもよい。ここで、図6中の数値はカメラIDを表す。図6では、カメラID=1011のカメラは、カメラID=1012とカメラ=ID1014のカメラと接続しているが、カメラID=1013のカメラとは接続していない。つまり、この図6では、カメラ1011-1013間の遷移は無いということを表している。ここで、カメラ間の接続関係の情報は、ユーザが任意に決めてもよいし、実際に同定されたカメラ間を自動的に接続するようにしてもよい。
l´=l÷f ………(3)
この場合、遷移確率fが低いほど被写体間距離l´が長くなり、結果として同一被写体と推定されにくくなる。
また、S5においては、画像処理装置200は、同定結果として、カメラ間の実際の遷
移確率を記憶域208に記録する。例えば、カメラID=1011のカメラからカメラID=1012のカメラへの実際の遷移確率は、カメラID=1011のカメラに接続するすべてのカメラとの間で同定した回数に対する、カメラ1011-1012間の同定回数として算出することができる。つまり、カメラ1011-1012間の実際の遷移確率は、カメラ1011-1012間とカメラ1011-014間とで同定した回数に対する、カメラ1011-1012間の同定回数とすることができる。
そして、S6においては、画像処理装置200は、カメラ間の制約条件(遷移確率)とカメラ間の実際の遷移確率とを比較する。そして、両者の差が所定の閾値未満であれば「通常状態」、閾値以上であれば「修正推奨状態」として定義することができる。このように、制約条件としてカメラ間の遷移確率を利用することも可能である。
この場合、画像処理装置200は、記憶域208に記録された同定結果に基づいて、カメラ間に設定される制約条件を生成する。例えば、制約条件の生成方法としては、同定結果のヒストグラムに対してガウシアンフィッティングを行い、そのとき得られた正規分布を制約条件とし、当該正規分布の平均や分散値を採用する方法を用いることができる。また、制約条件表示画面では、「修正完了状態」のカメラ間を他のカメラ間とは視覚的に異なる表示態様で表示してもよい。これにより、ユーザは、自動的に制約条件の更新が行われたことを容易に把握することができる。
この場合、カメラ間の状態として、制約条件が初期設定であり制約条件の設定が必要な「準備状態」、制約条件は初期設定だが制約条件を自動的に設定可能な「完了状態」、制約条件が設定されている「通常状態」の3つを定義することができる。つまり、カメラ間の状態は、カメラ間に設定される制約条件の設定の要否、およびカメラ間に設定される制約条件の設定の可否を含むことができる。
S24では、画像処理装置200は、カメラ間において同一の被写体を対応付ける同定処理を行う。このS24では、カメラ間の状態に応じて異なる方法を用いて同定処理を行
う。具体的には、カメラ間の状態が「準備状態」あるいは「完了状態」の場合、画像処理装置200は、被写体の特徴量に基づいて同定処理を行う。つまり、画像処理装置200は、ユーザにより指定された追尾IDと対応付いた特徴量および撮像時刻、ならびに記憶域208に記録された被写体の特徴量および撮像時刻を用いて、カメラ間での被写体の同定処理を行う。この場合、被写体間距離の算出方法は、上述した図3(a)のS4と同様であるが、制約条件による被写体間距離の修正を行わない点でS4とは異なる。
そして、画像処理装置200は、被写体間距離を所定の閾値と比較し、被写体間距離が閾値以下であれば、同一被写体と判定する。また、画像処理装置200は、同一被写体と判定された被写体領域について、カメラID、被写体領域の特徴量、被写体領域の中心位置、被写体領域を包含する矩形領域の大きさおよび撮像時刻を、同一の追尾IDを付して追尾情報として記憶域208に記憶する。
S26では、画像処理装置200は、記憶域208に記録されたカメラ間の同定結果から、カメラ間の状態を決定し、カメラ間の状態に変更があったか否かを判定する。まず、画像処理装置200は、カメラ間の同定結果中の全てのビンの投票数v2を数え、全投票数v2を予め設定された閾値と比較してカメラ間の状態を決定する。
v2=Σtb(t) ………(4)
ここで、b(t)は、同定結果のヒストグラムの時間tにおけるビンの値である。上記(4)式により算出される全投票数v2は、記憶域208に記録された同定結果の数である。
そして、画像処理装置200は、カメラ間の状態に変更があった場合にはS27に移行し、カメラ間の状態に変更がない場合には図6(a)の処理を終了する。つまり、カメラ間の状態が「準備状態」から「完了状態」に変更されたカメラ間が存在する場合、S27に移行する。
この図6(b)の処理は、ユーザが制約条件の設定画面を起動する指示を入力したタイ
ミングで開始することができる。ただし、図6(b)の処理の開始タイミングは、上記のタイミングに限らない。例えば、図6(b)の処理は、図6(a)のS27の処理の後に開始することができる。画像処理装置200は、CPU211が必要なプログラムを読み出して実行することにより、図6(b)に示す処理を実現することができる。
このとき、カメラ間の状態に応じて、カメラ間を結ぶ線分のスタイルを設定する。例えば、カメラ間の状態が「準備状態」であれば水色の点線、「完了状態」であれば赤色の太線、「通常状態」であれば緑色の細線とする。
さらに、図5の例と同様に、カメラ間の状態が「完了状態」であることを示す線分に吹き出し状の図形を重畳表示し、この吹き出し状の図形の中に、制約条件を表す分布に同定結果を重畳表示させてもよい。また、吹き出し状の図形の中には、ユーザの入力を受け付けるテキストボックスを設けてもよい。当該テキストボックスに数値を入力することで、ユーザは制約条件の分布の平均値の変更を指示することができる。ここで、テキストボックスには、デフォルトの値として現在の制約条件の分布の平均値を入力しておいてもよい。
S35では、画像処理装置200は、「完了状態」となっているカメラ間の状態を、「通常状態」に変更し、図6(b)の処理を終了する。
ここで、カメラ間の状態は、制約条件の修正の要否、制約条件の更新の有無、制約条件の設定の要否、および制約条件の設定の可否の少なくとも1つを含むことができる。
また、画像処理装置200は、記憶域208に記録された同定処理の結果に基づいて、
カメラ間に設定される制約条件が生成された場合、カメラ間の状態が、制約条件が更新された状態であると決定することができる。つまり、カメラ間の状態が上述した「修正完了状態」であると決定することができる。ここで、画像処理装置200は、カメラ間の状態が、一定期間、制約条件の修正が必要な「修正推奨状態」である場合、記憶域208に記録された同定処理の結果に基づいて、カメラ間に設定される制約条件を生成するようにしてもよい。
また、画像処理装置200は、カメラ間に設定された制約条件が初期設定であり、記憶域208に記録された同定処理の結果の数が所定の閾値以上である場合、カメラ間の状態が、制約条件の設定が可能な状態であると決定することができる。つまり、カメラ間の状態が上述した「完了状態」であると決定することができる。
ここで、カメラ間に設定された制約条件は、カメラ間における被写体の遷移時間、およびカメラ間における被写体の遷移確率の少なくとも一方を含むことができる。このように、被写体の遷移時間や遷移確率といった時空間制約を用いることで、高精度な同定処理が可能となる。
このように、画像処理装置200は、カメラ間に設定された制約条件の状態を示す情報をユーザに提示することで、制約条件を設定・修正するかどうかの判断をユーザに促すことができる。また、画像処理装置200は、制約条件の修正が必要なカメラ間をユーザが容易に選択できるようにすることができるため、制約条件の修正にかかる手間を軽減させることができる。
の状態を示す情報を表示させることで、ユーザは容易にカメラ間の状態を把握することができる。
さらに、画像処理装置200は、カメラ間の状態を示す情報とともに、カメラ間に設定された制約条件や、記憶域208に記録された同定処理の結果の履歴を表示させることもできる。これにより、ユーザは、制約条件の現在の設定状況や同定処理の結果も併せて確認することができ、制約条件をどのように設定・修正すべきかを適切に判断することができる。このとき、画像処理装置200は、カメラ間の状態を示す情報とともに、カメラ間に設定された制約条件と、記憶域208に記録された同定処理の結果の履歴とを表示させれば、ユーザは、制約条件と同定処理結果との乖離度を容易に把握することができる。したがって、ユーザは、制約条件の修正を容易かつ適切に行うことができる。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
Claims (20)
- 第1の撮像装置により撮像された第1の撮像画像に含まれる被写体を、前記第1の撮像装置とは異なる第2の撮像装置によって撮像された第2の撮像画像に含まれる被写体と対応付ける同定処理を行う同定手段と、
前記同定手段による前記同定処理の結果を記録する記録手段と、
前記記録手段により記録された前記同定処理の結果と、前記第1の撮像装置と前記第2の撮像装置との撮像装置間に設定された前記同定処理に関する制約条件とに基づいて、当該制約条件の状態を決定する決定手段と、を備えることを特徴とする画像処理装置。 - 前記決定手段は、
前記制約条件の状態として、前記撮像装置間に設定されている制約条件の修正の要否、前記撮像装置間に設定されている制約条件の更新の有無、前記撮像装置間に設定される制約条件の設定の要否、および前記撮像装置間に設定される前記制約条件の設定の可否の少なくとも1つを決定することを特徴とする請求項1に記載の画像処理装置。 - 前記決定手段は、
前記記録手段により記録された前記同定処理の結果と、前記撮像装置間に設定されている前記制約条件との乖離の程度を示す乖離度が所定の閾値以上である場合、前記制約条件の修正が必要な状態であると決定することを特徴とする請求項2に記載の画像処理装置。 - 前記記録手段により記録された前記同定処理の結果に基づいて、前記撮像装置間に設定される制約条件を生成する生成手段をさらに備え、
前記決定手段は、前記生成手段により前記制約条件が生成された場合、前記制約条件が更新された状態であると決定することを特徴とする請求項2または3に記載の画像処理装置。 - 前記生成手段は、
前記制約条件の状態が、一定期間、前記制約条件の修正が必要な状態である場合、前記制約条件を生成することを特徴とする請求項4に記載の画像処理装置。 - 前記決定手段は、
前記撮像装置間に設定された前記制約条件が初期設定である場合、前記制約条件の設定が必要な状態であると決定することを特徴とする請求項2から5のいずれか1項に記載の画像処理装置。 - 前記決定手段は、
前記撮像装置間に設定された前記制約条件が初期設定であり、前記記録手段に記録された前記同定処理の結果の数が所定の閾値以上である場合、前記制約条件の設定が可能な状態であると決定することを特徴とする請求項2から6のいずれか1項に記載の画像処理装置。 - 前記制約条件は、前記撮像装置間における被写体の遷移時間、および前記撮像装置間における被写体の遷移確率の少なくとも一方を含むことを特徴とする請求項1から7のいずれか1項に記載の画像処理装置。
- 前記同定処理の結果は、前記撮像装置間における被写体の遷移時間、および前記撮像装置間における被写体の遷移確率の少なくとも一方を含むことを特徴とする請求項1から8のいずれか1項に記載の画像処理装置。
- 前記同定手段は、
前記第1の撮像画像から同定対象とする被写体を設定する設定手段と、
前記第1の撮像画像および前記第2の撮像画像からそれぞれ被写体の特徴量を抽出する抽出手段と、
前記抽出手段により抽出された特徴量と、前記撮像装置間に設定された前記制約条件とに基づいて、前記第2の撮像画像から、前記設定手段により設定された前記同定対象とする被写体と同一の被写体を判定する判定手段と、を備えることを特徴とする請求項1から9のいずれか1項に記載の画像処理装置。 - 前記決定手段により決定された前記制約条件の状態を示す情報を表示させる表示制御手段をさらに備えることを特徴とする請求項1から10のいずれか1項に記載の画像処理装置。
- 前記表示制御手段は、前記決定手段により決定された前記制約条件の状態に応じて、視覚的に異なる態様で前記情報を表示させることを特徴とする請求項11に記載の画像処理装置。
- 前記表示制御手段は、前記情報とともに、前記撮像装置間に設定された制約条件を表示させることを特徴とする請求項11または12に記載の画像処理装置。
- 前記表示制御手段は、前記情報とともに、前記記録手段により記録された前記同定処理の結果を表示させることを特徴とする請求項11から13のいずれか1項に記載の画像処理装置。
- 前記表示制御手段は、前記決定手段により決定された前記制約条件の状態に応じて、前記撮像装置間を結ぶ線分の色および太さの少なくとも一方を異ならせることを特徴とする請求項12から14のいずれか1項に記載の画像処理装置。
- 前記表示制御手段は、更に前記第1の撮像装置と前記第2の撮像装置の実空間上の配置情報を表示させることを特徴とする請求項11から15のいずれか1項に記載の画像処理装置。
- 前記表示制御手段は、前記制約条件の状態が、前記制約条件の修正が必要な状態である場合、前記制約条件の修正を促すメッセージを表示させることを特徴とする請求項11から16のいずれか1項に記載の画像処理装置。
- 前記判定手段は、前記撮像装置間に設定された前記制約条件と、前記第1の撮像画像と前記第2の撮像画像の撮像時間の差と、に基づいて、前記第1の撮像画像から抽出された特徴量と前記第2の撮像画像から抽出された特徴量との距離を修正する請求項10に記載の画像処理装置。
- 第1の撮像装置により撮像された第1の撮像画像に含まれる被写体を、前記第1の撮像装置とは異なる第2の撮像装置によって撮像された第2の撮像画像に含まれる被写体と対応付ける同定処理を行うステップと、
前記同定処理の結果を記録するステップと、
記録された前記同定処理の結果と、前記第1の撮像装置と前記第2の撮像装置との撮像装置間に設定された前記同定処理に関する制約条件とに基づいて、当該制約条件の状態を決定するステップと、を含むことを特徴とする画像処理方法。 - コンピュータを、請求項1から18のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019004964A JP7242309B2 (ja) | 2019-01-16 | 2019-01-16 | 画像処理装置、画像処理方法およびプログラム |
US16/739,923 US11205258B2 (en) | 2019-01-16 | 2020-01-10 | Image processing apparatus, image processing method, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019004964A JP7242309B2 (ja) | 2019-01-16 | 2019-01-16 | 画像処理装置、画像処理方法およびプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2020113155A JP2020113155A (ja) | 2020-07-27 |
JP2020113155A5 JP2020113155A5 (ja) | 2022-01-24 |
JP7242309B2 true JP7242309B2 (ja) | 2023-03-20 |
Family
ID=71518044
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019004964A Active JP7242309B2 (ja) | 2019-01-16 | 2019-01-16 | 画像処理装置、画像処理方法およびプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US11205258B2 (ja) |
JP (1) | JP7242309B2 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220099771A (ko) * | 2021-01-07 | 2022-07-14 | 엘지전자 주식회사 | 영상표시장치 및 그의 동작방법 |
WO2024166381A1 (ja) * | 2023-02-10 | 2024-08-15 | 日本電気株式会社 | 情報処理装置、情報処理方法及び記録媒体 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013247586A (ja) | 2012-05-28 | 2013-12-09 | Fujitsu Ltd | 位置関係判定プログラム、位置関係判定方法および位置関係判定装置 |
JP2016207185A (ja) | 2015-04-20 | 2016-12-08 | オムロン株式会社 | 動き判定装置、動き判定方法、および動き判定プログラム |
JP2018195872A (ja) | 2017-05-12 | 2018-12-06 | キヤノン株式会社 | 情報処理装置、情報処理システム、情報処理方法及びプログラム |
Family Cites Families (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7844076B2 (en) * | 2003-06-26 | 2010-11-30 | Fotonation Vision Limited | Digital image processing using face detection and skin tone information |
US8488023B2 (en) * | 2009-05-20 | 2013-07-16 | DigitalOptics Corporation Europe Limited | Identifying facial expressions in acquired digital images |
AU2006352758A1 (en) * | 2006-04-10 | 2008-12-24 | Avaworks Incorporated | Talking Head Creation System and Method |
US8649604B2 (en) * | 2007-03-05 | 2014-02-11 | DigitalOptics Corporation Europe Limited | Face searching and detection in a digital image acquisition device |
US8451475B2 (en) * | 2007-05-01 | 2013-05-28 | Kofax, Inc. | Systems and methods for routing a facsimile confirmation based on content |
JP5031504B2 (ja) * | 2007-10-02 | 2012-09-19 | キヤノン株式会社 | 画像処理装置および操作者検索方法 |
CN101609506B (zh) * | 2008-06-20 | 2012-05-23 | 索尼株式会社 | 用于识别图像中的模型对象的装置及方法 |
JP2011060155A (ja) * | 2009-09-11 | 2011-03-24 | Brother Industries Ltd | 表示端末装置およびこの表示端末装置のためのプログラム |
US20120281874A1 (en) * | 2011-05-05 | 2012-11-08 | Lure Yuan-Ming F | Method, material, and apparatus to improve acquisition of human frontal face images using image template |
JP5806606B2 (ja) * | 2011-12-01 | 2015-11-10 | キヤノン株式会社 | 情報処理装置、情報処理方法 |
JP5971108B2 (ja) * | 2012-12-18 | 2016-08-17 | 富士通株式会社 | 画像処理装置、画像処理方法および画像処理プログラム |
JP5438861B1 (ja) | 2013-07-11 | 2014-03-12 | パナソニック株式会社 | 追跡支援装置、追跡支援システムおよび追跡支援方法 |
JP6351243B2 (ja) * | 2013-11-28 | 2018-07-04 | キヤノン株式会社 | 画像処理装置、画像処理方法 |
JP6349817B2 (ja) * | 2014-03-19 | 2018-07-04 | 富士通株式会社 | 位置合わせ装置、位置合わせ方法及び位置合わせ用コンピュータプログラム |
JP6482196B2 (ja) * | 2014-07-09 | 2019-03-13 | キヤノン株式会社 | 画像処理装置、その制御方法、プログラム、及び記憶媒体 |
US9508151B2 (en) * | 2014-07-10 | 2016-11-29 | Ditto Labs, Inc. | Systems, methods, and devices for image matching and object recognition in images using image regions |
JP6500500B2 (ja) * | 2015-02-27 | 2019-04-17 | 富士通株式会社 | 画像判定装置、画像判定方法、及びプログラム |
JP6455590B2 (ja) * | 2015-03-02 | 2019-01-23 | 日本電気株式会社 | 画像処理システム、画像処理方法およびコンピュータプログラム |
US10242287B2 (en) * | 2015-06-11 | 2019-03-26 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, and recording medium |
JP6624877B2 (ja) * | 2015-10-15 | 2019-12-25 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP2018055607A (ja) * | 2016-09-30 | 2018-04-05 | 富士通株式会社 | イベント検知プログラム、イベント検知装置、及びイベント検知方法 |
JP6769554B2 (ja) * | 2017-07-07 | 2020-10-14 | 日本電気株式会社 | 物体識別装置、物体識別方法、計算装置、システムおよび記録媒体 |
JP2019067130A (ja) * | 2017-09-29 | 2019-04-25 | キヤノン株式会社 | 画像処理装置、画像処理システム、画像処理方法、及びプログラム |
CN109583287B (zh) * | 2017-09-29 | 2024-04-12 | 浙江莲荷科技有限公司 | 实物识别方法及验证方法 |
JP6936957B2 (ja) * | 2017-11-07 | 2021-09-22 | オムロン株式会社 | 検査装置、データ生成装置、データ生成方法及びデータ生成プログラム |
JP6924413B2 (ja) * | 2017-12-25 | 2021-08-25 | オムロン株式会社 | データ生成装置、データ生成方法及びデータ生成プログラム |
KR102044914B1 (ko) * | 2018-01-02 | 2019-11-14 | 중앙대학교 산학협력단 | 영상 처리에 있어서의 객체 재인식을 위한 장치 및 방법 |
-
2019
- 2019-01-16 JP JP2019004964A patent/JP7242309B2/ja active Active
-
2020
- 2020-01-10 US US16/739,923 patent/US11205258B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013247586A (ja) | 2012-05-28 | 2013-12-09 | Fujitsu Ltd | 位置関係判定プログラム、位置関係判定方法および位置関係判定装置 |
JP2016207185A (ja) | 2015-04-20 | 2016-12-08 | オムロン株式会社 | 動き判定装置、動き判定方法、および動き判定プログラム |
JP2018195872A (ja) | 2017-05-12 | 2018-12-06 | キヤノン株式会社 | 情報処理装置、情報処理システム、情報処理方法及びプログラム |
Non-Patent Citations (2)
Title |
---|
森 敦 ほか,地図を用いた人物検出システムの連携法に関する研究,情報処理学会研究報告 コンピュータビジョンとイメージメディア(CVIM) [online] ,日本,情報処理学会,2015年01月15日,Vol.2015-CVIM-195 No.39,p.1-7、正誤表 |
森 武俊 ほか,複数注視点の協調に基づく動物体の視覚追跡,日本ロボット学会誌,日本,社団法人日本ロボット学会,1995年10月15日,第13巻 第7号,p.1053-1059 |
Also Published As
Publication number | Publication date |
---|---|
US11205258B2 (en) | 2021-12-21 |
US20200226739A1 (en) | 2020-07-16 |
JP2020113155A (ja) | 2020-07-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11551134B2 (en) | Information processing apparatus, information processing method, and storage medium | |
US10070047B2 (en) | Image processing apparatus, image processing method, and image processing system | |
US8912885B2 (en) | Personal authentication apparatus and personal authentication method | |
US10074029B2 (en) | Image processing system, image processing method, and storage medium for correcting color | |
CN105898213B (zh) | 显示控制装置和显示控制方法 | |
US10181075B2 (en) | Image analyzing apparatus,image analyzing, and storage medium | |
US9600893B2 (en) | Image processing device, method, and medium for discriminating a type of input image using non-common regions | |
JP7242309B2 (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP6265592B2 (ja) | 顔特徴抽出装置および顔認証システム | |
US11915519B2 (en) | Information processing system, method for managing object to be authenticated, and program | |
JP7446060B2 (ja) | 情報処理装置、プログラム及び情報処理方法 | |
CN105095853A (zh) | 图像处理装置及图像处理方法 | |
JP2007052575A (ja) | メタデータ付与装置およびメタデータ付与方法 | |
JP2016001467A (ja) | 画像処理装置、画像処理方法、および画像処理プログラム | |
JP2020204835A (ja) | 情報処理装置、システム、情報処理方法及びプログラム | |
JP2020113155A5 (ja) | ||
US20200388040A1 (en) | Video analyzing apparatus, control method thereof, and non-transitory computer-readable storage medium | |
US11176360B2 (en) | Work skill supporting device and work skill supporting system | |
JP2018033103A (ja) | フレームレート判定装置、フレームレート判定方法及びフレームレート判定用コンピュータプログラム | |
JP5975828B2 (ja) | 顔特徴抽出装置および顔認証システム | |
US12080057B2 (en) | Image analysis apparatus, image analysis method, and storage medium | |
US20220230333A1 (en) | Information processing system, information processing method, and program | |
JP2014059819A (ja) | 表示装置 | |
WO2024004210A1 (ja) | 情報処理プログラム、情報処理方法、および情報処理装置 | |
WO2023188160A1 (ja) | 入力支援装置、入力支援方法、及び非一時的なコンピュータ可読媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220113 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220113 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230112 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230207 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230308 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7242309 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: R3D03 |