JP6004148B1 - 画像処理装置、画像処理方法、および画像処理プログラム - Google Patents
画像処理装置、画像処理方法、および画像処理プログラム Download PDFInfo
- Publication number
- JP6004148B1 JP6004148B1 JP2016539234A JP2016539234A JP6004148B1 JP 6004148 B1 JP6004148 B1 JP 6004148B1 JP 2016539234 A JP2016539234 A JP 2016539234A JP 2016539234 A JP2016539234 A JP 2016539234A JP 6004148 B1 JP6004148 B1 JP 6004148B1
- Authority
- JP
- Japan
- Prior art keywords
- image
- search
- images
- image processing
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims abstract description 163
- 238000003672 processing method Methods 0.000 title claims description 5
- 238000000034 method Methods 0.000 claims description 83
- 230000008569 process Effects 0.000 claims description 75
- 238000003384 imaging method Methods 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 18
- 238000012986 modification Methods 0.000 description 15
- 230000004048 modification Effects 0.000 description 15
- 230000006870 function Effects 0.000 description 11
- 238000004891 communication Methods 0.000 description 4
- 238000012544 monitoring process Methods 0.000 description 4
- 238000012790 confirmation Methods 0.000 description 3
- 101100087530 Caenorhabditis elegans rom-1 gene Proteins 0.000 description 2
- 101100305983 Mus musculus Rom1 gene Proteins 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000015654 memory Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000003936 working memory Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/633—Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
- H04N23/635—Region indicators; Field of view indicators
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
- Studio Devices (AREA)
Abstract
追跡対象の探索が失敗したときでも、追跡対象の探索を継続することが可能な画像処理装置を提供する。画像処理装置(100A)は、複数の画像(30)と、複数の画像(30)のそれぞれの撮影時刻とを格納する記憶装置(10)と、複数の画像(30)の一部を入力画像として表示部に表示しつつ、入力画像内で追跡の対象となる基準領域の設定を受け付ける第1受付部(210)と、複数の画像(30)のうち撮影時刻が入力画像と時系列にある画像を探索画像として、探索画像の時系列の順に基準領域と類似する領域を探索する探索部(220)と、順次出力される探索結果の確からしさが予め定められた条件を満たさなくなったときに、当該条件を満たさなくなった探索画像の撮影時刻を含む期間に撮影された画像を時系列に表示部に表示する表示制御部(230)と、時系列に表示される画像内において、追跡の対象となる新たな基準領域の設定を受け付ける第2受付部(240)とを備える。
Description
本開示は、登録した追跡対象を時系列の画像上で追跡するための画像処理装置、画像処理方法、および画像処理プログラムに関する。
監視カメラは、ビル、駅、空港、商店街などあらゆる場所に設置されている。監視カメラの映像は、たとえば、迷子の捜索時や、徘徊する老人の捜索時などに利用されている。近年では、これらの捜索を支援するために、監視カメラの映像に写っている特定の人物を自動で追跡するための技術が開発されている。たとえば、特開2004−151820号公報(特許文献1)は、迷子の捜索を容易にするための監視システムを開示している。
特開2004−151820号公報に開示される監視システムは、追跡対象の特徴(たとえば、色や形など)を他の画像において探索する所謂テンプレートマッチングにより迷子を追跡する。当該監視システムは、たとえば、追跡対象が物陰に隠れてしまった場合や追跡対象が上着を脱いだ場合などには、追跡対象を画像内で探索できず、追跡処理を継続することができない。
本開示は上述のような問題点を解決するためになされたものであって、その目的は、追跡対象の探索が失敗したときでも、追跡対象の探索を継続することが可能な画像処理装置を提供することである。他の局面における目的は、追跡対象の探索が失敗したときでも、追跡対象の探索を継続することが可能な画像処理方法を提供することである。さらに他の局面における目的は、追跡対象の探索が失敗したときでも、追跡対象の探索を継続することが可能な画像処理プログラムを提供することである。
一実施の形態に従うと、画像処理装置は、表示部と、複数の画像と、当該複数の画像のそれぞれの撮影時刻とを格納するための記憶部と、複数の画像の一部の画像を入力画像として表示部に表示しつつ、当該入力画像内において追跡の対象となる基準領域の設定を受け付けるための第1受付部と、複数の画像のうち撮影時刻が入力画像と時系列にある画像を探索画像として、当該探索画像の時系列の順に、当該探索画像内において基準領域と類似する領域を探索するための探索部と、探索部によって順次出力される探索結果の確からしさが予め定められた条件を満たさなくなったときに、当該条件を満たさなくなった探索画像の撮影時刻を含む期間に撮影された画像を時系列に表示部に表示するための表示制御部と、表示制御部によって時系列に表示される画像内において、追跡の対象となる新たな基準領域の設定を受け付けるための第2受付部とを備える。
好ましくは、表示制御部によって時系列に表示される画像は、撮影時刻の順に並べて表示される静止画像と、撮影時刻の順に順次表示される動画像との少なくとも一方を含む。
好ましくは、表示制御部は、動画像を表示部に繰り返して表示する。
好ましくは、表示制御部は、各画像の撮影時刻の間隔よりも長い間隔で動画像を表示部に表示する。
好ましくは、表示制御部は、各画像の撮影時刻の間隔よりも長い間隔で動画像を表示部に表示する。
好ましくは、探索部による探索処理は、探索画像の撮影時刻を遡る順番に実行される。
好ましくは、表示制御部は、探索部によって順次出力される探索結果の確からしさが予め定められた条件を満たしている間は、当該探索結果を表示部に順次表示する。探索結果は、探索画像内における基準領域と類似する領域と、当該探索画像の撮影時刻との少なくとも一方を含む。
好ましくは、表示制御部は、探索部によって順次出力される探索結果の確からしさが予め定められた条件を満たしている間は、当該探索結果を表示部に順次表示する。探索結果は、探索画像内における基準領域と類似する領域と、当該探索画像の撮影時刻との少なくとも一方を含む。
好ましくは、表示制御部は、探索部によって順次出力される探索結果の確からしさの度合いに応じて、基準領域と類似する領域の表示方法を変える。
好ましくは、画像処理装置は、時刻の入力を受け付けるための時刻受付部と、複数の画像の中から時刻と撮影時刻が最も近い画像を入力画像として検索するための検索部とをさらに備える。
好ましくは、画像処理装置は、新たな基準領域の設定を実施可能な状態になってから一定時間の間に新たな基準領域の設定が実施された場合は、当該新たな基準領域を基準とした探索部による探索処理を続行する。画像処理装置は、新たな基準領域の設定を実施可能な状態になってから一定時間の間に、新たな基準領域の設定が実施されなかった場合は、探索部による探索処理を終了する。
好ましくは、記憶部は、複数のカメラで撮影された複数の画像をそれぞれ記憶する。画像処理装置は、複数のカメラの内の1つのカメラで撮影された画像において、新たな基準領域の設定を実施可能な状態になってから一定時間の間に、新たな基準領域の設定が実施されなかった場合は、1つのカメラと隣接するカメラで撮影された画像において探索部による探索処理を継続する。
他の実施の形態に従うと、画像処理方法は、複数の画像と、当該複数の画像のそれぞれの撮影時刻とを格納するステップと、複数の画像の一部の画像を入力画像として表示しつつ、当該入力画像内において追跡の対象となる基準領域の設定を受け付けるステップと、複数の画像のうち撮影時刻が入力画像と時系列にある画像を探索画像として、当該探索画像の時系列の順に、当該探索画像内において基準領域と類似する領域を探索するステップと、探索するステップで順次出力される探索結果の確からしさが予め定められた条件を満たさなくなったときに、当該条件を満たさなくなった探索画像の撮影時刻を含む期間に撮影された画像を時系列に表示するステップと、表示するステップで時系列に表示される画像内において、追跡の対象となる新たな基準領域の設定を受け付けるステップとを備える。
さらに他の実施の形態に従うと、コンピュータに実行される画像処理プログラムは、コンピュータに、複数の画像と、当該複数の画像のそれぞれの撮影時刻とを格納するステップと、複数の画像の一部の画像を入力画像として表示しつつ、当該入力画像内において追跡の対象となる基準領域の設定を受け付けるステップと、複数の画像のうち撮影時刻が入力画像と時系列にある画像を探索画像として、当該探索画像の時系列の順に、当該探索画像内において基準領域と類似する領域を探索するステップと、探索するステップで順次出力される探索結果の確からしさが予め定められた条件を満たさなくなったときに、当該条件を満たさなくなった探索画像の撮影時刻を含む期間に撮影された画像を時系列に表示するステップと、表示するステップで時系列に表示される画像内において、追跡の対象となる新たな基準領域の設定を受け付けるステップとを実行させる。
ある局面において、追跡対象の探索が失敗したときでも、追跡対象の探索を継続することができる。
本発明の上記および他の目的、特徴、局面および利点は、添付の図面と関連して理解される本発明に関する次の詳細な説明から明らかとなるであろう。
以下、図面を参照しつつ、本発明に従う各実施の形態について説明する。以下の説明では、同一の部品および構成要素には同一の符号を付してある。それらの名称および機能も同じである。したがって、これらについての詳細な説明は繰り返さない。なお、以下で説明される各実施の形態および各変形例は、適宜選択的に組み合わされてもよい。
[概要]
以下の各実施の形態に従う画像処理装置100Aは、たとえば、迷子を捜索するためや徘徊する老人の捜索するためなどに用いられる。たとえば、画像処理装置100Aが迷子の捜索に用いられる場合には、画像処理装置100Aのオペレータは、監視カメラの映像を確認して、迷子が写っている画像を探す。オペレータは、その画像内で迷子が写っている領域を基準領域として設定し、追跡処理の開始指示を入力する。画像処理装置100Aは、当該指示を受け付けると、監視カメラの映像から時系列の順に基準領域を探索して迷子を追跡する。これにより、画像処理装置100Aは、迷子を容易に見つけることができる。好ましくは、画像処理装置100Aは、複数台の監視カメラの映像から迷子を探索する。これにより、画像処理装置100Aは、追跡対象をより広範囲に探索することができる。
以下の各実施の形態に従う画像処理装置100Aは、たとえば、迷子を捜索するためや徘徊する老人の捜索するためなどに用いられる。たとえば、画像処理装置100Aが迷子の捜索に用いられる場合には、画像処理装置100Aのオペレータは、監視カメラの映像を確認して、迷子が写っている画像を探す。オペレータは、その画像内で迷子が写っている領域を基準領域として設定し、追跡処理の開始指示を入力する。画像処理装置100Aは、当該指示を受け付けると、監視カメラの映像から時系列の順に基準領域を探索して迷子を追跡する。これにより、画像処理装置100Aは、迷子を容易に見つけることができる。好ましくは、画像処理装置100Aは、複数台の監視カメラの映像から迷子を探索する。これにより、画像処理装置100Aは、追跡対象をより広範囲に探索することができる。
このとき、追跡対象が物陰に隠れてしまった場合や追跡対象が上着を脱いだ場合、または同色の服を着た人物がすれ違う場合などには、画像処理装置100Aは、追跡処理を継続することができないことがある。以下で説明する画像処理装置100Aは、追跡処理が失敗した場合に、追跡処理の失敗時における画像と撮影時刻が連続する一連の画像を表示し、その一連の画像に対して新たに追跡対象の設定を受け付けるためのユーザインターフェイスを提供する。これにより、画像処理装置100Aは、追跡処理が途中で失敗した場合であっても、追跡対象の探索を継続することができる。
<第1の実施の形態>
[画像処理装置100Aの処理]
図1を参照して、画像処理装置100Aの処理について説明する。図1は、画像処理装置100Aによって実行される処理を時系列に表した概念図である。図1には、後述するカメラ11の前を人物35が通過しているときに得られた時系列の画像(入力画像30Aおよび探索画像30B〜30G)が示されている。
[画像処理装置100Aの処理]
図1を参照して、画像処理装置100Aの処理について説明する。図1は、画像処理装置100Aによって実行される処理を時系列に表した概念図である。図1には、後述するカメラ11の前を人物35が通過しているときに得られた時系列の画像(入力画像30Aおよび探索画像30B〜30G)が示されている。
画像処理装置100Aは、最初に、追跡の対象となる基準領域の設定を受け付ける。図1には、入力画像30Aに基準領域34Aを設定する例が示されている(図1のステップ(1)参照)。入力画像30Aは、カメラ11の画像からオペレータによって手動で選択されてもよいし、「第2の実施の形態」で説明するように入力された時刻に基づいて選択されてもよい。基準領域34Aは、追跡対象の一例である人物35を囲むように入力画像30A上で設定される。一例として、画像処理装置100Aは、マウス(図示しない)などでポインタ36を操作することにより入力画像30A上で矩形状の基準領域を設定できるように構成される。
画像処理装置100Aは、入力画像30A上で基準領域34Aの設定を受け付けると、入力画像30Aと時系列にある探索画像30B〜30Gを時系列の順に、入力画像30Aに設定された基準領域34Aと類似する領域を探索画像30B〜30G内において探索する(図1のステップ(2)参照)。このように、画像処理装置100Aが基準領域の探索処理を時系列の順に繰り返すことにより、人物35の追跡処理が実現される。
画像処理装置100Aが探索画像30B〜30Fに対して時系列に探索処理を実行している過程で、人物35が探索画像30Fにおいて柱38に隠れたことに起因して、探索処理が失敗したとする。このとき、画像処理装置100Aは、探索画像30Fの撮影時刻を含む期間に撮影された画像を時系列に表示する。すなわち、画像処理装置100Aは、探索処理に失敗した探索画像30Fと撮影時刻が連続する一連の画像を表示する。図1には、探索処理の失敗時に表示する画像の例として、探索処理に失敗した探索画像30F、および当該探索画像30Fと撮影時刻が前後である探索画像30E,30Gが示されている。
画像処理装置100Aは、探索処理の失敗時に時系列に表示される探索画像30E〜30G内において、追跡の対象となる新たな基準領域の設定を受け付ける。図1には、探索画像30Gに新たな基準領域34Gを設定している例が示されている(図1のステップ(3)参照)。このように、画像処理装置100Aが追跡対象を見失った場合に基準領域の新たな設定を受け付けるように構成されることにより、追跡対象が物陰に隠れてしまった場合、追跡対象が上着を脱いだ場合、および同色の服を着た人物がすれ違う場合などにおいても、画像処理装置100Aは、追跡対象の追跡処理を継続することができる。その結果、画像処理装置100Aは、追跡対象の探索が失敗したときでも、追跡対象の探索を継続することができ、結果として、追跡処理の精度を上げることができる。
なお、上記では追跡対象として人物35を例に挙げて説明を行なったが、追跡対象は、人物に限定されない。たとえば、追跡対象は、犬などの動物や車などの物体などの動体であってもよい。
また、上記では、探索処理が失敗した探索画像30Fと撮影時刻が前後である探索画像30E,30Gを表示する例について説明を行なったが、画像処理装置100Aは、探索処理が失敗した探索画像よりも撮影時刻が新しい探索画像のみを表示してもよい。あるいは、画像処理装置100Aは、探索処理が失敗した探索画像よりも撮影時刻が古い探索画像のみを表示してもよい。
[画像処理装置100Aの機能構成]
図2を参照して、第1の実施の形態に従う画像処理装置100Aの機能について説明する。図2は、画像処理装置100Aの機能構成を示すブロック図である。図2に示されるように、画像処理装置100Aは、CPU(Central Processing Unit)2と、記憶装置10とを含む。CPU2は、その機能構成として、第1受付部210と、探索部220と、表示制御部230と、第2受付部240とを含む。記憶装置10は、複数の画像30と、複数の画像30のそれぞれの撮影時刻とを格納している。
図2を参照して、第1の実施の形態に従う画像処理装置100Aの機能について説明する。図2は、画像処理装置100Aの機能構成を示すブロック図である。図2に示されるように、画像処理装置100Aは、CPU(Central Processing Unit)2と、記憶装置10とを含む。CPU2は、その機能構成として、第1受付部210と、探索部220と、表示制御部230と、第2受付部240とを含む。記憶装置10は、複数の画像30と、複数の画像30のそれぞれの撮影時刻とを格納している。
第1受付部210は、複数の画像30の一部(たとえば、1枚)を入力画像として後述するディスプレイ12(表示部)に表示しつつ、当該入力画像において追跡の対象となる基準領域の設定を受け付ける。第1受付部210は、受け付けた基準領域を探索部220に出力する。たとえば、基準領域は、入力画像上の座標として示される。
探索部220は、複数の画像30のうち撮影時刻が入力画像と時系列にある画像を探索画像として、当該探索画像の時系列の順に、当該探索画像内において基準領域と類似する領域(以下、「類似領域」ともいう。)を探索する。より具体的には、探索部220は、撮影時刻が入力画像と連続している探索画像の順に、当該探索画像内において基準領域との画像情報の類似度が相対的に高くなる類似領域を探索する。典型的には、探索部220は、基準領域との類似度が最大となる探索画像内の領域を類似領域として決定する。たとえば、基準領域の探索処理は、テンプレートマッチング、オプティカルフローなどの画像処理技術によって実現される。
一例として、類似度は、SAD(Sum of Absolute Difference)値、SSD(Sum of Squared Difference)値、NCC(Normalized Cross-Correlation)値、またはZNCC(Zero-mean Normalized Cross-Correlation)値などによって示される。なお、探索部220は、基準領域と類似領域とが類似するほど類似度が低くなるSAD値およびSSD値のような指標を用いる場合には、探索画像内において類似度が最小となる領域を類似領域として決定する。
ある局面において、探索部220による探索処理は、探索画像の撮影時刻の順に実行される。これにより、オペレータは、基準領域を設定した入力画像よりも撮影時刻が新しい探索画像に対して追跡処理を実行できる。
他の局面において、探索部220による探索処理は、探索画像の撮影時刻を遡る順番に実行される。これにより、オペレータは、基準領域を設定した入力画像よりも撮影時刻が古い探索画像に対して追跡処理を実行できる。
一例として、撮影時刻を遡る追跡機能は、親が迷子である子供と一緒にいた時点まで映像を戻す場合に利用される。オペレータは、最初に、親のみが写っている画像を入力画像として、親のみが写っている領域を基準領域として設定する。画像処理装置100Aは、親および子供の両方が写っている時点まで撮影時刻を遡る順に追跡処理を行なう。次に、オペレータは、子供が写っている領域を基準領域として再設定する。画像処理装置100Aは、子供を追跡対象とした追跡処理を開始する。これにより、オペレータは、効率的に迷子である子供を捜索することが可能になる。
他の局面では、撮影時刻を遡る追跡機能は、落し物やスリの対策に利用される。オペレータは、落し物をした人物やスリにあった人物を追跡対象とし、撮影時刻を遡る追跡処理を開始することで、落し物をした時点やスリにあった時点まで遡ることができる。
表示制御部230は、探索部220によって順次出力される探索結果の確からしさが予め定められた条件を満たさなくなったときに、当該条件を満たさなくなった探索画像の撮影時刻を含む期間に撮影された画像(以下、「一連の画像」ともいう。)を時系列にディスプレイ12に表示する。一例として、探索結果の確からしさは、入力画像の基準領域と探索画像の類似領域との間の画像情報の類似度で示される。表示制御部230は、順次出力される類似度が所定値よりも高い間は、上記予め定められた条件を満たすものとする。一方で、表示制御部230は、順次出力される類似度が所定値よりも1回または複数回小さくなったときに上記予め定められた条件を満たさないものとする。あるいは、表示制御部230は、順次出力される類似度が所定値よりも低い時間が一定時間を超えると、上記予め定められた条件を満たさないものとする。
なお、以下では、探索結果の確からしさが予め定められた条件を満たすことを「探索成功」ともいい、探索結果の確からしさが予め定められた条件を満たさないことを「探索失敗」ともいう。
第2受付部240は、表示制御部230によって表示される一連の画像内において、追跡の対象となる新たな基準領域の設定を受け付ける。第2受付部240は、受け付けた新たな基準領域を探索部220に出力する。探索部220は、新たな基準領域の設定を受け付けると、当該新たな基準領域を基準とした探索処理を続行する。
[探索成功中の画面]
(探索成功中の画面例1)
図3を参照して、追跡対象の探索が成功している間における表示制御部230(図2参照)の表示制御について説明する。図3は、追跡対象の探索成功中にディスプレイ12に表示される画面の一例を表わす図である。図3には、人物35を追跡している様子が示されている。
(探索成功中の画面例1)
図3を参照して、追跡対象の探索が成功している間における表示制御部230(図2参照)の表示制御について説明する。図3は、追跡対象の探索成功中にディスプレイ12に表示される画面の一例を表わす図である。図3には、人物35を追跡している様子が示されている。
表示制御部230は、上述の探索部220(図2参照)によって順次出力される探索結果の確からしさが予め定められた条件を満たしている間は、ディスプレイ12に探索結果を順次表示する。当該探索結果は、オペレータによって設定された基準領域と類似する探索画像内における領域(すなわち、類似領域)と、当該探索画像の撮影時刻との少なくとも一方を含む。表示制御部230は、たとえば探索画像と撮影時刻との両方を表示する。あるいは、探索が成功している間はオペレータは探索画像を詳細にチェックする必要がないので、表示制御部230は、探索が成功している間は撮影時刻のみを表示してもよい。一例として、図3に示されるように、表示制御部230は、人物35の探索結果として、類似領域37H〜37Jと、探索画像30H〜30Jの撮影時刻38H〜38Jとを表示する。
より具体的には、探索画像30Hの探索処理が終了したときに、表示制御部230は、探索画像30H内における基準領域との類似領域37Hと、探索画像30Hの撮影時刻38Hとを表示する。次に、探索画像30Iの探索処理が終了したときに、表示制御部230は、探索画像30I内における基準領域との類似領域37Iと、探索画像30Iの撮影時刻38Iとを表示する。次に、探索画像30Jの探索処理が終了したときに、表示制御部230は、探索画像30J内における基準領域との類似領域37Jと、探索画像30Jの撮影時刻38Jとを表示する。
このように、表示制御部230は、基準領域との類似領域37H〜37Jと、探索画像の撮影時刻38H〜38Jとを順次表示することで、オペレータは、人物35の追跡結果を一見して確認できるようになる。
好ましくは、探索処理が終了した探索画像30H〜30Jは、早送りで動画像として表示される。すなわち、探索処理が終了した探索画像30H〜30Jは、追跡成功中は、探索画像30H〜30Jの撮影時刻の間隔よりも短い間隔で順次表示される。これにより、画像処理装置100Aのオペレータは、追跡成功中における追跡対象の確認作業を高速に行なうことができる。
また、表示制御部230は、基準領域との類似度に応じて類似領域37H〜37Jの表示色を変えてもよい。たとえば、表示制御部230は、類似度が低い場合には類似領域37H〜37Jの縁を赤色で表示し、類似度が高い場合には類似領域37H〜37Jの縁を緑色で表示する。このように表示色が変えられることで、オペレータは、類似度の高低を一見して確認できる。また、表示制御部230は、表示色を変える以外に、画質を変えるなど他の方法で類似度の高低を表わしてもよい。
(探索成功中の画面例2)
図4を参照して、追跡対象の探索成功中にディスプレイ12に表示される画面の変形例について説明する。図4は、追跡対象の探索成功中にディスプレイ12に表示される画面の変形例を表わす図である。
図4を参照して、追跡対象の探索成功中にディスプレイ12に表示される画面の変形例について説明する。図4は、追跡対象の探索成功中にディスプレイ12に表示される画面の変形例を表わす図である。
本変形例では、表示制御部230は、追跡対象の探索が成功している間は、動画ではなく、特定の静止画像を表示する。図4には、探索成功中に表示される画像として、「追跡中」と表記されている静止画像30Kがディスプレイ12に表示されている例が示されている。これにより、画像処理装置100Aのオペレータは、追跡成功中における追跡対象の確認作業を省くことができる。
[探索失敗時の画面]
(探索失敗時の画面例1)
図5を参照して、追跡対象の探索が失敗したときにおける表示制御部230(図2参照)の表示制御について説明する。図5は、追跡対象の探索失敗時にディスプレイ12に表示される画面の一例を表わす図である。
(探索失敗時の画面例1)
図5を参照して、追跡対象の探索が失敗したときにおける表示制御部230(図2参照)の表示制御について説明する。図5は、追跡対象の探索失敗時にディスプレイ12に表示される画面の一例を表わす図である。
上述したように、表示制御部230は、探索部220(図2参照)によって順次出力される探索結果の確からしさが予め定められた条件を満たさなくなったときに、当該条件を満たさなくなった探索画像の撮影時刻を含む期間に撮影された画像を時系列にディスプレイ12に表示する。すなわち、表示制御部230は、探索処理が失敗したときに、探索処理に失敗した探索画像と撮影時刻が連続する一連の画像を時系列に表示する。
たとえば、探索部220は、探索画像30Mにおいて探索処理を失敗したとする。このとき、図5に示されるように、表示制御部230は、探索処理に失敗した探索画像30Mと撮影時刻が連続する一連の探索画像30L〜30Nを時系列に表示する。
ある局面において、探索処理の失敗時に表示される画像は、撮影時刻の順に順次表示される動画像として表示される。図5には、動画像として順に表示される探索画像30L〜30Nが示されている。このように、探索処理の失敗時に表示される画像が動画像として表示されることで、オペレータは、探索処理が失敗した原因を目視で確認できるようになる。
好ましくは、表示制御部230は、動画像として表示される探索画像30L〜30Nを繰り返して表示する。これにより、オペレータは、探索処理が失敗した原因を何度も目視で確認できるようになる。
また、表示制御部230は、探索画像30L〜30Nの各々の撮影時刻の間隔よりも長い間隔で探索画像30L〜30Nを動画像として表示する。すなわち、表示制御部230は、探索画像30L〜30Nをスロー再生する。これにより、オペレータは、探索処理が失敗した原因を正確に確認できるようになる。
他の局面において、時系列に表示される画像は、静止画像として撮影時刻の順に並べて表示される。図5には、静止画像として並べて表示される探索画像31L〜31Nが示されている。静止画像としての探索画像31Lは、動画像としての探索画像30Lに対応する。静止画像としての探索画像31Mは、動画像としての探索画像30Mに対応する。静止画像としての探索画像31Nは、動画像としての探索画像30Nに対応する。このように、探索画像31L〜31Nが静止画像として並べて表示されることで、後述する基準領域の再設定の操作性が向上する。
さらに他の局面において、表示制御部230は、探索画像30L〜30Nおよび探索画像31L〜31Nの少なくとも一方の表示時において画質を変える。たとえば、画質は、コントラスト強調、エッジ強調、彩度強調などの画像処理によって変えられる。このように画質が変えられることによって、オペレータが追跡対象を視認しやすくなり、基準領域の再設定の操作性が向上する。
(探索失敗時の画面例2)
図6を参照して、追跡対象の探索失敗時にディスプレイ12に表示される画面の変形例について説明する。図6は、追跡対象の探索失敗時にディスプレイ12に表示される画面の変形例を表わす図である。
図6を参照して、追跡対象の探索失敗時にディスプレイ12に表示される画面の変形例について説明する。図6は、追跡対象の探索失敗時にディスプレイ12に表示される画面の変形例を表わす図である。
本変形例においては、表示制御部230は、追跡対象の探索失敗時に動画として繰り返して探索画像30L〜30Nを表示する際に、探索結果である類似領域32L〜32Nを拡大した拡大画像33L〜33Nを、探索画像30L〜30Nの表示に合わせて時系列に表示する。より具体的には、表示制御部230は、探索画像30Lを表示しているときには、探索画像30L内に類似領域32Lを表示するとともに、類似領域32Lの拡大画像33Lを表示する。表示制御部230は、探索画像30Mを表示しているときには、探索画像30M内に類似領域32Mを表示するとともに、類似領域32Mの拡大画像33Mを表示する。表示制御部230は、探索画像30Nを表示しているときには、探索画像30N内に類似領域32Nを表示するとともに、類似領域32Nの拡大画像33Nを表示する。拡大画像33L〜33Nが繰り返して表示されることにより、オペレータは、探索処理が失敗した原因をさらに詳細に確認できるようになる。
[基準領域の再設定画面]
(基準領域の再設定画面1)
図7を参照して、追跡対象の探索失敗時に基準領域を再設定する方法について説明する。図7は、基準領域の再設定画面の一例を表わす図である。
(基準領域の再設定画面1)
図7を参照して、追跡対象の探索失敗時に基準領域を再設定する方法について説明する。図7は、基準領域の再設定画面の一例を表わす図である。
図7には、探索失敗時に表示される一連の探索画像31L〜31Nが表示領域31に示されている。オペレータは、戻るボタン41をポインタ36で選択することにより、探索画像31L〜31Nよりも撮影時刻が古い探索画像を表示領域31に表示させることができる。また、オペレータは、進むボタン42をポインタ36で選択することにより、探索画像31L〜31Nよりも撮影時刻が新しい探索画像を表示領域31に表示させることができる。
オペレータは、表示領域31に表示されている探索画像31L〜31Nから1枚の画像を選択する。画像処理装置100Aは、探索画像31L〜31Nから1枚の画像を選択する操作を受け付けると、選択された画像をディスプレイ12に表示する。図7には、探索画像31Nが選択され、探索画像31Nを拡大した探索画像30Nが表示されている例が示されている。
画像処理装置100Aは、表示されている探索画像30Nに対して基準領域の再設定を受け付ける。基準領域の再設定の方法は任意である。たとえば、図7に示されるように、画像処理装置100Aは、探索画像30N内に表示されている類似領域45をポインタ36で指定できるように構成され、指定した類似領域45を移動できるように構成される。画像処理装置100Aは、類似領域45の移動先である領域46を新たな基準領域として受け付ける。他にも、画像処理装置100Aは、探索画像30N上の任意の領域を新たな基準領域としてポインタで囲えるように構成されてもよい。
好ましくは、画像処理装置100Aは、新たな基準領域の設定を実施可能な状態になってから一定時間の間に新たな基準領域の実施が実施された場合は、当該新たな基準領域を基準とした探索処理を続行する。新たな基準領域の設定に基づいて探索処理が開始されことで、オペレータは、追跡処理を再開するための指示を入力する必要がなくなる。そのため、画像処理装置100Aの操作性が改善される。また、画像処理装置100Aは、新たな基準領域の設定を実施可能な状態になってから一定時間の間に、新たな基準領域の設定が実施されなかった場合(たとえば、オペレータが表示されている探索画像30Nに対して基準領域として再設定する領域を見つけることができなかった場合など)は、探索処理を終了する。その結果、オペレータは、追跡処理の終了指示を入力する必要がなくなるため、画像処理装置100Aの操作性が改善される。
(基準領域の再設定画面2)
図8を参照して、基準領域の再設定画面の変形例について説明する。図8は、基準領域の再設定画面の変形例を表わす図である。
図8を参照して、基準領域の再設定画面の変形例について説明する。図8は、基準領域の再設定画面の変形例を表わす図である。
図8に示されるように、本変形例では、探索画像30Qにおいて再設定された基準領域38Qの拡大画像39Qが表示される。これにより、オペレータは、新たな基準領域を正確に設定および確認できるようになる。その結果、画像処理装置100Aの追跡処理の精度が向上する。なお、拡大画像39Qは、オペレータが基準領域38Qを再設定する度に更新される。
(基準領域の再設定画面3)
図9を参照して、基準領域の再設定画面のさらに他の変形例について説明する。図9は、基準領域の再設定画面の変形例を表わす図である。
図9を参照して、基準領域の再設定画面のさらに他の変形例について説明する。図9は、基準領域の再設定画面の変形例を表わす図である。
図9に示されるように、本変形例においては、探索画像が表示領域33に表示される代わりに、過去に設定された基準領域37R〜37Uが表示領域33に履歴として表示される。オペレータは、基準領域37R〜37Uのいずれかをポインタ36で選択することで過去に用いられた基準領域を新たな基準領域として再度設定することができる。図9には、基準領域37Uが選択されている例が示されている。基準領域37Uが選択されると、画像処理装置100Aは、基準領域37Uを含む探索画像30Uをディスプレイ12に表示し、選択された基準領域37Uに対応する基準領域32Uを探索画像30U内に表示する。
このように、オペレータは、履歴としての基準領域37R〜37Uのいずれかを新たな基準領域として再度設定できる。これにより、オペレータは、基準領域の設定を誤った場合や探索結果が思わしくない場合などに、過去に設定した基準領域に設定を容易に戻すことが可能になる。
(基準領域の再設定画面4)
以下、基準領域の再設定画面のさらに他の変形例について説明する。たとえば、カメラがトイレなどの出入口に設置されている場合には、出入口を通過した追跡対象は、同じ場所から再度現れることがある。このような場合に対応するために、画像処理装置100Aは、追跡対象の探索処理が失敗した後に、探索画像に写っている人物を順次検出し、検出した人物を再設定画面に表示する。画像処理装置100Aは、表示された人物の中から特定の人物を選択できるように構成され、選択された人物を新たな基準領域として設定する。これにより、画像処理装置100Aは、出入口に再度現れた人物を続けて追跡できるようになる。
以下、基準領域の再設定画面のさらに他の変形例について説明する。たとえば、カメラがトイレなどの出入口に設置されている場合には、出入口を通過した追跡対象は、同じ場所から再度現れることがある。このような場合に対応するために、画像処理装置100Aは、追跡対象の探索処理が失敗した後に、探索画像に写っている人物を順次検出し、検出した人物を再設定画面に表示する。画像処理装置100Aは、表示された人物の中から特定の人物を選択できるように構成され、選択された人物を新たな基準領域として設定する。これにより、画像処理装置100Aは、出入口に再度現れた人物を続けて追跡できるようになる。
[追跡結果の表示画面]
図10を参照して、追跡対象の追跡処理が正常に終了したときにおける表示制御部230(図2参照)の表示制御について説明する。図10は、追跡結果の表示画面の一例を表わす図である。
図10を参照して、追跡対象の追跡処理が正常に終了したときにおける表示制御部230(図2参照)の表示制御について説明する。図10は、追跡結果の表示画面の一例を表わす図である。
画像処理装置100Aは、探索画像のそれぞれについて実行される探索処理が正常に終了したとき、すなわち、追跡処理が正常に終了したときに、追跡結果をディスプレイ12に表示する。追跡結果は、探索画像ごとに出力される上述の探索結果を統合して最終的に画像処理装置100Aによって出力される結果である。たとえば、画像処理装置100Aは、探索結果の中で最新のものを追跡結果として出力する。あるいは、画像処理装置100Aは、オペレータによって指定された時刻に対応する探索結果を追跡結果として出力する。
図10には、ディスプレイ12に追跡結果48が示されている例が示されている。追跡結果48は、追跡対象が写っているカメラの情報と、追跡対象が存在していた場所とを示している。オペレータは、追跡結果48を確認することにより、追跡対象が存在している場所などを容易に把握することができ、迷子や徘徊する老人を容易に見つけることができる。
なお、追跡結果は、店の係員などに伝えられてもよい。より具体的には、係員は、タブレット端末などの携帯端末を保持し、追跡結果は、画像処理装置100Aからタブレット端末に送信される。このとき、好ましくは、画像処理装置100Aは、追跡結果に示される場所に一番近い位置に存在するタブレット端末に追跡結果を送信する。これにより、係員は、追跡対象を現場でいち早く見つけることができる。
[制御構造]
図11を参照して、第1の実施の形態に従う画像処理装置100Aの制御構造について説明する。図11は、画像処理装置100Aが実行する処理を表わすフローチャートである。図11の処理は、画像処理装置100AのCPU2(図2参照)がプログラムを実行することにより実現される。他の局面において、処理の一部または全部が、回路素子、その他のハードウェアによって実行されてもよい。
図11を参照して、第1の実施の形態に従う画像処理装置100Aの制御構造について説明する。図11は、画像処理装置100Aが実行する処理を表わすフローチャートである。図11の処理は、画像処理装置100AのCPU2(図2参照)がプログラムを実行することにより実現される。他の局面において、処理の一部または全部が、回路素子、その他のハードウェアによって実行されてもよい。
ステップS110において、CPU2は、上述の記憶装置10(図2参照)に格納されている複数の画像30(図2参照)のうちからオペレータによって選択された画像を入力画像としてディスプレイ12に表示する。ステップS112において、CPU2は、上述の第1受付部210(図2参照)として、表示されている入力画像において追跡の対象となる基準領域の設定を受け付ける。
ステップS114において、CPU2は、探索部220として、記憶装置10に格納されている複数の画像30のうち撮影時刻が入力画像と時系列にある画像を探索画像として、当該探索画像内において基準領域と類似する領域を探索する。より具体的には、CPU2は、探索画像内において基準領域との画像情報の類似度が相対的に高くなる類似領域を探索する。
ステップS120において、CPU2は、算出された類似度が予め定められた所定値以上であるか否かを判断する。CPU2は、類似度が所定値以上であると判断した場合(ステップS120においてYES)、制御をステップS122に切り替える。そうでない場合には(ステップS120においてNO)、CPU2は、制御をステップS130に切り替える。
ステップS122において、CPU2は、上述の表示制御部230(図2参照)として、基準領域の探索結果をディスプレイ12に表示する。探索結果は、探索画像内における基準領域と類似する領域(すなわち、類似領域)、探索画像の撮影時刻などを含む。ステップS122において、CPU2は、複数の画像30から、探索処理が終了した探索画像と撮影時刻が隣接する次の探索画像を取得し、当該探索画像を次の探索対象とする。CPU2は、ステップS114,S120,S122,S124の探索処理を繰り返すことで、追跡対象の追跡処理を実現する。
ステップS130において、CPU2は、表示制御部230として、基準領域との類似度が予め定められた所定値を下回った探索画像の撮影時刻を含む期間に撮影された画像を時系列にディスプレイ12に表示する。すなわち、CPU2は、基準領域の探索が失敗した探索画像と撮影時刻が連続する一連の画像を時系列にディスプレイ12に表示する。
ステップS140において、CPU2は、上述の第2受付部240(図2参照)として、ステップS130で表示される探索画像内において、追跡の対象となる新たな基準領域の設定を受け付けたか否かを判断する。たとえば、CPU2は、新たな基準領域がオペレータによって設定された後に確定ボタン(図示しない)の押下を検出したことに基づいて、新たな基準領域の設定を受け付けたと判断する。CPU2は、新たな基準領域の設定を受け付けたと判断した場合(ステップS140においてYES)、制御をステップS142に切り替える。そうでない場合には(ステップS140においてNO)、CPU2は、本実施の形態に従う画像処理を終了する。ステップS142において、CPU2は、新たに設定された基準領域を新たなテンプレートとして設定する。
[画像処理装置100Aのハードウェア構成]
図12を参照して、第1の実施の形態に従う画像処理装置100Aのハードウェア構成の一例について説明する。図12は、画像処理装置100Aの主要なハードウェア構成を表わすブロック図である。
図12を参照して、第1の実施の形態に従う画像処理装置100Aのハードウェア構成の一例について説明する。図12は、画像処理装置100Aの主要なハードウェア構成を表わすブロック図である。
図12に示されるように、画像処理装置100Aは、ROM(Read Only Memory)1と、CPU2と、RAM(Random Access Memory)3と、ネットワークI/F(インタフェース)4と、カメラI/F(インタフェース)5と、ディスプレイI/F(インタフェース)6と、記憶装置10とを含む。
ROM1は、オペレーティングシステム(OS:Operating System)、画像処理装置100Aで実行される制御プログラムなどを格納する。CPU2は、オペレーティングシステムや画像処理装置100Aの制御プログラムなどの各種プログラムを実行することで、画像処理装置100Aの動作を制御する。RAM3は、ワーキングメモリとして機能し、プログラムの実行に必要な各種データを一時的に格納する。
ネットワークI/F4は、アンテナ4Aを介して、他の通信機器との間でデータを送受信する。他の通信機器は、たとえば、サーバ、その他の通信機能を有する装置などを含む。画像処理装置100Aは、アンテナ4Aを介して、本実施の形態に従う各種の処理を実現するための画像処理プログラム28をダウンロードできるように構成されてもよい。
カメラI/F5は、たとえば、画像処理装置100Aとカメラ11とを接続するための端子である。CPU2は、カメラI/F5を介してカメラ11とデータ通信を行なう。カメラ11、たとえば、監視カメラなどの動体を撮影することが可能な撮像装置である。カメラ11は、被写体を撮像して生成した画像を撮影時刻とともにROM1、RAM3、記憶装置10などにカメラI/F5を介して順次転送する。また、カメラI/F5は、CPU2が発生した内部コマンドに従って、カメラ11に対して撮像指令を与える。なお、カメラ11および画像処理装置100Aは、一体として構成されてもよいし、図12に示されるように別個に構成されてもよい。
ディスプレイI/F6は、たとえば、画像処理装置100Aとディスプレイ12とを接続するための端子である。ディスプレイ12は、たとえば、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ、またはその他の表示機器などを含む。また、ディスプレイ12は、タッチセンサ(図示しない)と組み合わされてタッチパネルとして構成されてもよい。これにより、オペレータは、基準領域の設定や、基準領域の再設定などの操作をタッチパネル上で行なうことが可能になる。
記憶装置10は、たとえば、ハードディスクや外付けの記憶装置などの記憶媒体である。一例として、記憶装置10は、テンプレート22と、画像情報24と、カメラ情報26と、本実施の形態に従う各種の処理を実現するための画像処理プログラム28とを保持する。
テンプレート22は、オペレータによって入力画像に対して設定された基準領域の画素値および特徴量の少なくとも一方を含む。テンプレート22は、オペレータによって基準領域が設定される度に更新(追加、削除など)される。
図13は、画像情報24の内容を示した図である。画像情報24は、カメラの識別情報と、当該カメラから得られた画像と、当該画像の撮影時刻とを含む。カメラの識別情報、当該カメラから得られた画像、および当該画像の撮影時刻は、互いに対応付けられている。
カメラ情報26は、本実施の形態においては必須の構成ではない。カメラ情報26は、後述する第3の実施の形態に従う画像処理装置100Cによって利用されるデータである。カメラ情報26の詳細については後述する「第3の実施の形態」において説明する。
画像処理プログラム28は、単体のプログラムとしてではなく、任意のプログラムの一部に組み込まれて提供されてもよい。この場合、任意のプログラムと協働して本実施の形態に従う画像処理が実現される。このような一部のモジュールを含まないプログラムであっても、本実施の形態に従う画像処理装置100Aの趣旨を逸脱するものではない。さらに、本実施の形態に従う画像処理プログラム28によって提供される機能の一部または全部は、専用のハードウェアによって実現されてもよい。さらに、画像処理装置100Aとサーバとが協働して、本実施の形態に従う画像処理を実現するようにしてもよい。さらに、少なくとも1つのサーバが本実施の形態に従う画像処理を実現する、所謂クラウドサービスの形態で画像処理装置100Aが構成されてもよい。
[小括]
以上のようにして、本実施の形態に従う画像処理装置100Aは、探索処理が失敗した探索画像と撮影時刻が連続する一連の画像を表示し、表示した画像上で新たな基準領域の設定を受け付ける。これにより、画像処理装置100Aは、追跡対象の探索が失敗したときでも、追跡対象の探索を継続することができ。また、オペレータは、表示された画像上で新たな基準領域を設定できるので、新たに基準領域を設定するための画像を探す手間を省くことができる。
以上のようにして、本実施の形態に従う画像処理装置100Aは、探索処理が失敗した探索画像と撮影時刻が連続する一連の画像を表示し、表示した画像上で新たな基準領域の設定を受け付ける。これにより、画像処理装置100Aは、追跡対象の探索が失敗したときでも、追跡対象の探索を継続することができ。また、オペレータは、表示された画像上で新たな基準領域を設定できるので、新たに基準領域を設定するための画像を探す手間を省くことができる。
<第2の実施の形態>
[画像処理装置100Bの概要]
第2の実施の形態に従う画像処理装置100Bは、オペレータによって入力された時刻に基づいて、基準領域を設定するための入力画像を検索する点で第1の実施の形態に従う画像処理装置100Aと異なる。オペレータは、迷子の子供と一緒にいた大体の時刻を親から聞きだし、その時刻を画像処理装置100Bに入力することにより、子供が写っている画像を入力画像として検索することができる。
[画像処理装置100Bの概要]
第2の実施の形態に従う画像処理装置100Bは、オペレータによって入力された時刻に基づいて、基準領域を設定するための入力画像を検索する点で第1の実施の形態に従う画像処理装置100Aと異なる。オペレータは、迷子の子供と一緒にいた大体の時刻を親から聞きだし、その時刻を画像処理装置100Bに入力することにより、子供が写っている画像を入力画像として検索することができる。
なお、画像処理装置100Bのハードウェア構成などその他の点については第1の実施の形態に従う画像処理装置100Aと同じであるので、以下ではそれらの説明は繰り返さない。
[画像処理装置100Bの機能構成]
図14を参照して、第2の実施の形態に従う画像処理装置100Bの機能について説明する。図14は、画像処理装置100Bの機能構成を表わすブロック図である。図14に示されるように、画像処理装置100Bは、CPU2と、記憶装置10とを含む。CPU2は、その機能構成として、時刻受付部202と、検索部204と、第1受付部210と、探索部220と、表示制御部230と、第2受付部240とを含む。第1受付部210および検索部204以外の機能構成については、図2で説明した通りであるので説明を繰り返さない。
図14を参照して、第2の実施の形態に従う画像処理装置100Bの機能について説明する。図14は、画像処理装置100Bの機能構成を表わすブロック図である。図14に示されるように、画像処理装置100Bは、CPU2と、記憶装置10とを含む。CPU2は、その機能構成として、時刻受付部202と、検索部204と、第1受付部210と、探索部220と、表示制御部230と、第2受付部240とを含む。第1受付部210および検索部204以外の機能構成については、図2で説明した通りであるので説明を繰り返さない。
時刻受付部202は、時刻の入力を受け付ける。時刻受付部202は、たとえば、オペレータによって時刻入力画面に入力された時刻を受け付ける。時刻受付部202は、受け付けた時刻を検索部204に出力する。
検索部204は、複数の画像30の中から、検索部204によって出力された時刻と撮影時刻が最も近い画像を入力画像として検索する。他の局面において、検索部204は、複数の画像30の中から、検索部204によって出力された時刻と撮影時刻が近い複数の画像を検索し、画像処理装置100Bは、検索された複数の画像のうちから1枚をオペレータが選択できるように構成されてもよい。
[画像処理装置100Bの制御構造]
図15を参照して、第2の実施の形態に従う画像処理装置100Bの制御構造について説明する。図15は、画像処理装置100Bが実行する処理を表わすフローチャートである。図15の処理は、画像処理装置100BのCPU2(図12参照)がプログラムを実行することにより実現される。他の局面において、処理の一部または全部が、回路素子、その他のハードウェアによって実行されてもよい。なお、図15のステップS111以外の処理は、図11に示される処理と同じであるので説明を繰り返さない。
図15を参照して、第2の実施の形態に従う画像処理装置100Bの制御構造について説明する。図15は、画像処理装置100Bが実行する処理を表わすフローチャートである。図15の処理は、画像処理装置100BのCPU2(図12参照)がプログラムを実行することにより実現される。他の局面において、処理の一部または全部が、回路素子、その他のハードウェアによって実行されてもよい。なお、図15のステップS111以外の処理は、図11に示される処理と同じであるので説明を繰り返さない。
ステップS111において、CPU2は、上述の検索部204(図14参照)として、オペレータによって入力された時刻に基づいて、撮影時刻が最も近い画像を入力画像として検索する。CPU2は、検索した入力画像をディスプレイ12(図12参照)に表示する。
[小括]
以上のようにして、本実施の形態に従う画像処理装置100Bは、オペレータによって入力された時刻に基づいて、基準領域を設定するための入力画像を検索する。これにより、オペレータは、入力画像を容易に検索できるようになる。
以上のようにして、本実施の形態に従う画像処理装置100Bは、オペレータによって入力された時刻に基づいて、基準領域を設定するための入力画像を検索する。これにより、オペレータは、入力画像を容易に検索できるようになる。
<第3の実施の形態>
[概要]
第3の実施の形態に従う画像処理装置100Cは、カメラの配置関係に基づいて、画像を探索する順番を決定する点で第1の実施の形態に従う画像処理装置100Aと異なる。人物があるカメラに写っている場合には、その直後には、当該カメラの隣接するカメラに写っている可能性が高い。そのため、画像処理装置100Cは、隣接するカメラの順に追跡対象の探索処理を実行する。
[概要]
第3の実施の形態に従う画像処理装置100Cは、カメラの配置関係に基づいて、画像を探索する順番を決定する点で第1の実施の形態に従う画像処理装置100Aと異なる。人物があるカメラに写っている場合には、その直後には、当該カメラの隣接するカメラに写っている可能性が高い。そのため、画像処理装置100Cは、隣接するカメラの順に追跡対象の探索処理を実行する。
なお、画像処理装置100Cのハードウェア構成などその他の点については第1の実施の形態に従う画像処理装置100Aと同じであるので、以下ではそれらの説明は繰り返さない。
[画像処理装置100Cの制御構造]
図16および図17を参照して、第3の実施の形態に従う画像処理装置100Cの制御構造について説明する。図16は、画像処理装置100Cが実行する処理を表わすフローチャートである。図16の処理は、画像処理装置100CのCPU2(図12参照)がプログラムを実行することにより実現される。他の局面において、処理の一部または全部が、回路素子、その他のハードウェアによって実行されてもよい。なお、図16のステップS150,S160,S162以外の処理は、図11および図15に示される処理と同じであるので説明を繰り返さない。
図16および図17を参照して、第3の実施の形態に従う画像処理装置100Cの制御構造について説明する。図16は、画像処理装置100Cが実行する処理を表わすフローチャートである。図16の処理は、画像処理装置100CのCPU2(図12参照)がプログラムを実行することにより実現される。他の局面において、処理の一部または全部が、回路素子、その他のハードウェアによって実行されてもよい。なお、図16のステップS150,S160,S162以外の処理は、図11および図15に示される処理と同じであるので説明を繰り返さない。
ステップS150において、CPU2は、新たな基準領域の設定を受付可能な状態になってから一定時間が経過したか否かを判断する。CPU2は、一定時間が経過したと判断した場合(ステップS150においてYES)、制御をステップS160に切り替える。そうでない場合には(ステップS150においてNO)、CPU2は、ステップS140の処理を再び実行する。
ステップS160において、CPU2は、追跡処理の対象となるカメラが他にあるか否かを判断する。CPU2は、追跡処理の対象となるカメラが他にあると判断した場合(ステップS160においてYES)、制御をステップS162に切り替える。そうでない場合には(ステップS160においてNO)、CPU2は、本実施の形態に従う画像処理を終了する。
ここで、図17を参照して、CPU2が追跡処理の対象となるカメラが他にあるか否かを判断する方法について説明する。図17は、上述のカメラ情報26(図12参照)の内容を表わす図である。
図17に示されるように、カメラ情報26は、カメラの識別情報と、当該カメラに隣接するカメラの情報とを含む。カメラの識別情報と、隣接するカメラの情報とは、互いに対応付けられている。隣接するカメラの情報は、オペレータによって予め登録されている。図17の例では、「カメラA」は、「カメラB」と隣接している。「カメラB」は、「カメラA」および「カメラC」と隣接している。
たとえば、現在追跡処理の対象となっているカメラが「カメラA」である場合には、CPU2は、カメラ情報26を参照して、「カメラA」に隣接する「カメラB」を次の追跡処理の対象となるカメラの候補とする(破線60参照)。このとき、CPU2は、「カメラB」から得られた画像に対して探索処理を未だ行なっていない場合には、追跡処理の対象となるカメラが他にあると判断する(図16のステップS160におけるYES)。CPU2は、「カメラB」から得られた画像に対して探索処理を既に行なっている場合には、追跡処理の対象となるカメラが他にないと判断する(図16のステップS160におけるNO)。
再び図16を参照して、CPU2は、追跡処理の対象となるカメラが他にあると判断した場合(図16のステップS160におけるYES)、制御をステップS162に切り替える。ステップS162において、CPU2は、追跡対象のカメラを隣接カメラである「カメラB」に変更する。これにより、CPU2は、引き続き「カメラB」から得られた画像を探索対象の画像とし、探索処理を続行する。以下、同様に、CPU2は、順次隣接するカメラに探索処理を継続させるか、いずれかのカメラにおいて探索処理を終了する。
なお、隣接カメラが複数ある場合には、CPU2は、追跡対象が移動した方向に応じて追跡処理の対象となるカメラを決定してもよい。より具体的には、CPU2は、追跡対象の探索したことに基づいて、一連の探索画像から追跡対象の移動方向を検出し、現在のカメラから当該移動方向に存在するカメラを次の追跡処理の対象のカメラとして決定する。あるいは、CPU2は、隣接する複数のカメラについて、追跡処理を行なってもよい。
[小括]
以上のようにして、本実施の形態に従う画像処理装置100Cは、隣接するカメラの順に追跡対象の探索処理を実行する。これにより、追跡対象が写っている画像を探索できる可能性が高くなり、画像処理装置100Cは、追跡対象を早期に探索することが可能になる。
以上のようにして、本実施の形態に従う画像処理装置100Cは、隣接するカメラの順に追跡対象の探索処理を実行する。これにより、追跡対象が写っている画像を探索できる可能性が高くなり、画像処理装置100Cは、追跡対象を早期に探索することが可能になる。
今回開示された実施の形態は全ての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて請求の範囲によって示され、請求の範囲と均等の意味および範囲内での全ての変更が含まれることが意図される。
1 ROM、2 CPU、3 RAM、4 ネットワークI/F、4A アンテナ、5 カメラI/F、6 ディスプレイI/F、10 記憶装置、11 カメラ、12 ディスプレイ、22 テンプレート、24 画像情報、26 カメラ情報、28 画像処理プログラム、30 画像、30A 入力画像、30B〜30J,30L〜30N,30Q,31L〜31N 探索画像、30K 静止画像、31,33 表示領域、32L〜32N,37H〜37J,45 類似領域、33L〜33N,39Q 拡大画像、32U,34A,34G,37R,37U,38Q 基準領域、35 人物、36 ポインタ、38 柱、38H〜38J 撮影時刻、41,42 ボタン、46 領域、48 追跡結果、60 破線、100A〜100C 画像処理装置、202 時刻受付部、204 検索部、210 第1受付部、220 探索部、230 表示制御部、240 第2受付部。
Claims (12)
- 表示部と、
複数の画像と、当該複数の画像のそれぞれの撮影時刻とを格納するための記憶部と、
前記複数の画像の一部の画像を入力画像として前記表示部に表示しつつ、当該入力画像内において追跡の対象となる基準領域の設定を受け付けるための第1受付部と、
前記複数の画像のうち撮影時刻が前記入力画像と時系列にある画像を探索画像として、当該探索画像の時系列の順に、当該探索画像内において前記基準領域と類似する領域を探索するための探索部と、
前記探索部によって順次出力される探索結果の確からしさが予め定められた条件を満たさなくなったときに、当該条件を満たさなくなった探索画像の撮影時刻を含む期間に撮影された画像を時系列に前記表示部に表示するための表示制御部と、
前記表示制御部によって時系列に表示される画像内において、追跡の対象となる新たな基準領域の設定を受け付けるための第2受付部とを備える、画像処理装置。 - 前記表示制御部によって時系列に表示される画像は、撮影時刻の順に並べて表示される静止画像と、撮影時刻の順に順次表示される動画像との少なくとも一方を含む、請求項1に記載の画像処理装置。
- 前記表示制御部は、前記動画像を前記表示部に繰り返して表示する、請求項2に記載の画像処理装置。
- 前記表示制御部は、各画像の撮影時刻の間隔よりも長い間隔で前記動画像を前記表示部に表示する、請求項2または3に記載の画像処理装置。
- 前記探索部による探索処理は、探索画像の撮影時刻を遡る順番に実行される、請求項1〜4のいずれか1項に記載の画像処理装置。
- 前記表示制御部は、前記探索部によって順次出力される探索結果の確からしさが前記予め定められた条件を満たしている間は、当該探索結果を前記表示部に順次表示し、
前記探索結果は、前記探索画像内における前記基準領域と類似する領域と、当該探索画像の撮影時刻との少なくとも一方を含む、請求項1〜5のいずれか1項に記載の画像処理装置。 - 前記表示制御部は、前記探索部によって順次出力される探索結果の確からしさの度合いに応じて、前記基準領域と類似する領域の表示方法を変える、請求項1〜6のいずれか1項に記載の画像処理装置。
- 前記画像処理装置は、
時刻の入力を受け付けるための時刻受付部と、
前記複数の画像の中から前記時刻と撮影時刻が最も近い画像を前記入力画像として検索するための検索部とをさらに備える、請求項1〜7のいずれか1項に記載の画像処理装置。 - 前記画像処理装置は、
前記新たな基準領域の設定を実施可能な状態になってから一定時間の間に前記新たな基準領域の設定が実施された場合は、当該新たな基準領域を基準とした前記探索部による探索処理を続行し、
前記新たな基準領域の設定を実施可能な状態になってから前記一定時間の間に、前記新たな基準領域の設定が実施されなかった場合は、前記探索部による探索処理を終了する、請求項1〜8のいずれか1項に記載の画像処理装置。 - 前記記憶部は、複数のカメラで撮影された複数の画像をそれぞれ記憶し、
前記画像処理装置は、前記複数のカメラの内の1つのカメラで撮影された画像において、新たな基準領域の設定を実施可能な状態になってから前記一定時間の間に、前記新たな基準領域の設定が実施されなかった場合は、前記1つのカメラと隣接するカメラで撮影された画像において前記探索部による探索処理を継続する、請求項9に記載の画像処理装置。 - 複数の画像と、当該複数の画像のそれぞれの撮影時刻とを格納するステップと、
前記複数の画像の一部の画像を入力画像として表示しつつ、当該入力画像内において追跡の対象となる基準領域の設定を受け付けるステップと、
前記複数の画像のうち撮影時刻が前記入力画像と時系列にある画像を探索画像として、当該探索画像の時系列の順に、当該探索画像内において前記基準領域と類似する領域を探索するステップと、
前記探索するステップで順次出力される探索結果の確からしさが予め定められた条件を満たさなくなったときに、当該条件を満たさなくなった探索画像の撮影時刻を含む期間に撮影された画像を時系列に表示するステップと、
前記表示するステップで時系列に表示される画像内において、追跡の対象となる新たな基準領域の設定を受け付けるステップとを備える、画像処理方法。 - コンピュータに実行される画像処理プログラムであって、
前記画像処理プログラムは、前記コンピュータに、
複数の画像と、当該複数の画像のそれぞれの撮影時刻とを格納するステップと、
前記複数の画像の一部の画像を入力画像として表示しつつ、当該入力画像内において追跡の対象となる基準領域の設定を受け付けるステップと、
前記複数の画像のうち撮影時刻が前記入力画像と時系列にある画像を探索画像として、当該探索画像の時系列の順に、当該探索画像内において前記基準領域と類似する領域を探索するステップと、
前記探索するステップで順次出力される探索結果の確からしさが予め定められた条件を満たさなくなったときに、当該条件を満たさなくなった探索画像の撮影時刻を含む期間に撮影された画像を時系列に表示するステップと、
前記表示するステップで時系列に表示される画像内において、追跡の対象となる新たな基準領域の設定を受け付けるステップとを実行させる、画像処理プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014253118 | 2014-12-15 | ||
JP2014253118 | 2014-12-15 | ||
PCT/JP2015/084904 WO2016098720A1 (ja) | 2014-12-15 | 2015-12-14 | 画像処理装置、画像処理方法、および画像処理プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6004148B1 true JP6004148B1 (ja) | 2016-10-05 |
JPWO2016098720A1 JPWO2016098720A1 (ja) | 2017-04-27 |
Family
ID=56126609
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016539234A Active JP6004148B1 (ja) | 2014-12-15 | 2015-12-14 | 画像処理装置、画像処理方法、および画像処理プログラム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6004148B1 (ja) |
WO (1) | WO2016098720A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6607886B2 (ja) * | 2017-07-18 | 2019-11-20 | シナノケンシ株式会社 | 映像解析方法 |
JP6630322B2 (ja) * | 2017-08-30 | 2020-01-15 | シナノケンシ株式会社 | 映像解析方法 |
CN111242973A (zh) * | 2020-01-06 | 2020-06-05 | 上海商汤临港智能科技有限公司 | 目标跟踪方法、装置、电子设备及存储介质 |
US20230206468A1 (en) * | 2020-06-01 | 2023-06-29 | Nec Corporation | Tracking device, tracking method, and recording medium |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001111987A (ja) * | 1999-10-07 | 2001-04-20 | Daikoku Denki Co Ltd | 監視装置 |
JP2004151820A (ja) * | 2002-10-29 | 2004-05-27 | Hitachi Eng Co Ltd | 迷子検索・監視システム |
JP2009098774A (ja) * | 2007-10-15 | 2009-05-07 | Mitsubishi Electric Corp | 人物追跡システム及び人物追跡方法及び人物追跡プログラム |
-
2015
- 2015-12-14 JP JP2016539234A patent/JP6004148B1/ja active Active
- 2015-12-14 WO PCT/JP2015/084904 patent/WO2016098720A1/ja active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001111987A (ja) * | 1999-10-07 | 2001-04-20 | Daikoku Denki Co Ltd | 監視装置 |
JP2004151820A (ja) * | 2002-10-29 | 2004-05-27 | Hitachi Eng Co Ltd | 迷子検索・監視システム |
JP2009098774A (ja) * | 2007-10-15 | 2009-05-07 | Mitsubishi Electric Corp | 人物追跡システム及び人物追跡方法及び人物追跡プログラム |
Also Published As
Publication number | Publication date |
---|---|
JPWO2016098720A1 (ja) | 2017-04-27 |
WO2016098720A1 (ja) | 2016-06-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11527071B2 (en) | Person search system and person search method | |
JP5999394B2 (ja) | 追跡支援装置、追跡支援システムおよび追跡支援方法 | |
US20220124410A1 (en) | Image processing system, image processing method, and program | |
RU2702160C2 (ru) | Устройство поддержки отслеживания, система поддержки отслеживания и способ поддержки отслеживания | |
EP3754592B1 (en) | Image acquisition device and method of controlling the same | |
JP6593742B2 (ja) | 施設内人物捜索支援装置、施設内人物捜索支援システムおよび施設内人物捜索支援方法 | |
JP6004148B1 (ja) | 画像処理装置、画像処理方法、および画像処理プログラム | |
JP6206857B1 (ja) | 追跡支援装置、追跡支援システムおよび追跡支援方法 | |
JP2014153813A5 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
CA2868106C (en) | E-map based intuitive video searching system and method for surveillance systems | |
US11308158B2 (en) | Information processing system, method for controlling information processing system, and storage medium | |
US11830251B2 (en) | Video monitoring apparatus, method of controlling the same, computer-readable storage medium, and video monitoring system | |
US20160050173A1 (en) | Information processing apparatus which cooperate with other apparatus, and method for controlling the same | |
US9396538B2 (en) | Image processing system, image processing method, and program | |
JP6396682B2 (ja) | 監視カメラシステム | |
JP2017011417A (ja) | 表示制御装置、表示制御方法、プログラム | |
EP3675009A1 (en) | Information processing apparatus that manages image captured at site where agricultural crop is cultivated, method for controlling the same, storage medium, and system | |
US20180197000A1 (en) | Image processing device and image processing system | |
US20220277642A1 (en) | Investigation assistance system and investigation assistance method | |
US11151730B2 (en) | System and method for tracking moving objects | |
JP2018125587A (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP6112346B2 (ja) | 情報収集システム、プログラムおよび情報収集方法 | |
US20220012789A1 (en) | System and method for providing real-time visual search | |
JP7011447B2 (ja) | 情報処理装置及びプログラム | |
JP2006251206A (ja) | 情報提示装置及び情報提示方法とそのプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20160728 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160809 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160822 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6004148 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |