JP7242309B2 - 画像処理装置、画像処理方法およびプログラム - Google Patents

画像処理装置、画像処理方法およびプログラム Download PDF

Info

Publication number
JP7242309B2
JP7242309B2 JP2019004964A JP2019004964A JP7242309B2 JP 7242309 B2 JP7242309 B2 JP 7242309B2 JP 2019004964 A JP2019004964 A JP 2019004964A JP 2019004964 A JP2019004964 A JP 2019004964A JP 7242309 B2 JP7242309 B2 JP 7242309B2
Authority
JP
Japan
Prior art keywords
image processing
constraint
processing apparatus
state
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019004964A
Other languages
English (en)
Other versions
JP2020113155A5 (ja
JP2020113155A (ja
Inventor
智也 本條
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019004964A priority Critical patent/JP7242309B2/ja
Priority to US16/739,923 priority patent/US11205258B2/en
Publication of JP2020113155A publication Critical patent/JP2020113155A/ja
Publication of JP2020113155A5 publication Critical patent/JP2020113155A5/ja
Application granted granted Critical
Publication of JP7242309B2 publication Critical patent/JP7242309B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • G06V40/173Classification, e.g. identification face re-identification, e.g. recognising unknown faces across different face tracks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Mathematical Optimization (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Analysis (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Quality & Reliability (AREA)
  • Operations Research (AREA)
  • Probability & Statistics with Applications (AREA)
  • Databases & Information Systems (AREA)
  • Algebra (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Description

本発明は、画像処理装置、画像処理方法およびプログラムに関する。
従来、空港やショッピングモールなどに複数台の撮像装置を設置し、それぞれの撮像装置によって撮像された画像(映像)を解析することにより、複数の撮像装置間で人物を同定して追尾する被写体同定技術が知られている。このような技術は、Re-identification(Re-ID)技術と呼ばれる。
特許文献1には、撮像装置間で被写体を同定して追尾する場合において、追尾対象とした被写体の追尾結果に誤りがある場合に、当該追尾結果を修正する作業を簡単に行うことができるようにする技術が開示されている。この技術は、追尾対象とした被写体と関連度の高い被写体が写った撮像画像を候補画像として表示画面に表示し、監視者に追尾対象とした被写体が写った候補画像を選択させることにより、追尾結果を修正する技術である。
特開2015-019250号公報
しかしながら、上記特許文献1に記載の技術では、同定後の追尾結果の修正のみを目的としているため、仮に当該追尾結果を修正できたとしても、別の被写体を追尾対象とした際には再び同定に失敗し、誤った追尾結果を出力してしまう可能性がある。
被写体同定処理では、被写体の画像特徴とともに、撮像装置間に設定された制約条件が用いられる場合がある。撮像装置間の制約条件は、ある撮像装置から別の撮像装置への被写体の遷移確率や遷移時間といった時空間制約を含む。同定処理に失敗する原因の一つとして、上記の撮像装置間に設定された制約条件が不適切であることが挙げられる。
したがって、より高い精度で被写体の追尾を行うためには、不適切な制約条件が設定されている撮像装置間を特定し、不適切な制約条件を適切に修正することが望ましい。しかしながら、ユーザは、制約条件の修正が必要な撮像装置間を容易に特定することができず、制約条件の修正には手間がかかる。
そこで、本発明は、撮像装置間に設定された、当該撮像装置間における被写体の同定処理に関する制約条件の修正を容易とすることを課題としている。
上記課題を解決するために、本発明に係る画像処理装置の一態様は、第1の撮像装置により撮像された第1の撮像画像に含まれる被写体を、前記第1の撮像装置とは異なる第2の撮像装置によって撮像された第2の撮像画像に含まれる被写体と対応付ける同定処理を行う同定手段と、前記同定手段による前記同定処理の結果を記録する記録手段と、前記記録手段により記録された前記同定処理の結果と、前記第1の撮像装置と前記第2の撮像装置との撮像装置間に設定された前記同定処理に関する制約条件とに基づいて、当該制約条件の状態を決定する決定手段と、を備える。
本発明によれば、撮像装置間に設定された、当該撮像装置間における被写体の同定処理に関する制約条件の修正を容易とすることができる。
本実施形態における画像処理システムのシステム構成例を示す図である。 画像処理装置のハードウェア構成例である。 画像処理装置の動作を説明するためのフローチャートである。 (a)は追尾情報の一例、(b)はカメラ間の情報の一例である。 表示画面の一例である。 カメラ間の接続関係の一例である。 画像処理装置の別の動作を説明するためのフローチャートである。
以下、添付図面を参照して、本発明を実施するための形態について詳細に説明する。
なお、以下に説明する実施の形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。
本実施形態では、複数の撮像装置により撮像された撮像画像を解析し、撮像装置間を移動する被写体を同定して追尾する画像処理システムについて説明する。異なる撮像装置間を移動する被写体は、通常、別の被写体として扱われるが、被写体の画像の特徴量などを利用することで、同一の被写体であると判断して追尾することが可能である。
本実施形態における画像処理システムは、被写体の画像の特徴量と、撮像装置間に設定された制約条件とを用いて、被写体の同定処理を行う。本実施形態では、撮像装置間に設定された制約条件は、ある撮像装置から別の撮像装置までの被写体が移動に要する時間である遷移時間である場合について説明する。
図1は、本実施形態における画像処理システム1000のシステム構成例を示す図である。本実施形態における画像処理システム1000は、複数台(図1では、4台)の撮像装置100A~100Dと、画像処理装置200と、画像データベース300と、を備える。撮像装置100A~100Dと画像処理装置200と画像データベース300とは、それぞれネットワーク400によって相互に通信可能に接続されている。
ネットワーク400は、撮像装置100A~100D、画像処理装置200および画像データベース300の間で通信可能な構成であれば、その通信規格、規模および構成は問わない。ネットワーク400は、インターネットや有線LAN(Local Area Network)、無線LAN(Wireless LAN)、WAN(Wide Area Network)、若しくはこれらの複合により実現してもよい。
撮像装置100A~100Dは、ネットワークカメラ(以下、単に「カメラ」という。)であり、それぞれ一意に特定が可能なカメラIDが与えられている。カメラ100A~100Dは、それぞれ異なる場所に設置されており、設定もしくは制御された姿勢で静止画像もしくは動画像を撮像する。また、カメラ100A~100Dは、それぞれ異なる撮像範囲を撮像し、撮像範囲を共有しなくてもよい。なお、カメラ100A~100Dの設置レイアウトは特に限定されない。例えば、カメラ100A~100Dのうち、いくつかのカメラを部屋Aに設置し、他のいくつかのカメラを別の部屋Bに設置する、というように、いくつかのカメラを纏めて同じエリアに設置してもよい。
また、カメラ100A~100Dは、PoE(Power Over Ethernet(登録商標))に対応していてもよいし、LANケーブル等を介して電力が供給される構成でもよい。さらに、図1では、4台のカメラ100A~100Dがネットワーク400に接続されているが、ネットワーク400には2台以上のカメラが接続されていればよく、接続台数は図1に示す数に限定されない。
カメラ100A~100Dのそれぞれによって撮像された撮像画像は、ネットワーク400を介して画像データベース300に保存される。このとき、撮像画像は、撮像時刻とカメラIDとともに保存される。画像データベース300に保存される撮像画像は、カメラ100A~100Dのそれぞれが静止画像を出力するものであれば、静止画像そのものである。一方、カメラ100A~100Dのそれぞれが動画像を出力するものであれば、上記撮像画像は動画像を構成する各フレームとなる。
画像処理装置200は、汎用コンピュータと、画像を表示可能なモニタと、を備える表示装置とすることができる。画像処理装置200は、例えば、パーソナルコンピュータ(PC)やモバイル端末などにより構成することができる。
画像処理装置200は、画像データベース300に保存された撮像画像から被写体の特徴量を抽出し、抽出された特徴量と、カメラ間に設定された制約条件とに基づいて、カメラ間で被写体の同定を行うことができる。また、画像処理装置200は、被写体の同定処理の結果(同定結果)を記録し、記録された同定結果と、カメラ間に設定された制約条件とに基づいて、カメラ間の制約条件の状態(以下、「カメラ間の状態」ともいう。)を決定する。さらに、画像処理装置200は、決定されたカメラ間の状態に基づいて、ユーザに情報を提示することもできる。
なお、本実施形態では、同定対象とする被写体が人物である場合について説明するが、同定対象とする被写体は人物に限定されるものではなく、撮像画像から特徴量を抽出可能な、カメラ間を移動する移動体であればよい。
画像処理装置200は、特徴抽出部201と、被写体追尾部202と、同定部203と、記録部204と、決定部205と、出力部206と、設定部207と、記憶域208と、を備える。
特徴抽出部201は、ネットワーク400を介してカメラ100A~100Dから撮像画像を取得し、撮像画像から被写体を検出し、検出した被写体の特徴量を抽出する。
被写体追尾部202は、同一カメラ内で被写体を追尾する追尾処理を行う。
同定部203は、複数のカメラ間で同一の被写体を対応付ける同定処理を行う。
記録部204は、同定部203によるカメラ間の同定結果を記憶域208に記録する。
決定部205は、記憶域208に記録されたカメラ間の同定結果と、カメラ間に設定されている制約条件とに基づいて、カメラ間の状態を決定する。
出力部206は、決定部205によって決定されたカメラ間の状態に基づいて、ユーザに提示する情報を出力する。本実施形態では、出力部206は、画像処理装置200が備える表示部216(図2参照)に情報を出力し、当該情報を画面上に表示させる表示制御を行う。しかしながら、出力部206は、他の装置に情報を出力し、当該情報をユーザに提示させるようにしてもよい。
設定部207は、ユーザにより設定された情報を取得する。設定部207が取得する情報は、ユーザにより設定された同定対象の被写体に関する情報を含む。
記憶域208は、被写体追尾部202による追尾結果である追尾情報を記憶することができる。また、記憶域208は、同定部203による同定結果や、カメラ間の制約条件、カメラ間の状態を記憶することもできる。
図2は、画像処理装置200のハードウェア構成例である。
画像処理装置200は、CPU211、ROM212、RAM213、外部メモリ214、入力部215、表示部216および通信I/F217を備える。CPU211、ROM212、RAM213、外部メモリ214、入力部215、表示部216および通信I/F217は、内部バス218に接続されている。
CPU211は、画像処理装置200における動作を統括的に制御する。ROM212は、CPU211が処理を実行するために必要なプログラムやデータを記憶する不揮発性
メモリである。RAM213は、CPU211の主メモリ、ワークエリア等として機能する。CPU211は、処理の実行に際してROM212から必要なプログラム等をRAM213にロードし、当該プログラム等を実行することで各種の機能動作を実現する。
外部メモリ214は、例えば、HDD(ハードディスクドライブ)やフラッシュメモリ、SDカード等に代表される不揮発性の記憶装置であり、着脱可能な構成であってもよい。この外部メモリ214は、OSや各種のプログラムおよび各種のデータ等の永続的な記憶領域として使用される他に、短期的な各種のデータ等の記憶領域としても使用することができる。
入力部215は、キーボードやマウス等のポインティングデバイスを含む、ユーザが操作可能なI/O機器である。表示部216は、液晶ディスプレイ(LCD)等のモニタを備え、ユーザに対して情報を提示することができる。通信I/F217は、ネットワーク400を介してカメラ100A~100Dや画像データベース300との間でデータの送受信を行う。
図1に示す画像処理装置200の各要素のうち少なくとも一部の機能は、CPU211がプログラムを実行することで実現することができる。ただし、図1に示す画像処理装置200の各要素のうち少なくとも一部が専用のハードウェアとして動作するようにしてもよい。この場合、専用のハードウェアは、CPU211の制御に基づいて動作する。
以下、画像処理装置200の動作について説明する。
図3(a)は、画像処理装置200が実行するカメラ間状態決定処理のフローチャートである。この図3(a)の処理は、カメラ100A~100Dが撮像を開始したタイミングで開始することができる。ただし、図3(a)の処理の開始タイミングは、上記のタイミングに限らない。画像処理装置200は、CPU211が必要なプログラムを読み出して実行することにより、図3(a)に示す処理を実現することができる。以降、アルファベットSはフローチャートにおけるステップを意味するものとする。
まずS1において、画像処理装置200は、画像データベース300に保存された撮像画像を、撮像時刻および撮像したカメラIDとともに一定フレーム間隔で取得する。
S2では、画像処理装置200は、S1において取得された撮像画像から被写体を検出する検出処理を行い、被写体の検出処理を行った後、被写体の画像から被写体の特徴量を抽出する。
被写体の検出処理では、画像処理装置200は、まず撮像画像から動体領域を検出する。動体領域を検出する方法としては、予め背景が撮像された画像から背景モデルを生成しておき、背景モデルと入力画像との差分により動体領域を検出する背景差分法を用いることができる。次に、画像処理装置200は、検出された動体領域に対して、所定の大きさの検出ウィンドウを入力画像上で走査させ、検出ウィンドウ内の画像を切り出したパターン画像に対し人物であるか否かの2クラス判別を行う。このようにして、被写体である人物を検出することができる。なお、被写体の検出方法は上記に限定されるものではなく、任意の方法を用いることができる。
また、本実施形態では、画像処理装置200は、被写体の特徴として被写体の顔特徴を抽出する。特徴量としては、顔器官(目・鼻・口等)の位置とその周囲の色の勾配情報を表すHOG(Histograms of Oriented Gradients)特徴量を利用することができる。また、画像上でのサイズに依存しないように、特徴量の値が0から1の間に収まるように正規化処理を行ってもよい。なお、被写体の特徴は、顔特徴に限定されるものではなく、被写体の同定が可能となる特徴であればよい。
S3では、画像処理装置200は、同一カメラによって撮像された複数の撮像画像をもとに、同一カメラ内において被写体を追尾する追尾処理を行う。このとき、画像処理装置
200は、追尾状態にある被写体の領域については、追尾IDを割り当てる。そして、画像処理装置200は、追尾IDとともに、カメラID、被写体領域の中心位置(x、y)、被写体領域を包含する矩形領域の大きさ(幅w、高さh)、被写体の特徴量(f)および撮像時刻を、追尾情報として記憶域208に記憶する。記憶域208に記憶される追尾情報の一例を図4に示す。
ここで、被写体領域の中心位置は、被写体領域を囲む矩形領域の中心位置として定義する。本実施形態における被写体の追尾処理では、画像処理装置200は、前フレームに含まれる被写体領域の中心位置と、現フレームに含まれる被写体領域の中心位置とに基づいて、被写体の対応付けを行う。そして、画像処理装置200は、被写体の追尾処理の結果として、同じ被写体であることを示す追尾IDを付与する。
S4では、画像処理装置200は、複数のカメラによってそれぞれ撮像された撮像画像をもとに、複数のカメラ間において被写体を同定する同定処理を行う。つまり、画像処理装置200は、所定のカメラにより撮像された撮像画像に含まれる被写体を、当該所定のカメラとは異なるカメラによって撮像された撮像画像に含まれる被写体と対応付ける処理を行う。
画像処理装置200は、S2において抽出された被写体の特徴量と撮像時刻、S3において記憶域208に記憶された被写体の特徴量と撮像時刻、およびカメラ間に設定された制約条件に基づいて、カメラ間での被写体の同定処理を行う。なお、本実施形態では、カメラ間の制約条件は、カメラ間の遷移時間である場合について説明する。
具体的には、画像処理装置200は、まず、設定部207を介してユーザが指定した同定対象とする被写体の追尾IDを取得する。例えば画像処理装置200は、表示部216にカメラ100A~100Dの少なくとも1つにより撮像された撮像画像を表示させ、撮像画像上においてユーザが指定した被写体を同定対象とする被写体として設定し、当該被写体の追尾IDを取得する。なお、同定対象とする被写体は、ユーザによる指定に限定されるものではなく、事前に登録された顔特徴が一致する人物を同定対象としてもよいし、他の属性をもとに同定対象を設定してもよい。
次に、画像処理装置200は、取得した追尾IDに紐付いた特徴量を記憶域208から読み込み、他のカメラにより撮像された撮像画像から抽出された被写体の特徴量との差異を表す被写体間距離を算出する。被写体間距離としては、例えば特徴空間上でのユークリッド距離を用いることができる。
次に、画像処理装置200は、カメラ間に設定された制約条件を用いて、被写体の特徴量をもとに算出された被写体間距離を修正する。カメラ間の制約条件は、図4(b)に示すように、横軸を時間tとした正規分布で設定されているものとする。この場合、画像処理装置200は、この正規分布の平均の時間t1と、同定対象の被写体の2つのカメラ間での撮像時間差t2(実際の被写体のカメラ間の遷移時間)とを用いて、被写体間距離を修正する。
被写体の特徴量をもとに算出された被写体間距離をl、修正された被写体間距離をl´とすると、修正後の被写体間距離l´は、次式により表すことができる。
l´=l×|t2-t1| ………(1)
上記(1)式は、正規分布の平均の時間t1と、同定対象の被写体の撮像時間差t2との差が小さいほど、被写体間距離l´が短くなることを表す。
最後に、画像処理装置200は、被写体間距離l´を所定の閾値と比較し、被写体間距離l´が閾値以下であれば同一被写体であると判定する。また、画像処理装置200は、同一被写体と判定された被写体領域について、カメラID、被写体領域の特徴量、被写体領域の中心位置、被写体領域を包含する矩形領域の大きさおよび撮像時刻を、同一の追尾IDを付して追尾情報として記憶域208に記憶する。
このように、画像処理装置200は、カメラ間の同定処理に際し、一方のカメラにより
撮像された撮像画像から同定対象とする被写体を設定する。また、画像処理装置200は、各カメラによりそれぞれ撮像された撮像画像から被写体の特徴量を抽出する。そして、画像処理装置200は、抽出された特徴量と、カメラ間に設定された制約条件とに基づいて、他方のカメラにより撮像された撮像画像から、同定対象とする被写体と同一の被写体を判定する。
S5では、画像処理装置200は、カメラ間の同定結果を記憶域208に記録する。ここで、カメラ間の同定結果は、同定された被写体のカメラ間の遷移時間とする。つまり、このS5において記憶域208に記録されるカメラ間の同定結果は、S4において算出された同定対象の被写体の撮像時間差t2である。
図4(b)は、記憶域208に記録される同定結果の一例である。この図4(b)では、被写体の遷移時間は、各カメラ間でヒストグラムとして記録されている。例えばヒストグラムのビンの幅を1(分)として、同定が行われるたびに、該当する遷移時間のビンに投票されるようにする。このように、画像処理装置200は、カメラ間毎に同定処理の結果を履歴として記憶域208に記録していく。
S6では、画像処理装置200は、記憶域208に記録されたカメラ間の同定結果と、カメラ間に設定されている制約条件とを比較し、カメラ間の状態を変化させるか否かを判定する。まず、画像処理装置200は、制約条件の分布と正規化した同定結果(遷移時間)との差の絶対値を、同定結果のヒストグラムのビン毎に計算し、その積算値v1を算出する。
v1=Σt(|g(t)-b(t)|) ………(2)
ここで、g(t)は制約条件の分布、b(t)は同定結果のヒストグラムの時間tにおけるビンの値である。上記(2)式により算出される積算値v1は、同定結果と制約条件との乖離の程度を示す乖離度である。
そして、画像処理装置200は、算出された積算値v1とカメラ間の現在の状態に基づいて、カメラ間の状態を変化させる必要があるか否かを示す要状態変更フラグを設定する。
本実施形態では、カメラ間の状態として、「通常状態」と「修正推奨状態」の2つを定義する。「通常状態」は、カメラ間の制約条件が適切に設定されており、修正の必要がない状態を示す。一方、「修正推奨状態」は、カメラ間の制約条件の修正が必要な状態を示す。
画像処理装置200は、カメラ間の現在の状態が「通常状態」で且つ算出された積算値v1が所定の閾値以上であるか、カメラ間の現在の状態が「修正推奨状態」で且つ算出された積算値v1が所定の閾値未満である場合、要状態変更フラグを立てる。つまり、カメラ間の現在の状態が「通常状態」であり、同定結果と制約条件とに乖離がある場合は、カメラ間の状態を「通常状態」から「修正推奨状態」へ変更する必要があると判定して要状態変更フラグを立てる。また、カメラ間の現在の状態が「修正推奨状態」であり、同定結果と制約条件とに乖離がない場合は、カメラ間の状態を「修正推奨状態」から「通常状態」へ変更する必要があると判定して要状態変更フラグを立てる。
一方、画像処理装置200は、カメラ間の現在の状態が「通常状態」で且つ算出された積算値v1が所定の閾値未満であるか、カメラ間の現在の状態が「修正推奨状態」で且つ算出された積算値v1が所定の閾値以上である場合、要状態変更フラグを立てない。つまり、カメラ間の状態を変更する必要はないと判定する。
S7では、画像処理装置200は、S6において要状態変更フラグが立ったか否かを判定し、要状態変更フラグが立っている場合はS8に移行し、要状態変更フラグが立っていない場合はS9に移行する。
S8では、画像処理装置200は、要状態変更フラグが立っているカメラ間の状態を変
更する。つまり、要状態変更フラグが立っているカメラ間の現在の状態が「通常状態」であれば「修正推奨状態」へ、当該カメラ間の現在の状態が「修正推奨状態」であれば「通常状態」へ変更する。
S9では、画像処理装置200は、カメラ間の状態が「修正推奨状態」にあるカメラ間が存在するか否かを判定する。そして、画像処理装置200は、「修正推奨状態」にあるカメラ間が存在する場合はS10に移行し、「修正推奨状態」にあるカメラ間が存在しない場合は図3(a)の処理を終了する。
S10では、画像処理装置200は、「修正推奨状態」にあるカメラ間の制約条件の修正を促すメッセージを表示部216に表示させる表示制御を行う。例えば、画面上に「制約条件の修正をお勧めします」というポップアップを表示するようにする。このとき、制約条件の修正画面に遷移するボタンを表示するようにしてもよい。また、ポップアップ表示部にテキストボックスを設け、「修正推奨状態」のカメラ間の制約条件を直接修正できるようにしてもよい。
図3(b)は、画像処理装置200が実行する制約条件修正処理を示すフローチャートである。
この図3(b)の処理は、ユーザが制約条件の修正画面を起動する指示を入力したタイミングで開始することができる。例えば、図3(b)の処理は、図3(a)のS10において画像処理装置200が表示させた制約条件の修正画面に遷移するためのボタンを、ユーザが押下したことを検知したタイミングで開始することができる。画像処理装置200は、CPU211が必要なプログラムを読み出して実行することにより、図3(b)に示す処理を実現することができる。
まずS11において、画像処理装置200は、記憶域208に記録されたカメラ間の状態とカメラ間の同定結果とを取得する。
次にS12において、画像処理装置200は、記憶域208からカメラ間の制約条件を取得するとともに、カメラの実空間上の配置情報および実空間を表したマップを取得し、これらの情報を画面上に表示させる表示制御を行う。制約条件表示画面の一例を図5に示す。
図5に示すように、画面上のウィンドウ500にはマップが表示され、マップ上におけるカメラ100A~100Dの配置位置に対応する位置には、カメラのマーク501~504が重畳表示される。なお、カメラのマーク501~504の近傍には、それぞれカメラID(1101~1104)を表示させてもよい。
また、画像処理装置200は、カメラ間の状態を示す情報を、カメラ間の状態に応じて、視覚的に異なる態様で表示させる。本実施形態では、マップ上においてカメラ間を線分で結び、カメラ間の状態に応じて、カメラ間を結ぶ線分のスタイルを設定する。例えば、カメラ間の状態が「通常状態」であれば水色の細線511、「修正推奨状態」であれば赤色の太線512とする。
さらに、図5に示すように、カメラ間の状態が「修正推奨状態」であることを示す線分512には、吹き出し状の図形520を重畳表示し、この吹き出し状の図形520の中に、制約条件と同定結果との比較結果521を表示させてもよい。ここで、比較結果520は、制約条件を表す分布に同定結果を重畳表示して表示させることができる。また、吹き出し状の図形520の中には、ユーザの入力を受け付けるテキストボックス522を設けてもよい。当該テキストボックス522に数値を入力することで、ユーザは制約条件の分布の平均値の変更を指示することができる。ここで、テキストボックス522には、デフォルトの値として現在の制約条件の分布の平均値を入力しておいてもよい。
なお、ウィンドウ500に表示させる情報は、カメラ間の状態を示す情報であればよく
、例えば「修正推奨状態」に対応する線分のみを表示するようにしてもよい。この場合、ウィンドウ500において情報過多となることを抑制することができ、ユーザは、制約条件の修正が必要なカメラ間を容易に確認することが可能となる。また、ウィンドウ500には、すべてのカメラ間に吹き出し状の図形を表示させてもよい。この場合、カメラ間の状態に応じて、吹き出し状の図形の大きさを変更するようにしてもよい。
また、ユーザが修正する値は制約条件に関するパラメータ値であればよく、例えば平均値だけでなく分散も含めてもよい。さらに、テキストボックスへの数値入力に限定されるものではなく、例えばスライダーバーを利用することも可能である。
また、図5に示す例では、カメラ間の状態をマップ上に重畳表示させる場合について説明したが、マップを用いた表示に限定されるものではない。
図3(b)に戻って、S13では、画像処理装置200は、ユーザが制約条件表示画面から制約条件のパラメータ値を入力したか否かを判定し、入力があった場合は、ユーザからの制約条件修正指示があったと判断してS14に移行する。一方、入力が無かった場合は図3(b)の処理を終了する。
S14では、画像処理装置200、ユーザが入力した値を、記憶域208に記録されている制約条件に適用することで制約条件を修正し、図3(b)の処理を終了する。例えば、図4(b)に示すカメラ1012-1013間の制約条件のパラメータ値として「15」が入力された場合、画像処理装置200は、カメラ1012-1013間の制約条件の分布の平均値を20分から15分へ修正する。
(変形例)
上記実施形態においては、制約条件は正規分布に従うと仮定したが、他の分布を表すような関数でも代用可能である。この場合、制約条件の分布を表す関数の係数にあたる部分を、図3(b)のS12においてユーザに入力させるようにしてもよい。また、同定結果にフィットする関数そのものをユーザに選ばせるようにしてもよい。さらに、制約条件は、例えばヒストグラムのように、ある区切られた時間それぞれに対して値が入力されているようなものであってもよい。
また、上記実施形態においては、制約条件としてカメラ間における被写体の遷移時間を用いる場合について説明したが、例えば、カメラ間における被写体の遷移確率を制約条件として用いることもできる。この場合、カメラ間に設定される制約条件は、0~1の間の数値とすることができる。つまり、制約条件が0であれば、当該カメラ間を遷移する被写体は存在しないという制約となり、制約条件が1であれば、被写体は必ず当該カメラ間を遷移するという制約となる。
さらに、制約条件は、図6に示すようにカメラ間の接続関係を示す情報を含んでもよい。ここで、図6中の数値はカメラIDを表す。図6では、カメラID=1011のカメラは、カメラID=1012とカメラ=ID1014のカメラと接続しているが、カメラID=1013のカメラとは接続していない。つまり、この図6では、カメラ1011-1013間の遷移は無いということを表している。ここで、カメラ間の接続関係の情報は、ユーザが任意に決めてもよいし、実際に同定されたカメラ間を自動的に接続するようにしてもよい。
制約条件を遷移確率とした場合、図3(a)のS4における被写体間距離の修正は、遷移確率に基づいて行うことになる。例えば、被写体間距離をl、遷移確率をfで表した場合、修正後の被写体間距離l’は次式により表すことができる。
l´=l÷f ………(3)
この場合、遷移確率fが低いほど被写体間距離l´が長くなり、結果として同一被写体と推定されにくくなる。
また、S5においては、画像処理装置200は、同定結果として、カメラ間の実際の遷
移確率を記憶域208に記録する。例えば、カメラID=1011のカメラからカメラID=1012のカメラへの実際の遷移確率は、カメラID=1011のカメラに接続するすべてのカメラとの間で同定した回数に対する、カメラ1011-1012間の同定回数として算出することができる。つまり、カメラ1011-1012間の実際の遷移確率は、カメラ1011-1012間とカメラ1011-014間とで同定した回数に対する、カメラ1011-1012間の同定回数とすることができる。
そして、S6においては、画像処理装置200は、カメラ間の制約条件(遷移確率)とカメラ間の実際の遷移確率とを比較する。そして、両者の差が所定の閾値未満であれば「通常状態」、閾値以上であれば「修正推奨状態」として定義することができる。このように、制約条件としてカメラ間の遷移確率を利用することも可能である。
さらに、上記実施形態においては、カメラ間の状態として「通常状態」と「修正推奨状態」の2つを定義したが、カメラ間の状態は3つ以上であってもよい。例えば、一定期間、カメラ間の状態が「修正推奨状態」であった場合に、自動的に制約条件を同定結果にフィットするように再生成(更新)する機能を有する場合、カメラ間の状態は、制約条件の更新が行われたことを示す「修正完了状態」を含んでもよい。つまり、カメラ間の状態は、カメラ間に設定されている制約条件の修正の要否、およびカメラ間に設定されている制約条件の更新の有無を含むことができる。
この場合、画像処理装置200は、記憶域208に記録された同定結果に基づいて、カメラ間に設定される制約条件を生成する。例えば、制約条件の生成方法としては、同定結果のヒストグラムに対してガウシアンフィッティングを行い、そのとき得られた正規分布を制約条件とし、当該正規分布の平均や分散値を採用する方法を用いることができる。また、制約条件表示画面では、「修正完了状態」のカメラ間を他のカメラ間とは視覚的に異なる表示態様で表示してもよい。これにより、ユーザは、自動的に制約条件の更新が行われたことを容易に把握することができる。
また、上記実施形態においては、カメラ間の制約条件がすでに設定されている場合の画像処理装置200の動作について説明した。しかしながら、画像処理装置200は、カメラ間の制約条件が設定されていない状態、もしくはカメラ間の制約条件が予め設定された初期値に設定されている状態から、カメラ間の制約条件を自動的に設定することも可能である。なお、以下の説明では、カメラ間の制約条件が未設定である状態および初期値に設定されている状態を、カメラ間の制約条件が初期設定である状態と定義する。
この場合、カメラ間の状態として、制約条件が初期設定であり制約条件の設定が必要な「準備状態」、制約条件は初期設定だが制約条件を自動的に設定可能な「完了状態」、制約条件が設定されている「通常状態」の3つを定義することができる。つまり、カメラ間の状態は、カメラ間に設定される制約条件の設定の要否、およびカメラ間に設定される制約条件の設定の可否を含むことができる。
図6(a)は、画像処理装置200が実行するカメラ間状態決定処理のフローチャートである。この図6(a)の処理は、上述した図3(a)の処理と同様に、カメラ100A~100Dが撮像を開始したタイミングで開始することができる。ただし、図6(a)の処理の開始タイミングは、上記のタイミングに限らない。画像処理装置200は、CPU211が必要なプログラムを読み出して実行することにより、図6(a)に示す処理を実現することができる。
S21~S23の処理は、上述した図3(a)のS1~S3と同様である。つまり、画像処理装置200は、カメラから取得した撮像画像から被写体の特徴量を抽出し、カメラ内で同一の被写体を追尾する。
S24では、画像処理装置200は、カメラ間において同一の被写体を対応付ける同定処理を行う。このS24では、カメラ間の状態に応じて異なる方法を用いて同定処理を行
う。具体的には、カメラ間の状態が「準備状態」あるいは「完了状態」の場合、画像処理装置200は、被写体の特徴量に基づいて同定処理を行う。つまり、画像処理装置200は、ユーザにより指定された追尾IDと対応付いた特徴量および撮像時刻、ならびに記憶域208に記録された被写体の特徴量および撮像時刻を用いて、カメラ間での被写体の同定処理を行う。この場合、被写体間距離の算出方法は、上述した図3(a)のS4と同様であるが、制約条件による被写体間距離の修正を行わない点でS4とは異なる。
一方、カメラ間の状態が「通常状態」の場合、画像処理装置200は、被写体の特徴量とカメラ間に設定された制約条件とに基づいて同定処理を行う。つまり、画像処理装置200は、ユーザにより指定された追尾IDと対応付いた特徴量および撮像時刻、記憶域208に記録された被写体の特徴量および撮像時刻、ならびにカメラ間の制約条件を用いて、カメラ間での被写体の同定処理を行う。この場合、図3(a)のS4と同様に制約条件による被写体間距離の修正も行われる。
そして、画像処理装置200は、被写体間距離を所定の閾値と比較し、被写体間距離が閾値以下であれば、同一被写体と判定する。また、画像処理装置200は、同一被写体と判定された被写体領域について、カメラID、被写体領域の特徴量、被写体領域の中心位置、被写体領域を包含する矩形領域の大きさおよび撮像時刻を、同一の追尾IDを付して追尾情報として記憶域208に記憶する。
S25の処理は、図3(a)のS5と同様である。つまり、各カメラ間の同定結果を記憶域208に記録する。なお、カメラ間の同定結果は、同定された被写体のカメラ間の遷移時間とすることができる。
S26では、画像処理装置200は、記憶域208に記録されたカメラ間の同定結果から、カメラ間の状態を決定し、カメラ間の状態に変更があったか否かを判定する。まず、画像処理装置200は、カメラ間の同定結果中の全てのビンの投票数v2を数え、全投票数v2を予め設定された閾値と比較してカメラ間の状態を決定する。
v2=Σtb(t) ………(4)
ここで、b(t)は、同定結果のヒストグラムの時間tにおけるビンの値である。上記(4)式により算出される全投票数v2は、記憶域208に記録された同定結果の数である。
画像処理装置200は、現在のカメラ間の状態が「準備状態」であり、全投票数v2が閾値未満である場合、カメラ間の状態を「準備状態」と決定する。一方、現在のカメラ間の状態が「準備状態」であり、全投票数v2が閾値以上である場合、カメラ間の状態を「完了状態」と決定する。また、現在のカメラ間の状態が「通常状態」である場合には、同定結果に関わらず、カメラ間の状態を「通常状態」と決定する。
そして、画像処理装置200は、カメラ間の状態に変更があった場合にはS27に移行し、カメラ間の状態に変更がない場合には図6(a)の処理を終了する。つまり、カメラ間の状態が「準備状態」から「完了状態」に変更されたカメラ間が存在する場合、S27に移行する。
S27では、画像処理装置200は、「完了状態」にあるカメラ間の制約条件の設定を促すメッセージを表示し、制約条件の設定画面に遷移する。例えば、画面右上に「制約条件を設定する準備が整いました」というポップアップを表示する。なお、このS27では、制約条件の設定画面に遷移する確認ボタンを表示し、ユーザが確認ボタンを押下したことを検出した場合、制約条件の設定画面に遷移するようにしてもよい。
図6(b)は、画像処理装置200が実行する制約条件設定処理を示すフローチャートである。
この図6(b)の処理は、ユーザが制約条件の設定画面を起動する指示を入力したタイ
ミングで開始することができる。ただし、図6(b)の処理の開始タイミングは、上記のタイミングに限らない。例えば、図6(b)の処理は、図6(a)のS27の処理の後に開始することができる。画像処理装置200は、CPU211が必要なプログラムを読み出して実行することにより、図6(b)に示す処理を実現することができる。
S31では、画像処理装置200は、記憶域208からカメラ間の状態とS25において記録された同定結果とを取得し、同定結果に基づいて制約条件を生成する。制約条件の生成方法としては、例えば、同定結果のヒストグラムに対してガウシアンフィッティングを行い、そのとき得られた正規分布を制約条件とし、当該正規分布の平均や分散値を採用する方法を用いることができる。そして、画像処理装置200は、生成された制約条件を記憶域208に記録する。
S32では、画像処理装置200は、記憶域208からカメラ間の制約条件を取得するとともに、カメラの実空間上の配置情報および実空間を表したマップを取得し、これらの情報を画面上に表示させる。制約条件表示画面の一例は図5と同様である。
このとき、カメラ間の状態に応じて、カメラ間を結ぶ線分のスタイルを設定する。例えば、カメラ間の状態が「準備状態」であれば水色の点線、「完了状態」であれば赤色の太線、「通常状態」であれば緑色の細線とする。
さらに、図5の例と同様に、カメラ間の状態が「完了状態」であることを示す線分に吹き出し状の図形を重畳表示し、この吹き出し状の図形の中に、制約条件を表す分布に同定結果を重畳表示させてもよい。また、吹き出し状の図形の中には、ユーザの入力を受け付けるテキストボックスを設けてもよい。当該テキストボックスに数値を入力することで、ユーザは制約条件の分布の平均値の変更を指示することができる。ここで、テキストボックスには、デフォルトの値として現在の制約条件の分布の平均値を入力しておいてもよい。
S33およびS34の処理は、それぞれ図3(b)のS13およびS14と同様である。つまり、画像処理装置200は、ユーザからの制約条件修正指示があったと判断した場合、その制約条件修正指示に従って記憶域208に記録されている制約条件を修正する。
S35では、画像処理装置200は、「完了状態」となっているカメラ間の状態を、「通常状態」に変更し、図6(b)の処理を終了する。
以上説明したように、本実施形態における画像処理装置200は、複数のカメラ間において同一の被写体を対応付ける同定処理を行い、同定処理の結果を記憶域208に記録する。そして、画像処理装置200は、記憶域208に記録された同定処理の結果と、カメラ間に設定された同定処理に関する制約条件とに基づいて、制約条件の状態(カメラ間の状態)を決定する。このように、画像処理装置200は、カメラ間における被写体同定処理結果の履歴に基づいて、カメラ間の状態を容易に決定することができる。したがって、画像処理装置200は、修正が必要な制約条件が存在する場合には、制約条件の修正が必要なカメラ間を容易に特定することができ、当該制約条件を自動的に修正したり、当該制約条件の修正をユーザに促したりすることができる。つまり、カメラ間の状態を決定することで、カメラ間に設定された制約条件の修正を容易とすることができる。
ここで、カメラ間の状態は、制約条件の修正の要否、制約条件の更新の有無、制約条件の設定の要否、および制約条件の設定の可否の少なくとも1つを含むことができる。
具体的には、画像処理装置200は、記憶域208に記録された同定処理の結果と、カメラ間に設定されている制約条件との乖離の程度を示す乖離度が所定の閾値以上である場合、カメラ間の状態が、制約条件の修正が必要な状態であると決定することができる。つまり、カメラ間の状態が上述した「修正推奨状態」であると決定することができる。
また、画像処理装置200は、記憶域208に記録された同定処理の結果に基づいて、
カメラ間に設定される制約条件が生成された場合、カメラ間の状態が、制約条件が更新された状態であると決定することができる。つまり、カメラ間の状態が上述した「修正完了状態」であると決定することができる。ここで、画像処理装置200は、カメラ間の状態が、一定期間、制約条件の修正が必要な「修正推奨状態」である場合、記憶域208に記録された同定処理の結果に基づいて、カメラ間に設定される制約条件を生成するようにしてもよい。
さらに、画像処理装置200は、カメラ間に設定された制約条件が初期設定である場合、制約条件の設定が必要な状態であると決定することができる。具体的には、カメラ間に制約条件が初期設定であり、記憶域208に記録された同定処理の結果の数が所定の閾値未満である場合、カメラ間の状態が上述した「準備状態」であると決定することができる。
また、画像処理装置200は、カメラ間に設定された制約条件が初期設定であり、記憶域208に記録された同定処理の結果の数が所定の閾値以上である場合、カメラ間の状態が、制約条件の設定が可能な状態であると決定することができる。つまり、カメラ間の状態が上述した「完了状態」であると決定することができる。
被写体の同定処理に際し、画像処理装置200は、複数のカメラにより撮像された撮像画像からそれぞれ被写体の特徴量を抽出し、所定のカメラの撮像画像から同定対象とする被写体を設定する。そして、画像処理装置200は、各撮像画像から抽出された特徴量と、カメラ間に設定された制約条件とに基づいて、上記所定のカメラとは異なるカメラの撮像画像から同定対象とする被写体と同一の被写体を判定することで、被写体を同定する。このように、被写体の特徴量に加えて、カメラ間の制約条件を考慮して被写体の同定処理を行うことで、カメラ間において適切に被写体を同定することができる。
ここで、カメラ間に設定された制約条件は、カメラ間における被写体の遷移時間、およびカメラ間における被写体の遷移確率の少なくとも一方を含むことができる。このように、被写体の遷移時間や遷移確率といった時空間制約を用いることで、高精度な同定処理が可能となる。
また、記憶域208に記録する同定処理の結果は、カメラ間の制約条件に対応するパラメータ値とすることができる。つまり、記憶域208に記録する同定処理の結果は、カメラ間における被写体の遷移時間、およびカメラ間における被写体の遷移確率の少なくとも一方を含むことができる。このように、記憶域208に記録する同定処理の結果を、カメラ間の制約条件に対応するパラメータ値とすることで、両者の比較が容易となり、制約条件が適切に設定されているか否かを容易に判定することができる。
さらに、画像処理装置200は、カメラ間の状態が決定された場合、決定されたカメラ間の状態を示す情報を表示部216に表示させる表示制御を行うことができる。これにより、ユーザは、各カメラ間において制約条件が適切に設定されているか否かを容易に確認することができる。また、ユーザは、不適切な制約条件が存在する場合、どのカメラ間の制約条件を修正すべきかを容易に把握することができる。
このように、画像処理装置200は、カメラ間に設定された制約条件の状態を示す情報をユーザに提示することで、制約条件を設定・修正するかどうかの判断をユーザに促すことができる。また、画像処理装置200は、制約条件の修正が必要なカメラ間をユーザが容易に選択できるようにすることができるため、制約条件の修正にかかる手間を軽減させることができる。
また、画像処理装置200は、複数のカメラが配置されたマップ上に、カメラ間を結ぶ線分を表示させ、カメラ間の状態に応じて、カメラ間を結ぶ線分のスタイルを設定するようにしてもよい。このように、カメラ間の状態に応じて、視覚的に異なる態様でカメラ間
の状態を示す情報を表示させることで、ユーザは容易にカメラ間の状態を把握することができる。
さらに、画像処理装置200は、カメラ間の状態を示す情報とともに、カメラ間に設定された制約条件や、記憶域208に記録された同定処理の結果の履歴を表示させることもできる。これにより、ユーザは、制約条件の現在の設定状況や同定処理の結果も併せて確認することができ、制約条件をどのように設定・修正すべきかを適切に判断することができる。このとき、画像処理装置200は、カメラ間の状態を示す情報とともに、カメラ間に設定された制約条件と、記憶域208に記録された同定処理の結果の履歴とを表示させれば、ユーザは、制約条件と同定処理結果との乖離度を容易に把握することができる。したがって、ユーザは、制約条件の修正を容易かつ適切に行うことができる。
以上のように、本実施形態における画像処理装置200は、撮像装置間における被写体の同定処理の結果の履歴と、撮像装置間に設定された制約条件とに基づいて、撮像装置間に設定された制約条件の状態を特定することができる。そのため、撮像装置間に設定された制約条件の修正を容易とすることができ、撮像装置間における被写体の同定処理を高精度に行うことが可能となる。したがって、撮像範囲を共有しない複数の撮像装置間における同一被写体の追尾を高精度に行うことが可能となる。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100A~100D…撮像装置、200…画像処理装置、201…特徴抽出部、202…被写体追尾部、203…同定部、204…記録部、205…決定部、206…出力部、207…設定部、208…記憶域、300…画像データベース、400…ネットワーク、1000…撮像システム

Claims (20)

  1. 第1の撮像装置により撮像された第1の撮像画像に含まれる被写体を、前記第1の撮像装置とは異なる第2の撮像装置によって撮像された第2の撮像画像に含まれる被写体と対応付ける同定処理を行う同定手段と、
    前記同定手段による前記同定処理の結果を記録する記録手段と、
    前記記録手段により記録された前記同定処理の結果と、前記第1の撮像装置と前記第2の撮像装置との撮像装置間に設定された前記同定処理に関する制約条件とに基づいて、当該制約条件の状態を決定する決定手段と、を備えることを特徴とする画像処理装置。
  2. 前記決定手段は、
    前記制約条件の状態として、前記撮像装置間に設定されている制約条件の修正の要否、前記撮像装置間に設定されている制約条件の更新の有無、前記撮像装置間に設定される制約条件の設定の要否、および前記撮像装置間に設定される前記制約条件の設定の可否の少なくとも1つを決定することを特徴とする請求項1に記載の画像処理装置。
  3. 前記決定手段は、
    前記記録手段により記録された前記同定処理の結果と、前記撮像装置間に設定されている前記制約条件との乖離の程度を示す乖離度が所定の閾値以上である場合、前記制約条件の修正が必要な状態であると決定することを特徴とする請求項2に記載の画像処理装置。
  4. 前記記録手段により記録された前記同定処理の結果に基づいて、前記撮像装置間に設定される制約条件を生成する生成手段をさらに備え、
    前記決定手段は、前記生成手段により前記制約条件が生成された場合、前記制約条件が更新された状態であると決定することを特徴とする請求項2または3に記載の画像処理装置。
  5. 前記生成手段は、
    前記制約条件の状態が、一定期間、前記制約条件の修正が必要な状態である場合、前記制約条件を生成することを特徴とする請求項4に記載の画像処理装置。
  6. 前記決定手段は、
    前記撮像装置間に設定された前記制約条件が初期設定である場合、前記制約条件の設定が必要な状態であると決定することを特徴とする請求項2から5のいずれか1項に記載の画像処理装置。
  7. 前記決定手段は、
    前記撮像装置間に設定された前記制約条件が初期設定であり、前記記録手段に記録された前記同定処理の結果の数が所定の閾値以上である場合、前記制約条件の設定が可能な状態であると決定することを特徴とする請求項2から6のいずれか1項に記載の画像処理装置。
  8. 前記制約条件は、前記撮像装置間における被写体の遷移時間、および前記撮像装置間における被写体の遷移確率の少なくとも一方を含むことを特徴とする請求項1から7のいずれか1項に記載の画像処理装置。
  9. 前記同定処理の結果は、前記撮像装置間における被写体の遷移時間、および前記撮像装置間における被写体の遷移確率の少なくとも一方を含むことを特徴とする請求項1から8のいずれか1項に記載の画像処理装置。
  10. 前記同定手段は、
    前記第1の撮像画像から同定対象とする被写体を設定する設定手段と、
    前記第1の撮像画像および前記第2の撮像画像からそれぞれ被写体の特徴量を抽出する抽出手段と、
    前記抽出手段により抽出された特徴量と、前記撮像装置間に設定された前記制約条件とに基づいて、前記第2の撮像画像から、前記設定手段により設定された前記同定対象とする被写体と同一の被写体を判定する判定手段と、を備えることを特徴とする請求項1から9のいずれか1項に記載の画像処理装置。
  11. 前記決定手段により決定された前記制約条件の状態を示す情報を表示させる表示制御手段をさらに備えることを特徴とする請求項1から10のいずれか1項に記載の画像処理装置。
  12. 前記表示制御手段は、前記決定手段により決定された前記制約条件の状態に応じて、視覚的に異なる態様で前記情報を表示させることを特徴とする請求項11に記載の画像処理装置。
  13. 前記表示制御手段は、前記情報とともに、前記撮像装置間に設定された制約条件を表示させることを特徴とする請求項11または12に記載の画像処理装置。
  14. 前記表示制御手段は、前記情報とともに、前記記録手段により記録された前記同定処理の結果を表示させることを特徴とする請求項11から13のいずれか1項に記載の画像処理装置。
  15. 前記表示制御手段は、前記決定手段により決定された前記制約条件の状態に応じて、前記撮像装置間を結ぶ線分の色および太さの少なくとも一方を異ならせることを特徴とする請求項12から14のいずれか1項に記載の画像処理装置。
  16. 前記表示制御手段は、更に前記第1の撮像装置と前記第2の撮像装置の実空間上の配置情報を表示させることを特徴とする請求項11から15のいずれか1項に記載の画像処理装置。
  17. 前記表示制御手段は、前記制約条件の状態が、前記制約条件の修正が必要な状態である場合、前記制約条件の修正を促すメッセージを表示させることを特徴とする請求項11から16のいずれか1項に記載の画像処理装置。
  18. 前記判定手段は、前記撮像装置間に設定された前記制約条件と、前記第1の撮像画像と前記第2の撮像画像の撮像時間の差と、に基づいて、前記第1の撮像画像から抽出された特徴量と前記第2の撮像画像から抽出された特徴量との距離を修正する請求項10に記載の画像処理装置。
  19. 第1の撮像装置により撮像された第1の撮像画像に含まれる被写体を、前記第1の撮像装置とは異なる第2の撮像装置によって撮像された第2の撮像画像に含まれる被写体と対応付ける同定処理を行うステップと、
    前記同定処理の結果を記録するステップと、
    記録された前記同定処理の結果と、前記第1の撮像装置と前記第2の撮像装置との撮像装置間に設定された前記同定処理に関する制約条件とに基づいて、当該制約条件の状態を決定するステップと、を含むことを特徴とする画像処理方法。
  20. コンピュータを、請求項1から1のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
JP2019004964A 2019-01-16 2019-01-16 画像処理装置、画像処理方法およびプログラム Active JP7242309B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019004964A JP7242309B2 (ja) 2019-01-16 2019-01-16 画像処理装置、画像処理方法およびプログラム
US16/739,923 US11205258B2 (en) 2019-01-16 2020-01-10 Image processing apparatus, image processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019004964A JP7242309B2 (ja) 2019-01-16 2019-01-16 画像処理装置、画像処理方法およびプログラム

Publications (3)

Publication Number Publication Date
JP2020113155A JP2020113155A (ja) 2020-07-27
JP2020113155A5 JP2020113155A5 (ja) 2022-01-24
JP7242309B2 true JP7242309B2 (ja) 2023-03-20

Family

ID=71518044

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019004964A Active JP7242309B2 (ja) 2019-01-16 2019-01-16 画像処理装置、画像処理方法およびプログラム

Country Status (2)

Country Link
US (1) US11205258B2 (ja)
JP (1) JP7242309B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220099771A (ko) * 2021-01-07 2022-07-14 엘지전자 주식회사 영상표시장치 및 그의 동작방법
WO2024166381A1 (ja) * 2023-02-10 2024-08-15 日本電気株式会社 情報処理装置、情報処理方法及び記録媒体

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013247586A (ja) 2012-05-28 2013-12-09 Fujitsu Ltd 位置関係判定プログラム、位置関係判定方法および位置関係判定装置
JP2016207185A (ja) 2015-04-20 2016-12-08 オムロン株式会社 動き判定装置、動き判定方法、および動き判定プログラム
JP2018195872A (ja) 2017-05-12 2018-12-06 キヤノン株式会社 情報処理装置、情報処理システム、情報処理方法及びプログラム

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7844076B2 (en) * 2003-06-26 2010-11-30 Fotonation Vision Limited Digital image processing using face detection and skin tone information
US8488023B2 (en) * 2009-05-20 2013-07-16 DigitalOptics Corporation Europe Limited Identifying facial expressions in acquired digital images
AU2006352758A1 (en) * 2006-04-10 2008-12-24 Avaworks Incorporated Talking Head Creation System and Method
US8649604B2 (en) * 2007-03-05 2014-02-11 DigitalOptics Corporation Europe Limited Face searching and detection in a digital image acquisition device
US8451475B2 (en) * 2007-05-01 2013-05-28 Kofax, Inc. Systems and methods for routing a facsimile confirmation based on content
JP5031504B2 (ja) * 2007-10-02 2012-09-19 キヤノン株式会社 画像処理装置および操作者検索方法
CN101609506B (zh) * 2008-06-20 2012-05-23 索尼株式会社 用于识别图像中的模型对象的装置及方法
JP2011060155A (ja) * 2009-09-11 2011-03-24 Brother Industries Ltd 表示端末装置およびこの表示端末装置のためのプログラム
US20120281874A1 (en) * 2011-05-05 2012-11-08 Lure Yuan-Ming F Method, material, and apparatus to improve acquisition of human frontal face images using image template
JP5806606B2 (ja) * 2011-12-01 2015-11-10 キヤノン株式会社 情報処理装置、情報処理方法
JP5971108B2 (ja) * 2012-12-18 2016-08-17 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
JP5438861B1 (ja) 2013-07-11 2014-03-12 パナソニック株式会社 追跡支援装置、追跡支援システムおよび追跡支援方法
JP6351243B2 (ja) * 2013-11-28 2018-07-04 キヤノン株式会社 画像処理装置、画像処理方法
JP6349817B2 (ja) * 2014-03-19 2018-07-04 富士通株式会社 位置合わせ装置、位置合わせ方法及び位置合わせ用コンピュータプログラム
JP6482196B2 (ja) * 2014-07-09 2019-03-13 キヤノン株式会社 画像処理装置、その制御方法、プログラム、及び記憶媒体
US9508151B2 (en) * 2014-07-10 2016-11-29 Ditto Labs, Inc. Systems, methods, and devices for image matching and object recognition in images using image regions
JP6500500B2 (ja) * 2015-02-27 2019-04-17 富士通株式会社 画像判定装置、画像判定方法、及びプログラム
JP6455590B2 (ja) * 2015-03-02 2019-01-23 日本電気株式会社 画像処理システム、画像処理方法およびコンピュータプログラム
US10242287B2 (en) * 2015-06-11 2019-03-26 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and recording medium
JP6624877B2 (ja) * 2015-10-15 2019-12-25 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP2018055607A (ja) * 2016-09-30 2018-04-05 富士通株式会社 イベント検知プログラム、イベント検知装置、及びイベント検知方法
JP6769554B2 (ja) * 2017-07-07 2020-10-14 日本電気株式会社 物体識別装置、物体識別方法、計算装置、システムおよび記録媒体
JP2019067130A (ja) * 2017-09-29 2019-04-25 キヤノン株式会社 画像処理装置、画像処理システム、画像処理方法、及びプログラム
CN109583287B (zh) * 2017-09-29 2024-04-12 浙江莲荷科技有限公司 实物识别方法及验证方法
JP6936957B2 (ja) * 2017-11-07 2021-09-22 オムロン株式会社 検査装置、データ生成装置、データ生成方法及びデータ生成プログラム
JP6924413B2 (ja) * 2017-12-25 2021-08-25 オムロン株式会社 データ生成装置、データ生成方法及びデータ生成プログラム
KR102044914B1 (ko) * 2018-01-02 2019-11-14 중앙대학교 산학협력단 영상 처리에 있어서의 객체 재인식을 위한 장치 및 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013247586A (ja) 2012-05-28 2013-12-09 Fujitsu Ltd 位置関係判定プログラム、位置関係判定方法および位置関係判定装置
JP2016207185A (ja) 2015-04-20 2016-12-08 オムロン株式会社 動き判定装置、動き判定方法、および動き判定プログラム
JP2018195872A (ja) 2017-05-12 2018-12-06 キヤノン株式会社 情報処理装置、情報処理システム、情報処理方法及びプログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
森 敦 ほか,地図を用いた人物検出システムの連携法に関する研究,情報処理学会研究報告 コンピュータビジョンとイメージメディア(CVIM) [online] ,日本,情報処理学会,2015年01月15日,Vol.2015-CVIM-195 No.39,p.1-7、正誤表
森 武俊 ほか,複数注視点の協調に基づく動物体の視覚追跡,日本ロボット学会誌,日本,社団法人日本ロボット学会,1995年10月15日,第13巻 第7号,p.1053-1059

Also Published As

Publication number Publication date
US11205258B2 (en) 2021-12-21
US20200226739A1 (en) 2020-07-16
JP2020113155A (ja) 2020-07-27

Similar Documents

Publication Publication Date Title
US11551134B2 (en) Information processing apparatus, information processing method, and storage medium
US10070047B2 (en) Image processing apparatus, image processing method, and image processing system
US8912885B2 (en) Personal authentication apparatus and personal authentication method
US10074029B2 (en) Image processing system, image processing method, and storage medium for correcting color
CN105898213B (zh) 显示控制装置和显示控制方法
US10181075B2 (en) Image analyzing apparatus,image analyzing, and storage medium
US9600893B2 (en) Image processing device, method, and medium for discriminating a type of input image using non-common regions
JP7242309B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP6265592B2 (ja) 顔特徴抽出装置および顔認証システム
US11915519B2 (en) Information processing system, method for managing object to be authenticated, and program
JP7446060B2 (ja) 情報処理装置、プログラム及び情報処理方法
CN105095853A (zh) 图像处理装置及图像处理方法
JP2007052575A (ja) メタデータ付与装置およびメタデータ付与方法
JP2016001467A (ja) 画像処理装置、画像処理方法、および画像処理プログラム
JP2020204835A (ja) 情報処理装置、システム、情報処理方法及びプログラム
JP2020113155A5 (ja)
US20200388040A1 (en) Video analyzing apparatus, control method thereof, and non-transitory computer-readable storage medium
US11176360B2 (en) Work skill supporting device and work skill supporting system
JP2018033103A (ja) フレームレート判定装置、フレームレート判定方法及びフレームレート判定用コンピュータプログラム
JP5975828B2 (ja) 顔特徴抽出装置および顔認証システム
US12080057B2 (en) Image analysis apparatus, image analysis method, and storage medium
US20220230333A1 (en) Information processing system, information processing method, and program
JP2014059819A (ja) 表示装置
WO2024004210A1 (ja) 情報処理プログラム、情報処理方法、および情報処理装置
WO2023188160A1 (ja) 入力支援装置、入力支援方法、及び非一時的なコンピュータ可読媒体

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230308

R151 Written notification of patent or utility model registration

Ref document number: 7242309

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D03