JP7329967B2 - 画像処理装置、システム、画像処理装置の制御方法、及び、プログラム - Google Patents

画像処理装置、システム、画像処理装置の制御方法、及び、プログラム Download PDF

Info

Publication number
JP7329967B2
JP7329967B2 JP2019097071A JP2019097071A JP7329967B2 JP 7329967 B2 JP7329967 B2 JP 7329967B2 JP 2019097071 A JP2019097071 A JP 2019097071A JP 2019097071 A JP2019097071 A JP 2019097071A JP 7329967 B2 JP7329967 B2 JP 7329967B2
Authority
JP
Japan
Prior art keywords
image
subject
predetermined position
image processing
tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019097071A
Other languages
English (en)
Other versions
JP2020191590A5 (ja
JP2020191590A (ja
Inventor
孝志 安達
茉莉 山▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019097071A priority Critical patent/JP7329967B2/ja
Priority to US16/877,921 priority patent/US11551455B2/en
Publication of JP2020191590A publication Critical patent/JP2020191590A/ja
Publication of JP2020191590A5 publication Critical patent/JP2020191590A5/ja
Application granted granted Critical
Publication of JP7329967B2 publication Critical patent/JP7329967B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • G06V40/25Recognition of walking or running movements, e.g. gait recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、画像処理装置、システム、画像処理装置の制御方法、及び、プログラムに関する。
監視カメラで撮影された画像や、撮影後に記憶装置に記憶された画像を解析し、活用する事例が増えている。例えば、人体検出や人体追尾の技術を用いて領域内の人数を数えたり、ラインを通過した人数を数えたりすることができる。これにより、特定領域の人体の活動状況、特には特定領域に滞在している時間を把握することが可能である。特許文献1及び2には、特定領域内における人物の滞留時間(滞在時間)を測定する発明が開示されている。
特開2015-69639号広報 特開2017-182654号公報
しかしながら、一つの窓口等に対して人物が対応を受ける所定の場所各々に対して領域を設定し、領域内における滞留時間を計測する場合、人物が複数の領域内で検出される場合がある。また、人物が一時的に異なる領域に出入りしてしまう場合や、異なる領域を通過する場合も考えられる。このため、人物の検出位置や移動範囲を予測して領域を設定するのが困難である。
そこで本発明は、画像内で検出された被写体を所定位置と関連付けて滞留時間を計測可能とする技術を提供する。
上記課題を解決するための発明は、画像処理装置であって、
時間的に連続する処理対象画像において、被写体を検出し、同一の被写体を追尾する追尾手段と、
前記追尾の結果を、前記処理対象画像に含まれる1つ以上の所定位置のうちのいずれか1つと関連付ける関連付け手段と、
前記1つの所定位置と関連付けられた前記追尾の結果に基づいて、該1つの所定位置との関連で前記被写体が滞留している滞留時間を決定する決定手段と、
を備え、
前記関連付け手段は、前記1つ以上の所定位置のうちから、前記追尾の結果における前記被写体との距離又は前記被写体の向きに基づいて1つの所定位置を特定して、前記追尾の結果と関連付けることを特徴とする。
本発明によれば、画像内で検出された被写体を所定位置と関連付けて滞留時間を計測することができる。
発明の実施形態に係るシステム構成の一例を示す図、及び、画像処理装置のハードウェア構成の一例を示す図。 発明の実施形態に係る画像処理装置の機能構成の一例を示す図。 発明の実施形態に係る処理の一例を示すフローチャート。 発明の実施形態に係る処理の一例を説明するための図。 発明の実施形態に係る処理の一例を説明するための図。 発明の実施形態に係る測定結果を登録するテーブルの一例を示す図。
以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。
[実施形態1]
図1(A)を参照して、発明の実施形態に係るシステム構成について説明する。図1(A)は、本実施形態における画像処理システム10の構成の一例を示したブロック図である。本実施形態において、画像処理システム10は、例えば店舗、劇場、映画館、スタジアム、病院、駅構内などの所定位置にある窓口や接客カウンタ、会計レジなど人が対応を受けるような場所に対して適用される。画像処理システム10は、所定位置の窓口に並ぶ人物を撮影し、対応に要した時間を滞留時間として測定する。また、画像処理システム10は、少なくとも1台の撮像装置(ネットワークカメラ)110と画像処理装置120とがネットワーク130を介して接続されて構成される。
撮像装置110は、店舗、劇場、映画館、スタジアム、病院、駅構内といった監視対象区域に設置される監視カメラである。撮像装置110は、監視対象区域における所定の監視領域を撮影するように設置され、ネットワーク130を介して撮影した画像(動画像、静止画像)を画像処理装置120に配信する機能を持つ。また、撮像装置110は複数台が用意され、監視対象区域内の複数の監視領域を撮影するため、個々に設置されていてもよい。
撮像装置110は、監視対象区域内の監視領域を撮影することにより画像を生成する。撮像装置110では、CCDやCMOSイメージセンサなどの撮像素子を用いて光電変換により得られたアナログ画像信号をA/D変換によりデジタル画像信号に変換する。また、デジタル画像信号に対して、例えば、ディベイヤ処理、ホワイトバランス処理、階調変換処理等の現像処理を実施する。更に、現像処理部が出力したデジタル画像信号を圧縮・符号化して、画像データを生成する。画像圧縮方式は、例えば、H.264、H.265、MJPEGまたはJPEGなどの規格に基づくことができる。さらに、mp4やavi形式などを含む任意の形式の画像データを生成しても良い。符号化された画像データは、画像処理装置120に配信される。撮像装置110では、例えば、静止画像のほかに、1秒間に所定数のフレーム分(例えば、30フレーム)の画像を取得して、監視領域の30fpsの動画像(ライブ映像)を取得することが可能である。
画像処理装置120は、例えばパソコン、サーバ装置、タブレット等の、情報処理装置、通信装置、制御装置等として実現することができる。画像処理装置120は、ネットワーク130を介して撮像装置110と通信し、撮像装置110の動作を制御することができる。例えば、撮像装置110の撮影方向、画質設定やPTZの制御等の変更要求を行ったりすることができる。また、ネットワーク130を介して撮像装置110で撮像された動画像及び静止画像を受信する。画像処理装置120は単一の装置により実現される場合だけでなく、複数の装置が協働して各機能を実現してもよい。
画像処理装置120は、撮像装置110に対して撮像制御のコマンドを送信してもよい。撮像装置110は、それらのコマンドに対するレスポンスを画像処理装置120に送信する。画像処理装置120は、取得した映像情報に対して、判定処理、出力処理など処理に関する設定をする。
ネットワーク130は、LAN(Local Area Network)として構成することができる。但し、ネットワーク130はLANに限定されるものではなく、インターネットやWAN(Wide Area Network)などであってもよい。また、LAN130への物理的な接続形態は、有線であってもよいし、無線であってもよい。さらに、図1(A)において、撮像装置110及び画像処理装置120は、1台ずつがネットワーク130に接続されているが、接続台数は図1(A)に示す数に限定されず、より多くの台数が接続されていてもよい。
次に、図1(B)を参照して、画像処理装置120のハードウェア構成について説明する。図1(B)は、発明の実施形態に係る画像処理装置120のハードウェア構成の一例を示すブロック図である。図1(B)に示した構成は、画像処理装置120の構成の一例に過ぎず、適宜変形変更が可能である。
CPU121は、主記憶部122に格納されているコンピュータプログラムやデータを用いて処理を実行する。これにより、画像処理装置120全体の動作制御を行うと共に、画像処理装置120が行うものとして後述する各処理を実行する。CPU121は、主記憶部122に格納されているコンピュータプログラムやデータを用いて処理を実行することで、後述する機能を実現する。主記憶部122は、RAM(Random Access Memory)等の記憶装置である。
主記憶部122は、補助記憶部123からロードされたコンピュータプログラムやデータ、ネットワークI/F127を介して撮像装置110から受信、もしくはファイルから取得した各種のデータや画像を格納するためのエリアを有する。さらに主記憶部122は、CPU121が各種の処理を実行する際に用いるワークエリアを有する。このように主記憶部122は、各種のエリアを適宜提供することができる。
補助記憶部123は、HDD(Hard Disk Drive)、ROM(Read Only Memory)、SSD(Solid State Drive)等の大容量情報記憶装置である。補助記憶部123には、OS(オペレーティングシステム)や、画像処理装置120が行うものとして後述する各処理をCPU121に実行させるためのコンピュータプログラムやデータが保存されている。また補助記憶部123には、ネットワークI/F126を介して撮像装置110から受信した各種のデータや撮像画像、もしくは、ネットワーク130に接続された他の外部装置(画像サーバ等)から取得した画像等も保存される。補助記憶部123に保存されているコンピュータプログラムやデータは、CPU121による制御に従って適宜主記憶部122にロードされ、CPU121による処理対象となる。
入力部124は、例えばキーボードやマウス、タッチパネルなどのユーザインターフェースにより構成され、画像処理装置120のユーザが操作することで各種の指示を画像処理装置120に入力できる。表示部125は、液晶画面などにより構成されており、画像処理装置120による処理結果を画像や図、文字などでもって表示することができる。ネットワークI/F126は、画像処理装置120がネットワーク130を介して撮像装置110との間のデータ通信を行うために利用するインターフェースである。
図1(B)では、画像処理装置120を、入力部124と表示部125とを備えた1つの装置としているが、入力部124と表示部125とを画像処理装置120とは別体としてもよい。また、表示部125は画像処理装置120と一体として入力部124を別体としてもよい。あるいは、入力部124は画像処理装置120と一体化させ表示部125を別体としてもよい。更には入力部124と表示部125とを一体化させつつ、画像処理装置120とは別体としてもよい。入力部124や表示部125を画像処理装置120とは別体とする場合には、画像処理装置120は、接続用のインターフェースを更に備えることができる。
次に、図2を参照して発明の実施形態に対応する画像処理装置120の機能構成について説明する。図2は、発明の実施形態に対応する画像処理装置120の機能構成の一例を示すブロック図である。以下、各機能ブロックが果たす機能について説明する。
通信部201は、ネットワーク130を介して撮像装置110と通信する。画像取得部202は、撮像装置110から通信部201を介して取得した画像、もしくは、補助記憶部123に記憶されている画像を処理対象画像として取得する。画像は静止画であってもよいし、動画であってもよい。動画は、時間的な連続性(あるいは、関連性)を有する複数のフレーム画像により構成され、各フレーム画像(以下、簡単のため「画像」ともいう)が本実施形態における処理対象画像となる。なお、時間的に連続する複数の画像とは、撮像装置110によって撮像された動画の各フレーム画像を間引いた画像であってもよい。例えば、撮像装置110によって撮像された動画の各フレーム画像を所定の数ごとに1つ取得して、それを処理対象画像としてもよい。
人体追尾部203は、処理対象画像を解析し、画像中に含まれる被写体である人体(人物)を検出する。また、人体の顔や体の特徴量から人体の向き(向いている方向)を検出することができる。本実施形態では、処理対象の被写体が人体である場合を説明するが、被写体には人体以外の車両などの有体物が含まれてもよい。さらに、時間的に連続する複数の画像(フレーム)の間で検出された人体のうち、同一人体を識別して追尾する。
所定位置決定部204は、入力部124からの信号の取り込みを行う。画像処理装置120を操作するユーザは、入力部124を介して表示部125に表示されたGUIを操作し入力を行うことができる。所定位置決定部204は、画像内に所定位置を設定し、設定した位置に関する所定位置情報を保持する。一度設定した所定位置情報は、次に変更が加えられるまで保持される。また、所定位置決定部204は、人体追尾部203で検出した同一人体を所定位置として設定することができる。このようにすることで、店舗などの所定位置(受付の位置)が人体の位置に依存するケースに対応することができる。
所定位置関連付け部205は、人体追尾部203によって検出した人体(当該人体の追尾結果)と所定位置決定部204で決定した所定位置とを関連付ける。たとえば、追尾結果に含まれる人体の位置と複数の所定位置との距離を算出し、一番近い所定位置を当該追尾結果と関連付けることができる。また、人体追尾部203で検出した人体の向きに基づき、人体が向いている方向に存在する所定位置と、追尾結果とを関連づけても良い。人体追尾部203によって検出した人体の追尾結果には解析したフレーム数分の検出位置の情報が含まれる。そこで、同一人体の検出位置ごとに所定位置との距離を計算し、人体と最も近いと判定された回数が最多となった所定位置を、当該追尾結果と関連づけても良い。
滞留時間計測部206は、検出された人体毎に、滞留開始時刻、滞留終了時刻、滞留時間を、人体を識別する情報及び所定位置と関連付けて、「滞留単位」として補助記憶部123に保持する。本実施形態においては、店舗等の所定位置にある窓口等において、対応を受けるために人物が要した時間を滞留時間として計測することができる。例えば、人物が窓口での対応を受けるために列に並んでいる場合には、列に並び始めてから窓口において対応を受けた後、窓口付近から立ち去るまでの経過時間を滞留時間として計測することができる。また、列に並んでいる時間を除外して、窓口において対応を受けている時間のみを滞留時間としてもよい。
出力部207は、滞留時間計測部206で計測した滞留単位を出力する。表示制御部208は、撮像装置110から通信部201を介して取得した画像、もしくは補助記憶部123に記憶されている画像を、複数の処理ブロック202から206を介して、表示部125に表示するための処理を行う。また、画像処理装置120からの操作を受け付けるためのGUIを表示部125に表示することができる。
入力受付部209は、入力部124からの信号の取り込みを行う。画像処理装置120を操作するユーザは、入力部124を介して表示部125に表示されたGUIを操作し入力を行うことができる。前述した所定位置の設定等もGUIを介してユーザが行うことができる。以上の構成に基づき、画像処理装置120は、画像解析、設定、計測、出力等の処理を行う。
上記の構成で、画像処理システム10において実行される処理の概要を説明する。まず、処理対象画像を解析して被写体となる人体を検出する。人体が画像内で複数検出された場合、時系列で個別に人体の同定を行い、同一の人体を追尾する(画像間において移動する人体の軌跡を追跡する)。また、画像内に所定位置が設定されている場合は、所定位置と関連づけて人体が滞留していた時間を計測する。さらに、時刻情報と共に計測した結果をファイル等に出力する。その際に、検出情報や追尾情報、設定情報を合わせて出力してもよい。また、検出情報やフレーム間の同一人体を識別する情報、設定情報、計測結果のいずれか一つ以上を表示部125に表示してもよい。
次に、図3のフローチャートを参照して画像処理装置120における全体的な処理の流れを説明する。ここでの処理は画像処理装置120が、画像処理装置120の内部の補助記憶部123から主記憶部122にプログラムを読み出して、CPU121が、そのプログラムに基づいて実行する処理である。この処理の手順について詳細を以下に説明する。
S301では、所定位置決定部204が、監視対象区域を撮影して得られた処理対象の画像において所定位置を設定する。所定位置は1つ以上の任意の位置を指定して設定することができる。所定位置の情報は、画像における座標情報として設定することができる。例えば、撮像装置110により生成された画像に対してX-Y座標を適用し、当該座標系における座標情報(x、y)として表現することができる。
また、本実施形態においては、例えば店舗などにおける、窓口や接客カウンタ、会計レジなどの画像内の位置を所定位置として設定することができる。所定位置の設定は、例えば画像取得部202で取得した画像が表示部125に表示され、ユーザが当該表示された画像参照して、入力部124により位置の指定入力を行うことにより設定することができる。また、所定位置を設定する際に、画像取得部202が取得した画像上に、人体追尾部203によって得られた人体追尾結果を重畳して表示しても良い。或いは、人体追尾部203における人体追尾の結果と、監視対象区域の撮影画像の画像解析結果に基づいて、所定位置を自動で設定してもよい。また、自動で設定された内容をユーザが入力部124を介して修正できるようにしてもよい。このようにして画像内に設定された所定位置情報は、補助記憶部123に保持される。
続くS302では、画像取得部202が処理対象の画像を取得する。画像取得部202は、通信部201を介して撮像装置110から画像を取得するか、もしくは、補助記憶部123に記憶された画像を取得する。処理対象画像が動画のフレーム画像である場合、1フレーム画像毎に撮影時刻の情報が付随している。当該撮影時刻の情報は、処理対象画像において人体が検出された時刻情報として利用することができる。
続くS303では、人体追尾部203は、取得した処理対象の画像を解析して人体を検出する。さらに、補助記憶部123に保持されている検出された人体の位置情報から、時間的に連続する画像間の同一人体を特定する。特定した人体に同一人体を識別するための識別情報を付与し、補助記憶部123に保持する。同一人体については共通の識別情報が付与され、時間的に連続するフレーム画像における人体の位置情報が当該識別情報と関連付けられる。これにより、画像間における同一人体の移動を追跡することができる。
S303において、人体追尾部203は、処理対象の画像を解析して人体の向いている方向(向き)を特定することができる。人体の向きは、人体の顔や体の特徴量に基づいて判定することができる。人体の向きの情報は、例えば、画像に対して適用されるX-Y座標のX軸、或いはY軸のいずれかに対する傾き(角度、例:0度、±30度、±45度等)を表す情報として生成することができる。例えば、画像の横軸に相当するX軸を基準とする場合、人体が真横を見ていれば傾きは0度となる。また、斜め下方向を向いている場合には、傾きは-30度となる。このようにして得られた向きの情報は、位置情報と同様に、時間的に連続するフレーム画像における人体の向きの情報が人体の識別情報と関連付けられる。
続くS304では、人体追尾部203が、人体追尾が終了した人体が存在するかどうかを判定する。判定方法は、人体追尾部203によってそれまで同一人体として検出されていた人体が処理対象画像内で検出されなくなった場合に、当該人体についての人体追尾が終了したと判定することができる。また、人体追尾部203によって検出されなくなった後、一定時間が経過してから、終了したと判定しても良い。
続くS305では、所定位置関連付け部205は、同一人体の追尾結果を所定位置と関連付ける。所定位置関連付け部205は、補助記憶部123に保持されている検出された人体の位置情報を取得して所定位置との関連付けを行う。また、所定位置が複数ある場合には、検出された人体が、いずれの所定位置に属しているかを特定する。所定位置を関連付けた結果は、補助記憶部123に保持する。追尾結果と所定位置との関連付けの具体的手法については図4から図6を参照して後述する。
続くS306では、滞留時間計測部206が滞留時間を決定する。滞留時間計測部206は、補助記憶部123に保持されている画像毎の時刻情報と、人体の識別情報と、追尾結果とを取得する。取得した情報に基づいて、人体の滞留時間を計測する。例えば、人体が検出された時刻を当該人体が検出された画像の撮像時刻に基づいて特定し、その後に同一人体が所定位置と一定の距離にいないと判定されるまでの時間を累積して滞留時間とすることができる。滞留時間の開始時刻は、同一人体について、当該人体が最初に検出された画像の撮像時刻、或いは、所定位置と一定の距離以内の時に人体が検出された画像の撮像時刻とすることができる。また、滞留時間の終了時刻は、連続的に検出されていた同一人体が所定位置と一定の距離を超えた位置で検出された画像の撮像時刻、或いは、当該人体が最後に検出された画像の撮像時刻とすることができる。滞留時間の計測処理については図4から図6を参照して後述する。計測した滞留時間は、人体を特定するための識別情報と、所定位置を特定するための情報と関連付けられて補助記憶部123に保持される。出力部207は、選択された滞留単位を適当なタイミングで出力してもよい。表示制御部208では、画像だけでなく、滞留単位の情報を表示してもよい。
続くS307では、画像取得部202が、未処理の画像が存在するか否かを判定し、画像が存在する場合は、処理はS302に戻る。一方、未処理の画像が存在しない場合は、本処理を終了する。
次に図4を参照して、所定位置関連付け部205および、滞留時間計測部206の処理の例を説明する。画像400には受付机401と所定位置402、所定位置403、所定位置404が含まれる。これらは、例えば店舗等などにおける、受付、窓口、接客カウンタ等に対応する。具体的に、映画館などに入場しようとする観客が列に並んでチケットを購入する場合、所定位置402から404のいずれかに対応する接客カウンタで発券を求めることとなる。その際、当該観客は人体として各フレームにおいて検出され、時間の経過に伴って画像内を移動したり、接客カウンタ前に滞在したりすることとなる。
図4において、点4-0001~点4-3007は同一人体の検出位置を示している。点4-0001~点4-3007は連続したフレームで、全部で3007枚のフレームに相当する。また、点4-0001~点4-3007は同一人体の追尾結果を示すことができる。点4-0001~点4-3007の追跡結果において、当該人体と最も関連性の高い所定位置は、人体との距離に基づき所定位置402と推定されるため、所定位置402と関連付ける。ここで距離は、画像内におけるそれぞれの人体の位置を示す座標と、所定位置402から404のそれぞれの画像内における位置を示す座標とに基づき算出することができる。
図4の例では、点4-3005と所定位置402との距離が最短と判定され、追跡結果における人体位置と最も距離が近い所定位置は所定位置402と特定される。これにより図4に示す点4-0001から点4-3007の人体の追跡結果は所定位置402と関連付けられる。人体位置と所定位置との間の距離は、上述のように画像上の距離に基づいて決定してもよいし、画像を実際の監視対象区域の空間に座標変換した上で決定してもよい。
例えば、図4に示すように撮像装置110で監視対象区域を斜め上から撮影している場合、撮像装置110から遠くに位置する被写体ほど、画像内ではより小さく見えることになる。そこで画像中の画素位置と監視対象区域の空間内での位置とを対応付けること(座標変換)により、画像中の被写体の位置を監視対象区域の空間に投影し、現実空間における位置に対応させてもよい。これにより、実際の監視対象区域の空間内での位置に基づいて人体位置と所定位置との距離を計算することができる。なお、空間は3次元的に表現されてもよいし、平面図や見取り図のような2次元的に表現されたものであってもよい。
また、複数の所定位置の中から関連付けを行う1つの所定位置を選択するに際しては、人体位置と所定位置との最小距離に基づいてもよいし、検出された全人体位置と各所定位置との合計とを比較して、合計が最小となる所定位置としてもよい。また、距離に加えて、検出された人物の向く方向(向き)を考慮してもよい。
次に、滞留時間の計測方法には複数通りがある。例えば、同一人物が画像内で検出された時間の総計を滞留時間とすることができる。図4の例では、点4-0001~点4-3007までの時間が滞留時間となる。或いは、人体が移動している期間を除外して、所定位置との関連で実質的に停止(静止)している、或いは、静的な状態にある(画像間で特定される移動量が所定値以下)とみなされる時間を滞留時間としてもよい。具体的には、点4-0001~点4-0005は、検出された人体位置の間隔が長い(移動距離が長い)ので、人体が移動していると判断して滞留時間から除外することができる。
また、点4-0005~点4-3005は、所定位置と距離が近く、移動距離が短いため滞留していると判断し計測することができる。点4-3005~点4-3007は、検出された人体位置の間隔が長くなり移動距離が長いため、移動していると判断し、滞留時間から除外することができる。この他にも、関連付けがなされた所定位置との距離が所定値以上と判定される人体の検出位置、或いは、当該所定位置から所定範囲内に存在しないと判定される人体の検出位置を除外することもできる。例えば、点線405よりも所定位置寄りの検出位置のみを滞留時間に含める場合、点4-0001から4-0004まで、及び4-3007を滞留時間から除外してもよい。以上のように、追尾結果から人体を所定位置と関連づけて滞留時間を計測することができる。
次に図5を参照して所定位置関連付け部205および、滞留時間計測部206における処理の別の例を説明する。図4と同様に画像500には受付机501と所定位置502、所定位置503、所定位置504が存在する。また、点5-0001~点5-3007についても図4と同様であるため説明は割愛する。図4では、追跡結果における人体位置と所定位置との間の距離に基づいて、関連付けを行う所定位置を決定したが、図5の場合、点5-3005の検出位置と、所定位置502と503とでは、所定位置502の方が画像上での距離は短くなる可能性がある。このような場合、人体位置と所定位置との間の距離に基づくのではなく、検出された人物の向きに基づいて、当該向きの近傍に存在する所定位置を選択するようにしてもよい。
例えば、点5-3005において検出された人体の向きが、矢印505で示される向きの場合、点5-3005と所定位置503とを結ぶ線分に対する矢印505が示す向きのずれは、点5-3005と所定位置502とを結ぶ線分に対する矢印505が示す向きのずれよりも小さい。従って、図5の例では、検出された人体の向き505の近傍に存在するのは所定位置503と判定することができ、所定位置503を追跡結果と関連付ける。滞留単位の計測は、図4と同様であるため割愛する。以上のように、追尾結果から所定の位置と関連づけて滞留時間を計測する。
上記において複数の所定位置の中から関連付けを行う1つの所定位置を選択する場合、人体が静的に位置している時間の長い領域(位置)における向きに基づいてもよい。例えば、時間的に連続するフレーム間の人体の検出位置の差が所定の範囲内に連続的(複数の所定数のフレーム間に渡って)に収まる場合には、人体がある領域或いは位置に静的に位置しているとみなすことができる。換言すると、当該領域或いは位置において人体は移動量が少なく、静的な状態にある、動的ではない、或いは、静止しているとみなすことができる。また、全ての検出位置においてそれぞれ向きを判定して所定位置を選択し、全体で最も多く選択された所定位置を関連付けの対象としてもよい。また、向きに加えて、検出された人物と所定位置との距離を考慮してもよい。
次に図6を参照して、図3の処理に基づいて生成された測定結果を登録するテーブルのデータ構成の一例について説明する。図6は、発明の実施形態に対応する測定結果を登録するテーブルの一例を示す図である。
テーブル600の情報は、補助記憶部123に保持される。テーブル600の行は、各々の所定位置と関連づけた滞留時間を含む滞留単位を人体毎に表す。列601は人体の滞留開始時刻を表す。YYYY/MM/DDはYYYYが西暦、MMが月、DDが日の計形式で表示するが、表示の形式はこれに限らない。列602は人体の滞留終了時刻を表す。列603は同一人体を識別するための人体識別情報を登録する。この人体識別情報により、処理対象画像において検出された人体を、複数の画像間において同一人体として識別することができる。
列604、列605、列606は所定位置で人体が滞留した滞留時間を表している。所定位置の設定数は処理が可能であれば、数の制限は設けなくてよい。また、滞留時間を「00:05:00」のように「時:分:秒」を各々二桁ずつ「:」で区切った形式で表しているが、滞留時間の表示の形式はこれに限らない。秒単位、ミリ秒単位などで表示をしてもよい。
図6では、検出された人体の位置情報や向きの情報の記載を省略したが、これらの情報は、人体が検出された時間(画像の撮影時刻)及び人体識別情報603と関連付けて補助記憶部123に保持しておくことができる。
本実施形態によれば、店舗、劇場、映画館、スタジアム、病院、駅構内などの所定位置にある窓口や接客カウンタ、会計レジなど人が対応を受けるような場所において、各々の人体の所定位置における滞留時間を計測することが可能となる。このとき、滞留時間を計測するために領域を設定する必要がなく、所定位置に存在する窓口等で対応に要した時間を正確に測定できる。更に、本実施形態では、各所定位置に滞留した時間の平均時間を求めることが可能となるので、一人当たりの滞留時間を統計的に計測できる。その結果、人員配置の最適化などの業務の効率化や改善に活用できる。
以上、発明の例示的な実施形態について説明したが、発明はこれらの実施形態に限定されることなく、その要旨の範囲内で種々の変形および変更が可能である。
発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
10:システム、110:撮像装置、120:画像処理装置、130:ネットワーク

Claims (13)

  1. 理対象画像から検出される被写体を追尾する追尾手段と、
    前記追尾手段による追尾の結果を、前記処理対象画像における1つ以上の所定位置のうちのいずれか1つと関連付ける関連付け手段と、
    前記関連付け手段により前記1つの所定位置と関連付けられた前記追尾の結果に基づいて、該1つの所定位置との関連で前記被写体が滞留している滞留時間を決定する決定手段と、
    を備え、
    前記関連付け手段は、前記1つ以上の所定位置のうち、前記被写体との距離が一番近い所定位置か、又は前記被写体の向きに基づいて特定される所定位置を前記1つの所定位置として前記追尾の結果と関連付け
    前記決定手段は、前記追尾の結果に含まれる、前記被写体が検出された時刻の情報に基づいて、前記滞留時間を決定することを特徴とする画像処理装置。
  2. 前記関連付け手段は、前記1つ以上の所定位置のうち、前記被写体のいずれかの位置との距離が最小となる1つの所定位置を特定して前記追尾の結果と関連付けることを特徴とする請求項1に記載の画像処理装置。
  3. 前記関連付け手段は、前記1つ以上の所定位置のうち、前記被写体のそれぞれの位置との距離の合計が最小となる1つの所定位置を特定して前記追尾の結果と関連付けることを特徴とする請求項1に記載の画像処理装置。
  4. 前記処理対象画像は、所定の領域を撮影して得られた画像であって、
    前記関連付け手段は、前記処理対象画像を前記領域の空間に対応するように座標変換して得られた画像において前記距離を算出することを特徴とする請求項1から3のいずれか1項に記載の画像処理装置。
  5. 前記関連付け手段は、前記1つ以上の所定位置のうち、前記追尾の結果におけるそれぞれの所定位置に最も近い被写体の向きに基づき前記1つの所定位置を特定することを特徴とする請求項1に記載の画像処理装置。
  6. 前記関連付け手段は、前記追尾の結果において、静的な状態にあるとみなされた前記被写体の向きに基づき前記1つの所定位置を特定することを特徴とする請求項1に記載の画像処理装置。
  7. 前記関連付け手段は、前記1つ以上の所定位置のうち、前記追尾の結果における前記被写体のそれぞれの位置における被写体の向きに基づき前記1つの所定位置を特定することを特徴とする請求項1に記載の画像処理装置。
  8. 前記決定手段は、最初に前記被写体が検出された時刻から、最後に前記被写体が検出された時刻までの経過時間に基づき前記滞留時間を決定することを特徴とする請求項に記載の画像処理装置。
  9. 前記決定手段は、前記被写体が移動していると判定される期間を前記滞留時間から除外することを特徴とする請求項に記載の画像処理装置。
  10. 前記追尾の結果には、前記処理対象画像における前記被写体の検出位置の情報が含まれ、
    前記決定手段は、前記追尾の結果に含まれる前記被写体の検出位置のうち、前記1つの所定位置から所定範囲内にある検出位置に基づき、前記滞留時間を決定することを特徴とする請求項に記載の画像処理装置。
  11. 所定の領域を撮像して画像を生成する撮像装置と、
    前記撮像装置により生成された画像を前記処理対象画像として処理する請求項1から10のいずれか1項に記載の画像処理装置と
    を備えるシステム。
  12. 追尾手段が、処理対象画像から検出される被写体を追尾する工程と、
    関連付け手段が、前記追尾手段によるの結果を、前記処理対象画像における1つ以上の所定位置のうちのいずれか1つと関連付ける工程と、
    決定手段が、前記関連付け手段により前記1つの所定位置と関連付けられた前記追尾の結果に基づいて、該1つの所定位置との関連で前記被写体が滞留している滞留時間を決定する工程と、
    を含み、
    前記関連付ける工程では、前記1つ以上の所定位置のうち、前記被写体との距離が一番近い所定位置か、又は前記被写体の向きに基づいて特定される所定位置を前記1つの所定位置として前記追尾の結果と関連付け
    前記決定する工程では、前記追尾の結果に含まれる、前記被写体が検出された時刻の情報に基づいて、前記滞留時間を決定することを特徴とする画像処理装置の制御方法。
  13. コンピュータを請求項1から10のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
JP2019097071A 2019-05-23 2019-05-23 画像処理装置、システム、画像処理装置の制御方法、及び、プログラム Active JP7329967B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019097071A JP7329967B2 (ja) 2019-05-23 2019-05-23 画像処理装置、システム、画像処理装置の制御方法、及び、プログラム
US16/877,921 US11551455B2 (en) 2019-05-23 2020-05-19 Image processing apparatus, system, control method for image processing apparatus, and non- transitory computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019097071A JP7329967B2 (ja) 2019-05-23 2019-05-23 画像処理装置、システム、画像処理装置の制御方法、及び、プログラム

Publications (3)

Publication Number Publication Date
JP2020191590A JP2020191590A (ja) 2020-11-26
JP2020191590A5 JP2020191590A5 (ja) 2022-05-24
JP7329967B2 true JP7329967B2 (ja) 2023-08-21

Family

ID=73454769

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019097071A Active JP7329967B2 (ja) 2019-05-23 2019-05-23 画像処理装置、システム、画像処理装置の制御方法、及び、プログラム

Country Status (2)

Country Link
US (1) US11551455B2 (ja)
JP (1) JP7329967B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7370840B2 (ja) 2019-12-09 2023-10-30 キヤノン株式会社 画像処理装置、画像処理方法、コンピュータプログラム及び記憶媒体
JP7279241B1 (ja) * 2022-08-03 2023-05-22 セーフィー株式会社 システムおよびプログラム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009048229A (ja) 2007-08-13 2009-03-05 Toshiba Tec Corp 人物行動分析装置,方法及びプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8098888B1 (en) * 2008-01-28 2012-01-17 Videomining Corporation Method and system for automatic analysis of the trip of people in a retail space using multiple cameras
JP5789776B2 (ja) 2014-04-28 2015-10-07 パナソニックIpマネジメント株式会社 滞留時間測定装置、滞留時間測定システムおよび滞留時間測定方法
JP6478777B2 (ja) 2015-04-13 2019-03-06 キヤノン株式会社 制御装置及びその制御方法、プログラム
JP2017147689A (ja) 2016-02-19 2017-08-24 富士通株式会社 映像編集装置、映像編集方法及び映像編集用コンピュータプログラム
JP6256885B2 (ja) 2016-03-31 2018-01-10 パナソニックIpマネジメント株式会社 施設内活動分析装置、施設内活動分析システムおよび施設内活動分析方法
JP7299692B2 (ja) 2018-12-05 2023-06-28 キヤノン株式会社 画像処理装置、画像処理システム、画像処理装置の制御方法、及び、プログラム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009048229A (ja) 2007-08-13 2009-03-05 Toshiba Tec Corp 人物行動分析装置,方法及びプログラム

Also Published As

Publication number Publication date
US20200372259A1 (en) 2020-11-26
US11551455B2 (en) 2023-01-10
JP2020191590A (ja) 2020-11-26

Similar Documents

Publication Publication Date Title
JP6741130B2 (ja) 情報処理システム、情報処理方法及びプログラム
US10839227B2 (en) Queue group leader identification
KR102164863B1 (ko) 정보 처리장치 및 그 방법과, 컴퓨터 판독가능한 기억매체
US11521413B2 (en) Information processing apparatus, method of controlling information processing apparatus, and non-transitory computer-readable storage medium
JP6568374B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2008112401A (ja) 広告効果測定装置
CN110199316B (zh) 相机和相机的图像处理方法
KR102144394B1 (ko) 영상 정합 장치 및 이를 이용한 영상 정합 방법
JP7329967B2 (ja) 画像処理装置、システム、画像処理装置の制御方法、及び、プログラム
JP4288428B2 (ja) 映像解析システムおよび映像解析方法
JP3489491B2 (ja) 人物行動解析装置及び人物行動解析プログラムを記録した記録媒体
KR20150093532A (ko) 정보 관리를 위한 장치 및 방법
US10783365B2 (en) Image processing device and image processing system
JP5115763B2 (ja) 画像処理装置、コンテンツ配信システム、画像処理方法、及びプログラム
KR102050418B1 (ko) 영상 정합 장치 및 이를 이용한 영상 정합 방법
JP2020095651A (ja) 生産性評価システム、生産性評価装置、生産性評価方法、及びプログラム
JP6939065B2 (ja) 画像認識用コンピュータプログラム、画像認識装置及び画像認識方法
JP2013156671A (ja) 画像監視装置
US20230215015A1 (en) Tracking device, tracking method, and recording medium
JPWO2017061239A1 (ja) 監視システム
JP2020086961A (ja) 画像解析装置、撮影装置、画像解析方法、及び、プログラム
JP7357649B2 (ja) 識別を容易にするための方法および装置
WO2022030546A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2016220148A (ja) 制御装置、制御方法、システム
JP2019113978A (ja) 動線分析システム、動線分析システムの制御方法、およびプログラム

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220516

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220516

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230414

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230710

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230808

R151 Written notification of patent or utility model registration

Ref document number: 7329967

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151