JP2021145303A - 画像処理装置、画像処理方法 - Google Patents

画像処理装置、画像処理方法 Download PDF

Info

Publication number
JP2021145303A
JP2021145303A JP2020044386A JP2020044386A JP2021145303A JP 2021145303 A JP2021145303 A JP 2021145303A JP 2020044386 A JP2020044386 A JP 2020044386A JP 2020044386 A JP2020044386 A JP 2020044386A JP 2021145303 A JP2021145303 A JP 2021145303A
Authority
JP
Japan
Prior art keywords
area
patch
counting
image processing
detection line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020044386A
Other languages
English (en)
Other versions
JP2021145303A5 (ja
Inventor
康夫 馬塲
Yasuo Baba
康夫 馬塲
元 牟田
Hajime Muta
元 牟田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020044386A priority Critical patent/JP2021145303A/ja
Priority to US17/189,301 priority patent/US11887309B2/en
Priority to KR1020210027801A priority patent/KR20210116247A/ko
Priority to CN202110258531.0A priority patent/CN113393552A/zh
Publication of JP2021145303A publication Critical patent/JP2021145303A/ja
Publication of JP2021145303A5 publication Critical patent/JP2021145303A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30121CRT, LCD or plasma display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】 検知線を通過するオブジェクトの数をより正確に計数するための技術を提供すること。【解決手段】 表示画面内に設定されている検知線に基づいて、該表示画面内にパッチ領域を設定する。表示画面内を移動しているオブジェクトのパッチ領域内における移動ベクトルもしくは該移動ベクトルに基づく軌跡と、該パッチ領域内における検知線と、の交点を計数する。【選択図】 図3

Description

本発明は、動画像の解析技術に関するものである。
近年、カメラ等で撮影した画像を元に、撮影領域における人流を解析する装置が提案されている。人流を解析する具体的な方法として、画像上に引かれた仮想の線である検知線の上を通過した人の数を計数する方法が存在する。
人が多く集まる施設において、その出入口の入退出者数を計数することで、その施設内の滞在人数を推定できる。また、混雑度が高い出入口や滞留が発生した出入口を特定して、混雑に伴う事故や犯罪等を未然に防ぐことが期待される。
非特許文献1では、複数フレームにわたって、各時刻において検出された点同士を対応付けることで、複数の点の追跡を行う方法が開示されている。特許文献1では、時系列上で連続する画像を複数の局所領域に分割して複数の分割領域を得、分割領域ごとに、オブジェクトの数と動き特徴を抽出し、それらを統合することで、分割領域におけるオブジェクトの流れを推定することが開示されている。
特開2018−180619号公報
Khurram Shafique and Mubarak Shah. A Non−Iterative Greedy Algorithm for Multi−frame Point Correspondence. IEEE transactions on pattern analysis and machine intelligence (2005).
非特許文献1に開示されている技術では、検知線の場所に応じて点の検出範囲を絞ることはせず、画面全体に対して点の検出を行うため、通過数計数の処理時間が大きくなる、という課題がある。通過数計数を高速に行うためには、検知線の周囲のみに対して人流を解析し、その人流と検知線との交わりを求めることが考えられる。
特許文献1に開示されている技術では、分割領域ごとにオブジェクトの流れを推定する手法を採用している。この考えに基づき、検知線が通過する分割領域のみにおいてオブジェクトの通過数を計数し、その結果を足し合わせることで、検知線全体のオブジェクトの通過数を取得できる。ここで、分割領域ごとに独立に通過数の計数が可能であるため、分割領域ごとの処理の並列化により、高速に人数計数を実現することができる。
しかしながら、特許文献1では、検知線の位置に関わらず画像の分割方法が一定である。画像の分割方法を一定にする場合、検知線と分割領域との関係によっては、通過数計数の結果が不正確になる、という課題がある。図1にその例を示す。
図1は、ユーザにより検知線101が設定された入力画像100の一例を示す。この場合、検知線101におけるオブジェクトの通過数を計数するために、分割領域102、103、104のそれぞれにおいてオブジェクトの通過数を計数することになる。矢印105、106、107、108のそれぞれは、あるオブジェクトの時刻t1における位置(始点)から時刻t2における位置(終点)への、該オブジェクトの動きを示す移動ベクトルである。矢印105のように、始点と終点が両方とも同じ分割領域104に入っているオブジェクトであれば、分割領域104にてこのオブジェクトの通過を検出できる。しかし、始点と終点が異なる分割領域に位置する矢印106に対応するオブジェクトや始点および終点の少なくとも一方が分割領域外に位置する矢印107、108に対応するオブジェクトは分割領域102、103、104の何れにおいても通過を検出できない。そのため、検知線全体の通過数が、実際の通過数よりも小さくなる、という問題が生じる。本発明では、検知線を通過するオブジェクトの数をより正確に計数するための技術を提供する。
本発明の一様態は、表示画面内に設定されている検知線に基づいて、該表示画面内にパッチ領域を設定する設定手段と、前記表示画面内を移動しているオブジェクトの前記パッチ領域内における移動ベクトルもしくは該移動ベクトルに基づく軌跡と、該パッチ領域内における前記検知線と、の交点を計数する計数手段とを備えることを特徴とする。
本発明の構成によれば、検知線を通過するオブジェクトの数をより正確に計数することができる。
従来技術における問題を説明するための図。 画像処理装置のハードウェア構成例を示すブロック図。 画像処理装置200の機能構成例を示すブロック図。 画像処理装置200が行う処理のフローチャート。 (a)はパッチ領域を説明する図、(b)は検知線に基づくパッチ領域の設定を説明する図。 第1の実施形態に係るパッチ領域による効果を説明する図。 第1の実施形態に係るパッチ領域による効果を説明する図。 (a)は計数領域を検出領域とほぼ同じ大きさにとったパッチ領域の例を示す図、(b)は計数領域を図8(a)に示した計数領域よりも小さくしたパッチ領域の一例を示す図。 パッチ領域の位置を決定する順序を説明する図。 画像内における人物の移動ベクトルの推定を説明する図。
以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。
[第1の実施形態]
本実施形態では、監視対象領域を撮像した動画像を表示画面に表示する際に、該表示画面内に設定された検知線の上を通過するオブジェクトの数(通過数)を計数する画像処理装置について説明する。以下では「オブジェクト」(つまり計数対象)が「人物」であるケースについて説明するが、「オブジェクト」は「人物」に限らず、他の移動体であってもよい。
まず、本実施形態に係る画像処理装置のハードウェア構成例について、図2のブロック図を用いて説明する。図2に示す画像処理装置200は、PC(パーソナルコンピュータ)、スマートフォン、タブレット端末装置などのコンピュータ装置である。
制御装置21は、CPUなどのプロセッサ、RAMやROMなどのメモリ装置、などを有する。プロセッサは、該メモリ装置に格納されているコンピュータプログラムやデータを用いて各種の処理を実行する。これにより、制御装置21は、画像処理装置200全体の動作制御を行うとともに、画像処理装置200が行うものとして後述する各処理を実行もしくは制御する。
記憶装置22は、不揮発性メモリであり、OS(オペレーティングシステム)や、画像処理装置200が行うものとして後述する各種理を制御装置21(プロセッサ)に実行もしくは制御させるためのコンピュープログラムやデータが保存されている。記憶装置22に保存されているコンピュータプログラムやデータは、制御装置21(プロセッサ)による制御に従ってメモリ装置(RAM)にロードされ、制御装置21(プロセッサ)による処理対象となる。
演算装置23は、制御装置21からの指示に基づいて各種の演算処理を行う。入力装置24は、キーボード、マウス、タッチパネル画面などのユーザインターフェースであり、ユーザが操作することで各種の指示を制御装置21(プロセッサ)に対して入力することができる。
出力装置25は、液晶画面やタッチパネル画面を表示画面として有する表示装置であり、制御装置21による処理結果を画像や文字などでもって表示することができる。I/F(インターフェース)26は、監視対象領域を撮像する撮像装置、監視対象領域を撮像した動画像を保持する装置、各種のコンピュータプログラムやデータを保持する装置、などとのデータ通信を行うための通信インターフェースである。画像処理装置200は、I/F26を介してこれらの装置との間のデータ通信を行う。I/F26は、例えば、ユニバーサルシリアルバス、イーサネット(登録商標)、光ケーブル等の有線インターフェースや、Wi−Fi、Bluetooth(登録商標)等の無線インターフェースである。
次に、本実施形態に係る画像処理装置200の機能構成例について、図3のブロック図を用いて説明する。以下では、図3に示す機能部を処理の主体として説明するが、実際には、該機能部の機能を制御装置21(プロセッサ)や演算装置23に実行させるためのコンピュータプログラムを該プロセッサや演算装置23が実行することで、該機能部の機能が実現される。このように、図3に示した機能部は、ソフトウェア(コンピュータプログラム)で実装してもよいが、ハードウェアで実装してもよい。
検知線設定部301は、出力装置25における表示画面に検知線を設定する。画像取得部302は、I/F26を介して外部から、監視対象領域を撮像した動画像における各フレームの画像(撮像画像)を取得する。該動画像における各フレームの画像は、出力装置25における表示画面に表示される。
パッチ抽出部303は、出力装置25における表示画面上に設定された検知線に基づいて該表示画面上にパッチ領域を設定し、該表示画面内に表示されている撮像画像から該設定したパッチ領域内における部分画像を「パッチ」として抽出する。
推定部304は、パッチ抽出部303が設定したパッチ領域ごとに(独立に)、出力装置25における表示画面内を移動している人物の該パッチ領域内における移動ベクトルを推定する。
座標追跡部305は、パッチ抽出部303が設定したパッチ領域ごとに(独立に)、該パッチ領域について推定部304が推定した人物の移動ベクトルに基づいて、出力装置25における表示画面内の該人物の軌跡を取得する。
通過数計数部306は、パッチ抽出部303が設定したパッチ領域ごとに(独立に)、推定部304が推定した人物の移動ベクトルもしくは座標追跡部305が取得した人物の軌跡に基づいて、検知線の上を通過する人物の数(通過数)を計数する。そして通過数計数部306は、パッチ領域ごとに計数した通過数の合計を、検知線全体における通過数として求める。
次に、画像処理装置200が、出力装置25における表示画面内に設定されている検知線の上を通過した人物の数(通過数)を計数するために行う処理について、図4のフローチャートに従って説明する。
<ステップS401>
検知線設定部301は、出力装置25における表示画面内に検知線を設定する。検知線の設定方法は特定の設定方法に限らない。例えば、出力装置25における表示画面に監視対象領域を撮像した動画像を再生表示して、該動画像を見ながらユーザが入力装置24を操作して表示画面に検知線を設定してもよい。また例えば、検知線設定部301は、出力装置25における表示画面に監視対象領域を撮像した動画像を再生表示し、該表示画面においてドアや改札など人の出入りを伴う物体の画像領域を検出し、該画像領域の付近に検知線を設定してもよい。また例えば、検知線設定部301は、出力装置25における表示画面の端部(表示画面における上下左右の1つ以上の端部)に検知線を設定してもよい。また例えば、検知線設定部301は、出力装置25における表示画面に監視対象領域を撮像した動画像を再生表示し、該表示画面において人の出入りが多い領域を検出し、該領域の付近に検知線を設定してもよい。
<ステップS402>
画像取得部302は、I/F26を介して外部から、監視対象領域を撮像した動画像における各フレームの画像(撮像画像)を入力画像として取得する。上記のごとく、動画像における各フレームの画像は、順次出力装置25における表示画面に表示される。
ここで、動画像とは、例えば、ストリーミング、動画ファイル、フレーム毎に保存された一連の画像ファイル、メディアに保存された動画等である。動画像の取得元は、特定の取得元に限らない。例えば、画像取得部302は、CMOSセンサやCCDセンサ等の固体撮像素子、あるいはこれらの固体撮像素子を搭載する撮像装置が監視対象領域を撮像した動画像における各フレームの画像を取得しても良い。また例えば、画像取得部302は、サーバ装置、ハードディスク、SSD等の記憶装置や記録メディアから、監視対象領域を撮像した動画像における各フレームの画像を取得してもよい。
<ステップS403>
パッチ抽出部303は、ステップS401で設定された検知線に基づいて、出力装置25における表示画面上にパッチ領域を設定し、該表示画面内に表示されている入力画像から該パッチ領域内における部分画像を「パッチ」として抽出する。
ここで、パッチ領域について、図5(a)を用いて説明する。図5(a)に示す如く、パッチ領域500は、「人物の位置を検出する領域である検出領域501の内部に、検知線を通過した人物の数を計数する領域である計数領域502が設けられている」という構成を有する領域である。計数領域502の中心位置と検出領域501の中心位置とは同じであり、計数領域502は、検出領域501と相似の縮小領域である。つまり、計数領域502は、検出領域501よりもサイズ(画素数)が小さく、かつ検出領域501に包含されている。以下では、この計数領域502と検出領域501との関係を「計数領域502は検出領域501に真に包含される」と称する。
次に、検知線に基づくパッチ領域の設定について、図5(b)を用いて説明する。本実施形態では、パッチ抽出部303は、パッチ領域の計数領域により検知線の全体が被覆されるように、かつ計数領域同士が互いに重複しないように、表示画面におけるパッチ領域の位置を決定する。図5(b)では、パッチ領域の計数領域により入力画像510上の検知線511の全体が被覆されるように、6つのパッチ領域の位置が決定されている。
ここで、パッチ領域の計数領域が検出領域に真に包含されるようにすることでなぜ人物の通過数の計数精度が上がるのかについて、図6を用いて説明する。図6(a)は、パッチ領域の全体領域が検出領域および計数領域であり(計数領域と検出領域とが完全に一致している)、このようなパッチ領域を表示画面に設定したケースを示している。図6(a)では、検知線601の全体が、パッチ領域604(=計数領域)およびパッチ領域603(=計数領域)によって被覆されている。矢印602は、ある人物の時刻t1における位置(始点)から該人物の時刻t2における位置(終点)への移動ベクトルを示す。図6(a)では矢印602は検知線601と交差しているため、時刻t1と時刻t2の間にこの人物がちょうど検知線601を跨いだところを表している。ここで、矢印602の始点(人物の時刻t1における位置)はパッチ領域604内に位置しており、矢印602の終点(人物の時刻t2における位置)はパッチ領域603内に位置している。そのため、パッチ領域ごとに、人物の移動ベクトル推定、人物の追跡を行うと、パッチ領域603およびパッチ領域604のいずれにおいても、矢印602に対応する人物の通過を検知することができない。つまり、図6(a)のようなケースの場合、通過数の計数漏れが発生する。
図6(b)は、計数領域が検出領域に真に包含されているパッチ領域を表示画面に設定したケースを示している。図6(b)では、検知線611の全体が、パッチ領域616(検出領域617および計数領域618を有する)の計数領域618およびパッチ領域613(検出領域614および計数領域615を有する)の計数領域615によって被覆されている。矢印612は、ある人物の時刻t1における位置(始点)から該人物の時刻t2における位置(終点)への移動ベクトルを示す。図6(b)では矢印612は検知線611と交差しているため、時刻t1と時刻t2の間にこの人物がちょうど検知線611を跨いだところを表している。ここで、矢印612の始点(人物の時刻t1における位置)および終点(人物の時刻t2における位置)は何れも、パッチ領域613内にもパッチ領域616内にも位置している。そのため、パッチ領域ごとに、人物の移動ベクトル推定、人物の追跡を行っても、矢印612に対応する人物の通過を検知することができ、通過数の計数漏れは発生しない。
図6(b)におけるパッチ領域613を図6(c)に示す。検知線621は、上記の検知線611のうちパッチ領域613の計数領域615と重なる部分(線分)である。上記のごとく、矢印612の始点および終点はパッチ領域613内に位置しているため、パッチ領域613内で矢印612を特定することができ、その結果、パッチ領域613の計数領域615内で、矢印612は検知線621と交差しているか否かを判定することができる。図6(c)では、矢印612は検知線621と、計数領域615内で交差しているため、時刻t1と時刻t2の間に1人の人物が検知線621を跨いだと判定できる。
図6(b)におけるパッチ領域616を図6(d)に示す。検知線631は、上記の検知線611のうちパッチ領域616の計数領域618と重なる部分(線分)である。上記のごとく、矢印612の始点および終点はパッチ領域616内に位置しているため、パッチ領域616内で矢印612を特定することができ、その結果、パッチ領域616の計数領域618内で、矢印612は検知線631と交差しているか否かを判定することができる。図6(d)では、矢印612は検知線631と、計数領域618内で交差していないため、時刻t1と時刻t2の間に1人の人物が検知線631を跨いでいないと判定できる。
図6(c)における計数結果として「通過数=1」、図6(d)における計数結果として「通過数=0」、が独立に得られるため、これらの合計である「通過数=1+0=1」が得られ、時刻t1から時刻t2の間に1人分の人物の検知線の通過があったと推定できる。これは真の通過数と等しい。
次に、パッチ領域の計数領域が検出領域に真に包含されるようにすることでなぜ人物の通過数の計数精度が上がるのかについて、別の例を示す図7を用いて説明する。図7(a)は、パッチ領域の全体領域が検出領域および計数領域であり(計数領域と検出領域とが完全に一致している)、このようなパッチ領域を表示画面に設定したケースを示している。図7(a)では、検知線701の全体が、パッチ領域705(=計数領域)およびパッチ領域706(=計数領域)によって被覆されている。矢印702、703,704はそれぞれ、人物A,B,Cの時刻t1における位置(始点)から該人物の時刻t2における位置(終点)への移動ベクトルを示す。図7(a)では、矢印702は検知線101と交差しているため、時刻t1と時刻t2の間に人物Aが検知線701を跨いだところを表している。また図7(a)では、矢印703は検知線101と交差しているため、時刻t1と時刻t2の間に人物Bが検知線701を跨いだところを表している。また図7(a)では、矢印704は検知線101と交差しているため、時刻t1と時刻t2の間に人物Cが検知線701を跨いだところを表している。
ここで、矢印702の終点(人物Aの時刻t2における位置)はパッチ領域706内に位置しており、矢印702の始点(人物Aの時刻t1における位置)はパッチ領域705およびパッチ領域706の何れにも属していない。また、矢印703の始点(人物Bの時刻t1における位置)はパッチ領域705内に位置しており、矢印703の終点(人物Bの時刻t2における位置)はパッチ領域705およびパッチ領域706の何れにも属していない。また矢印704の始点(人物Cの時刻t1における位置)および終点(人物Cの時刻t2における位置)は何れも、パッチ領域705およびパッチ領域706の何れにも属していない。
そのため、パッチ領域ごとに、人物の移動ベクトル推定、人物の追跡を行うと、パッチ領域705およびパッチ領域706のいずれにおいても、矢印702,703,704のそれぞれに対応する人物A,B,Cの通過を検知することができない。つまり、図7(a)のようなケースの場合、通過数の計数漏れが発生する(通過数は0人と誤計数される)。
図7(b)は、計数領域が検出領域に真に包含されているパッチ領域を表示画面に設定したケースを示している。図7(b)では、検知線711の全体が、パッチ領域715(検出領域716および計数領域717を有する)の計数領域717、パッチ領域718(検出領域719および計数領域720を有する)の計数領域720、パッチ領域721(検出領域722および計数領域723を有する)の計数領域723、によって被覆されている。
図7(b)におけるパッチ領域715を図7(c)に示す。検知線731は、上記の検知線711のうちパッチ領域715の計数領域717と重なる部分(線分)である。矢印713は、ある人物の時刻t1における位置(始点)から該人物の時刻t2における位置(終点)への移動ベクトルを示す。矢印714は、ある人物の時刻t1における位置(始点)から該人物の時刻t2における位置(終点)への移動ベクトルを示す。矢印713の始点および終点はパッチ領域715内に位置しているため、パッチ領域715内で矢印713を特定することができ、その結果、パッチ領域715の計数領域717内で、矢印713は検知線731と交差しているか否かを判定することができる。また、矢印714の始点および終点はパッチ領域715内に位置しているため、パッチ領域715内で矢印714を特定することができ、その結果、パッチ領域715の計数領域717内で、矢印714は検知線731と交差しているか否かを判定することができる。図7(c)では、矢印713は検知線731と交差しており、矢印714は検知線731と交差しているため、時刻t1と時刻t2の間に2人の人物が検知線731を跨いだと判定できる。
図7(b)におけるパッチ領域718を図7(d)に示す。検知線732は、上記の検知線711のうちパッチ領域718の計数領域720と重なる部分(線分)である。パッチ領域718からは移動ベクトルは検出されなかったため、時刻t1と時刻t2の間に検知線732を跨いだ人物の数は0人と判定できる。
図7(b)におけるパッチ領域721を図7(e)に示す。検知線733は、上記の検知線711のうちパッチ領域721の計数領域723と重なる部分(線分)である。矢印712は、ある人物の時刻t1における位置(始点)から該人物の時刻t2における位置(終点)への移動ベクトルを示す。矢印712の始点および終点はパッチ領域721内に位置しているため、パッチ領域721内で矢印712を特定することができ、その結果、パッチ領域721の計数領域723内で、矢印712は検知線733と交差しているか否かを判定することができる。図7(e)では、矢印712は検知線733と交差しているため、時刻t1と時刻t2の間に1人の人物が検知線733を跨いだと判定できる。
図7(c)における計数結果として「通過数=2」、図7(d)における計数結果として「通過数=0」、図7(e)における計数結果として「通過数=1」、が独立に得られる。よって、これらの合計である「通過数=2+0+1=3」が得られ、時刻t1から時刻t2の間に3人分の人物の検知線の通過があったと推定できる。これは真の通過数と等しい。
このように、図6および図7を例にとり説明したように、パッチ領域の計数領域が検出領域に真に包含されるようにすることで、検知線を通過する人物の数の計数漏れを防ぐことができ、その結果、計数精度を上げることができる。
次に、パッチ抽出部303が検知線に基づいてパッチ領域の位置を決定する決定方法について説明する。上記のごとく、本実施形態では、パッチ領域における計数領域の中心位置と検出領域の中心位置とは一致しており、かつ計数領域は検出領域と相似の縮小領域である。
まずパッチ抽出部303は、パッチ領域における計数領域のサイズを決定する。そのためにパッチ抽出部303は、パッチ領域における検出領域のサイズを該パッチ領域における計数領域のサイズで割った比率r1を決定する。
比率r1にはトレードオフが存在する。計数領域を検出領域とほぼ同じ大きさにとったパッチ領域の例を図8(a)に示す。パッチ領域803は、検出領域804と計数領域805とを有する。矢印802は、その終点が検出領域804の外側にあるため、検知線801における通過を検知できない。次に、計数領域を図8(a)に示した計数領域よりも小さくしたパッチ領域の一例を図8(b)に示す。パッチ領域813は、検出領域814と計数領域815とを有する。計数領域815のサイズに対する検出領域814のサイズの比率が、計数領域805のサイズに対する検出領域804のサイズの比率よりも大きい。そのため、矢印812の始点および終点の両方が検出領域814に含まれ、検知線811における通過を検知することができる。
比率r1を大きくするほど、通過の計数漏れを防げるメリットがある。しかしながら、検知線の全体を被覆するために必要なパッチ領域の個数が増えるため、処理量が大きくなるというデメリットがある。
比率r1を決める方法として、人物が時刻t1から時刻t2の間に動く距離に基づいて求める方法がある。人物が最大速度vで動くと仮定すると、時刻t1から時刻t2の間に人物が実世界で動く最大移動量が求まる。この実世界での最大移動量を、表示画面上での画素数(最大移動画素数)に換算する。検出領域の境界と計数領域との境界との間の画素数が、この最大移動画素数よりも大きくなるように比率r1を決定することで、最大速度v以下で動く人物を漏れなく計数できる。
比率r1を決めるもう一つの方法として、学習期間における統計値に基づく方法がある。ある学習期間を設け、その学習期間中に推定部304により推定された人物の移動ベクトルを収集する。そして、収集した移動ベクトル群から、大きさ(移動ベクトルのサイズ)が上位p%(例えばp=5)に入る移動ベクトルを削除し、残った移動ベクトルの中でもっとも大きいサイズの移動ベクトルの長さをlとする。そして、検出領域の境界と計数領域との境界との間の画素数がlとなるように比率r1を決定することで、移動ベクトルの少なくとも(100−p)%を漏れなく計数できる。
このように、人物の動く速度に基づいて比率r1を決定することで、大多数の移動ベクトルを漏れなく計数しつつ、検知線の全体を被覆するために必要なパッチ領域の個数を必要最小限にできる。なお、比率r1を決定するための方法には様々な方法を適用することができ、上記のような方法に限らない。
そしてパッチ抽出部303は、比率r1を決定すると、パッチ領域における計数領域の縦横サイズを「パッチ領域における検出領域の縦横サイズをr1で割った縦横サイズ」として求める。パッチ領域における計数領域のサイズが確定すると、以降で用いるパッチ領域が「検出領域の内部に、検出領域の縦横サイズをr1で割った縦横サイズを有する計数領域が設けられている」という構成を有するパッチ領域として確定する。
次に、パッチ抽出部303は、検知線のすべての部分がパッチ領域における計数領域によって被覆されるように表示画面上に設定される1個以上のパッチ領域の位置を決定する。
出力装置25の表示画面におけるパッチ領域の位置を決定するための方法の一例として、パッチ領域における検出領域のサイズと、パッチ領域内に映る人物のサイズと、の比率がほぼ一定となるように、それぞれのパッチ領域の位置を決定する方法がある。この方法の採用により、各パッチ領域内に映る人物のサイズのばらつきが小さくなるので、後述する移動ベクトル推定の精度を上げることができる。
この方法では、パッチ領域の位置を、検知線の一方の端から順に決めていく。検知線と、表示画面のX軸(水平方向の軸)の正方向と、がなす角をθと定義する。図9(a)に示す如く、θが45度以上135度以下の場合は、検知線の下からパッチ領域の位置を決める。図9(b)に示す如く、θが0度以上45度未満の場合は、検知線の左からパッチ領域の位置を決める。図9(c)に示す如く、θが135度より大きく180度未満の場合は、検知線の右からパッチ領域の位置を決める。
検出領域のサイズを計数領域のサイズで割った比率r1が固定、かつ検出領域のサイズを表示画面内の人物のサイズで割った比率r2が固定、であるとすると、計数領域のサイズを表示画面内の人物のサイズで割った比率はr2/r1となり、固定となる。よって、検知線の端から順に、以下の条件1〜3をすべて満たすようにパッチ領域の位置を決めることを繰り返すことで、すべてのパッチ領域の位置を決定できる。
条件1 … 検知線においてまだ被覆されていない残りの線分の端点が、ちょうどパッチ領域の計数領域の境界に接する
条件2 … パッチ領域における計数領域の中心を、検知線または検知線を延長して得られる直線が通る
条件3 … パッチ領域における計数領域のサイズを計数領域に映る人物の大きさで割った比率がほぼr2/r1に等しい(略一定)
計数領域に映る人物のサイズは、事前に人手でヒントを与えたり、事前に学習期間を設けて学習期間中に検出された人物から統計的に求めたりすることで推定できる。なお、パッチ領域の位置を決定する方法は上記の方法に限らず、例えば、他の方法として、各パッチ領域が表示画面上のどこに位置する場合でも固定の画素数を含む領域とするように、それぞれのパッチ領域の位置を決定するようにしてもよい。また、例えば、パッチ領域における計数領域同士が一部重なるようにそれぞれのパッチ領域の位置を決定するようにしてもよい。この場合は、後述するステップS407において各パッチ領域で得られた通過数の和をとるときに多重計数とならないように、計数領域同士が重なっている部分に関してはその平均をとった値を通過数とするなどの対応を行う必要がある。
そしてパッチ抽出部303は、検知線の全てが計数領域によって被覆されるようにパッチ領域の位置を決定すると、該決定した位置にパッチ領域を設定し、表示画面に表示されている入力画像において該パッチ領域内の部分画像をパッチとして抽出する。そしてパッチ抽出部303は、抽出したそれぞれのパッチを適当なサイズ(例えば、推定部304が求める固定サイズ)にリサイズする。
<ステップS404>
推定部304は、ステップS403でパッチ抽出部303が取得したそれぞれのパッチについて(独立に)、該パッチ内(検出領域内)における人物の位置に基づいて該人物の移動ベクトルを推定する。画像内における人物の移動ベクトルの推定には、種々の方法を用いることができる。図10を用いてその一例を説明する。
図10に示した方法では、推定部304はパッチから各時刻tiにおける人物位置のリストを推定する。人物位置は、例えば人物の頭部中心や胴体中心など、人物の中のある特定の部位の位置として定義される。例えば、推定部304は、時刻t1におけるフレームの入力画像から抽出されたパッチ1001を入力として、時刻t1におけるパッチ1001内の人物位置(矩形1002参照)のリストを推定する。リストにおける人物位置を模式的に示す矩形1002内におけるマーカ1008は、パッチ1001における人物位置を示すマーカである。また、推定部304は、時刻t2におけるフレームの入力画像から抽出されたパッチ1003を入力として、時刻t2におけるパッチ1003内の人物位置(矩形1004参照)のリストを推定する。リストにおける人物位置を模式的に示す矩形1004内におけるマーカ1009は、パッチ1003における人物位置を示すマーカである。次いで、推定部304は、時刻t(i−1)に対応する人物位置のリストと、時刻tiに対応する人物位置のリストと、の最適マッチングを行う。この最適マッチングの結果対応付いた人物の時刻t(i−1)における人物位置を始点、時刻tiにおける人物位置を終点、とする「時刻tiにおける移動ベクトル」を得る。例えば、推定部304は、時刻t1に対応する人物位置のリスト(矩形1002内のマーカ1008の位置)と、時刻t2に対応する人物位置のリスト(矩形1004内のマーカ1009の位置)と、を入力として、時刻t2における移動ベクトル1011のリスト(リストにおける移動ベクトルを模式的に示す矩形1005参照)を得る。
以下、各処理の詳細を説明する。人物位置の推定の詳細を説明する。人物位置の推定には、種々の手法を用いることができる。例えば、人物位置の推定に、人の特定部位の位置を特定する物体検出器を用いることができる。物体検出器は、物体の位置を矩形形式やマスク画像形式で出力する。物体検出器は、ディープラーニングなどの機械学習手法を用いて学習できる。出力結果の重心などの代表点を人物の位置とできる。
また、人物位置の推定に、密度分布を経由する方法を用いることができる。密度分布とは、ある入力画像において、人物が存在すると推定された箇所を表現したものである。密度分布としては、例えば、通過数計数の対象となる人物の大きさに応じた一様分布であってもよいし、人物が存在する可能性が高い位置に極大を持つような任意の分布であってもよい。後者の例としては、例えば、ガウス分布が挙げられる。密度分布を推定する密度分布推定器は、ディープラーニングなどの機械学習手法を用いて学習できる。さらに、密度分布推定器が推定する密度分布から、人物の位置を推定する人物位置推定器を、ディープラーニングなどの機械学習手法を用いて学習できる。つまり、密度分布推定器を用いて入力画像から密度分布を推定し、人物位置推定器を用いて密度分布から人物位置を推定できる。
図10では、時刻tiにおける人物位置の推定には、時刻tiにおけるパッチを入力とする方法を取った。しかし、人物位置の推定には、複数の時刻におけるパッチを入力としたり、複数の時刻における人物位置を推定したりする推定器を用いてもよい。例えば、時刻tiにおける人物位置を推定するために、時刻t(i−1)におけるパッチと時刻tiにおけるパッチの両方を入力とし、時刻t(i−1)における人物の位置と時刻tiにおける人物の位置とを出力とする物体検出器を用いてもよい。
時刻t(i−1)に対応する人物位置のリストと、時刻tiに対応する人物位置のリストと、の最適マッチングの詳細を説明する。人物位置のマッチングでは、マッチングにおけるコストの総和をなるべく小さくすることが好ましい。このようなマッチングを行うためのアルゴリズムとしては、例えば、ハンガリアンマッチング、線形計画法、ニューラルネットワーク等が挙げられる。マッチングにおけるコストとして、例えば、マッチングで対応づいた人物位置のペアの距離や局所画像特徴量の差に基づくコストを定義できる。コストの総和が最小となるようなマッチングをとることで、全体最適を考慮した最適マッチングができる。
この最適マッチングの結果として対応付いた人物の時刻t(i−1)の人物位置を始点、時刻tiの人物位置を終点、とすることで、該始点から該終点に向かうベクトルを、時刻tiにおける該人物の移動ベクトルとして得る。
<ステップS405>
座標追跡部305は、パッチ抽出部303が取得したそれぞれのパッチについて(独立に)推定部304で推定した人物の移動ベクトルに基づき、該人物の位置を追跡する。
人物の位置を追跡した結果を軌跡と呼ぶ。軌跡は、移動ベクトルをつなぎ合わせることで生成される。例えば、「時刻t(i−1)の人物位置を始点、時刻tiの人物位置を終点、とする時刻tiにおける移動ベクトルA」と、「時刻tiの人物位置を始点、時刻t(i+1)の人物位置を終点、とする時刻t(i+1)における移動ベクトルB」を推定したとする。移動ベクトルAの終点と移動ベクトルBの始点とが同一の位置(人物位置)であれば、座標追跡部305は、移動ベクトルAと移動ベクトルBとを繋いだものを軌跡とする。軌跡には軌跡同士を区別するためのID(例えば、それぞれの人物に固有のID)が付与される。
図10を例にとり、座標追跡部305の動作を説明する。時刻t2における移動ベクトル1011は、時刻t1における人物位置(マーカ1008)と時刻t2における人物位置(マーカ1009)とがマッチングされた結果から得られた移動ベクトルである。時刻t3における移動ベクトル1012は、時刻t2における人物位置(マーカ1009)と時刻t3における人物位置(マーカ1010)とがマッチングされた結果から得られた移動ベクトルである。時刻t2における移動ベクトル1011の終点と時刻t3における移動ベクトル1012の始点は同じ人物位置(マーカ1009)であるため、これらの移動ベクトルから、軌跡1013が生成される。
<ステップS406>
通過数計数部306は、パッチ抽出部303が取得したそれぞれのパッチについて(独立に)推定部304で推定した人物の移動ベクトルもしくは座標追跡部305で計算した人物の軌跡に基づき、検知線を通過した人物の数(通過数)を計数する。
通過数の計数は、移動ベクトルを使う場合であっても、軌跡を使う場合であっても、ほぼ同様に求められる。通過数の計数は、人物の軌跡または移動ベクトルと、検知線と、の交点が、パッチ領域における計数領域内に存在するかを判定することで求められる。例えば図6(c)で表されたパッチ領域613において、矢印612と検知線621との交点は計数領域615内に存在するため、1人分の通過があったと判定される。
このように、通過数計数部306は、それぞれのパッチ領域について、該パッチ領域の計数領域内における「移動ベクトルもしくは軌跡と、検知線と、の交点」の数を計数する。つまり通過数計数部306は、計数領域の内側における「移動ベクトルもしくは軌跡と、検知線と、の交点」のみを計数し、計数領域の外側における「移動ベクトルもしくは軌跡と、検知線と、の交点」については計数しない。
なお、通過数計数部306は、軌跡または移動ベクトルが検知線に対してどちら向きに通過をしたかを判定することで、通過の向きごとに通過数を計数することもできる。軌跡または移動ベクトルと検知線との交差判定は、例えば、線分と線分の交差判定等の幾何学的な方法で行うことが可能である。
軌跡を用いた通過数の計数を行う場合は、同一人物が繰り返し検知線をまたぐような動きをした場合に、通過数を多重に計数しないよう制限を加えることも可能である。これを実現するには、軌跡に付与されたIDごとに、検知線を通過した方向と回数を記憶しておけばよい。
<ステップS407>
通過数計数部306は、ステップS406においてパッチ領域ごとに計数した通過数の総和を、「検知線全体における人物の通過数」として求める。なお、通過数計数部306は、検知線に対する通過の向きごとに通過数を計数することもできる。
なお、上記のステップS404〜S406の処理は何れも、パッチごとに独立に実行できる処理であるため、ステップS404〜S406の一連の処理を、パッチごとに並列に実行することで、高速に通過数の計数を行うことができる。
このように、本実施形態によれば、与えられた検知線に基づき、パッチ領域の位置を動的に決定するようにした。このパッチ領域は、特定物体の推論を行う対象である検出領域と計数の対象となる計数領域の2つから構成される。検知線のすべての部分が、いずれかのパッチ領域の計数領域により被覆されるようにパッチ領域の位置を決定することで、検知線全体の通過数のずれを小さく保ったまま、並列化による高速処理が可能となる。
なお、上記のごとく、本実施形態では、通過数を計数する対象であるオブジェクトが人物である例について説明したが、このようなオブジェクトに適用可能な対象は人物に限らず、数を数えられる任意の物体が適用可能である。例えば、このようなオブジェクトには、自転車やバイク等の乗り物、車やトラック等の車両、家畜等の動物、細胞、微生物が挙げられる。
[第2の実施形態]
第1の実施形態では、検知線全体における通過数を計数するための構成について説明した。このように計数した通過数は、出力装置25の表示画面に表示しても良いし、I/F26を介して外部装置に対して送信してもよい。通過数を出力装置25の表示画面に表示する場合、該通過数は文字列(通過数を表す数字)として表示しても良いし、通過数の増減に応じて大きさ、長さ、色などが変更されるアイコンとして表示してもよい。つまり、計数した通過数の出力先や出力形態は特定の出力先や出力形態に限らない。
また、画像処理装置200は、動画像の供給元とは別個の装置であっても良いし、該供給元と一体化された装置であってもよい。後者の場合、例えば、監視対象領域を撮像する撮像装置に画像処理装置200を組み込み、該撮像装置が自身で撮像した動画像について検知線を通過したオブジェクトの数を計数するようにしてもよい。
なお、上記の説明において使用した数値、処理タイミング、処理順などは、具体的な説明を行うために一例として挙げたものであり、これらの数値、処理タイミング、処理順などに限定することを意図したものではない。
また、以上説明した各実施形態の一部若しくは全部を適宜組み合わせて使用しても構わない。また、以上説明した各実施形態の一部若しくは全部を選択的に使用しても構わない。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。
301:検知線設定部 302:画像取得部 303:パッチ抽出部 304:推定部 305:座標追跡部 306:通過数計数部

Claims (12)

  1. 表示画面内に設定されている検知線に基づいて、該表示画面内にパッチ領域を設定する設定手段と、
    前記表示画面内を移動しているオブジェクトの前記パッチ領域内における移動ベクトルもしくは該移動ベクトルに基づく軌跡と、該パッチ領域内における前記検知線と、の交点を計数する計数手段と
    を備えることを特徴とする画像処理装置。
  2. 前記パッチ領域は、オブジェクトの位置を検出するための領域である検出領域と、該検出領域に包含されかつ前記交点を計数する領域である計数領域と、を有し、
    前記計数手段は、前記表示画面内を移動しているオブジェクトの前記検出領域内における移動ベクトルもしくは該移動ベクトルに基づく軌跡と、該検出領域内における前記検知線と、の交点のうち前記計数領域内における交点を計数する
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記設定手段は、前記表示画面内におけるオブジェクトの速度に応じて前記パッチ領域における前記計数領域のサイズを決定することを特徴とする請求項2に記載の画像処理装置。
  4. 前記設定手段は、それぞれのパッチ領域における計数領域が重複しないように、前記表示画面における該それぞれのパッチ領域の位置を決定することを特徴とする請求項2または3に記載の画像処理装置。
  5. 前記設定手段は、前記検出領域のサイズと前記パッチ領域内に映るオブジェクトのサイズとの比率が略一定となるように、前記表示画面における前記パッチ領域の位置を決定することを特徴とする請求項2または3に記載の画像処理装置。
  6. 前記計数手段は、パッチ領域ごとに並列に前記計数を行うことを特徴とする請求項1ないし5の何れか1項に記載の画像処理装置。
  7. 前記計数手段は、パッチ領域ごとに計数した交点の数の合計を、前記検知線を通過したオブジェクトの数として求めることを特徴とする請求項1ないし6の何れか1項に記載の画像処理装置。
  8. 更に、
    前記計数手段が求めた前記合計を出力する出力手段を備えることを特徴とする請求項7に記載の画像処理装置。
  9. 更に、
    監視対象領域を撮像する撮像装置によって撮像された動画像を取得する取得手段を備え、
    前記動画像における各フレームの画像は前記表示画面に表示される
    ことを特徴とする請求項1ないし8の何れか1項に記載の画像処理装置。
  10. 前記画像処理装置は前記撮像装置と一体化されていることを特徴とする請求項9に記載の画像処理装置。
  11. 画像処理装置が行う画像処理方法であって、
    前記画像処理装置の設定手段が、表示画面内に設定されている検知線に基づいて、該表示画面内にパッチ領域を設定する設定工程と、
    前記画像処理装置の計数手段が、前記表示画面内を移動しているオブジェクトの前記パッチ領域内における移動ベクトルもしくは該移動ベクトルに基づく軌跡と、該パッチ領域内における前記検知線と、の交点を計数する計数工程と
    を備えることを特徴とする画像処理方法。
  12. コンピュータを、請求項1ないし10の何れか1項に記載の画像処理装置の各手段として機能させるためのコンピュータプログラム。
JP2020044386A 2020-03-13 2020-03-13 画像処理装置、画像処理方法 Pending JP2021145303A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2020044386A JP2021145303A (ja) 2020-03-13 2020-03-13 画像処理装置、画像処理方法
US17/189,301 US11887309B2 (en) 2020-03-13 2021-03-02 Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
KR1020210027801A KR20210116247A (ko) 2020-03-13 2021-03-03 화상 처리장치, 화상 처리방법, 및 비일시적인 컴퓨터 판독가능한 기억매체
CN202110258531.0A CN113393552A (zh) 2020-03-13 2021-03-09 图像处理设备、方法和非暂时性计算机可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020044386A JP2021145303A (ja) 2020-03-13 2020-03-13 画像処理装置、画像処理方法

Publications (2)

Publication Number Publication Date
JP2021145303A true JP2021145303A (ja) 2021-09-24
JP2021145303A5 JP2021145303A5 (ja) 2023-03-15

Family

ID=77617410

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020044386A Pending JP2021145303A (ja) 2020-03-13 2020-03-13 画像処理装置、画像処理方法

Country Status (4)

Country Link
US (1) US11887309B2 (ja)
JP (1) JP2021145303A (ja)
KR (1) KR20210116247A (ja)
CN (1) CN113393552A (ja)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5921329B2 (ja) * 2012-05-17 2016-05-24 キヤノン株式会社 映像処理装置、追尾物体の管理方法、および、プログラム
JP6568374B2 (ja) * 2015-03-27 2019-08-28 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
JP6433389B2 (ja) * 2015-08-04 2018-12-05 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP6156665B1 (ja) * 2016-04-08 2017-07-05 パナソニックIpマネジメント株式会社 施設内活動分析装置、施設内活動分析システムおよび施設内活動分析方法
JP6914699B2 (ja) 2017-04-04 2021-08-04 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP7123545B2 (ja) * 2017-10-30 2022-08-23 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム

Also Published As

Publication number Publication date
US20210287374A1 (en) 2021-09-16
US11887309B2 (en) 2024-01-30
CN113393552A (zh) 2021-09-14
KR20210116247A (ko) 2021-09-27

Similar Documents

Publication Publication Date Title
JP5121508B2 (ja) 画像処理装置、画像処理方法、プログラム及び記憶媒体
JP5925068B2 (ja) 映像処理装置、映像処理方法、およびプログラム
JP6159179B2 (ja) 画像処理装置、画像処理方法
JP6700752B2 (ja) 位置検出装置、位置検出方法及びプログラム
JP6555906B2 (ja) 情報処理装置、情報処理方法、およびプログラム
WO2016114134A1 (ja) 移動状況推定装置、移動状況推定方法およびプログラム記録媒体
CN106488115B (zh) 用于追踪并传感追踪目标的图像传感设备的控制装置及方法
JP2014116912A (ja) 画像処理装置、画像処理装置の制御方法およびプログラム
JP2016206995A (ja) 画像処理装置、画像処理方法、及びプログラム
TWI671707B (zh) 影像分析方法、電子系統以及非暫態電腦可讀取記錄媒體
JP6991045B2 (ja) 画像処理装置、画像処理装置の制御方法
JP7484924B2 (ja) 撮像装置、画像処理システム、画像処理方法及びプログラム
JP7383435B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP7418966B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP5930808B2 (ja) 画像処理装置、画像処理装置の制御方法、およびプログラム
JP2021145303A (ja) 画像処理装置、画像処理方法
JP2021196899A (ja) 画像処理装置、画像処理方法、及びプログラム
JP2019087166A (ja) 撮影画像に含まれる境界線を検出するための装置、方法、及びプログラム
KR102576795B1 (ko) 포즈 추정 기반의 정면 영상 획득 방법 및 이를 위한 장치
JP6451418B2 (ja) 注視対象判定装置、注視対象判定方法、および、注視対象判定プログラム
JP2020071783A (ja) 画像解析装置、画像解析方法、及びプログラム
JP4434689B2 (ja) 物体計数方法及び物体計数装置
JP2020201674A (ja) 映像解析装置及びその制御方法及びプログラム
JP7129209B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP2016051236A (ja) 画像処理装置、画像処理方法およびそれを用いた検査方法。

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230307

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230307

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240321

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240607