JP7433864B2 - 画像処理装置、画像処理方法、およびプログラム - Google Patents

画像処理装置、画像処理方法、およびプログラム Download PDF

Info

Publication number
JP7433864B2
JP7433864B2 JP2019214784A JP2019214784A JP7433864B2 JP 7433864 B2 JP7433864 B2 JP 7433864B2 JP 2019214784 A JP2019214784 A JP 2019214784A JP 2019214784 A JP2019214784 A JP 2019214784A JP 7433864 B2 JP7433864 B2 JP 7433864B2
Authority
JP
Japan
Prior art keywords
detected
image
specific object
image processing
estimation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019214784A
Other languages
English (en)
Other versions
JP2021086392A (ja
Inventor
良 前田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019214784A priority Critical patent/JP7433864B2/ja
Priority to US17/099,491 priority patent/US11521330B2/en
Publication of JP2021086392A publication Critical patent/JP2021086392A/ja
Application granted granted Critical
Publication of JP7433864B2 publication Critical patent/JP7433864B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/77Determining position or orientation of objects or cameras using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Data Mining & Analysis (AREA)
  • Geometry (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、画像処理技術に関する。
近年、撮像装置で所定の領域を撮像し、撮像した画像を解析することによって画像中の人物を計数するシステムが提案されている。このようなシステムは、公共の空間での混雑の検知及び混雑時の人物の流れを把握することでイベント時の混雑解消や災害時の避難誘導への活用が期待されている。
非特許文献1では、機械学習によって得た認識モデルを用いて、画像の所定の推定領域に映る人数を直接推定する方法が開示されている。以下、この方法を回帰ベース推定法とする。
池田浩雄,大網亮磨,宮野博義.CNNを用いた群衆パッチ学習に基づく人数推定の高精度化.FIT,2014
回帰ベース推定法において、特定物体の数を推定する精度を向上させるために、画像上に映る特定物体のサイズに比例したサイズの推定領域を設定する必要がある。このとき、撮像装置により撮像された画像に対して複数の推定領域を設定する場合、該画像に映る特定物体のサイズをユーザが確認しながら該画像に対し複数の推定領域を設定する方法が考えられる。このとき、画像に映る特定物体のサイズのサンプルはより多いほうが画像上に映る特定物体のサイズに比例したサイズの推定領域をより適切に設定できる。しかしながら、ユーザが確認する画像には必ずしも十分な数の特定物体が映っているとは限らないため、画像上に映る特定物体のサイズに比例したサイズの推定領域を適切に設定できないことがあった。
そこで本発明は、特定物体の数を推定する精度を高くするためにより適切な推定領域を設定することを目的としている。
上記課題を解決するために、本発明の画像処理装置は以下の構成を備える。すなわち、撮像手段により撮像された画像において特定物体を検出する検出処理を実行する検出手段と、前記検出処理により検出された特定物体の前記画像上の位置およびサイズの情報を示す物体情報を保持する保持手段と、前記撮像手段により撮像された複数の画像に対する前記検出処理により前記特定物体が検出された回数が所定値に達したかを判定する判定手段と、前記特定物体が検出された回数が前記所定値に達したと前記判定手段により判定された場合、前記検出処理により検出された前記特定物体の前記物体情報に基づき、前記撮像手段により撮像された画像に対して複数の推定領域を設定する第1設定手段と、前記複数の推定領域の各々に含まれる前記特定物体の数を推定する推定処理を実行する推定手段と、を有する。
本発明によれば、特定物体の数を推定する精度を高くするためにより適切な推定領域を設定することができる。
システム構成の一例を示す図である。 画像処理装置の機能ブロックを示す図である。 推定領域を設定する処理を説明するための図である。 推定領域を設定する処理を説明するための図である。 推定領域に対する推定処理を説明するための図である。 推定領域を設定する処理および推定領域に対する推定処理の流れを示すフローチャートである。 推定領域を設定する処理を説明するための図である。 推定領域を設定する処理の流れを示すフローチャートである。 各装置のハードウェア構成を示す図である。
以下、添付図面を参照しながら、本発明に係る実施形態について説明する。なお、以下の実施形態において示す構成は一例に過ぎず、図示された構成に限定されるものではない。
(実施形態1)
図1は、本実施形態におけるシステム構成を示す図である。本実施形態におけるシステムは、画像処理装置100、撮像装置110、記録装置120、およびディスプレイ130を有している。
画像処理装置100、撮像装置110、および記録装置120は、ネットワーク140を介して相互に接続されている。ネットワーク140は、例えばETHERNET(登録商標)等の通信規格に準拠する複数のルータ、スイッチ、ケーブル等から実現される。
なお、ネットワーク140は、インターネットや有線LAN(Local Area Network)、無線LAN(Wireless Lan)、WAN(Wide Area Network)等により実現されてもよい。
画像処理装置100は、例えば、後述する画像処理の機能を実現するためのプログラムがインストールされたパーソナルコンピュータ等によって実現される。撮像装置110は、画像を撮像する装置である。撮像装置110は、撮像した画像の画像データと、画像を撮像した撮像時刻の情報と、撮像装置110を識別する情報である識別情報とを関連付けて、ネットワーク140を介し、画像処理装置100や記録装置120等の外部装置へ送信する。なお、本実施形態に係るシステムにおいて、撮像装置110は1つとするが、複数であってもよい。
記録装置120は、撮像装置110が撮像した画像の画像データと、画像を撮像した撮像時刻の情報と、撮像装置110を識別する識別情報とを関連付けて記録する。そして、画像処理装置100からの要求に従って、記録装置120は、記録したデータ(画像、識別情報など)を画像処理装置100へ送信する。
ディスプレイ130は、LCD(Liquid Crystal Display)等により構成されており、画像処理装置100の画像処理の結果や、撮像装置110が撮像した画像などを表示する。ディスプレイ130は、HDMI(登録商標)(High Definition Multimedia Interface)等の通信規格に準拠したディスプレイケーブルを介して画像処理装置100と接続されている。
また、ディスプレイ130は、表示手段として機能し、撮像装置110が撮像した画像や、後述する画像処理による結果等を表示する。なお、ディスプレイ130、画像処理装置100、および記録装置120の少なくともいずれか2つ又は全ては、単一の筐体に設けられてもよい。また、画像処理装置100および撮像装置110は単一の筐体に設けられていてもよい。すなわち、撮像装置110が後述する画像処理装置100の機能および構成を有していてもよい。
なお、画像処理装置100の画像処理の結果や、撮像装置110により撮像された画像は、画像処理装置100にディスプレイケーブルを介して接続されたディスプレイ130に限らず、例えば、次のような外部装置が有するディスプレイに表示されてもよい。すなわち、ネットワーク140を介して接続されたスマートフォン、タブレット端末などのモバイルデバイスが有するディスプレイに表示されていてもよい。
次に、図2に示す本実施形態に係る画像処理装置100の機能ブロックを参照して、本実施形態に係る画像処理装置100の画像処理について説明する。なお、図2に示す各機能は、本実施形態の場合、図9を参照して後述するROM(Read Only Memory)902とCPU(Central Processing Unit)900とを用いて、次のようにして実現されるものとする。図2に示す各機能は、画像処理装置100のROM902に格納されたコンピュータプログラムを画像処理装置100のCPU900が実行することにより実現される。
通信部200は、図9を参照して後述するI/F(Interface)904によって実現でき、ネットワーク140を介して、撮像装置110や記録装置120と通信を行う。通信部200は、例えば、撮像装置110が撮像した画像の画像データを受信したり、撮像装置110を制御するための制御コマンドを撮像装置110へ送信したりする。なお、制御コマンドは、例えば、撮像装置110に対して画像を撮像するよう指示を行うコマンドなどを含む。
記憶部201は、図9を参照して後述するRAM(Random Access Memory)901やHDD(Hard Disk Drive)903等によって実現でき、画像処理装置100による画像処理に関わる情報やデータを記憶する。記憶部201は、後述する検出部204による検出処理により検出された特定物体の画像上の位置およびサイズの情報を示す物体情報を保持する。
出力制御部202は、撮像装置110が撮像した画像や、画像処理の結果を示す情報などを外部装置に出力したり、ディスプレイ130に表示させたりする。なお、出力制御部202による情報の出力先である外部装置は、例えば、他の画像処理装置(不図示)や記録装置120を含む。操作受付部203は、キーボードやマウス等の入力装置(不図示)を介して、ユーザが行った操作を受け付ける。
検出部204は、回帰ベース推定法と異なる方法を用いて、画像における特定物体を検出する検出処理を実行する。本実施形態における検出部204は、例えば、照合パターン(辞書)を使用して、パターンマッチング等の処理を行うことで、画像から特定物体の検出を行う。そして記憶部201は、画像において特定物体が検出されるたびに特定物体の画像上の位置およびサイズを示す物体情報を蓄積していく。
なお、画像から特定物体として人物を検出する場合において、人物が正面向きである場合の照合パターンと横向きである場合の照合パターンなど複数の照合パターンを用いて画像から人物を検出するようにしてもよい。このように、複数の照合パターンを用いた検出処理を実行することで、検出精度の向上が期待できる。
なお、照合パターンとして、斜め方向からや上方向からなど他の角度から特定の物体を見た場合の照合パターンを用意しておいてもよい。また、特定物体として人物を検出する場合、必ずしも全身の特徴を示す照合パターン(辞書)を用意しておく必要はなく、上半身、下半身、頭部、顔、足などの人物の一部について照合パターンを用意してもよい。
判定部205は、複数の画像に対する検出処理により特定物体が検出された回数が所定値に達したかを判定する。言い換えれば、判定部205は、記憶部201により保持および蓄積される物体情報の数が所定値に達したかを判定する。
第1推定部206は、撮像装置110により撮像された複数の画像に対する検出部204の検出処理により検出された特定物体の物体情報に基づき、撮像装置110により撮像される画像上の位置ごとの特定物体のサイズを推定する。なお、以降の説明において、第1推定部206により推定される画像上の位置ごとの特定物体のサイズを示す情報をジオメトリ情報とする。
設定部207は、判定部205により特定物体が検出された回数が所定値に達したと判定された場合、検出処理により検出された特定物体の物体情報に基づき、複数の推定領域を設定する。具体的には、設定部207は、複数の画像に対する検出処理により特定物体が検出された回数が所定値に達した場合、記憶部201が蓄積した物体情報に基づき第1推定部206により推定されたジオメトリ情報に従い、画像に対し複数の推定領域を設定する。
第2推定部208は、回帰ベース推定法を用いて、設定部207により設定された画像における複数の推定領域の各々に含まれる特定物体の数を推定する推定処理を実行する。回帰ベース推定法では、ある固定サイズSの小画像を入力とし、該小画像に写っている特定物体の数を出力とする回帰器(学習済み認識モデル)を用いることで、撮像装置110により撮像された画像上の推定領域における特定物体の数を推定する。回帰器を学習させるにあたって、特定物体の位置が既知である固定サイズSの小画像を大量に用意し、該対象の小画像を学習データとして、機械学習手法に基づいて回帰器を学習しておく。このとき、特定物体の数の推定精度を向上させるため、学習データである小画像のサイズ(固定サイズS)と当該小画像に映る特定物体のサイズとの比率が略一定であることが望ましい。そして第2推定部208は、複数の推定領域の各々について、該推定領域の画像を固定サイズSにリサイズしたものを小画像とし、該小画像を回帰器に入力することで「該推定領域内の特定物体の位置」を回帰器からの出力として求める。このとき、該推定領域内の特定物体の位置の数が、該推定領域内における特定物体の数となる。
また、設定部207が画像に対し複数の推定領域を設定するにあたって、推定領域のサイズと該推定領域における特定物体のサイズとの比率が、学習データである小画像のサイズと当該小画像に映る特定物体のサイズとの比率rと略同一になることが望ましい。このように、学習データの環境に近づくよう画像に対し推定領域を設定することで、推定領域に含まれる特定物体の数の推定精度をより高めることができる。
したがって、本実施形態における設定部207は、複数の画像に対する検出処理により特定物体が検出された回数が所定値に達したと判定部205により判定された場合、次のような処理を実行する。すなわち、設定部207は、記憶部201が蓄積した物体情報に基づき推定されたジオメトリ情報に従って、推定領域のサイズと該推定領域に含まれる特定物体のサイズとの比率が学習データに対応する比率rとなるよう画像に対し複数の推定領域を設定する。
計数部209は、撮像された画像に対し設定された複数の推定領域の各々に対する第2推定部208による推定処理に推定された特定物体の数を合算することで計数結果を取得する。出力制御部202は、推定領域の各々に対して推定された特定物体の数を合算した計数結果を示す情報を外部装置(ディスプレイ130等)へ出力する。
ここで、図3を参照して本実施形態に係る画像処理について更に具体的に説明する。なお、以降の説明において数の推定対象となる特定物体を人物として説明するが、人物に限定されるものではない。例えば、特定物体は、道路等を走行している各種車両、工場内のコンベアー上を流れている部品や製品、その他、動物等であってもよい。
図3は、検出部204により画像から人物が検出された様子を示す図である。画像301は、撮像装置110により撮像された画像であり、複数の人物302が映っている。なお、本実施形態における検出部204は、照合パターンを用いたパターンマッチング法により画像上の人物の領域(以下人物領域)を検出するものとする。図3に示す物体情報303は、画像から検出部204により検出された人物領域の画像上の位置およびサイズを示す情報である。物体情報303における検出された人物領域の画像上の位置は、画像の左上の端点を原点としたときの該人物領域の中心位置におけるX座標およびY座標で示されるものとする。また、物体情報303における検出された人物領域の画像上のサイズは、画像の垂直方向(Y軸方向)における該人物領域の長さを示すものとする。記憶部201は、図3に示すように画像から検出された複数の人物302の各々に対応する物体情報を保持および蓄積していく。また図3に示す例では1枚のフレーム画像に対し人物が検出された様子を示しているが、検出部204は、撮像装置110により撮像された複数フレームの画像にわたって人物を検出する検出処理を実行する。そして、記憶部201は、複数フレームの画像において人物が検出されるたびに検出された人物の物体情報を保持および蓄積していく。
第1推定部206は、複数の画像において人物が検出された回数が所定値に達したと判定部205により判定された場合、記憶部201により蓄積された人物の物体情報に基づき、画像上の任意の位置に映る人物のサイズを示すジオメトリ情報を推定する。ジオメトリ情報は、画像上の任意の位置(x,y)から、当該位置で映る平均的な人物のサイズf(x,y)として与えられる。画像上の任意の位置における人物のサイズであるf(x,y)は、例えば、x、y及び1個以上のパラメータによって表せると仮定する。例えば、f(x,y)=ax+by+cと仮定する。この例では、未知のパラメータはa、b及びcである。このとき第1推定部206は、記憶部201により蓄積された人物の物体情報を用いて、未知のパラメータを、例えば最小二乗法等の統計処理により求めることができる。最小二乗法やニュートン法などの既存の最適化手法によってf(x,y)のパラメータを推定する。
ここで、図4を参照して本実施形態における設定部207による複数の推定領域を設定する処理について説明する。図4(a)~(c)は、撮像装置110により撮像された画像400に対し設定部207により複数の推定領域を設定する様子を示す図である。なお図4に示す例において、ジオメトリ情報が示す画像上の任意の位置における人物のサイズとして、画像400の水平方向において人物のサイズは略同一であり、画像400の垂直方向における下部から上部に向かうにつれ人物のサイズは小さくなるものとする。まず、本実施形態における設定部207は、図4(a)に示すように、画像400の下端に沿って複数の推定領域401を設定する。このとき推定領域401のサイズと、該推定領域401内の下端の座標においてジオメトリ情報が示す人物のサイズとの比率が学習データに対応する比率rと略同一になるように、設定部207は推定領域401を設定する。次に、設定部207は、図4(b)に示すように、複数の推定領域401の上端に沿って、複数の推定領域402を設定する。このとき推定領域402のサイズと、該推定領域402内の下端の座標においてジオメトリ情報が示す人物のサイズとの比率が学習データに対応する比率rと略同一になるように、設定部207は推定領域402を設定する。次に、設定部207は、図4(c)に示すように、複数の推定領域402の上端に沿って、複数の推定領域403を設定する。このとき推定領域403のサイズと、該推定領域403内の下端の座標においてジオメトリ情報が示す人物のサイズとの比率が学習データに対応する比率rと略同一になるように、設定部207は推定領域403を複数設定する。このように、本実施形態における設定部207は、推定領域のサイズと該推定領域における特定物体のサイズとの比率が、学習データである小画像のサイズと当該小画像に映る特定物体のサイズとの比率rと略同一になるよう、画像に対し推定領域を設定する。このように、学習データの環境に近づくよう画像に対し推定領域を設定することで、推定領域に含まれる特定物体の数の推定精度をより高めることができる。なお図4(a)~(c)を参照した上述の説明において画像の下端から順番に推定領域を設定したが、これに限らず、他の位置から推定領域を設定してもよい。
第2推定部208は、画像500に対し設定された複数の推定領域の各々について、推定領域の画像を固定サイズSにリサイズしたものを小画像とし、予め学習した回帰器に該小画像を入力して「該推定領域内の人物の位置」を回帰器からの出力として求める。このとき、該推定領域内の人物の位置の個数が該推定領域に含まれる人物の数を示す、なお、該推定領域内の人物の位置の個数は、整数であってもよいし、小数点以下の数値を含む実数値であってもよい。図5は、画像500に対して設定部207により設定された複数の小領域の各々に対する第2推定部208による推定処理の結果を示す模式図である。なお、図5に示すように、推定領域501に含まれる数値502は、推定領域501に対し推定された人物の数を示している。計数部209は、撮像された画像に対し設定された複数の推定領域の各々に対する第2推定部208による推定処理に推定された人物の数を合算した計数結果である12.1人を取得する。出力制御部202は、複数の推定領域501と、当該複数の推定領域501に対する推定処理の結果を示す情報である数値502とを画像500に重畳することで出力画像を生成し、生成した出力画像を外部装置(ディスプレイ130)に出力する。このとき、出力制御部202は、生成した該出力画像をディスプレイ130に表示させてもよい。
次に、図6を参照して、本実施形態における画像処理について更に詳細に説明する。なお、図6(a)に示すフローを実行することで、画像に対し複数の推定領域を設定することができる。また、図6(b)に示すフローを実行することで、画像に対し設定された複数の推定領域の各々に対し推定処理を実行することで画像に含まれる人物の数を推定することができる。なお、図6(a)に示すフローの処理は、例えば、ユーザによる指示に従って、開始又は終了するものとする。そして、図6(b)に示すフローの処理は、図6(a)に示すフロー処理が実行され複数の推定領域が設定されたのちに実行される。なお、図6に示すフローチャートの処理は、画像処理装置100のROM902に格納されたコンピュータプログラムを画像処理装置100のCPU900が実行して実現される図2に示す機能ブロックにより実行されるものとする。
まず、図6(a)に示すフローの処理について説明する。S601にて、通信部200は、撮像装置110により撮像された動画における1つのフレームの画像を処理対象の画像として取得する。なお、通信部200は、ネットワーク140を介して撮像装置110や記憶装置120から処理対象の画像を取得してもよいし、画像処理装置100の記憶部201から処理対象の画像を取得してもよい。
次に、S602にて、検出部204は、画像における人物を検出する検出処理を実行する。本実施形態における検出部204は、照合パターン(辞書)を使用して、パターンマッチング等の処理を行うことで、人物の検出を行う。
次に、S603にて、記憶部201は、画像において人物が検出されるたびに人物の画像上の位置およびサイズを示す物体情報を蓄積していく。
次に、S604にて、判定部205は、検出処理により人物が検出された回数が所定値に達したかを判定する。言い換えれば、判定部205は、記憶部201により保持および蓄積される物体情報の数が所定値に達したかを判定する。このとき、検出処理により人物が検出された回数が所定値に達していないと判定部205により判定された場合(S604にてNo)、S601へ遷移する。そして、通信部200は、撮像装置110により撮像された動画における次のフレームの画像を処理対象の画像として取得する。このように、検出処理により人物が検出された回数が所定値に達するまでS601~S603の処理が繰り返され、記憶部201は、人物が検出されるたびに該人物の物体情報を蓄積していく。
S604にて検出処理により人物が検出された回数が所定値に達したと判定部205により判定された場合(S604にてYes)、S605へ遷移する。そしてS605にて第1推定部206は、記憶部201により蓄積された人物の物体情報に基づき、画像上の任意の位置に映る人物のサイズを示すジオメトリ情報を推定する。
次に、S606にて、設定部207は、ジオメトリ情報に基づき、推定領域のサイズと該推定領域における特定物体のサイズとの比率が、学習データに対応する比率rと略同一になるよう、撮像装置110により撮像される画像に対し複数の推定領域を設定する。
次に、図6(b)に示すフローの処理について説明する。まずS661にて、通信部200は、撮像装置110により撮像された動画における1つのフレームの画像を処理対象の画像として取得する。なお、通信部200は、ネットワーク140を介して撮像装置110や記憶装置120から処理対象の画像を取得してもよいし、画像処理装置100の記憶部201から処理対象の画像を取得してもよい。また、通信部200は、撮像装置110により撮像された静止画を処理対象の画像として取得してもよい。
次に、S662にて、設定部207は、S606にて設定した複数の推定領域の情報を取得し、現在処理対象とする画像に対し該複数の推定領域を設定する。次に、S663にて、第2推定部208は、現在処理対象とする画像に対し設定された複数の推定領域の各々に対し人物の数を推定する推定処理を実行する。
次に、S664にて、計測部209は、撮像された画像に対し設定された複数の推定領域の各々に対する第2推定部208による推定処理に推定された特定物体の数を合算することで計数結果を取得する。次に、S665にて、出力制御部202は、推定領域の各々に対して推定された特定物体の数を合算した計数結果を示す情報を外部装置(ディスプレイ130等)へ出力する。次に、S666にて、ユーザによる終了の指示がない場合(S666にてNo)、S661へ遷移し、通信部200は、撮像装置110により撮像された動画における次のフレームの画像を処理対象の画像として取得する。一方、ユーザによる終了の指示がある場合(S666にてYes)、図6(b)に示す処理を終了する。
なお、図6(a)において人物が検出された回数が所定値に達したかを判定し(S604)、所定値に達した場合、ジオメトリ情報を推定し(S605)、複数の推定領域を設定(S606)したが、これに限らない。例えば、第1の閾値と、当該第1の閾値より大きい第2の閾値とを予め設定しておき、S604にて人物が検出された回数が第1の閾値に達した場合、ジオメトリ情報を推定し(S605)、複数の推定領域を設定(S606)してもよい。このとき設定された複数の推定領域の設定情報を第1設定情報とする。そして、図6(b)に示すフローの処理を第1設定情報に基づき実行しつつ、図6(a)に示すフローの処理を並行して実行してもよい。この場合、第1設定情報に基づき実行される図6(b)の処理と並行して実行される図6(a)の処理にて、人物が検出された回数が第2の閾値に達したかを判定し(S604)する。そして、第2の閾値に達した場合、ジオメトリ情報を推定し(S605)、複数の推定領域を設定(S606)する。このとき設定された複数の推定領域の設定情報を第2設定情報とする。第2設定情報が取得された場合、図6(b)に示すフローの処理において用いられる設定情報として第1設定情報から第2設定情報に変更する。このように図6(a)の処理と図6(b)の処理とを並行して実行してもよい。
また、画像処理装置100は、S604にて、人物が検出された回数が所定値に達していなくても、図6(a)の処理を開始してから一定時間経過したらS605に遷移するようにしてもよい。
また、図6(a)に示すフローの処理は、例えば、撮像装置110のパンおよびチルトで示される撮像方向やズーム倍率が変化した場合に実行されるようにしてもよい。撮像装置110が撮像する範囲である撮像範囲(撮像方向およびズーム倍率により定まる)が変化した場合、画像上の任意の位置における人物のサイズ、すなわちジオメトリ情報が変化する。そのため図6(a)に示すフローの処理は、撮像装置110の撮像範囲の変化に伴って実行されるようにしてもよい。
以上説明したように、本実施形態において、画像処理装置100は、複数の画像にわたって特定物体が検出された回数が所定値に達した場合、蓄積した物体情報に基づき、画像上の任意の位置における特定物体のサイズの情報であるジオメトリ情報を推定する。そして画像処理装置100は、ジオメトリ情報に従って、推定領域のサイズと該推定領域に含まれる特定物体のサイズとの比率が学習データに対応する比率rとなるよう画像に対し複数の推定領域を設定する。このようにすることで、推定領域をより適切に設定することができ、結果的に推定領域における特定物体の数を推定する精度を高くすることができる。
(実施形態2)
本実施形態では、画像を複数に分割した分割領域において特定物体を検出し、複数の分割領域各々において複数の画像にわたって特定物体が検出された回数が所定値に達した場合、ジオメトリ情報を推定し、該ジオメトリ情報に従い複数の推定領域を設定する。なお、実施形態1と異なる部分を主に説明し、実施形態1と同一または同等の構成要素、および処理には同一の符号を付すとともに、重複する説明は省略する。また実施形態1と同様、以下の説明において特定物体を人物として説明するが、人物に限定されるものではない。例えば、特定物体は、道路等を走行している各種車両、工場内のコンベアー上を流れている部品や製品、その他、動物等であってもよい。
ここでまず図7を参照して本実施形態における画像処理装置100の処理について説明する。本実施形態における設定部207は、図7(a)に示すように、画像701を分割した複数の分割領域702を設定する。そして、検出部204は、画像701における複数の分割領域702において人物を検出する検出処理を実行する。
本実施形態における判定部205は、複数の画像に対する検出処理の結果に基づき、複数の分割領域の各々について、人物が検出された回数が所定値(閾値)に達したかを判定する。そして、検出部204は、複数の分割領域のうち、人物が検出された回数が所定値(閾値)に達したと判定部205により判定された分割領域について検出処理の実行を停止する。図7(b)に示す分割領域703は、人物が検出された回数が所定値(閾値)に達したと判定部205により判定された分割領域を示す。このようにして、本実施形態における検出部204は、全ての複数の分割領域について、人物が検出された回数が所定値(閾値)に達したと判定されるまで、検出処理を継続する。なお、複数の分割領域の各々について検出された回数と比較される所定値(閾値)は、予め設定部207により設定されるものとする。このとき、設定部207は、例えば、ユーザによる指示に従って所定値(閾値)を設定する。なお、設定部207は、分割領域ごとに異なる所定値(閾値)を設定してもよい。
実施形態1と同様、記憶部201は、検出処理により人物が検出されるたびに該人物の画像上の位置およびサイズを示す物体情報を蓄積および保持する。そして、本実施形態では、複数の分割領域の各々について人物が検出された回数が所定値に達したと判定部205により判定された場合、第1推定部206は、記憶部201が蓄積した人物の物体情報に基づき、ジオメトリ情報を推定する。そして、設定部207は、第1推定部206により推定されたジオメトリ情報に基づき、画像に対して複数の推定領域を設定する。
次に、図8に示すフローを参照して、本実施形態における画像処理装置100の画像処理について説明する。図8に示すフローの処理を実行することで、画像に対して複数の推定領域をより適切に設定することができる。なお、図8に示すフローチャートの処理は、画像処理装置100のROM902に格納されたコンピュータプログラムを画像処理装置100のCPU900が実行して実現される図2に示す機能ブロックにより実行されるものとする。
まず、S801にて、通信部200は、撮像装置110により撮像された動画における1つのフレームの画像を処理対象の画像として取得する。なお、通信部200は、ネットワーク140を介して撮像装置110や記憶装置120から処理対象の画像を取得してもよいし、画像処理装置100の記憶部201から処理対象の画像を取得してもよい。
次に、S802にて、設定部207は、処理対象とする画像に対し複数の分割領域を設定する。このとき、例えば、操作受付部203が受け付けた画像上の分割領域を指定する操作に基づき、設定部207は、図7に示すような6つの分割領域701を画像に対し設定する。図7に示す例では、画像の水平方向に並ぶ3つ分割領域からなる行が画像の垂直方向に2つ存在するが、これに限らない。例えば、設定部207は、画像の水平方向に並ぶ分割領域の数、および、該水平方向に並ぶ分割領域からなる行の垂直方向における数は任意の数でよい。また、設定部207は、行ごとに分割領域のサイズを異ならせてもよく、例えば、画像下端における行を構成する分割領域のサイズは、画像上端における行を構成する分割領域のサイズよりも大きくしてもよい。
次に、S803にて、検出部204は、処理対象の画像において未完了の分割領域について人物を検出する検出処理を実行する。なお、未完了の分割領域とは、画像に対して設定された複数の分割領域のうち、人物が検出された回数が所定値(閾値)に達していない分割領域を示す。つまり、S803にて、検出部204は、複数の分割領域のうち、人物が検出された回数が所定値に達した分割領域においては検出処理を実行せず、人物が検出された回数が所定値に達していない分割領域において検出処理を実行する。
次に、S804にて、記憶部201は、画像において人物が検出されるたびに人物の画像上の位置およびサイズを示す物体情報を蓄積していく。
次に、S805にて、判定部205は、未完了の分割領域があるかを判定する。言い換えれば、判定部205は、複数の分割領域のうち人物が検出された回数が所定値に達していない分割領域があるかを判定する。未完了の分割領域があると判定部205により判定された場合(S805にてYes)、S801へ遷移し、通信部200は、撮像装置110により撮像された動画における次のフレームの画像を処理対象の画像として取得する。このように、全ての分割領域について人物が検出された回数が所定値に達するまでS801~S804の処理が繰り返され、記憶部201は、人物が検出されるたびに該人物の物体情報を蓄積していく。
S805にて未完了の分割領域がないと判定部205により判定された場合(S805にてYes)、S605へ遷移する。S605およびS606については、実施形態1において図6を参照して説明した内容と同様であるため、説明を省略する。
このように、図8に示すフロー処理では、画像を複数に分割した分割領域の各々について、人物が検出された回数が所定値に達するまで検出処理を継続し、検出された人物の物体情報を蓄積していく。そして、画像処理装置100は、蓄積した物体情報に基づきジオメトリ情報を推定し、推定したジオメトリ情報に従って、画像に対して複数の推定領域を設定する。図8に示すフローの処理を実行したのち、図6(b)に示すフローの処理を実行することで、図8に示すフローの処理を経て設定された複数の推定領域を用いて、画像に含まれる人物の数を推定し、推定した人物の数を合算した計数結果を出力する。
なお、本実施形態では、複数の分割領域の全てにおいて人物が検出された回数が所定値に達した場合、ジオメトリ情報を推定し(S605)し、複数の推定領域を設定(S606)したが、これに限らない。例えば、判定部205は、複数の分割領域のうち、所定数の分割領域の各々において複数の画像にわたって検出処理により人物が検出された回数が所定値に達したかを判定する。そして、所定数の分割領域の各々について人物が検出された回数が所定値に達したと判定部205により判定された場合、ジオメトリ情報を推定し(S605)し、複数の推定領域を設定(S606)するようにしてもよい。
また、判定部205は、画像に対し設定された複数の分割領域を、画像の垂直方向(Y軸方向)において位置が同じ分割領域をグループ化し、複数のグループの各々において少なくとも1つの分割領域にて人物が検出された回数が所定値に達したかを判定する。例えば、判定部205は、図7(a)に示す6つの分割領域を上段の3つのグループと下段の3つのグループとにグループ化することで、画像の垂直方向において位置が同じ分割領域をグループ化する。そして、判定部205は、上段のグループ、下段のグループの各々において少なくとも1つの分割領域にて人物が検出された回数が所定値に達したかを判定する。そして、複数のグループの各々において少なくとも1つの分割領域にて人物が検出された回数が所定値に達したと判定部205により判定された場合、蓄積した物体情報に基づきジオメトリ情報を推定し(S605)する。一方、複数のグループの各々において少なくとも1つの分割領域にて人物が検出された回数が所定値に達していないと判定部205により判定された場合、画像に対して検出処理を繰り返して物体情報を蓄積していく。
以上説明したように、本実施形態における画像処理装置100は、画像に対し複数の分割領域を設定する。そして、本実施形態における画像処理装置100は、複数の画像にわたって分割領域の各々について特定物体が検出された回数に応じて、蓄積した物体情報に基づき、画像上の任意の位置における特定物体のサイズの情報であるジオメトリ情報を推定する。そして画像処理装置100は、ジオメトリ情報に従って、推定領域のサイズと該推定領域に含まれる特定物体のサイズとの比率が学習データに対応する比率rとなるよう画像に対し複数の推定領域を設定する。このようにすることで、推定領域をより適切に設定することができ、結果的に推定領域における特定物体の数を推定する精度を高くすることができる。
(その他の実施形態)
次に図9を参照して、各実施形態の各機能を実現するための画像処理装置100のハードウェア構成を説明する。なお、以降の説明において画像処理装置100のハードウェア構成について説明するが、記録装置120および撮像装置110も同様のハードウェア構成によって実現されるものとする。
本実施形態における画像処理装置100は、CPU900と、RAM901と、ROM902、HDD903と、I/F904と、を有している。
CPU900は画像処理装置100を統括制御する中央処理装置である。RAM901は、CPU900が実行するコンピュータプログラムを一時的に記憶する。また、RAM901は、CPU900が処理を実行する際に用いるワークエリアを提供する。また、RAM901は、例えば、フレームメモリとして機能したり、バッファメモリとして機能したりする。
ROM902は、CPU900が画像処理装置100を制御するためのプログラムなどを記憶する。HDD903は、画像データ等を記録する記憶装置である。
I/F904は、ネットワーク140を介して、TCP/IPやHTTPなどに従って、外部装置との通信を行う。
なお、上述した各実施形態の説明では、CPU900が処理を実行する例について説明するが、CPU900の処理のうち少なくとも一部を専用のハードウェアによって行うようにしてもよい。例えば、ディスプレイ130にGUI(GRAPHICAL USER INTERFACE)や画像データを表示する処理は、GPU(GRAPHICS PROCESSING UNIT)で実行してもよい。また、ROM902からプログラムコードを読み出してRAM901に展開する処理は、転送装置として機能するDMA(DIRECT MEMORY ACCESS)によって実行してもよい。
なお、本発明は、上述の実施形態の1以上の機能を実現するプログラムを1つ以上のプロセッサが読出して実行する処理でも実現可能である。プログラムは、ネットワーク又は記憶媒体を介して、プロセッサを有するシステム又は装置に供給するようにしてもよい。また、本発明は、上述の実施形態の1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。また、画像処理装置100の各部は、図7に示すハードウェアにより実現してもよいし、ソフトウェアにより実現することもできる。
なお、上述した各実施形態に係る画像処理装置100の1以上の機能を他の装置が有していてもよい。例えば、各実施形態に係る画像処理装置100の1以上の機能を撮像装置110が有していてもよい。なお、上述した各実施形態を組み合わせて、例えば、上述した実施形態を任意に組み合わせて実施してもよい。
以上、本発明を実施形態と共に説明したが、上記実施形態は本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲は限定的に解釈されるものではない。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱しない範囲において、様々な形で実施することができる。例えば、各実施形態を組み合わせたものも本明細書の開示内容に含まれる。

Claims (17)

  1. 撮像手段により撮像された画像において特定物体を検出する検出処理を実行する検出手段と、
    前記検出処理により検出された特定物体の前記画像上の位置およびサイズの情報を示す物体情報を保持する保持手段と、
    前記撮像手段により撮像された複数の画像に対する前記検出処理により前記特定物体が検出された回数が所定値に達したかを判定する判定手段と、
    前記特定物体が検出された回数が前記所定値に達したと前記判定手段により判定された場合、前記検出処理により検出された前記特定物体の前記物体情報に基づき、前記撮像手段により撮像された画像に対して複数の推定領域を設定する第1設定手段と、
    前記複数の推定領域の各々に含まれる前記特定物体の数を推定する推定処理を実行する推定手段と、を有することを特徴とする画像処理装置。
  2. 前記保持手段は、前記複数の画像において前記特定物体が検出されるたびに前記特定物体の前記物体情報を蓄積し、
    前記撮像手段により撮像された前記複数の画像に対する前記検出処理により前記特定物体が検出された回数が前記所定値に達したと前記判定手段により判定された場合、前記保持手段が蓄積した前記物体情報に基づき、前記複数の推定領域を設定することを特徴とする請求項1に記載の画像処理装置。
  3. 前記撮像手段により撮像された画像を複数に分割することにより複数の分割領域を設定する第2設定手段を更に有することを特徴とする請求項1又は2に記載の画像処理装置。
  4. 前記判定手段は、前記複数の分割領域各々において前記複数の画像にわたって前記検出処理により前記特定物体が検出された回数が前記所定値に達したかを判定し、
    前記第1設定手段は、前記複数の分割領域各々において前記複数の画像にわたって前記検出処理により前記特定物体が検出された回数が前記所定値に達したと前記判定手段により判定された場合、前記検出処理により検出された前記特定物体の前記物体情報に基づき、前記複数の推定領域を設定することを特徴とする請求項に記載の画像処理装置。
  5. 前記判定手段は、前記複数の分割領域のうち所定数の分割領域の各々において前記複数の画像にわたって前記検出処理により前記特定物体が検出された回数が前記所定値に達したかを判定し、
    前記第1設定手段は、前記複数の分割領域のうち所定数の分割領域の各々において前記複数の画像にわたって前記検出処理により前記特定物体が検出された回数が前記所定値に達したと前記判定手段により判定された場合、前記検出処理により検出された前記特定物体の前記物体情報に基づき、前記複数の推定領域を設定することを特徴とする請求項3に記載の画像処理装置。
  6. 前記検出手段は、前記複数の分割領域のうち前記特定物体を検出した回数が前記所定値に達した分割領域において前記検出処理を実行しないことを特徴とする請求項4又は5に記載の画像処理装置。
  7. 前記推定手段は、前記特定物体に関する学習済みモデルを用いて、前記推定領域に含まれる前記特定物体の数を推定することを特徴とする請求項1乃至6の何れか1項に記載の画像処理装置。
  8. 前記特定物体は、人物であることを特徴とする請求項1乃至7の何れか1項に記載の画像処理装置。
  9. 撮像手段により撮像された画像において特定物体を検出する検出処理を実行する検出工程と、
    前記検出処理により検出された特定物体の前記画像上の位置およびサイズの情報を示す物体情報を保持する保持工程と、
    前記撮像手段により撮像された複数の画像に対する前記検出処理により前記特定物体が検出された回数が所定値に達したかを判定する判定工程と、
    前記特定物体が検出された回数が前記所定値に達したと前記判定工程において判定された場合、前記検出処理により検出された前記特定物体の前記物体情報に基づき、前記撮像手段により撮像された画像に対して複数の推定領域を設定する第1設定工程と、
    前記複数の推定領域の各々に含まれる前記特定物体の数を推定する推定処理を実行する推定工程と、を有することを特徴とする画像処理方法。
  10. 前記保持工程において、前記複数の画像において前記特定物体が検出されるたびに前記特定物体の前記物体情報を蓄積し、
    前記撮像手段により撮像された前記複数の画像に対する前記検出処理により前記特定物体が検出された回数が前記所定値に達したと前記判定工程において判定された場合、前記保持工程において蓄積された前記物体情報に基づき、前記複数の推定領域を設定することを特徴とする請求項9に記載の画像処理方法。
  11. 前記撮像手段により撮像された画像を複数に分割することにより複数の分割領域を設定する第2設定工程を更に有することを特徴とする請求項9又は10に記載の画像処理方法。
  12. 前記判定工程において、前記複数の分割領域各々において前記複数の画像にわたって前記検出処理により前記特定物体が検出された回数が前記所定値に達したかを判定し、
    前記第1設定工程において、前記複数の分割領域各々において前記複数の画像にわたって前記検出処理において前記特定物体が検出された回数が前記所定値に達したと前記判定工程において判定された場合、前記検出処理により検出された前記特定物体の前記物体情報に基づき、前記複数の推定領域を設定することを特徴とする請求項11に記載の画像処理方法。
  13. 前記判定工程において、前記複数の分割領域のうち所定数の分割領域の各々において前記複数の画像にわたって前記検出処理により前記特定物体が検出された回数が前記所定値に達したかを判定し、
    前記第1設定工程において、前記複数の分割領域のうち所定数の分割領域の各々において前記複数の画像にわたって前記検出処理により前記特定物体が検出された回数が前記所定値に達したと前記判定工程において判定された場合、前記検出処理により検出された前記特定物体の前記物体情報に基づき、前記複数の推定領域を設定することを特徴とする請求項11に記載の画像処理方法。
  14. 前記検出工程において、前記複数の分割領域のうち前記特定物体を検出した回数が前記所定値に達した分割領域において前記検出処理を実行しないことを特徴とする請求項12又は13に記載の画像処理方法。
  15. 前記推定工程において、前記特定物体に関する学習済みモデルを用いて、前記推定領域に含まれる前記特定物体の数を推定することを特徴とする請求項9乃至14の何れか1項に記載の画像処理方法。
  16. 前記特定物体は、人物であることを特徴とする請求項9乃至15の何れか1項に記載の画像処理方法。
  17. コンピュータを、請求項1乃至8の何れか1項に記載された画像処理装置の各手段として機能させるためのプログラム。
JP2019214784A 2019-11-27 2019-11-27 画像処理装置、画像処理方法、およびプログラム Active JP7433864B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019214784A JP7433864B2 (ja) 2019-11-27 2019-11-27 画像処理装置、画像処理方法、およびプログラム
US17/099,491 US11521330B2 (en) 2019-11-27 2020-11-16 Image processing apparatus, image processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019214784A JP7433864B2 (ja) 2019-11-27 2019-11-27 画像処理装置、画像処理方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2021086392A JP2021086392A (ja) 2021-06-03
JP7433864B2 true JP7433864B2 (ja) 2024-02-20

Family

ID=75974157

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019214784A Active JP7433864B2 (ja) 2019-11-27 2019-11-27 画像処理装置、画像処理方法、およびプログラム

Country Status (2)

Country Link
US (1) US11521330B2 (ja)
JP (1) JP7433864B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110941999B (zh) * 2019-11-12 2023-02-17 通号通信信息集团有限公司 一种人群计数系统中自适应计算高斯核大小的方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007180933A (ja) 2005-12-28 2007-07-12 Secom Co Ltd 画像センサ
JP2009110152A (ja) 2007-10-29 2009-05-21 Panasonic Corp 混雑推定装置
JP2018180619A (ja) 2017-04-04 2018-11-15 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
US20190251364A1 (en) 2016-06-30 2019-08-15 Kt Corporation Image summarization system and method
JP2019192154A (ja) 2018-04-27 2019-10-31 キヤノン株式会社 画像処理装置、撮影装置、画像処理方法、およびプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6622150B2 (ja) * 2016-06-29 2019-12-18 株式会社東芝 情報処理装置および情報処理方法
JP2018046501A (ja) * 2016-09-16 2018-03-22 株式会社東芝 情報処理装置、検出システムおよび情報処理方法
JP6984506B2 (ja) * 2018-03-16 2021-12-22 株式会社リコー 情報処理システム、情報処理装置及びプログラム
EP3627379A1 (en) * 2018-09-24 2020-03-25 Siemens Aktiengesellschaft Methods for generating a deep neural net and for localising an object in an input image, deep neural net, computer program product, and computer-readable storage medium
JP7118934B2 (ja) * 2019-09-04 2022-08-16 株式会社東芝 物体数推定装置、物体数推定方法、および物体数推定プログラム
JP2021047827A (ja) * 2019-09-20 2021-03-25 キヤノン株式会社 デバイス、システム、制御方法、及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007180933A (ja) 2005-12-28 2007-07-12 Secom Co Ltd 画像センサ
JP2009110152A (ja) 2007-10-29 2009-05-21 Panasonic Corp 混雑推定装置
US20190251364A1 (en) 2016-06-30 2019-08-15 Kt Corporation Image summarization system and method
JP2018180619A (ja) 2017-04-04 2018-11-15 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP2019192154A (ja) 2018-04-27 2019-10-31 キヤノン株式会社 画像処理装置、撮影装置、画像処理方法、およびプログラム

Also Published As

Publication number Publication date
US11521330B2 (en) 2022-12-06
JP2021086392A (ja) 2021-06-03
US20210158555A1 (en) 2021-05-27

Similar Documents

Publication Publication Date Title
RU2607774C2 (ru) Способ управления в системе захвата изображения, устройство управления и машиночитаемый носитель данных
WO2016074128A1 (en) Image capturing apparatus and method
US20120293486A1 (en) Image processing apparatus and image processing method
US11763463B2 (en) Information processing apparatus, control method, and program
JP6616521B2 (ja) 画像処理装置
JP2018022340A (ja) 画像処理装置、情報処理方法及びプログラム
US10747371B1 (en) Detection of finger press from live video stream
JP7433864B2 (ja) 画像処理装置、画像処理方法、およびプログラム
EP3454202B1 (en) Frame drop processing method and system for played ppt
JP6834372B2 (ja) 情報処理装置、情報処理システム、情報処理方法およびプログラム
Das et al. Computer vision-based social distancing surveillance solution with optional automated camera calibration for large scale deployment
WO2024022301A1 (zh) 视角路径获取方法、装置、电子设备及介质
JPWO2018179119A1 (ja) 映像解析装置、映像解析方法およびプログラム
CN113079342A (zh) 基于高分辨率影像装置的目标追踪方法及系统
Das et al. Computer Vision-based Social Distancing Surveillance with Automated Camera Calibration for Large-scale Deployment
JP7406878B2 (ja) 情報処理装置、情報処理方法、およびプログラム
US20220122341A1 (en) Target detection method and apparatus, electronic device, and computer storage medium
JP5769468B2 (ja) 物体検出システム及び物体検出方法
US11270442B2 (en) Motion image integration method and motion image integration system capable of merging motion object images
JP7309392B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP7297463B2 (ja) 画像処理装置、画像処理方法、およびプログラム
US20220036093A1 (en) Information processing apparatus, information processing method, and storage medium
JP7313850B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2021086391A (ja) 画像処理装置、画像処理方法、およびプログラム
KR102576795B1 (ko) 포즈 추정 기반의 정면 영상 획득 방법 및 이를 위한 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221104

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231010

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231208

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240207

R151 Written notification of patent or utility model registration

Ref document number: 7433864

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151