JP7182893B2 - Image processing device, imaging device, image processing method, and program - Google Patents
Image processing device, imaging device, image processing method, and program Download PDFInfo
- Publication number
- JP7182893B2 JP7182893B2 JP2018068068A JP2018068068A JP7182893B2 JP 7182893 B2 JP7182893 B2 JP 7182893B2 JP 2018068068 A JP2018068068 A JP 2018068068A JP 2018068068 A JP2018068068 A JP 2018068068A JP 7182893 B2 JP7182893 B2 JP 7182893B2
- Authority
- JP
- Japan
- Prior art keywords
- area
- unit
- estimated
- photographing
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Studio Devices (AREA)
Description
本発明は、画像処理技術に関するものである。 The present invention relates to image processing technology.
近年、撮影装置が撮影した画像に存在する人を解析して人の属性情報(性別や年齢など)を推定する属性推定の技術が注目されている。特許文献1には、画像から人の属性を推定するための技術について記載されている。
2. Description of the Related Art In recent years, attention has been focused on an attribute estimation technique for estimating a person's attribute information (gender, age, etc.) by analyzing a person present in an image captured by an imaging device.
しかし、上述の特許文献1では、撮影装置が撮影した画像から人の検出はできている状況で、画像に映る人のサイズが小さいために属性推定を行えない場合について考慮していない。一方、撮影範囲に含まれる複数の人について属性推定する場合に、属性推定を行えるよう撮影装置の画角を変更すると、撮影装置の画角から外れてしまった人について、ユーザーが撮影装置の画角を制御し直して属性推定する必要があった。
However, in the above-mentioned
本発明は、このような問題に鑑みてなされたものであり、属性推定が行えるように画角を変更しつつ、より広い範囲を対象として複数の人の属性推定を行うことを目的としている。 SUMMARY OF THE INVENTION The present invention has been made in view of such problems, and it is an object of the present invention to estimate the attributes of a plurality of people over a wider range while changing the angle of view so that the attributes can be estimated.
上記課題を解決するために、本発明の画像処理装置は以下の構成を備える。すなわち、撮影手段により撮影された画像に含まれる複数の人を検出する検出手段と、前記検出手段により検出した前記複数の人のうち少なくとも1人を含む領域を2つ以上決定する決定手段と、前記決定手段により決定された領域のそれぞれを前記撮影手段によって順次撮影するための制御コマンドを出力する制御手段と、前記制御手段により出力された前記制御コマンドに基づいて撮影された画像から前記領域に存在する人の属性情報を推定する推定手段とを有し、前記制御手段は、前記決定手段により決定された領域のうち1つの領域が前記撮影手段の撮影範囲に含まれ、かつ、該1つの領域に存在する人の前記属性情報の推定が可能となる撮影条件に基づいて前記制御コマンドを出力することを特徴とする画像処理装置。 In order to solve the above problems, the image processing apparatus of the present invention has the following configuration. That is, detection means for detecting a plurality of persons included in an image captured by a photographing means; determination means for determining two or more areas containing at least one of the plurality of persons detected by the detection means; Control means for outputting a control command for sequentially photographing each of the areas determined by the determination means by the photographing means; and an estimating means for estimating attribute information of a person existing in the area, wherein one of the areas determined by the determining means is included in the photographing range of the photographing means, and the one An image processing apparatus, wherein the control command is output based on photographing conditions that enable estimation of the attribute information of a person existing in one area.
本発明によれば、属性推定が行えるように画角を変更しつつ、より広い範囲を対象として複数の人の属性推定を行うことができる。 According to the present invention, it is possible to estimate the attributes of a plurality of persons over a wider range while changing the angle of view so that the attributes can be estimated.
本実施形態に係る画像処理装置は、撮影装置によって撮影した連続する画像における複数の推定領域の各々に対して、人の属性情報(性別や年齢)を推定する属性推定を行う画像処理装置である。 The image processing apparatus according to the present embodiment is an image processing apparatus that performs attribute estimation for estimating human attribute information (sex and age) for each of a plurality of estimation regions in successive images captured by an imaging device. .
以下、添付図面を参照しながら本発明の実施形態について説明する。なお、以下の実施形態において示す構成は一例に過ぎず、図示された構成に限定されるものではない。 Embodiments of the present invention will be described below with reference to the accompanying drawings. Note that the configurations shown in the following embodiments are merely examples, and are not limited to the illustrated configurations.
(本実施形態)
図1は、本実施形態に係るシステム構成を示す図である。画像処理装置100は、後述する画像処理を実行する装置である。なお、画像処理装置100は、例えば、後述する画像処理の機能を実現するためのプログラムがインストールされたパーソナルコンピュータなどによって実現される。
(this embodiment)
FIG. 1 is a diagram showing a system configuration according to this embodiment. The
表示装置101は、画像処理装置100に接続され、後述する画像処理により出力されるデータやUI(user interface)などをユーザーが閲覧するための表示装置である。
The
撮影装置102は、画像を撮影する装置であり、パン・チルト・ズーム(Pan-Tilt-Zoom、以下「PTZ」と称す)制御可能に構成されている。また、撮影装置102は、例えば、ネットワークを介して画像の画像データなどを送信できるネットワークカメラなどである。
The photographing
記録装置103は、撮影装置102で撮影された画像の画像データなどを記録することができる装置である。また、画像処理装置100、撮影装置102、および記録装置103は、ネットワーク104を介して通信を行う。ネットワーク104は、例えばEthernet(商標)等の通信規格を満足する複数のルータ、スイッチ、ケーブル等から構成される。本実施形態においては画像処理装置100、撮影装置102、記録装置103間の通信を行うことができるものであればその通信規格、規模、構成を問わない。例えば、ネットワーク104はインターネットや有線LAN(Local AreaNetwork)、無線LAN(Wireless LAN)、WAN(Wide Area Network)等により構成されてもよい。
A
また、図1の構成では、撮影装置102により撮影された画像の画像データ(ライブ映像)や記録装置103にて記録された画像データ(過去に撮影した画像)などが画像処理装置100に送信される。
In the configuration of FIG. 1, image data (live video) of an image captured by the
次に、図12を参照して、本実施形態の後述する各機能を実現するための画像処理装置100のハードウェア構成を説明する。RAM(Random Access Memory)1201は、CPU(Central Processing Unit)1200が実行するコンピュータプログラムを一時的に記憶する。また、RAM1201は、通信インターフェース1203を介して外部から取得したデータ(コマンドや画像データ)などを一時的に記憶する。また、RAM1201は、CPU1200が後述の画像処理を実行する際に用いるワークエリアを提供する。また、RAM1201は、例えば、フレームメモリとして機能したり、バッファメモリとして機能したりする。
Next, with reference to FIG. 12, the hardware configuration of the
CPU1200は、RAM1201に格納されるコンピュータプログラムを実行する。なおCPU以外にも、DSP(Digital Signal Processor)等のプロセッサやASIC(Application Specific Integrated Circuit)を用いてもよい。
HDD(Hard Disk Drive)1202は、オペレーティングシステムのプログラムや画像データを記憶する。 A HDD (Hard Disk Drive) 1202 stores an operating system program and image data.
後述する図5や図9のフローチャートを実行するためのコンピュータプログラムやデータはHDD1202に格納されており、CPU1200による制御に従って、適宜、RAM1201にロードされ、CPU1200によって実行される。HDD以外にもフラッシュメモリ等の他の記憶媒体を用いてもよい。
Computer programs and data for executing the flowcharts of FIGS. 5 and 9, which will be described later, are stored in the
次に、図2および図3を参照して、撮影装置102について説明する。図2は、本実施形態に係る撮影装置102の外観図である。また、図3は、本実施形態に係る撮影装置102の機能ブロック図である。
Next, the
レンズ202の光軸の向く方向が撮影装置102の撮影方向であり、レンズ202を通過した光束は、撮影部205の撮像素子に結像する。なお、レンズ202は、フォーカスレンズ及びズームレンズ等を備える。また、レンズ駆動部210は、フォーカスレンズ及びズームレンズなどの駆動系を含み、レンズ202の焦点距離を変更する。レンズ駆動部210は、パンチルトズーム制御部208により制御される。
The direction in which the optical axis of the
パン駆動部200は、パン動作を行うメカ駆動系及び駆動源のモータを含み、撮影装置102の撮影方向をパン方向203に変更するように駆動する。また、パン駆動部200は、パンチルトズーム制御部208により制御される。
The
チルト駆動部201は、チルト動作を行うメカ駆動及び駆動源のモータを含み、撮影装置102の撮影方向をチルト方向204に変更するように駆動する。チルト駆動部201は、パンチルトズーム制御部208により制御される。
The
撮影部205は、CCD(charge coupled device)センサやCMOS(complementary metal oxide semiconductor)センサ等の撮像素子を有する。そして、撮影部205は、レンズ202を通って結像された被写体像を光電変換して電気信号を生成する。
The
画像処理部206は、撮影部205において光電変換された電気信号をデジタル信号へ変換する処理や、圧縮符号化処理などを行い、画像データを生成する。
The
パンチルトズーム制御部208は、システム制御部207から伝達された指示に基づいて、パン駆動部200、チルト駆動部201及びレンズ駆動部210の制御を行う。
The pan/tilt/
通信部209は、画像処理装置100との通信を行うインターフェースである。例えば、通信部209は、生成された画像データを画像処理装置100に送信する。また、通信部209は、画像処理装置100から送信された撮影装置102のパン・チルト・ズーム動作などを制御する制御コマンドを受信し、システム制御部207へ伝達する。また、通信部209は、有線LANインターフェースや無線LANインターフェースを有する。
A
システム制御部207は、撮影装置102の全体を制御し、例えば、次のような処理を行う。すなわち、システム制御部207は、通信部209から伝達された制御コマンドを解析し、解析した内容に基づく処理を行う。例えば、システム制御部207は、パンチルトズーム制御部208に対してパン・チルト・ズーム動作の指示を行う。
The
なお、パン角度は、パン駆動部200の駆動端の一方を0°としたときの、撮影装置102のパン方向203における撮影方向(光軸)の角度である。また、チルト角度は、チルト駆動部201の駆動端の一方を0°としたときの、撮影装置102のチルト方向204における撮影方向(光軸)の角度である。
Note that the pan angle is the angle of the imaging direction (optical axis) in the
次に、図4を参照して、本実施形態に係る画像処理装置100について説明する。図4は、本実施形態に係る画像処理装置の機能ブロック図である。なお、図4に示す各機能ブロックは、ソフトウェアモジュールで実現してもよいし、ハードウェアモジュールで実現してもよい。また、ソフトウェアモジュールとハードウェアモジュールを協働させて実現してもよい。なお、以降の説明では画像処理装置100が有する各機能は、画像処理装置100のCPU1200により実行されるものとする。
Next, the
本実施形態に係る画像処理装置100は、通信部400と、検出領域設定部401と、操作受付部402と、検出部403と、推定領域決定部404と、コマンド管理部405と、属性推定部406と、出力制御部407と、記憶部408と、を有する。
The
通信部400は、撮影装置102により撮影された画像の画像データの受信や、撮影装置102のパン・チルト・ズームを制御する制御コマンドなどを送信するための通信を行う。また、通信部400は、例えば、記録装置103に記憶された画像データ、または他の外部装置のストレージデバイスに記憶された画像データなどを各装置からネットワーク104を介して送信してもらい受信する。
The
検出領域設定部401は、通信部400を介して得られた画像において、検出部403が処理を行う対象とする領域である検出領域を設定する。なお、操作受付部402を介して、ユーザーにより設定された画像内の領域を検出領域として設定してもよいし、事前に設定された所定の領域を検出領域としてもよい。なお、ユーザーによる検出領域の指示や、事前に設定された領域がなければ、通信部400を介して得られた画像データが示す画像全体を検出領域としてもよい。
The detection
操作受付部402は、マウス、キーボードなどの入力装置(不図示)を介して、ユーザーにより行われた操作を受け付ける。本実施形態における操作受付部402は、例えば、出力制御部407により表示装置101に出力された画像に対して、ユーザーが入力装置を介して設定した検出領域の位置の情報を受け付ける。
An
検出部403は、通信部400を介して得られた画像において検出領域に含まれる複数の人の検出を行う。なお、本実施形態に係る検出部403は、学習画像から人体の特徴量(Haar-Like特徴量、HOG特徴量など)が学習されたうえで作成された識別器を保持している。そして、検出部403は、学習の結果である識別器に画像が入力され、該画像から人体の検出を行う。なお、本実施形態における検出部403は、人の体を検出する人体検出を行うとして説明するが、これに限定されない。例えば、検出部403は、人の顔を検出する顔検出や人の頭部を検出する頭部検出であってもよい。なお、以降の説明において、人体は人の全身のことであり、人の顔や胴体を含むものとする。
The
推定領域決定部404は、検出部403における検出の結果に基づいて、検出部403により検出した複数の人のうち少なくとも1人を含む推定領域を複数決定する。推定領域に含まれる人が、属性推定部406により属性情報を推定される対象となる。なお、推定領域の位置に関する情報は記憶部408にて記憶される。
Based on the result of detection by the
コマンド管理部405は、推定領域決定部404において決定された複数の推定領域の各々について、順次撮影されるよう撮影装置102を制御するための制御コマンドを生成する。なおこのとき、1つの推定領域が撮影装置102の撮影範囲に含まれ、かつ、該推定領域に存在する人の属性情報を属性推定部404が推定できる撮影条件になるよう撮影装置102を制御する制御コマンドが生成される。またこのとき、コマンド管理部405により生成される制御コマンドは、例えば、撮影装置102のパン・チルト・ズームの少なくともいずれか1つを制御するための制御コマンドである。なお、本実施形態におけるコマンド管理部405にて生成された制御コマンドは、通信部400および通信部209を介して、撮影装置102におけるシステム制御部207へ送られ、該制御コマンドに基づいて撮影装置102の制御が行われる。
A
属性推定部406は、撮影装置102から得られる撮影画像の各々に対して推定領域に存在する人の属性情報を推定する。本実施形態に係る属性推定部406は、学習画像によって学習した識別器を利用して人の顔領域から属性情報(性別や年齢に関する情報)を推定する。なお、人の顔領域から属性情報を推定する際、画像に含まれる顔領域のサイズ(画素数)が小さいと属性情報を推定できない場合がある。つまり、人の顔領域から属性情報を推定する場合、最低限必要な顔領域の画素数が存在する。また、本実施形態における属性情報を人の性別に関する情報や年齢に関する情報として説明するが、これに限定されない。例えば、人種や服装、髪形などに関する情報であってもよい。
The
出力制御部407は、撮影装置102から得られた画像の画像データや、属性推定部406により得られた属性情報の推定結果を表示装置101に出力する。
The
記憶部408は、検出領域や推定領域の位置に関する情報などを記憶する。
A
以上のように、推定領域に存在する人の属性情報を属性推定部406が推定できる撮影条件を満たしつつ、複数の推定領域の各々について順次撮影されるよう撮像装置102を制御して、該複数の推定領域の各々に存在する人の属性情報を推定する。こうすることにより、より広い範囲を対象として複数の人の属性推定を行うことが可能となる。
As described above, the
次に本実施形態における画像処理について図5に示すフローチャートを参照して説明する。図5は、本実施形態に係る画像処理の流れを示すフローチャートである。なお、図5に示すフローチャートの処理は、主に図4に示す各機能ブロックにより実行される。また、図5に示すフローチャートの処理は、HDD1202に格納されたコンピュータプログラムに従って画像処理装置100のCPU1200により実行される。以下、画像処理装置100のCPU1200により実行される処理について説明する。
Next, image processing in this embodiment will be described with reference to the flowchart shown in FIG. FIG. 5 is a flowchart showing the flow of image processing according to this embodiment. The processing of the flowchart shown in FIG. 5 is mainly executed by each functional block shown in FIG. The processing of the flowchart shown in FIG. 5 is executed by the
S501にて、通信部400は、撮影装置102により撮影された画像の画像データを受信する。
In S<b>501 , the
次に、S502にて、検出領域設定部401は、通信部400を介して得られた画像において、検出部403が画像に含まれる複数の人を検出する処理を行う対象とする領域である検出領域を設定する。本実施形態における操作受付部402は、出力制御部407により表示装置101に出力された画像に対して、ユーザーが設定した画像内の領域の位置に関する情報を受け付ける。そして、検出領域設定部401は、操作受付部402が受け付けた情報である画像内の領域の位置を検出領域の位置として設定する。なお本実施形態における検出領域の位置は、該検出領域の重心点におけるパン角度と、チルト角度と、該検出領域の画角となるズーム倍率により定められる。なお、検出領域の位置に関する情報は、記憶部408にて記憶される。
Next, in S502, the detection
次に、S503にて、検出部403は、検出領域設定部401により設定された検出領域に含まれる複数の人体の検出を行う。このとき、検出部403は、検出領域内で検出した複数の人体各々の顔領域の画素数、および、位置情報も検出する。なお、本実施形態における検出部403は人体検出を行うが、検出した人体の画素数から顔領域の画素数を推定することができる。
Next, in S<b>503 , the
次に、S504にて、検出領域に複数の人体が存在しない場合(S504で’No’)、S501の処理を行う。 Next, in S504, if a plurality of human bodies do not exist in the detection area ('No' in S504), the process of S501 is performed.
S504にて、検出領域に複数の人体が存在する場合(S504で’Yes’)、S505の処理を行う。S505にて、推定領域決定部404は、検出部403の結果に基づいて、検出部403により検出した複数の人体のうち少なくとも1人を含む推定領域を複数決定する。以下図6を参照して、推定領域決定部404の処理について更に詳細に説明する。
In S504, when a plurality of human bodies exist in the detection area ('Yes' in S504), the process of S505 is performed. In S<b>505 , estimated
図6は、推定領域決定部404の処理を説明するための図である。図6(a)において、画像600は、撮影装置102により撮影された画像である。検出領域601は、ユーザーにより設定された画像内における領域であり、該領域内には検出部403により検出された複数の人体が存在している。
6A and 6B are diagrams for explaining the processing of the estimated
範囲602は、属性推定部406が該範囲に含まれる人の属性情報を推定するために最低限必要な顔領域の画素数を取得できるズーム倍率で撮影した場合の撮影範囲である。この場合、範囲602は、該範囲に含まれる6人各々の属性情報を推定するために最低限必要な顔領域の画素数を取得できるズーム倍率で撮影した撮影範囲であり、該ズーム倍率以下で撮影した撮影範囲になると該6人に対して属性情報を推定できなくなる。なお、範囲602は、検出部403が検出した人の顔領域の画素数に基づいて、推定領域決定部404により決定される。例えば、属性推定部406が人の属性情報を推定するうえで必要な顔領域の画素数が縦40ピクセル以上かつ横30ピクセル以上が条件であるとする。このとき、推定領域決定部404は、検出部403により検出された人の顔領域の画素数が該条件を満たすうえでの最小ズーム倍率で撮影した撮影範囲を範囲602として決定する。
A
そして、推定領域決定部404は、範囲602内において範囲602の面積以下となり、かつ、検出部403により検出した複数の人のうち少なくとも1人を含む領域602aを推定領域として決定する。なおこのとき、推定領域決定部404は、範囲602に対応する推定領域である領域602aに対して、推定領域を特定するための推定領域IDである“1”を付与する。以上のように、推定領域決定部404は、検出部403が検出した人の顔領域の画素数に基づいて範囲602を決定し、該範囲602に基づいて推定領域602aを決定する。
Then, the estimated
次に、推定領域決定部404は、範囲603を決定する。範囲602と同様、範囲603は、属性推定部406が該範囲に含まれる人の属性情報を推定するために最低限必要な顔領域の画素数を取得できるズーム倍率で撮影した場合の撮影範囲である。そして、推定領域決定部404は、範囲603内において範囲603の面積以下となり、かつ、検出部403により検出した複数の人のうち少なくとも1人を含む領域である領域603bを決定する。なおこのとき、推定領域決定部404は、範囲603に対応する推定領域である領域603bに対して、推定領域IDである“2”を付与する。
Next, the estimated
次に、推定領域決定部404は、範囲604を決定する。範囲602と同様、範囲604は、属性推定部406が該範囲に含まれる人の属性情報を推定するために最低限必要な顔領域の画素数を取得できるズーム倍率で撮影した場合の撮影範囲である。そして、推定領域決定部404は、範囲604内において範囲604の面積以下となり、かつ、検出部403により検出した複数の人のうち少なくとも1人を含む領域である領域604cを決定する。なおこのとき、推定領域決定部404は、範囲604に対応する推定領域である領域604cに対して、推定領域IDである“3”を付与する。
Next, the estimated
次に、推定領域決定部404は、範囲605を決定する。範囲602と同様、範囲605は、属性推定部406が該範囲に含まれる人の属性情報を推定するために最低限必要な顔領域の画素数を取得できるズーム倍率で撮影した場合の撮影範囲である。そして、推定領域決定部404は、範囲605内において範囲605の面積以下となり、かつ、検出部403により検出した複数の人のうち少なくとも1人を含む領域である領域605dを決定する。なおこのとき、推定領域決定部404は、範囲605に対応する推定領域である領域605dに対して、推定領域IDである“4”を付与する。
Next, the estimated
また、推定領域決定部404は、推定領域を特定するための推定領域IDと、推定領域の位置と、推定領域内に含まれる人の属性情報を推定するために最低限必要なズーム倍率と、推定領域内に含まれる人数と、を対応付けてテーブル700に格納する。なお、図7に示すテーブル700は、推定領域決定部404によりデータが格納されるデータ構造図の一例である。
In addition, the estimation
推定領域IDは、推定領域を特定すると共に、複数の推定領域の各々について順次撮影するために撮影装置を制御していく際、対象とする推定領域の順番を表す。また、推定領域の位置は、該推定領域の重心点におけるパン角度と、チルト角度と、該推定領域の画角となるズーム倍率と、により定められる。図7に示す必要ズーム倍率は、推定領域内に含まれる人の属性情報を推定するために最低限必要なズーム倍率である。例えば、推定領域IDが”1”である領域602aにおける人の属性情報を推定するために最低限必要なズーム倍率は、範囲602が撮影範囲となる場合のズーム倍率(gg)となる。このとき、ズーム倍率(gg)以下で撮影した撮影範囲になると、領域602aにおける人に対して属性推定部406は属性情報を推定できなくなる。なお、図6(e)は、推定領域決定部404により決定された複数の推定領域と、推定領域IDが付与された図である。なお、図6(e)に示される図は、出力制御部407により表示装置101に表示されてもよい。
The estimated area ID identifies the estimated area and indicates the order of the estimated areas to be targeted when controlling the imaging device to sequentially capture images for each of the plurality of estimated areas. Also, the position of the estimation area is determined by the pan angle, the tilt angle, and the zoom factor, which is the angle of view of the estimation area, at the center of gravity of the estimation area. The required zoom magnification shown in FIG. 7 is the minimum required zoom magnification for estimating the attribute information of a person included in the estimation area. For example, the minimum necessary zoom magnification for estimating the attribute information of a person in the
以上のように、本実施形態における推定領域決定部404は、検出部403により検出された人の顔領域の画素数に基づいて、検出部403により検出した複数の人のうち少なくとも1人を含む推定領域を複数決定する。なお、本実施形態における推定領域決定部404は、検出領域601の左下から右方向へ走査するように推定領域を決定したが、これに限定されない。例えば、検出領域601の左上から右方向へ走査するように推定領域を決定してもよい。
As described above, the estimated
なお、本実施形態における推定領域決定部404は、検出部403により検出した複数の人のうち少なくとも1人の人を含む推定領域を複数決定する際、人の顔領域が推定領域に含まれるように決定したが、これに限定されない。例えば、人の上半身が推定領域に含まれるように決定してもよい。
Note that, when determining a plurality of estimation areas including at least one person among the plurality of persons detected by the
また、本実施形態における推定領域決定部404は、推定領域の数が少なくなるよう、範囲602、範囲603、範囲604、範囲605のそれぞれに対して一つずつ推定領域を決定するようにしたが、これに限定されない。例えば、推定領域決定部404は、範囲602において、少なくとも1人の人を含む推定領域を2つ決定してもよい。なお、推定領域決定部404が決定する推定領域の数をより少なくすることで、検出部403が検出した複数の人に対して、属性推定部406が属性情報を推定する処理を行う時間をより短くすることができる。
In addition, the estimation
次に図5に示すフローチャートの説明に戻る。S506において、コマンド管理部405は、推定領域決定部404において決定された複数の推定領域の各々について、順次撮影されるよう撮影装置102を制御するための制御コマンドを生成する。なおこのとき、1つの推定領域が撮影装置102の撮影範囲に含まれ、かつ、該推定領域に存在する人の属性情報を属性推定部406が推定できる撮影条件になるよう撮影装置102を制御する制御コマンドが生成される。
Next, return to the description of the flowchart shown in FIG. In step S<b>506 , the
本実施形態におけるコマンド管理部405は、まず、推定領域IDが”1”である推定領域602aが撮影されるよう撮影装置を制御する。このとき、推定領域602aが撮影装置102の撮影範囲に含まれ、かつ、撮影条件として撮影装置102のズーム倍率が必要ズーム倍率以上になるように撮影装置102を制御する制御コマンドが生成される。この場合、撮影条件として撮影装置102のズーム倍率が必要ズーム倍率gg以上になるように撮影装置102を制御する制御コマンドが生成される。
The
なお、本実施形態におけるコマンド管理部405は、撮影装置102が撮影する撮影画像の重心と推定領域の重心とが略同一となるよう制御コマンドを生成してもよい。こうすることにより、撮影された画像の周縁部に歪みがある場合であっても、推定領域においては歪みを減らすことができ、属性情報を推定する精度をさらに向上させることができる。
Note that the
次に、S507において、属性推定部406は、撮影装置102から得られる撮影画像に対して推定領域に存在する人の属性情報を推定する。この場合、推定領域602aに存在する人の属性情報を推定する。
Next, in step S<b>507 , the
なお、S507にて、属性推定部406が一つの推定領域に存在する人の属性情報を推定する際、所定時間(例えば5秒など)が経過するとS508の処理に移行するようにしてもよい。
In S507, when the
なお、属性推定部406が、撮影装置102から得られる撮影画像における推定領域に存在する人の属性情報を推定する際に、他の推定領域に存在する人が該撮影画像に映る場合がある。例えば、図6(c)において、推定領域604cにおける人を対象に属性情報を推定するために範囲604と位置および大きさが略同一の撮影範囲で撮影したときの撮影画像が得られた場合を想定する。このとき、該撮影画像には、すでに属性情報の推定を行った推定領域602aにおける人が3人含まれている。このとき、属性推定部406は、重複して属性情報を推定しないよう次のような処理を行う。例えば、属性推定部406は、撮影画像604から推定領域604cを切り出し、切り出された推定領域604cの画像に含まれる人を対象として属性情報の推定を行う。または、属性推定部406により属性情報の推定がなされた人の位置情報を記憶部408は記憶しておいてもよい。そして、例えば、該撮影画像における推定領域604cの属性情報を推定する際に、記憶部408に記憶された位置情報から、すでに属性情報の推定がなされた人は処理対象から除外するようにしてもよい。
When the
次に、S508において、属性推定部406が属性情報を推定していない推定領域が存在する場合(S508にて’No’)、S506およびS507における処理を繰り返す。本実施形態の場合、推定領域ID”2”、推定領域ID”3”、推定領域ID”4”、の順番でS506およびS507における処理を繰り返す。 Next, in S508, if there is an estimated area for which attribute information has not been estimated by the attribute estimation unit 406 ('No' in S508), the processes in S506 and S507 are repeated. In the case of this embodiment, the processing in S506 and S507 is repeated in the order of estimated area ID "2", estimated area ID "3", and estimated area ID "4".
次に、S508において、属性推定部406が属性情報を推定していない推定領域が存在しない場合(S508にて’Yes’)、処理を終了する。 Next, in S<b>508 , if there is no estimated area whose attribute information has not been estimated by the attribute estimation unit 406 (“Yes” in S<b>508 ), the process ends.
以上のように、本実施形態では、複数の推定領域の各々について順次撮影されるよう撮影装置102を制御して、該複数の推定領域の各々に存在する人の属性情報を推定する。こうすることにより、属性推定が行えるように画角を変更しつつ、より広い範囲を対象として複数の人の属性推定を行うことが可能となる。
As described above, in the present embodiment, the
次に図8を参照し、本実施形態に係る画像処理の結果の出力を示す。図8は、本実施形態に係る画像処理の結果が、出力制御部407により表示装置101に出力された表である。
Next, referring to FIG. 8, the output of the result of the image processing according to this embodiment is shown. FIG. 8 is a table in which the result of image processing according to this embodiment is output to the
例えば、10:00から11:59の時間において、図5に示すS507にて、属性推定部406が推定領域602aにおける人に対して属性情報を推定した際、1人の人が25歳の男性と推定されると、男性の20~29にカウント数に1プラスされる。同様に、S507にて、属性推定部406が推定領域602aにおける1人の人に対して30歳の女性と推定した場合、女性の30~39のカウント数に1がプラスされる。このように、図5に示すS507における処理において、人の属性情報を推定するたびに、表示装置101に表示されるグラフにリアルタイムでカウントをプラスしてもよい。また、図5に示す本実施形態に係る画像処理が終了したのち、属性情報の推定結果を表示装置101に出力するようにしてもよい。
For example, from 10:00 to 11:59, when the
なお、本実施形態では、所定の時間間隔において、属性推定部406が推定した属性情報毎に人の総数をグラフとして出力するが、これに限定されない。例えば、推定領域ID毎に、属性推定部406が推定した結果を集計してもよい。
In this embodiment, the total number of people is output as a graph for each piece of attribute information estimated by the
また、所定の時間間隔において、属性推定部406が属性情報を推定した人の総数とともに、例えば、検出部403により検出された人の数も出力するようにしてもよい。これにより、ユーザーは検出部403により検出された人の人数に対して、何人の属性情報の推定がなされたかを把握することができる。なお、推定領域ID毎に、属性情報が推定された人数と検出部403により検出された人数とを表示されるようにしてもよい。
In addition, for example, the number of people detected by the
なお、本実施形態におけるS502にて、検出領域設定部401が、通信部400を介して得られた画像内に検出領域を設定したのち、該検出領域を対象として撮影装置102の画角を変更するように撮影装置102が制御されてもよい。例えば、図6(a)に示す画像600に対してユーザーが検出領域601を設定したのち、コマンド管理部405は、検出領域601が撮影装置102の撮影範囲に含まれるようにしつつ、撮影装置のズーム倍率を上げて画角を変更するようにしてもよい。こうすることにより、S503における検出部403による検出の精度をさらに向上させることが可能になる。
Note that in S502 in the present embodiment, after the detection
また、本実施形態では、推定領域ID“1”、“2”、“3”、“4”の順番で複数の推定領域を順次撮影するように撮影装置102を制御したが、これに限定されない。例えば、次のような処理を行ってもよい。
Further, in the present embodiment, the
S503にて、検出部403は検出領域601に含まれる人の検出を行う際、人の顔を検出する顔検出を行い、さらに、人の属性情報を推定しやすいかの指標である検出スコアを人の顔領域ごとに出力する。なお、検出スコアが高いほど人の顔領域に対して属性情報が推定されやすいことを表しており、例えば、顔検出により得られた顔の向きが正面に近いほど検出スコアが高くなるように出力される。
In S503, when detecting a person included in the
S504にて、検出領域に複数の顔領域が存在する場合、検出領域に複数の人体が存在するとみなし、S505の処理へ移行する。S505にて、推定領域決定部404は、検出部403の結果に基づいて、検出部403により検出した複数の人のうち少なくとも1人を含む推定領域を複数決定する。さらに推定領域決定部404は、検出部403により出力された検出スコアを推定領域毎に合算する。
In S504, if a plurality of face areas exist in the detection area, it is assumed that a plurality of human bodies exist in the detection area, and the process proceeds to S505. In S<b>505 , estimated
そして、推定領域毎に合算された検出スコアが高い順番に従って、複数の推定領域の各々についてS506およびS507の処理を行ってもよい。例えば、合算された検出スコアが推定領域ID“2”、“3”、“1”、“4”の順番で高い場合、該順番に従ってS506およびS507の処理が行われてもよい。このように、検出スコアの高い推定領域を優先して撮影するように撮影装置102を制御することで、正面を向いている人が多い推定領域に対して優先的に属性推定が実行され、効率的に属性情報を推定できるようになる。
Then, the processes of S506 and S507 may be performed for each of the plurality of estimation areas in accordance with the order of the highest detection score added up for each estimation area. For example, when the summed detection scores are highest in the order of estimated region IDs "2", "3", "1", and "4", the processing of S506 and S507 may be performed according to the order. In this way, by controlling the
また、複数の推定領域の各々についてS506およびS507の処理が行われる際、次のような順番で行われてもよい。 Further, when the processes of S506 and S507 are performed for each of the plurality of estimation regions, they may be performed in the following order.
S503にて、検出部403は検出領域601に含まれる人の検出を行う際、人の顔を検出する顔検出を行い、さらに、検出スコアを人の顔領域ごとに出力する。
In S503, when detecting a person included in the
S504にて、検出領域に複数の顔領域が存在する場合、検出領域に複数の人体が存在するとみなし、S505の処理へ移行する。S505にて、推定領域決定部404は、検出部403の結果に基づいて、検出部403により検出した複数の人のうち少なくとも1人を含む推定領域を複数決定する。さらに推定領域決定部404は、検出部403により出力された検出スコアを推定領域毎に合算する。
In S504, if a plurality of face areas exist in the detection area, it is assumed that a plurality of human bodies exist in the detection area, and the process proceeds to S505. In S<b>505 , estimated
そして、合算された検出スコアが最も高い推定領域に対して、S506およびS507の処理を行う。このとき、推定領域ID“2”に対応する推定領域603bにて合算された検出スコアが最も高いと想定し、該推定領域に対してS506およびS507の処理が行われたものとする。
Then, the processing of S506 and S507 is performed on the estimated region with the highest combined detection score. At this time, it is assumed that the summed detection score is the highest in the
その後、コマンド管理部405は、検出領域601が撮影装置102の撮影範囲に含まれるようにして、画像を撮影するよう撮影装置102を制御する制御コマンドを生成する。生成された制御コマンドに基づいて撮影装置102が制御されたのち、検出部403は検出領域601に含まれる人の顔検出を再度行い、人の顔領域ごとに検出スコアを出力し直す。
After that, the
そして、推定領域決定部404は、属性推定部406により属性情報が推定されていない推定領域を対象として、検出部403により出力された検出スコアを推定領域毎に再度合算する。この場合、推定領域決定部404は、推定領域ID“1”、“3”、“4”に対応する推定領域を対象として、検出スコアを推定領域毎に合算する。そして、合算された検出スコアが最も高い推定領域に対して、S506およびS507の処理を行う。
Then, the estimated
以上のように、検出領域における人の検出スコアが繰り返し出力されていくなか、検出スコアが出力されるたびに推定領域毎に検出スコアが合算され、合算された検出スコアが最も高い推定領域に対してS506およびS507の処理を行うようにしてもよい。このように、検出スコアの最も高い推定領域を優先して撮影するように撮影装置102を制御することで、正面を向いている人がより多い推定領域に対して優先的に属性推定が実行され、より効率的に属性情報を推定できるようになる。 また、本実施形態では、図5に示すS508にて、属性推定部406が属性情報を推定していない推定領域が存在しない場合(S508にて‘Yes’)、処理を終了するとしたが、これに限定されない。推定領域決定部404により決定された複数の推定領域各々についてS506およびS507における処理を行った後、属性推定部406により属性情報が推定されなかった人が存在する推定領域に対して再度S506およびS507における処理を行ってもよい。例えば、推定領域ID”1”、”2”、”3”、”4”の順番でS506およびS507における処理を行った場合において、6人の人が存在する推定領域ID”2”の推定領域603bにおいて5人に対してのみ属性情報が推定された場合を想定する。このとき、再び推定領域ID”2”に対してS506およびS507における処理を行うようにする。こうすることにより、属性推定部406により属性情報を推定できない人がいた場合であっても、該人に対して属性推定部406により属性情報が再度推定されるようになる。
As described above, while the human detection score in the detection area is repeatedly output, the detection score for each estimated area is summed each time the detection score is output, and the sum of the detection scores for the estimated area with the highest total detection score is Alternatively, the processing of S506 and S507 may be performed. In this way, by controlling the
また、複数の推定領域の各々についてS506およびS507における処理を行った後、属性推定部406により属性情報が推定されなかった人を対象として、推定領域決定部404は、少なくとも1つの推定領域を再度決定するようにしてもよい。そして、推定領域決定部404により再度決定された少なくとも1つの推定領域の各々について、S506およびS507の処理を行うようにしてもよい。以下、図9および図10を参照して、推定領域を再度決定する処理について更に詳細に説明する。
After performing the processes in S506 and S507 for each of the plurality of estimated regions, the estimated
図9は、推定領域を再度決定する処理を示す一連のフローチャートである。なお、図9に示すフローチャートの処理は、主に図4に示す各機能ブロックにより実行される。また、図9に示すフローチャートの処理は、HDD1202に格納されたコンピュータプログラムに従って画像処理装置100のCPU1200により実行される。以下、画像処理装置100のCPU1200により実行される処理について説明する。なお、図5と同一の機能である処理のステップには同一符号を付すとともに、機能的に変わらない処理のステップについては説明を省略する。S909において、検出部403により検出された人の全てに対して属性情報が推定されている場合(S909にて‘Yes’)、処理を終了する。S909において、検出部403により検出された複数の人すべてに対して属性情報が推定されてない場合(S909にて‘No’)、S910の処理を行う。
FIG. 9 is a series of flowcharts showing the process of re-determining the estimated region. The processing of the flowchart shown in FIG. 9 is mainly executed by each functional block shown in FIG. 9 is executed by the
S910にて、推定領域決定部404は、検出部403における検出の結果に基づいて、検出部403により検出した複数の人のうち属性情報を推定できなかった人を少なくとも1人含む推定領域を少なくとも1つ決定する。なお、推定領域に含まれる人が、属性推定部406により属性情報を推定される対象となる。また、推定領域の位置に関する情報は記憶部408にて記憶される。以下図10を参照して、推定領域決定部404が再度推定領域を決定する処理について更に詳細に説明する。
In S910, estimated
図10は、S910の処理を説明するための図である。図10(a)において、人1000および人1001は、推定領域ID”1”に対応する推定領域である領域602aにおいて属性推定部406により属性情報が推定されなかった人である。人1002は、推定領域ID”2”に対応する推定領域である領域603bにおいて属性推定部406により属性情報が推定されなかった人である。人1003は、推定領域ID”4”に対応する推定領域である領域605dにおいて属性推定部406により属性情報が推定されなかった人である。
FIG. 10 is a diagram for explaining the processing of S910. In FIG. 10A,
推定領域決定部404は、検出部403における検出の結果に基づいて、属性推定部406により属性情報が推定されなかった人物1000~1003のうち少なくとも1人を含む推定領域を少なくとも1つ決定する。
Based on the result of detection by the
図10bにおける、範囲1004は、属性推定部406が人1000および人1001に対して属性情報を推定するために最低限必要な顔領域の画素数を取得できるズーム倍率で撮影した場合の撮影範囲である。なお、範囲1004は、検出部403が検出した人の顔領域の画素数に基づいて、推定領域決定部404により決定される。そして、推定領域決定部404は、範囲1004内において範囲1004の面積以下となり、かつ、人1000および人1001の少なくとも一人を含む領域を推定領域として決定する。この場合、範囲1004に対応する推定領域として領域1004bが決定される。なおこのとき、推定領域決定部404は、範囲1004に対応する推定領域である領域1004bに対して、推定領域IDである“5”を付与する。
A
次に、推定領域決定部404は、範囲1005を決定する。範囲1005は、属性推定部406が人1002および人1003の属性情報を推定するために最低限必要な顔領域の画素数を取得できるズーム倍率で撮影した場合の撮影範囲である。そして、推定領域決定部404は、範囲1005内において範囲1005の面積以下となり、かつ、人1002および人1003のうち少なくとも1人を含む領域を推定領域として決定する。この場合、推定領域決定部404は、範囲1005に対応する推定領域として領域1005bが決定される。また、推定領域決定部404は、範囲1005に対応する推定領域である領域1005bに対して、推定領域IDである“6”を付与する。
Next, the estimated
以上のように、推定領域決定部404は、検出部403における検出の結果に基づいて、属性推定部406により属性情報が推定されなかった人のうち少なくとも1人を含む推定領域を少なくとも1つ決定する。なお、推定領域決定部404は、検出領域601の左下から右方向へ走査するように推定領域を決定したが、これに限定されない。例えば、検出領域601の左上から右方向へ操作するように推定領域を決定してもよい。
As described above, the estimated
そして、推定領域決定部404により再度決定された複数の推定領域の各々について、S506およびS507の処理を行う。こうすることにより、属性推定部406により属性情報を推定できない人がいた場合であっても、該人に対して属性推定部406により属性情報が再度推定されるようになる。なお、S910にて、推定領域404により再度決定される推定領域は1つであってもよい。
Then, the processes of S506 and S507 are performed for each of the plurality of estimation areas re-determined by the estimation
これまで、上述した本実施形態に係る画像処理は画像処理装置100が行うとして説明したが、これに限定されない。本実施形態に係る画像処理装置100の1以上の機能を、撮影装置102が有していてもよい。つまり、本実施形態では、画像処理装置100のCPU1200により本実施形態に係る画像処理が実行されたが、後述するクライアント装置および撮影装置102がそれぞれ有するCPUにより実行されてもよい。
Although it has been described that the image processing according to the present embodiment is performed by the
例えば、図4に示す、検出領域設定部401と、検出部403と、推定領域決定部404と、コマンド管理部405と、属性推定部406と、記憶部408は撮影装置102が有していてもよい。なお、このとき、操作受付部402と、出力制御部407は、図12に示すハードウェア構成により実現されるクライアント装置1100が有する。この場合について、図11を参照して更に詳細に説明する。なお、図2~4と同一の機能を有する構成には同一符号を付すとともに、機能的に変わらないものについては説明を省略する。
For example, the detection
図11は、画像処理装置100の一部の機能を有する撮影装置102とクライアント装置1100の機能ブロック図の一例である。撮影装置102とクライアント装置1100は、ネットワーク104を介して通信が行われる。
画像処理部206で生成された画像データは、通信部209と通信部1101とを介してクライアント装置1100における出力制御部407に送られる。出力制御部407は、例えば、撮影装置102から送られた画像データを表示装置101に出力する。なおこのとき、表示装置101はクライアント装置1100に接続されているものとする。
FIG. 11 is an example of a functional block diagram of the
Image data generated by the
検出領域設定部401は、生成された画像データにおいて、検出部403が処理を行う対象とする領域である検出領域を設定する。なお、クライアント装置1100における操作受付部402を介して、ユーザーにより設定された画像内の領域を検出領域として設定してもよいし、事前に設定された所定の領域を検出領域としてもよい。なお、ユーザーによる検出領域の指示や、事前に設定された領域がなければ、画像データが示す画像全体を検出領域としてもよい。
The detection
クライアント装置1100における操作受付部402は、マウス、キーボードなどの入力装置(不図示)を介して、ユーザーにより行われた操作を受け付ける。なお、操作受付部402が受け付けたユーザーによる操作の情報は、通信部1101と通信部209とを介して撮影装置102における検出領域設定部401へと送られる。
An
検出部403は、生成された画像データにおいて検出領域に含まれる人体の検出を行う。推定領域決定部404は、検出部403における検出の結果に基づいて、検出部403により検出した複数の人のうち少なくとも1人を含む推定領域を複数決定する。
The
コマンド管理部405は、推定領域決定部404において決定された複数の推定領域の各々について、順次撮影されるよう撮影装置102を制御するための制御コマンドを生成する。なお、コマンド管理部405にて生成された制御コマンドは、システム制御部207へ送られ、該制御コマンドに基づいて撮影装置102の制御が行われる。
A
属性推定部406は、撮影装置102から得られる撮影画像の各々に対して推定領域に存在する人の属性情報を推定する。記憶部408は、検出領域や推定領域の位置に関する情報などを記憶する。
The
画像処理の出力の結果(例えば、図8に示す表など)は、通信部209および通信部1101を介して、撮影装置102からクライアント装置1100へと送られる。なおこのとき、撮影装置102から送られた画像処理の出力の結果は、例えば、出力制御部407へと送られ、出力制御部407により表示装置101に出力されてもよい。
An image processing output result (for example, the table shown in FIG. 8) is sent from the
以上のように画像処理装置100の1以上の機能は、撮影装置102が有していてもよい。
As described above, one or more functions of the
なお、本発明は、上述の実施形態の1以上の機能を実現するプログラムを1つ以上のプロセッサが読出して実行する処理でも実現可能である。プログラムは、ネットワーク又は記憶媒体を介して、プロセッサを有するシステム又は装置に供給するようにしてもよい。また、本発明は、上述の実施形態の1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。また、画像処理装置100または撮影装置102の各部は、図12に示すハードウェアにより実現してもよいし、ソフトウェアにより実現することもできる。
Note that the present invention can also be implemented by processing in which one or more processors read and execute a program that implements one or more functions of the above-described embodiments. The program may be supplied to a system or device having a processor via a network or storage medium. The invention can also be implemented in a circuit (eg, an ASIC) that implements one or more of the functions of the embodiments described above. Also, each unit of the
400 通信部
401 検出領域設定部
402 操作受付部
403 検出部
404 推定領域決定部
405 コマンド管理部
406 属性推定部
400
Claims (12)
前記検出手段により検出した前記複数の人のうち少なくとも1人を含む領域を2つ以上決定する決定手段と、
前記決定手段により決定された領域のそれぞれを前記撮影手段によって順次撮影するための制御コマンドを出力する制御手段と、
前記制御手段により出力された前記制御コマンドに基づいて撮影された画像から前記領域に存在する人の属性情報を推定する推定手段と、を有し、
前記制御手段は、前記決定手段により決定された領域のうち1つの領域が前記撮影手段の撮影範囲に含まれ、かつ、該1つの領域に存在する人の前記属性情報の推定が可能となる撮影条件に基づいて前記制御コマンドを出力することを特徴とする画像処理装置。 a detecting means for detecting a plurality of persons included in an image photographed by the photographing means;
determining means for determining two or more areas including at least one of the plurality of persons detected by the detecting means;
a control means for outputting a control command for sequentially photographing each of the areas determined by the determining means by the photographing means;
estimating means for estimating attribute information of a person existing in the area from an image captured based on the control command output by the control means;
The control means is configured such that one of the areas determined by the determination means is included in the imaging range of the imaging means, and the attribute information of a person present in the one area can be estimated. An image processing apparatus, wherein the control command is output based on a condition.
前記撮影条件は、前記撮影手段のズーム倍率が、前記決定手段により決定された領域に存在する人の前記属性情報を前記推定手段が推定するために最低限必要なズーム倍率以上であることを特徴とする請求項1または2に記載の画像処理装置。 the control command includes at least one of panning, tilting, and zooming of the photographing means;
The photographing condition is characterized in that the zoom magnification of the photographing means is equal to or greater than the minimum necessary zoom magnification for the estimation means to estimate the attribute information of a person existing in the area determined by the determination means. 3. The image processing apparatus according to claim 1 or 2, wherein
前記検出手段は、前記制御手段により制御された前記撮影手段により撮影された画像における前記検出領域に含まれる前記複数の人を検出することを特徴とする請求項6に記載の画像処理装置。 The control means outputs the control command to increase the zoom magnification of the photographing means while the detection area is included in the photographing range of the photographing means,
7. The image processing apparatus according to claim 6, wherein said detection means detects said plurality of persons included in said detection area in an image taken by said photographing means controlled by said control means.
前記検出工程により検出した前記複数の人のうち少なくとも1人を含む領域を2つ以上決定する決定工程と、
前記決定工程により決定された領域のそれぞれを前記撮影手段によって順次撮影するための制御コマンドを出力する制御工程と、
前記制御工程により出力された前記制御コマンドに基づいて撮影された画像から前記領域に存在する人の属性情報を推定する推定工程と、を有し、
前記制御工程は、前記決定工程において決定された領域のうち1つの領域が前記撮影手段の撮影範囲に含まれ、かつ、該1つの領域に存在する人の前記属性情報の推定が可能となる撮影条件に基づいて前記制御コマンドを出力することを特徴とする画像処理方法。 a detection step of detecting a plurality of people included in the image captured by the imaging means;
a determining step of determining two or more regions containing at least one of the plurality of persons detected by the detecting step;
a control step of outputting a control command for sequentially photographing each of the regions determined by the determining step;
an estimating step of estimating attribute information of a person existing in the area from an image captured based on the control command output by the controlling step;
In the control step, one of the regions determined in the determination step is included in the imaging range of the imaging means, and the attribute information of a person present in the one region can be estimated. An image processing method, wherein the control command is output based on a condition.
前記検出手段により検出した前記複数の人のうち少なくとも1人を含む領域を2つ以上決定する決定手段と、
前記決定手段により決定された領域のそれぞれを前記撮影手段によって順次撮影するための制御コマンドを出力する制御手段と、
前記制御手段により出力された前記制御コマンドに基づいて撮影された画像から前記領域に存在する人の属性情報を推定する推定手段と、を有し、
前記制御手段は、前記決定手段において決定された領域のうち1つの領域が前記撮影手段の撮影範囲に含まれ、かつ、該1つの領域に存在する人の前記属性情報の推定が可能となる撮影条件に基づいて前記制御コマンドを出力する制御手段として、コンピュータを機能させるためのプログラム。 a detecting means for detecting a plurality of persons included in an image photographed by the photographing means;
determining means for determining two or more areas including at least one of the plurality of persons detected by the detecting means;
a control means for outputting a control command for sequentially photographing each of the areas determined by the determining means by the photographing means;
estimating means for estimating attribute information of a person existing in the area from an image captured based on the control command output by the control means;
The control means is configured such that one of the areas determined by the determination means is included in the imaging range of the imaging means, and the attribute information of a person present in the one area can be estimated. A program for causing a computer to function as control means for outputting the control command based on conditions.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018068068A JP7182893B2 (en) | 2018-03-30 | 2018-03-30 | Image processing device, imaging device, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018068068A JP7182893B2 (en) | 2018-03-30 | 2018-03-30 | Image processing device, imaging device, image processing method, and program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2019180017A JP2019180017A (en) | 2019-10-17 |
JP2019180017A5 JP2019180017A5 (en) | 2021-05-13 |
JP7182893B2 true JP7182893B2 (en) | 2022-12-05 |
Family
ID=68279075
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018068068A Active JP7182893B2 (en) | 2018-03-30 | 2018-03-30 | Image processing device, imaging device, image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7182893B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102169995B1 (en) * | 2020-05-04 | 2020-10-26 | 김정환 | Field monitoring system using wireless cam |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017098746A (en) | 2015-11-24 | 2017-06-01 | 株式会社ブイシンク | Image processing apparatus |
JP2017126910A (en) | 2016-01-15 | 2017-07-20 | キヤノン株式会社 | Imaging apparatus |
-
2018
- 2018-03-30 JP JP2018068068A patent/JP7182893B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017098746A (en) | 2015-11-24 | 2017-06-01 | 株式会社ブイシンク | Image processing apparatus |
JP2017126910A (en) | 2016-01-15 | 2017-07-20 | キヤノン株式会社 | Imaging apparatus |
Also Published As
Publication number | Publication date |
---|---|
JP2019180017A (en) | 2019-10-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11012614B2 (en) | Image processing device, image processing method, and program | |
JP5159515B2 (en) | Image processing apparatus and control method thereof | |
KR101795601B1 (en) | Apparatus and method for processing image, and computer-readable storage medium | |
JP6049448B2 (en) | Subject area tracking device, control method thereof, and program | |
JP2011165008A (en) | Image recognition apparatus and method | |
CN111726521B (en) | Photographing method and photographing device of terminal and terminal | |
JP2009060379A (en) | Imaging device and its program | |
JP2012118817A (en) | Image processing device and image processing method, program, and storage medium | |
US20120057067A1 (en) | Digital photographing apparatus and control method thereof | |
TW201330611A (en) | Image processing device, image processing method, and program | |
JP2012105205A (en) | Key frame extractor, key frame extraction program, key frame extraction method, imaging apparatus, and server device | |
CN110809797B (en) | Micro video system, format and generation method | |
JP7182893B2 (en) | Image processing device, imaging device, image processing method, and program | |
US12002279B2 (en) | Image processing apparatus and method, and image capturing apparatus | |
JP2016208268A (en) | Imaging apparatus, control method therefor and program | |
JP2012157016A (en) | Imaging device, face recognition method and program thereof | |
JP2020072349A (en) | Image processing device and image processing method | |
JP2019121278A (en) | Information processing device and control method thereof | |
JP6071714B2 (en) | Image processing apparatus and control method thereof | |
JP2008160280A (en) | Imaging apparatus and automatic imaging method | |
JP2019192154A (en) | Image processing apparatus, imaging device, image processing method, and program | |
JP2020004418A (en) | Image processing apparatus and image processing program | |
JP2019192155A (en) | Image processing device, photographing device, image processing method, and program | |
JP6580213B1 (en) | Image processing apparatus, photographing apparatus, image processing method, and program | |
CN113691731B (en) | Processing method and device and electronic equipment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210329 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210329 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220128 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220301 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220427 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220906 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221017 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221025 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221122 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7182893 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |