JP2024035625A - Image processing device, image processing method - Google Patents
Image processing device, image processing method Download PDFInfo
- Publication number
- JP2024035625A JP2024035625A JP2022140210A JP2022140210A JP2024035625A JP 2024035625 A JP2024035625 A JP 2024035625A JP 2022140210 A JP2022140210 A JP 2022140210A JP 2022140210 A JP2022140210 A JP 2022140210A JP 2024035625 A JP2024035625 A JP 2024035625A
- Authority
- JP
- Japan
- Prior art keywords
- region
- head
- human body
- area
- captured image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims description 104
- 238000003672 processing method Methods 0.000 title claims description 6
- 238000004458 analytical method Methods 0.000 claims abstract description 75
- 238000000034 method Methods 0.000 claims abstract description 61
- 238000004590 computer program Methods 0.000 claims description 14
- 230000009466 transformation Effects 0.000 claims description 10
- 230000004044 response Effects 0.000 claims description 4
- 230000009467 reduction Effects 0.000 claims description 3
- 238000013519 translation Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 abstract description 21
- 238000003384 imaging method Methods 0.000 description 40
- 238000001514 detection method Methods 0.000 description 30
- 230000008569 process Effects 0.000 description 29
- 238000004891 communication Methods 0.000 description 14
- 238000006243 chemical reaction Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 13
- 238000010801 machine learning Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
Images
Abstract
【課題】 撮像画像における特定領域に対する解析の精度向上と該解析に要する時間を軽減させるための技術を提供すること。【解決手段】 撮像画像における人体の頭部サイズの分布に基づいて該撮像画像を複数の分割領域に分割する。該撮像画像における特定領域の枠部に複数の人体が位置した場合に推定される該複数の人体のそれぞれの頭部領域を該分布に基づいて特定し、該複数の人体の頭部領域を包含する包含領域を求める。該複数の分割領域のうち該包含領域に含まれている第1領域と、該複数の分割領域のうち該包含領域に含まれていない第2領域と、を識別可能に表示させる。【選択図】 図5An object of the present invention is to provide a technique for improving the accuracy of analysis of a specific region in a captured image and reducing the time required for the analysis. SOLUTION: A captured image is divided into a plurality of divided regions based on the distribution of human head sizes in the captured image. When a plurality of human bodies are located in a frame of a specific area in the captured image, each estimated head region of the plurality of human bodies is specified based on the distribution, and the head regions of the plurality of human bodies are included. Find the containing area. A first region included in the inclusive region among the plurality of divided regions and a second region not included in the inclusive region among the plurality of divided regions are displayed in a distinguishable manner. [Selection diagram] Figure 5
Description
本発明は、画像処理技術に関するものである。 The present invention relates to image processing technology.
近年、撮像装置で所定の領域を撮影し、該撮影した画像を解析することによって、特定の領域(以降、侵入領域と称する)に侵入する人体を検知する侵入検知システムが提案されている。このような侵入検知システムのユースシーンとして、監視対象物に近づく人物の検知が挙げられる。 In recent years, an intrusion detection system has been proposed that detects a human body intruding into a specific area (hereinafter referred to as an intrusion area) by photographing a predetermined area with an imaging device and analyzing the photographed image. An example of a use case for such an intrusion detection system is the detection of a person approaching a monitored object.
侵入検知において、監視対象物や障害物などによって人体に隠れが生じた場合、画像解析に影響を与えるため、正しく侵入を判定できない場合がある。そのため、画像解析によって検出する対象を人体の全身ではなく頭部とし、頭部の検出結果から足元位置を推定することで、人体の身体に隠れが生じたとしても足元位置を基準とした侵入検知が可能である。また、画像全体を解析対象とするのではなく、解析対象を限定することで、解析処理に要する時間を短縮する技術がある。例えば、特許文献1には、検出すべき物体のサイズ情報に基づいて、ユーザが設定した領域を拡大し、その領域に対して検出処理を行う技術が開示されている。 When detecting an intrusion, if the human body is hidden by an object to be monitored or an obstacle, this will affect image analysis and may prevent an accurate determination of intrusion. Therefore, by using image analysis to detect the head of a human body instead of the whole body, and estimating the foot position from the detection results of the head, we can detect intrusion based on the foot position even if the human body is hidden. is possible. Furthermore, there is a technique that reduces the time required for analysis processing by limiting the objects to be analyzed, rather than analyzing the entire image. For example, Patent Document 1 discloses a technique for enlarging a region set by a user based on size information of an object to be detected and performing detection processing on the region.
侵入検知においても解析対象を限定することで、解析処理に要する時間を短縮することができる。しかしながら、解析処理に要する時間の短縮のために侵入領域を解析対象とする場合、頭部の検出結果から足元位置を推定するため、足元は侵入領域内にあるが頭部が侵入領域外の場合に、侵入の見逃しが発生する。また、特許文献1に開示された技術では、物体のサイズ情報に基づいて解析する領域を拡大するが、拡大のみでは前述した見逃しを回避できない。本発明では、撮像画像における特定領域に対する解析の精度向上と該解析に要する時間を軽減させるための技術を提供する。 In intrusion detection as well, by limiting the objects of analysis, the time required for analysis processing can be shortened. However, when analyzing the intrusion area to reduce the time required for analysis processing, the foot position is estimated from the head detection result, so if the foot is within the intrusion area but the head is outside the intrusion area, Intrusions may be overlooked. Further, in the technique disclosed in Patent Document 1, the area to be analyzed is enlarged based on the size information of the object, but the above-mentioned oversight cannot be avoided by only enlargement. The present invention provides a technique for improving the accuracy of analysis of a specific region in a captured image and reducing the time required for the analysis.
本発明の一様態は、撮像画像における人体の頭部サイズの分布に基づいて該撮像画像を複数の分割領域に分割する分割手段と、前記撮像画像における特定領域の枠部に複数の人体が位置した場合に推定される該複数の人体のそれぞれの頭部領域を前記分布に基づいて特定し、該複数の人体の頭部領域を包含する包含領域を求める処理手段と、前記複数の分割領域のうち前記包含領域に含まれている第1領域と、前記複数の分割領域のうち前記包含領域に含まれていない第2領域と、を識別可能に表示させる表示制御手段とを備えることを特徴とする。 One aspect of the present invention provides a dividing unit that divides a captured image into a plurality of divided regions based on a distribution of head sizes of human bodies in the captured image, and a plurality of human bodies located in a frame of a specific region in the captured image. a processing means for determining a head region of each of the plurality of human bodies estimated when It is characterized by comprising a display control means for displaying a first area included in the inclusive area and a second area that is not included in the inclusive area among the plurality of divided areas in a distinguishable manner. do.
本発明によれば、撮像画像における特定領域に対する解析の精度向上と該解析に要する時間を軽減させることができる。 According to the present invention, it is possible to improve the accuracy of analysis of a specific region in a captured image and to reduce the time required for the analysis.
以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. Note that the following embodiments do not limit the claimed invention. Although a plurality of features are described in the embodiments, not all of these features are essential to the invention, and the plurality of features may be arbitrarily combined. Furthermore, in the accompanying drawings, the same or similar components are designated by the same reference numerals, and redundant description will be omitted.
[第1の実施形態]
本実施形態では、撮像画像中の特定領域への人体の侵入を検知するためのシステムについて説明する。本実施形態に係るシステムは、図1のブロック図に示す如く、撮像装置110およびサーバ130を含み、撮像装置110とサーバ130とがネットワーク120を介して互いにデータ通信が可能なように構成されている。
[First embodiment]
In this embodiment, a system for detecting intrusion of a human body into a specific area in a captured image will be described. As shown in the block diagram of FIG. 1, the system according to this embodiment includes an
先ず、撮像装置110について説明する。撮像装置110は、ネットワークカメラ、カメラ付きのノート型PC、カメラ付きのタブレット端末装置、スマートフォン、などの撮像装置であり、動画像を撮像するもしくは定期的若しくは不定期的に静止画像を撮像する。撮像装置110は動画像を撮像する場合、該動画像における各フレームを撮像画像とし、該撮像画像を処理する、および/または該撮像画像をネットワーク120を介してサーバ130に対して送信する。一方、撮像装置110は定期的若しくは不定期的に静止画像を撮像する場合、該静止画像を撮像画像とし、該撮像画像を処理する、および/または該撮像画像をネットワーク120を介してサーバ130に対して送信する。
First, the
本実施形態では、撮像装置110は、各種の演算処理を実行可能な構成を有するものとして説明する。しかしこれに限らず、例えば、該撮像装置110に接続されたPC(パーソナルコンピュータ)等の外部装置に該演算処理を行わせ、該撮像装置110は該演算処理の結果に応じて動作するものとしても良い。また、撮像装置110はズーム機能を有し、且つパンおよびチルトを制御するための雲台を有していてもよい。
In this embodiment, the
次に、サーバ130について説明する。サーバ130は、PC、タブレット端末装置、スマートフォンなどのコンピュータ装置である。
Next, the
次に、ネットワーク120について説明する。ネットワーク120は、例えばEthernet(登録商標)等の通信規格を満たす複数のルータ、スイッチ、ケーブル等を含んで構成される。本実施形態では、ネットワーク120は、撮像装置110とサーバ130との間の通信を可能にする任意のネットワークであってよく、任意の規模や構成、準拠する通信規格によって構築されうる。例えば、ネットワーク120は、インターネットや有線LAN(Local Area Network)、無線LAN、WAN(Wide Area Network)等でありうる。また、ネットワーク120は、例えば、ONVIF(Open Network Video Interface Forum)規格に準拠した通信プロトコルでの通信が可能なように構成されうる。ただし、これに限られず、ネットワーク120は、例えば、独自の通信プロトコル等の他の通信プロトコルでの通信が可能なように構成されてもよい。
Next, the
なお、図1では以降の説明を簡単にするために、撮像装置110およびサーバ130の数を1としている。しかし、撮像装置110やサーバ130の数は1に限らず、特定の数に限らない。
Note that in FIG. 1, the number of
次に、撮像装置110の構成例について、図2のブロック図を用いて説明する。以下では、図2の各機能部は何れもハードウェアで実装されているものとするが、例えば、画像処理部202や演算処理部203の一部若しくは全部の機能をソフトウェア(コンピュータプログラム)で実装しても良い。その場合、該ソフトウェアは、撮像装置110の不図示のメモリに格納され、撮像装置110の不図示のコントローラによって実行され、これにより対応する機能部の機能が実現される。
Next, a configuration example of the
撮像部201は、光を結像するためのレンズ部、該レンズ部により結像された光をアナログ信号に変換する撮像素子、該アナログ信号をディジタル信号(画像信号)に変換するA/D変換部、を有する。レンズ部は、画角を調整するズーム機能や、光量の調整を行う絞り機能などを有する。撮像素子は、光をアナログ信号に変換する際の感度調整を行うゲイン機能を有する。これらの機能は、画像処理部202から通知された設定値に基づいて調整される。
The
画像処理部202は、画像処理エンジンと、その周辺デバイスなどを含む。周辺デバイスは、例えば、RAM(Random Access Memory)や、各I/F(インタフェース)のドライバ等を含む。画像処理部202では、撮像部201から取得した画像信号に対して、例えば、現像処理、フィルタ処理、センサ補正、ノイズ除去等の画像処理を施して撮像画像を生成する。また、画像処理部202は、レンズ部や撮像素子へ設定値を通知し、適切な露出の撮像画像を取得できるように、露出調整を実行しうる。
The
演算処理部203は、CPUやMPU等の1つ以上のプロセッサ、RAMやROM等のメモリ、各I/Fのドライバなどを有する。なお、CPUはCentral Processing Unitの、MPUはMicro Processing Unitの、RAMはRandom Access Memoryの、ROMはRead Only Memoryの、頭字語である。演算処理部203は、撮像装置110における各種の動作制御を行う。
The
配信部204は、ネットワーク配信エンジンと、例えば、RAMやETH PHYモジュールなどの周辺デバイス等を含んで構成される。ETH PHYモジュールは、Ethernetの物理(PHY)レイヤの処理を実行するモジュールである。配信部204は、画像処理部203から取得した撮像画像や、演算処理部203による処理結果を、ネットワーク120へ配信可能な形式に変換し、変換後のデータをネットワーク120へ出力する。
The
撮像装置110の機能構成例について、図3のブロック図を用いて説明する。以下では、図3の各機能部は何れもハードウェアで実装されているものとするが、例えば、撮像制御部301、信号処理部302、通信部304の一部若しくは全部の機能をソフトウェア(コンピュータプログラム)で実装しても良い。その場合、該ソフトウェアは、記憶部303に格納され、制御部305によって実行され、これにより対応する機能部の機能が実現される。
An example of the functional configuration of the
撮像制御部301は、撮像部201が周囲の環境を撮像するようにする制御を実行する。信号処理部302は、撮像部201から取得した画像信号に対して上記の画像処理を施して撮像画像を生成する。信号処理部302は、例えば、撮像画像を符号化する。信号処理部302は、撮像画像が静止画像であれば、該静止画像に対して、例えば、JPEG(Joint Photographic Experts Group)等の符号化方式を用いて符号化を行う。また、信号処理部302は、撮像画像が動画像の各フレームであれば、該動画像に対して、H.264/MPEG-4 AVC(以下では「H.264」と呼ぶ。)、HEVC(High Efficiency Video Coding)等の符号化方式を用いて符号化を行う。また、信号処理部302は、予め設定された複数の符号化方式の中から、例えば撮像装置110の不図示の操作部を介してユーザにより選択された符号化方式を用いて、撮像画像を符号化してもよい。記憶部303は、一時的にデータを格納するためのメモリである。通信部304は、ネットワーク120を介してサーバ130との間の通信を行う。制御部305は、撮像装置110全体の動作制御を行う。
The
次に、サーバ130のハードウェア構成例について、図4のブロック図を用いて説明する。
Next, an example of the hardware configuration of the
プロセッサ401は、CPU、MPU、GPUなどのプロセッシングユニットであり、RAM402やROM403に格納されたコンピュータプログラムやデータを用いて各種の処理を実行する。これによりプロセッサ401はサーバ130全体の動作制御を行うと共に、サーバ130が行う処理として説明する各種の処理を実行もしくは制御する。
The
RAM402は、ROM403やHDD(ハードディスクドライブ)404からロードされたコンピュータプログラムやデータを格納するためのエリア、I/F405を介して撮像装置110から受信したデータを格納するためのエリア、を有する。さらにRAM402は、プロセッサ401が各種の処理を実行する際に用いるワークエリアを有する。このようにRAM402は、各種のエリアを適宜提供することができる。
ROM403には、サーバ130の設定データ、サーバ130の起動に係るコンピュータプログラムやデータ、サーバ130の基本動作に係るコンピュータプログラムやデータ、などが格納されている。
The
HDD404には、OS(オペレーティングシステム)、サーバ130が行う処理として説明する各種の処理をプロセッサ401に実行もしくは制御させるためのコンピュータプログラムやデータ、などが保存されている。HDD404に保存されているコンピュータプログラムやデータは、プロセッサ401による制御に従って適宜RAM402にロードされ、プロセッサ401による処理対象となる。
The
I/F405は、ネットワーク120を介して撮像装置110との間のデータ通信を行うための通信インターフェースである。
I/
操作部406は、キーボード、マウス、タッチパネルなどのユーザインターフェースであり、ユーザが操作することで各種の指示をプロセッサ401に対して入力することができる。なお、操作部406はマイクであっても良く、その場合、操作部406はユーザが発した音声を収集し、プロセッサ401が該音声を認識することで対応する指示を受け付けることができる。
The
表示部407は、液晶画面やタッチパネル画面を有し、プロセッサ401による処理結果を画像や文字などでもって表示することができる。なお、表示部407は、画像や文字を投影するプロジェクタなどの投影装置であっても良い。
The
プロセッサ401、RAM402、ROM403、HDD404、I/F405、操作部406、表示部407、は何れもシステムバス408に接続されている。なお、図4に示した構成は、サーバ130に適用可能なハードウェア構成の一例に過ぎず、適宜変形/変更が可能である。
The
サーバ130の機能構成例を図5のブロック図に示す。以下では、図5に示した各機能部はソフトウェア(コンピュータプログラム)で実装されているものとする。このコンピュータプログラムはHDD404に保存されており、プロセッサ401による制御の元、必要に応じてRAM402に読み出される。そしてプロセッサ401がRAM402に読み出されたコンピュータプログラムを実行することで、対応する機能部の機能が実現される。しかし、図5に示した機能部のうち1以上をハードウェアで実装しても良い。
An example of the functional configuration of the
以下では図5の機能部を処理の主体として説明するが、実際には該機能部に対応するコンピュータプログラムをプロセッサ401が実行することで、該機能部に対応する機能が実現される。
Although the functional units in FIG. 5 will be described below as the main body of processing, in reality, the functions corresponding to the functional units are realized by the
次に、撮像装置110による撮像画像において指定されている指定領域に対する人体の侵入を検知するためにサーバ130が行う処理について、図8のフローチャートに従って説明する。
Next, a process performed by the
ステップS801では、設定部504は、HDD404に保存されている頭部サイズ分布(頭部サイズ分布の設定値)を取得する。頭部サイズ分布は以下のような処理によって予め生成されてHDD404に保存されている。
In step S801, the
画像取得部501は、撮像装置110からネットワーク120を介して送信された撮像画像を取得する。以下では説明を簡単にするために、撮像装置110からは符号化されていない撮像画像が送信されたものとして説明する。
The
そして分布取得部503は、画像取得部501が取得した撮像画像上の各位置において想定される頭部サイズの分布を頭部サイズ分布として生成する。例えば、ユーザは操作部406を操作して該撮像画像上の様々な位置における頭部サイズを指定する。撮像画像において頭部サイズが指定されていない位置については、分布取得部503は、該位置の近傍にて指定されている頭部サイズから補間により該位置における頭部サイズを推定する。また、撮像画像中の様々な位置に人体の頭部が写っている場合には、分布取得部503は、それぞれの位置における頭部のサイズ(例えば、頭部を包含する矩形のサイズ)を求める。撮像画像において頭部サイズを求めていない位置については、分布取得部503は、該位置の近傍にて求めた頭部サイズから補間により該位置における頭部サイズを推定する。
Then, the
補間による頭部サイズの推定方法は、例えば、撮像画像上の位置(x,y)における頭部サイズをsとしたとき、sは、x、yおよび未知の1個以上のパラメータによって表せると仮定する。例えば、s=ax+by+cと仮定する。この例では、未知のパラメータは、a、b、cである。分布取得部503は、ユーザが指定した頭部の位置およびサイズの集合、または、顔検出により検出された顔(頭部)の位置およびサイズの集合、を用いて、未知のパラメータを例えば最小二乗法等の統計処理により求めることができる。
The method for estimating the head size by interpolation assumes that, for example, when the head size at the position (x, y) on the captured image is s, s can be expressed by x, y, and one or more unknown parameters. do. For example, assume that s=ax+by+c. In this example, the unknown parameters are a, b, and c. The
このようにして分布取得部503は、撮像画像上の各位置における頭部サイズを表す情報を、頭部サイズ分布として生成する。そして分布取得部503は、このようにして生成した頭部サイズ分布をHDD404に保存する。ステップS801では、設定部504は、このようにして生成されてHDD404に保存された頭部サイズ分布を取得する。
In this way, the
また、取得部505は、人体の頭部サイズから該人体の全身サイズを得るための情報である人体サイズ情報(人体サイズ情報の設定値)をHDD404から取得する。人体の頭部サイズ(垂直方向のサイズ)に規定の垂直倍率を乗じることで、該人体を包含する矩形(人体枠)の垂直サイズを得ることができる。また、人体の頭部サイズ(水平方向のサイズ)に規定の水平倍率を乗じることで、該人体を包含する矩形(人体枠)の水平サイズを得ることができる。取得部505は、この垂直倍率および水平倍率を人体サイズ情報として取得する。人体サイズ情報は、ユーザが操作部406を操作して入力した情報であっても良いし、人体の平均頭部サイズおよび平均身長から撮像装置の角度に基づいて決定しても良く、人体サイズ情報を取得するための方法は特定の方法に限らない。
The
また、決定部506は、撮像画像において「人体の侵入の検知を行う領域(侵入領域)として指定された指定領域」を規定する設定値をHDD404から取得する。該設定値は、例えば、ユーザが操作部406を操作して撮像画像上で指定した指定領域を規定する設定値であっても良いし、撮像画像から特定物体を検知した領域を規定する設定値であっても良い。
Further, the determining
ここで、指定領域は「侵入領域に侵入する人体の足下の位置」を基準にして設定されるケースがあり、このような場合、従来では上記の如く、指定領域への侵入判定を正確に行うことは困難である。これに対し、本実施形態では、人体の頭部領域を考慮した領域を変換領域として求め、該変換領域から検出される頭部領域の人物についてのみ指定領域への侵入判定を行う。これにより、従来よりも高い精度でかつ高速に該侵入判定を行うことができる。 Here, there are cases where the designated area is set based on the "position of the feet of the human body intruding into the intrusion area", and in such cases, conventionally, intrusion into the designated area is accurately determined as described above. That is difficult. In contrast, in the present embodiment, a region that takes into account the head region of a human body is obtained as a transformation region, and intrusion into the specified region is determined only for the person whose head region is detected from the transformation region. Thereby, the intrusion determination can be performed with higher accuracy and faster than conventional methods.
ステップS802では、設定部504は、画像取得部501が撮像装置110から取得した撮像画像を、ステップS801で取得した頭部サイズ分布に基づいて複数の分割領域に分割する(撮像画像に複数の分割領域を設定する)。機械学習モデルでは、入力画像に対する検出対象の割合に対して、検出精度の高い範囲が存在する場合がある。撮像画像を頭部サイズ分布に基づいて複数の分割領域に分割し、該分割領域を頭部検出部502に入力することで、検出精度の高い結果を得ることが期待できる。
In step S802, the
撮像画像を複数の分割領域に分割する方法として、例えば、頭部サイズ分布において水平方向(x方向)の頭部サイズの変化が無視できるほど小さいと仮定した時、頭部サイズ分布において垂直方向(y方向)の頭部サイズの変化に基づいて、撮像画像を複数の分割領域に分割する。図6(a)では、撮像画像をy方向に分割した場合の例を示している。図6(a)では、x方向における頭部サイズの変化は無視できるほど小さく、y方向に頭部サイズが3段階に変化している。そこで図6(a)では、最上段の頭部602を包含する分割領域605、中段の頭部603を包含する分割領域606、最下段の頭部604を包含する分割領域607、を設定している。分割領域605において頭部602が占める割合、分割領域606において頭部603が占める割合、分割領域607において頭部604が占める割合、が何れも同じとなるように、分割領域605,606,607のサイズが決定される。そして図6(b)に示す如く、分割領域602、603,604のそれぞれをx方向に並べることで、分割領域602のサイズを有する領域がx方向に並ぶ最上段の領域列、分割領域603のサイズを有する領域がx方向に並ぶ中段の領域列、分割領域604のサイズを有する領域がx方向に並ぶ最下段の領域列、が得られる。このとき、撮像画像外にはみ出てしまう領域は他の領域と重複させて撮像画像内に収まるように設定してもよい。そして、図6(b)に示したそれぞれの領域を分割領域とし、撮像画像601を分割領域に分割する。
As a method of dividing a captured image into multiple divided regions, for example, assuming that the change in head size in the horizontal direction (x direction) is negligibly small in the head size distribution, The captured image is divided into a plurality of divided regions based on the change in head size in the y direction). FIG. 6A shows an example in which a captured image is divided in the y direction. In FIG. 6A, the change in head size in the x direction is negligibly small, and the head size changes in three stages in the y direction. Therefore, in FIG. 6A, a divided
ステップS803では、決定部506は、ステップS802で得られた複数の分割領域のうち、頭部を検出する対象となる分割領域を解析領域として特定(決定)する。先ず、決定部506は、撮像画像における指定領域(ステップS801で取得した「指定領域を規定する設定値」によって規定される領域)の枠部に人体が位置した場合に推定される該人体の頭部領域を頭部サイズ分布に基づいて求める。この処理を図7(a)を例にとり説明する。
In step S803, the determining
図7(a)は複数の分割領域に分割されている撮像画像701の一例を示している。決定部506は、指定領域702の枠部の一例である該指定領域702の左上隅の位置P1を足下の位置として人体703が直立した場合における頭部領域707を求める。また、決定部506は、指定領域702の枠部の一例である該指定領域702の左下隅の位置P2を足下の位置として人体706が直立した場合における頭部領域710を求める。また、決定部506は、指定領域702の枠部の一例である該指定領域702の右上隅の位置P3を足下の位置として人体704が直立した場合における頭部領域708を求める。また、決定部506は、指定領域702の枠部の一例である該指定領域702の右下隅の位置P4を足下の位置として人体705が直立した場合における頭部領域709を求める。
FIG. 7A shows an example of a captured image 701 that is divided into a plurality of divided regions. The determining
より詳しくは、決定部506は、位置Pn(n=1,2,3,4)が属する分割領域Rnを対象分割領域とし、該対象分割領域に対応する頭部サイズSを頭部サイズ分布から取得する。そして決定部506は、頭部サイズSの矩形を、水平方向に「人体サイズ情報が示す水平倍率」だけ拡大し、下方に「人体サイズ情報が示す垂直倍率」だけ拡大(延長)した矩形を、人体枠として求める。そして決定部506は、人体枠の下辺を位置Pnに合わせてから、該人体枠における頭部領域(頭部サイズSの矩形から人体枠を求める為の上記の演算の逆演算により特定可能)を「位置Pnを足下の位置として人体が直立した場合における該人体の頭部領域」として特定する。
More specifically, the determining
なお、人体枠の下辺を位置Pnに合わせた場合に該人体枠が対象分割領域から上方にはみ出ている場合には、決定部506は、対象分割領域よりも1つ上の分割領域を対象分割領域として上記の処理を再度行って新たに人体枠を求める。そして、決定部506は、この新たに求めた人体枠の下辺を位置Pnに合わせてから、該人体枠における頭部領域を「位置Pnを足下の位置として人体が直立した場合における該人体の頭部領域」として特定する。
Note that if the human body frame protrudes upward from the target divided area when the lower side of the human body frame is aligned with the position Pn, the determining
なお、撮像画像における指定領域の枠部に人体が位置した場合に推定される該人体の頭部領域を頭部サイズ分布に基づいて求める方法には様々な方法があり、上記の方法に限らない。 Note that there are various methods for determining the estimated head area of a human body when the human body is located in the frame of a designated area in a captured image based on the head size distribution, and the method is not limited to the above method. .
そして決定部506は、頭部領域707~710を包含する包含領域を変換領域711として求める。例えば、決定部506は、頭部領域707~710を包含するように指定領域702を変換した領域を変換領域711として求める。変換は、たとえば、平行移動、拡大、縮小、回転などの処理の1以上を含む。
Then, the determining
そして決定部506は、図7(b)に示す如く、撮像画像701における分割領域のうち変換領域711に含まれる分割領域を解析領域712として決定(特定)する。図7(b)では、分割領域の一部でも変換領域711に含まれていれば該分割領域を解析領域としている。しかし、例えば、変換領域711に含まれている割合が規定割合以上の分割領域を解析領域としても良く、分割領域と変換領域とに基づいて解析領域を特定する方法は特定の方法に限らない。
Then, as shown in FIG. 7B, the determining
そして決定部506は、撮像画像におけるそれぞれの分割領域の位置およびサイズを示す情報、該それぞれの分割領域のうち解析領域を示す情報(例えば、それぞれの分割領域の識別情報のうち解析領域の識別情報)、を含む情報を領域設定情報として生成する。
The determining
ステップS804では、画像取得部501は、撮像装置110からネットワーク120を介して送信された撮像画像を取得する。そして表示制御部509は、上記の領域設定情報から、該撮像画像におけるそれぞれの分割領域を特定し、さらに上記の領域設定情報から、該特定したそれぞれの分割領域のうち解析領域を特定する。そして表示制御部509は、該撮像画像を表示部407に表示させるのであるが、その際、解析領域と、非解析領域(解析領域以外の分割領域)と、を識別可能に表示する。撮像画像の表示例を図7(c)に示す。
In step S804, the
図7(c)は、撮像画像を表示するためのGUI(グラフィカルユーザインターフェース)713の表示例を示す図である。このようなGUIの表示や、ユーザ操作に応じたGUIの表示制御は、表示制御部509によって行われる。
FIG. 7C is a diagram showing a display example of a GUI (graphical user interface) 713 for displaying a captured image. The
図7(c)では、ステップS804で取得した撮像画像799における解析領域712を非解析領域714とは異なる色で表示している。なお、解析領域と非解析領域とを識別可能に表示するための方法には様々な方法があり、特定の表示方法に限らない。例えば、解析領域の枠を点線で表示し、非解析領域の枠を実線で表示するようにしても良いし、解析領域の枠を塗りつぶして表示し、非解析領域の枠を塗りつぶさずに表示するようにしても良い。分割領域(解析領域712および非解析領域714)の枠の表示の有無はボタン720に対するユーザ操作に応じて切り変えることができる。ユーザが操作部406を操作してボタン720における「ON」を指示すると分割領域の枠は表示され、ユーザが操作部406を操作してボタン720における「OFF」を指示すると分割領域の枠は表示されない。
In FIG. 7C, the analysis region 712 in the captured image 799 acquired in step S804 is displayed in a different color from the non-analysis region 714. Note that there are various methods for displaying the analysis area and the non-analysis area in a distinguishable manner, and the display method is not limited to a specific one. For example, you can display the frame of the analysis area with a dotted line and the frame of the non-analysis area with a solid line, or you can display the frame of the analysis area with a filled color and the frame of the non-analysis area without filling it. You can do it like this. Whether or not the frames of the divided regions (analysis region 712 and non-analysis region 714) are displayed can be switched depending on the user's operation on the button 720. When the user operates the
また、撮像画像799には、変換領域711の枠が表示されている。変換領域711の枠の表示の有無はボタン721に対するユーザ操作に応じて切り変えることができる。ユーザが操作部406を操作してボタン721における「ON」を指示すると変換領域711の枠は表示され、ユーザが操作部406を操作してボタン721における「OFF」を指示すると変換領域711の枠は表示されない。
Further, in the captured image 799, a frame of the conversion area 711 is displayed. Whether or not the frame of the conversion area 711 is displayed can be switched depending on the user's operation on the button 721. When the user operates the
また、撮像画像799には、指定領域702(ステップS801で取得した「指定領域を規定する設定値」によって規定される領域)の枠を重ねて表示している。また、撮像画像799には、人体715,716,717が含まれている。 Furthermore, the frame of the designated area 702 (the area defined by the "setting value defining the designated area" acquired in step S801) is displayed overlappingly on the captured image 799. Furthermore, the captured image 799 includes human bodies 715, 716, and 717.
なお、図7(c)に示したGUIの構成は一例であり、この構成に限らない。例えば、上記の設定値を設定可能な操作部を設けても良いし、解析領域および非解析領域のそれぞれに係る情報を表示可能な表示部を設けても良い。 Note that the configuration of the GUI shown in FIG. 7(c) is an example, and the configuration is not limited to this. For example, an operation section that can set the above-mentioned setting values may be provided, or a display section that can display information regarding each of the analysis area and non-analysis area may be provided.
ステップS805では、頭部検出部502は、ステップS804で画像取得部501が取得した撮像画像における解析領域(ステップS804で特定した解析領域)から人体の頭部を検出する。本実施形態では、頭部検出部502は、画像から人体の頭部を検出できるように予め学習が行われた機械学習モデルを用いて、画像から人体の頭部を検出する。機械学習モデルによる頭部の検出は、例えば、下記の文献に記載の技術を適用することで実現できる。
In step S805, the
J.Redmon,A.Farhadi,”YOLO9000:Better Faster Stronger”,Computer Vision and Pattern Recognition (CVPR) 2016.
頭部検出部502は、解析領域から人体の頭部を検出すると、該頭部を包含する矩形の位置およびサイズを示す情報を頭部検出情報として出力する。例えば、頭部検出部502は、頭部を包含する矩形の左上隅の位置および該矩形の縦横サイズを頭部検出情報として出力しても良いし、該矩形の左上隅の位置および右下隅の位置を頭部検出情報として出力しても良い。
J. Redmon, A. Farhadi, “YOLO9000: Better Faster Stronger”, Computer Vision and Pattern Recognition (CVPR) 2016.
When the
また、機械学習モデルでは、入力するデータのサイズが予め決められている。そのため、入力するデータのサイズが異なる撮像画像が与えられた場合、頭部検出部502は一般的に知られているバイキュービック法等の任意の手法を用いて撮像画像のリサイズや変形処理を行う。
Furthermore, in a machine learning model, the size of input data is determined in advance. Therefore, when a captured image with different input data sizes is given, the
ステップS806では、侵入判定部507は、頭部検出情報が示す位置およびサイズを有する矩形を、水平方向に「人体サイズ情報が示す水平倍率」だけ拡大し、下方に「人体サイズ情報が示す垂直倍率」だけ拡大(延長)した矩形を、人体枠として求める。そして表示制御部509は、侵入判定部507が求めた人体枠を表示する。
In step S806, the
図7(c)の例では、人体715,716,717のうち解析領域712に含まれている人体は人体715,716である。よって、ステップS805では、人体715,716のそれぞれの頭部が検出されることになり、ステップS806では、人体715の人体枠718および人体716の検出枠719を求めることになる。よってステップS806では、人体715の人体枠718および人体716の人体枠719が表示される。人体717は解析領域712に含まれていないため、該人体717の頭部は検出されず、よって該人体717の人体枠は求めないので、人体717の人体枠は表示されない。 In the example of FIG. 7C, the human bodies 715, 716, and 717 are included in the analysis area 712. Therefore, in step S805, the heads of the human bodies 715 and 716 are detected, and in step S806, the human body frame 718 of the human body 715 and the detection frame 719 of the human body 716 are determined. Therefore, in step S806, a human body frame 718 of the human body 715 and a human body frame 719 of the human body 716 are displayed. Since the human body 717 is not included in the analysis area 712, the head of the human body 717 is not detected, and therefore the human body frame of the human body 717 is not determined, so the human body frame of the human body 717 is not displayed.
そして侵入判定部507は、求めた人体枠が指定領域内に侵入したか否か(侵入の有無)を判定する。本実施形態では、侵入判定部507は、人体枠の下辺の一部もしくは全部が指定領域内に入った場合に「侵入した」と判定する。これにより、人体の足元の位置を基準とした侵入判定ができる。なお、侵入判定の方法は、上記の方法に限らず、例えば、人体枠の一部分でも指定領域に入った場合に「侵入した」と判定しても良いし、人体枠の全部が指定領域に入った場合に「侵入した」と判定しても良い。
Then, the
そしてこのような判定の結果、「侵入した」と判定した場合には、処理はステップS807を介してステップS808に進み、「侵入した」と判定しなかった場合には、処理はステップS807を介してステップS809に進む。 As a result of such determination, if it is determined that there has been an intrusion, the process proceeds to step S808 via step S807, and if it is not determined that there has been an intrusion, the process proceeds to step S807. The process then proceeds to step S809.
ステップS808では、表示制御部509は、人体が指定領域内に侵入した旨を通知するべく、人体が指定領域内に侵入した旨を示す情報を表示部407に表示させる。例えば、表示制御部509は、人体が指定領域内に侵入した旨を示す文字列を表示させても良い。また、表示制御部509は、下辺の一部が指定領域内に入った人体枠を対象人体枠とし、対象人体枠と、非対象人体枠と、を識別可能に表示させても良い。また、表示制御部509は、対象人体枠に対応する人体の頭部に係る情報(頭部検出部502が該頭部の検出時に推定した性別や年齢などの人体情報)を表示させても良い。
In step S808, the
なお、人体が指定領域内に侵入した旨の通知方法は表示に限らず、音声や振動などの方法で通知しても良い。例えば、通信部510は、人体が指定領域内に侵入した旨のメッセージを他の機器に対して送信しても良い。また、通信部510は、人体枠が指定領域内に侵入したと判定された場合には、LEDなどの発光体を点灯/点滅させるようにしても良い。
Note that the notification method to the effect that a human body has entered the designated area is not limited to display, and notification may be made by a method such as sound or vibration. For example, the
ステップS809では、制御部512は、図8のフローチャートに従った処理を終了するか否かを判断する。例えば、ユーザが操作部406を操作して処理を終了させるための操作指示を入力した場合には、制御部512は図8のフローチャートに従った処理を終了すると判断する。一方、このような操作指示を入力していない限りは、図8のフローチャートに従った処理を終了すると判断しない。
In step S809, the
このような判断の結果、図8のフローチャートに従った処理を終了すると判断した場合には、図8のフローチャートに従った処理は終了する。一方、図8のフローチャートに従った処理を終了すると判断しなかった場合には、処理はステップS810に進む。 As a result of such determination, if it is determined that the process according to the flowchart of FIG. 8 should be terminated, the process according to the flowchart of FIG. 8 is terminated. On the other hand, if it is not determined that the process according to the flowchart of FIG. 8 should be ended, the process proceeds to step S810.
ステップS810では、制御部512は、上記の各種の設定値のうち1以上の設定値の更新があったか否かを判断する。例えば、制御部512は、ユーザが操作部406を操作して上記の各種の設定値のうち1以上を更新するための操作を行った場合には「更新有り」と判断し、何れの設定値も更新されていない場合には、「更新無し」と判断する。
In step S810, the
このような判断の結果、上記の各種の設定値のうち1以上の設定値の更新があった場合には、処理はステップS801に進む。一方、上記の各種の設定値のうち何れの設定値も更新されていない場合には、処理はステップS804に進む。 As a result of such determination, if one or more of the various setting values described above has been updated, the process advances to step S801. On the other hand, if none of the various setting values described above has been updated, the process advances to step S804.
このように本実施形態によれば、解析領域に含まれる人物のみについて頭部領域を特定し、該頭部領域に基づいて足下の位置を基準とする侵入判定を行うため、人物の侵入の見逃しを抑制しつつ、侵入の検知に要する時間をより短縮することができる。 As described above, according to the present embodiment, the head area of only the person included in the analysis area is specified, and intrusion determination is performed based on the head area with the position of the feet as a reference, so that intrusion of a person may not be overlooked. It is possible to further reduce the time required to detect an intrusion while suppressing the intrusion.
<変形例>
第1の実施形態では、解析領域に含まれる人体について指定領域に対する侵入の検知を行うケースについて説明したが、解析領域の用途は指定領域に対する侵入の検知に限らず、様々な解析処理に適用可能である。例えば、解析領域に含まれる頭部の数をカウントすることで指定領域を通過する人体の数をカウントする実施形態も考え得る。また、解析領域に含まれる頭部に係る情報(該頭部の検出時に推定した性別や年齢などの人体情報)を収集することで指定領域を通過する人体に係る情報を収集する実施形態も考え得る。
<Modified example>
In the first embodiment, a case was described in which intrusion into a specified area of a human body included in the analysis area is detected, but the use of the analysis area is not limited to detecting intrusion into a specified area, but can be applied to various analysis processes. It is. For example, an embodiment may be considered in which the number of human bodies passing through a designated area is counted by counting the number of heads included in the analysis area. We are also considering an embodiment in which information on the human body passing through a designated area is collected by collecting information on the head included in the analysis area (human body information such as gender and age estimated when the head is detected). obtain.
[第2の実施形態]
以下では、第1の実施形態との差分について説明し、以下で特に触れない限りは、第1の実施形態と同様であるものとする。第1の実施形態では、人体枠の下辺の一部が指定領域に入ったか否かを判定することで、人体の足元を基準とした侵入判定を行った。しかし、覗き込みのような動作による侵入を検知したい場合は、頭部を基準にして解析領域を設定し、頭部の侵入を検知した方が状況に即している。本実施形態では、侵入判定を行う部位および条件に応じた解析領域の設定及び侵入判定について説明する。
[Second embodiment]
Differences from the first embodiment will be explained below, and unless otherwise mentioned below, it is assumed that the second embodiment is the same as the first embodiment. In the first embodiment, intrusion determination is performed based on the foot of the human body by determining whether a part of the lower side of the human body frame has entered the designated area. However, if you want to detect an intrusion caused by an action such as peeking, it would be more appropriate to set the analysis area based on the head and detect the intrusion of the head. In this embodiment, setting of an analysis area and intrusion determination according to the site and conditions for intrusion determination will be described.
本実施形態に係るサーバ130の機能構成例を図9のブロック図に示す。図9において図5に示した機能部と同様の機能部には同じ参照番号を付しており、該機能部に係る説明は省略する。図9に示した構成は、図5に示した構成に取得部901および取得部902を加えた構成となっている。
An example of the functional configuration of the
取得部901は、侵入判定部位の設定値を取得する。侵入判定部位の設定値は、「上辺」、「下辺」のように人体枠の一部を示す値であり、人体枠において侵入判定の対象となる部分を示す値である。なお、侵入判定部位の設定値は「上部」、「下部」のようにそれぞれ「上辺」および「下辺」に対してある程度の幅を持った部分を示す値でも良い。なお、侵入判定部位の設定値の設定方法は特定の設定方法に限らない。
The
例えば、表示部407に人体枠を表す矩形を表示する。そして、ユーザが操作部406を操作して該矩形の上辺を指定した場合は、侵入判定部位の設定値として「上辺」が設定され、ユーザが操作部406を操作して該矩形の下辺を指定した場合には、侵入判定部位の設定値として「下辺」が設定される。
For example, a rectangle representing a human body frame is displayed on the
また例えば、表示部407に人体を表す画像を表示する。そして、ユーザが操作部406を操作して該画像における頭部を指定した場合は、侵入判定部位の設定値として「上辺」が設定され、ユーザが操作部406を操作して該画像における足下を指定した場合には、侵入判定部位の設定値として「下辺」が設定される。
For example, an image representing a human body is displayed on the
このような設定方法によって設定された侵入判定部位の設定値はHDD404に保存される。そして、取得部901は、HDD404に保存された侵入判定部位の設定値を取得する。
The setting value of the intrusion determination part set by such a setting method is stored in the
取得部902は、侵入判定条件の設定値を取得する。侵入判定条件の設定値は、侵入判定部位がどの程度指定領域に入った場合に「侵入した」と判定するのかを示す値であり、「侵入した」と判定するために侵入判定部位が満たすべき条件を示す値である。本実施形態では、侵入判定条件は「一部」または「全部」を設定可能である。侵入判定条件として「一部」が設定された場合、侵入判定部507は侵入判定部位の一部でも指定領域に入った場合に「侵入有り」と判定する。一方、侵入判定条件として「全部」が設定された場合、侵入判定部507は侵入判定部位の全てが指定領域に内包された場合に「侵入有り」と判定する。なお、侵入判定条件の設定方法は特定の設定方法に限らない。
The
例えば、ユーザが操作部406を操作して侵入判定条件を設定しても良いし、侵入検知処理の種類などに応じて対応する侵入判定条件が設定されても良い。また例えば、侵入判定条件は割合で指定されても良い。その場合、侵入判定部507は侵入判定部位において指定領域に入った部分の該侵入判定部位に占める割合が侵入判定条件(割合)を超えた場合に、「侵入有り」と判定する。
For example, the user may operate the
次に、撮像装置110による撮像画像における指定領域に対する人体の侵入を検知するためにサーバ130が行う処理について、図10のフローチャートに従って説明する。図10において図8に示した処理ステップと同様の処理ステップには同じステップ番号を付しており、該処理ステップに係る説明は省略する。
Next, a process performed by the
ステップS1001では、ステップS801の処理に加えて、取得部901は侵入判定部位の設定値を取得し、取得部902は侵入判定条件の設定値を取得する。ステップS1002では、決定部506は、ステップS802で得られた複数の分割領域のうち、頭部を検出する対象となる分割領域を解析領域として決定する。侵入判定部位の設定値として「下辺」が設定されており、且つ侵入判定条件の設定値として「一部」が設定されている場合には、決定部506は、第1の実施形態と同様にして解析領域を決定する。
In step S1001, in addition to the processing in step S801, the
侵入判定部位の設定値として「上辺」が設定されており、且つ侵入判定条件の設定として「一部」が設定されている場合には、決定部506は、以下のようにして解析領域を決定する。
If "upper side" is set as the setting value for the intrusion determination part and "part" is set as the setting for the intrusion determination condition, the determining
先ず、決定部506は、撮像画像における指定領域(ステップS801で取得した「指定領域を規定する設定値」によって規定される領域)の枠部に人体が位置した場合に推定される該人体の頭部領域を頭部サイズ分布に基づいて求める。この処理を図11(a)を例にとり説明する。
First, the determining
図11(a)は分割領域に分割されている撮像画像1101の一例を示している。決定部506は、指定領域1102の枠部の一例である該指定領域1102の左下隅の位置P1を含む分割領域に対応する頭部サイズを頭部サイズ分布から取得する。そして決定部506は、該取得した頭部サイズの矩形を、水平方向に「人体サイズ情報が示す水平倍率」だけ拡大し、下方に「人体サイズ情報が示す垂直倍率」だけ拡大(延長)した矩形を、人体枠として求める。そして決定部506は、位置P1に接する人体枠1111,1112を設定する。人体枠1111の左上隅は位置P1と接しており、人体枠1112の右上隅は位置P1と接している。
FIG. 11A shows an example of a captured image 1101 that is divided into divided regions. The determining
同様に決定部506は、指定領域1102の左上隅の位置P2を含む分割領域に対応する頭部サイズを頭部サイズ分布から取得する。そして決定部506は、該取得した頭部サイズの矩形を、水平方向に「人体サイズ情報が示す水平倍率」だけ拡大し、下方に「人体サイズ情報が示す垂直倍率」だけ拡大(延長)した矩形を、人体枠として求める。そして決定部506は、位置P2に接する人体枠1103,1104を設定する。人体枠1104の左上隅は位置P2と接しており、人体枠1103の右上隅は位置P2と接している。
Similarly, the determining
同様に決定部506は、指定領域1102の上隅の位置P3を含む分割領域に対応する頭部サイズを頭部サイズ分布から取得する。そして決定部506は、該取得した頭部サイズの矩形を、水平方向に「人体サイズ情報が示す水平倍率」だけ拡大し、下方に「人体サイズ情報が示す垂直倍率」だけ拡大(延長)した矩形を、人体枠として求める。そして決定部506は、位置P3に接する人体枠1105,1106を設定する。人体枠1106の左上隅は位置P3と接しており、人体枠1105の右上隅は位置P3と接している。
Similarly, the determining
同様に決定部506は、指定領域1102の右上隅の位置P4を含む分割領域に対応する頭部サイズを頭部サイズ分布から取得する。そして決定部506は、該取得した頭部サイズの矩形を、水平方向に「人体サイズ情報が示す水平倍率」だけ拡大し、下方に「人体サイズ情報が示す垂直倍率」だけ拡大(延長)した矩形を、人体枠として求める。そして決定部506は、位置P4に接する人体枠1107,1108を設定する。人体枠1108の左上隅は位置P4と接しており、人体枠1107の右上隅は位置P4と接している。
Similarly, the determining
同様に決定部506は、指定領域1102の右下隅の位置P5を含む分割領域に対応する頭部サイズを頭部サイズ分布から取得する。そして決定部506は、該取得した頭部サイズの矩形を、水平方向に「人体サイズ情報が示す水平倍率」だけ拡大し、下方に「人体サイズ情報が示す垂直倍率」だけ拡大(延長)した矩形を、人体枠として求める。そして決定部506は、位置P5に接する人体枠1109,1110を設定する。人体枠1109の左上隅は位置P5と接しており、人体枠1110の右上隅は位置P5と接している。
Similarly, the determining
そして決定部506は、人体枠1103~1112のそれぞれにおける頭部領域を第1の実施形態と同様にして求め、人体枠1103~1112の頭部領域を包含する包含領域を変換領域1113として求める。例えば、決定部506は、人体枠1103~1112の頭部領域を包含するように指定領域1102を第1の実施形態と同様にして変換処理した領域を変換領域1113として求める。そして決定部506は、図11(b)に示す如く、撮像画像1101における分割領域のうち変換領域1113に含まれる分割領域を解析領域1114として決定(特定)する。
Then, the determining
なお、侵入判定部位の設定値として「下辺」が設定されており、侵入判定条件の設定値として「一部」が設定されている場合、決定部506は、次のようにして解析領域を求めても良い。
Note that when "lower side" is set as the setting value of the intrusion determination part and "part" is set as the setting value of the intrusion determination condition, the determining
決定部506は、指定領域1102の各頂点の位置に対応する人体枠を第1の実施形態と同様にして求め、該位置に接する人体枠(一方の人体枠の左下隅は該位置と接しており、他方の人体枠の右下隅は該位置と接している)を設定する。そして決定部506は、第1の実施形態と同様にして、それぞれの人体枠における頭部サイズの矩形を「該人体枠に対応する人体の頭部領域」とする。そして決定部506は、全ての人体枠に対応する頭部領域を包含する包含領域を変換領域として求め、撮像画像における分割領域のうち変換領域に含まれる分割領域を解析領域として決定(特定)する。
The determining
なお、侵入判定部位の設定値として「下辺」が設定されており、且つ侵入判定条件の設定値として「全部」が設定されている場合、人体枠の全体が指定領域に含まれるように設定し、以降は第1の実施形態と同様にして解析領域を決定する。図7(a)の例では、人物706の人物枠の下辺が指定領域702の下辺と重なり、且つ該人体枠の全体が該指定領域702に含まれるように該人体枠を設定する。また、人物705の人物枠の下辺が指定領域702の下辺と重なり、且つ該人体枠の全体が該指定領域702に含まれるように該人体枠を設定する。また、人物703の人物枠の上辺が指定領域702の上辺と重なり、且つ該人体枠の全体が該指定領域702に含まれるように該人体枠を設定する。また、人物704の人物枠の上辺が指定領域702の上辺と重なり、且つ該人体枠の全体が該指定領域702に含まれるように該人体枠を設定する。人体枠の設定後は第1の実施形態と同様にして解析領域を決定する。 Note that if "lower side" is set as the setting value for the intrusion detection part and "all" is set as the setting value for the intrusion judgment condition, the entire human body frame is set to be included in the specified area. , and thereafter, the analysis area is determined in the same manner as in the first embodiment. In the example of FIG. 7A, the human body frame is set so that the lower edge of the human frame of the person 706 overlaps the lower edge of the specified area 702, and the entire human body frame is included in the specified area 702. Further, the human body frame is set so that the lower side of the human frame of the person 705 overlaps the lower side of the specified area 702 and the entire human body frame is included in the specified area 702. Further, the human body frame is set so that the upper side of the human frame of the person 703 overlaps the upper side of the specified area 702 and the entire human body frame is included in the specified area 702. Further, the human body frame is set so that the upper side of the human frame of the person 704 overlaps the upper side of the specified area 702 and the entire human body frame is included in the specified area 702. After setting the human body frame, the analysis area is determined in the same manner as in the first embodiment.
なお、侵入判定部位の設定値として「上辺」が設定されており、且つ侵入判定条件の設定値として「全部」が設定されている場合、人体枠の全体が指定領域に含まれるように設定し、以降は第1の実施形態と同様にして解析領域を決定する。図11(a)の例では、人物枠1109~1112の下辺が指定領域1113の下辺と重なり、且つ該人体枠1109~1112の全体が該指定領域1113に含まれるように該人体枠を設定する。また、人物枠1103~1108の全体が対応する頂点の近傍に位置し且つ該指定領域1113に含まれるように該人体枠を設定する。人体枠の設定後は第1の実施形態と同様にして解析領域を決定する。 Note that if "Top Side" is set as the setting value for the intrusion detection part and "All" is set as the setting value for the intrusion judgment condition, the entire human body frame is set to be included in the specified area. , and thereafter, the analysis area is determined in the same manner as in the first embodiment. In the example of FIG. 11A, the human body frame is set so that the lower sides of the human body frames 1109 to 1112 overlap the lower side of the specified area 1113, and the entire human body frames 1109 to 1112 are included in the specified area 1113. . Further, the human body frames are set so that the entire human body frames 1103 to 1108 are located near the corresponding vertices and are included in the designated area 1113. After setting the human body frame, the analysis area is determined in the same manner as in the first embodiment.
このように本実施形態では、人体を包含する枠において判定の対象となる部分、該判定の条件、に応じた配置で複数の人体が撮像画像における指定領域の枠部に位置した場合に推定される該複数の人体のそれぞれの頭部領域を頭部サイズ分布に基づいて取得する。そして、該複数の人体の頭部領域を包含する包含領域を変換領域として求め、該変換領域に含まれる分割領域を解析領域として特定する。 As described above, in this embodiment, the estimation is performed when a plurality of human bodies are located in the frame portion of the specified area in the captured image with the arrangement according to the portion to be determined in the frame that includes the human body and the conditions for the determination. The head regions of each of the plurality of human bodies are acquired based on the head size distribution. Then, an inclusive region that includes the head regions of the plurality of human bodies is determined as a transformed region, and divided regions included in the transformed region are specified as analysis regions.
本実施形態でもステップS804では、第1の実施形態と同様、表示制御部509は解析領域と非解析領域とを識別可能に表示する。撮像画像の表示例を図11(c)に示す。
In this embodiment as well, in step S804, like the first embodiment, the
図11(c)は、撮像画像を表示するためのGUI1115の表示例を示す図である。このようなGUIの表示や、ユーザ操作に応じたGUIの表示制御は、表示制御部509によって行われる。
FIG. 11C is a diagram showing a display example of the GUI 1115 for displaying a captured image. The
図11(c)では、ステップS804で取得した撮像画像1199における解析領域1114を非解析領域1116とは異なる色で表示している。また、撮像画像1199には、変換領域1113の枠が表示されている。また、撮像画像1199には、指定領域1102(ステップS801で取得した「指定領域を規定する設定値」によって規定される領域)の枠を重ねて表示している。また、撮像画像1199には、人体1117,1118が含まれている。 In FIG. 11C, the analysis region 1114 in the captured image 1199 acquired in step S804 is displayed in a different color from the non-analysis region 1116. Further, in the captured image 1199, a frame of the conversion area 1113 is displayed. Furthermore, the frame of the designated area 1102 (the area defined by the "setting value defining the designated area" acquired in step S801) is displayed overlappingly on the captured image 1199. Furthermore, the captured image 1199 includes human bodies 1117 and 1118.
分割領域の枠の表示/非表示は第1の実施形態と同様、ボタン720によって切り替えることができ、変換領域の枠の表示/非表示は第1の実施形態と同様、ボタン721によって切り替えることができる。 The display/non-display of the divided area frame can be switched using the button 720, as in the first embodiment, and the display/non-display of the conversion area frame can be switched using the button 721, as in the first embodiment. can.
図7(c)の例では、人体1117,1118のうち人体1117が解析領域1114に含まれているので、ステップS805では、人体1117の頭部が検出されることになり、ステップS806では、人体1117の人体枠1119を求めることになる。よってステップS806では、人体1117の人体枠1119が表示される。人体1118は解析領域1114に含まれていないため、該人体1118の頭部は検出されず、よって該人体1118の人体枠は求めないので、人体1118の人体枠は表示されない。 In the example of FIG. 7C, the human body 1117 of the human bodies 1117 and 1118 is included in the analysis region 1114, so in step S805, the head of the human body 1117 is detected, and in step S806, the human body 1117 is included in the analysis region 1114. The human body frame 1119 of 1117 is calculated. Therefore, in step S806, a human body frame 1119 of the human body 1117 is displayed. Since the human body 1118 is not included in the analysis area 1114, the head of the human body 1118 is not detected, and therefore the human body frame of the human body 1118 is not determined, so the human body frame of the human body 1118 is not displayed.
さらに侵入判定部位に基づいて、人体枠1119の一部を強調表示しても良い。図11(c)では、侵入判定部位の設定値として「上辺」が設定されているため、人体枠1119の上辺を強調表示している。 Furthermore, a part of the human body frame 1119 may be highlighted based on the intrusion determination site. In FIG. 11C, the upper side of the human body frame 1119 is highlighted because "upper side" is set as the setting value for the intrusion determination part.
ステップS807では、侵入判定部507は上記の如く、侵入判定条件の設定値に基づいて侵入検知を行う。ステップS808では、表示制御部509は、上記の強調表示を行っても良いし、侵入判定部位の設定値および侵入判定条件の設定値を表示部407に表示しても良い。
In step S807, the
このように、本実施形態によれば、侵入判定部位と侵入判定条件とを設定することで、それぞれの状況に応じた解析領域の設定及び侵入判定が可能となる。 As described above, according to the present embodiment, by setting the intrusion determination part and the intrusion determination condition, it becomes possible to set an analysis area and perform intrusion determination according to each situation.
<変形例>
表示制御部509は、ユーザが操作部406を操作して指定領域を設定すると、上記の処理を行って変換領域を求め、該変換領域の一部が撮像画像からはみ出てしまう場合には、その旨を表示部407に表示するなどしてユーザに通知するようにしても良い。
<Modified example>
When the user operates the
[第3の実施形態]
第1の実施形態および第2の実施形態では、指定領域に対する人物の侵入検知は画像処理装置130が行うものとして説明したが、これに限らず、例えば、撮像装置110が行っても良い。この場合、画像処理装置130は、指定領域の設定値、領域設定情報、侵入判定部位の設定値、侵入判定条件の設定、などを撮像装置110に対して送信する。撮像装置110は、自身が撮像した撮像画像における解析領域を、画像処理装置130から受信した領域設定情報から判断し、解析領域に含まれる人体について指定領域(画像処理装置130から受信した指定領域の設定値から判断可能)への侵入検出を行う。
[Third embodiment]
In the first embodiment and the second embodiment, the
また、第1の実施形態や第2の実施形態では、人体枠は矩形であるものとしているが、人体枠の形状は矩形に限らず、人体を包含する楕円であっても良いし、人体の形状に沿った形状であっても良い。この場合、人体枠の「上辺」や「下辺」はそれぞれ「上部(人体枠の上側の領域)」、「下部(人体枠の下側の領域)」と称しても良い。 Further, in the first embodiment and the second embodiment, the human body frame is assumed to be rectangular, but the shape of the human body frame is not limited to a rectangle, but may be an ellipse that encompasses the human body, or may be an ellipse that encompasses the human body. It may be a shape that follows the shape. In this case, the "upper side" and the "lower side" of the human body frame may be respectively referred to as the "upper part (the upper region of the human body frame)" and the "lower part (the lower region of the human body frame)".
また、上記の各実施形態や各変形例で使用した数値、処理タイミング、処理順、処理の主体、データ(情報)の取得方法/送信先/送信元/格納場所などは、具体的な説明を行うために一例として挙げたもので、このような一例に限定することを意図したものではない。 In addition, the numerical values, processing timing, processing order, processing subject, data (information) acquisition method/destination/source/storage location, etc. used in each of the above embodiments and modifications are explained in detail. This is provided as an example for purposes of implementation, and is not intended to be limiting.
また、以上説明した各実施形態や各変形例の一部若しくは全部を適宜組み合わせて使用しても構わない。また、以上説明した各実施形態や各変形例の一部若しくは全部を選択的に使用しても構わない。 Further, a part or all of the embodiments and modifications described above may be used in combination as appropriate. Further, a part or all of the embodiments and modifications described above may be selectively used.
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention provides a system or device with a program that implements one or more functions of the embodiments described above via a network or a storage medium, and one or more processors in a computer of the system or device reads and executes the program. This can also be achieved by processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
本明細書の発明は、以下の画像処理装置、画像処理方法、コンピュータプログラムを含む。 The invention of this specification includes the following image processing device, image processing method, and computer program.
(項目1)
撮像画像における人体の頭部サイズの分布に基づいて該撮像画像を複数の分割領域に分割する分割手段と、
前記撮像画像における特定領域の枠部に複数の人体が位置した場合に推定される該複数の人体のそれぞれの頭部領域を前記分布に基づいて特定し、該複数の人体の頭部領域を包含する包含領域を求める処理手段と、
前記複数の分割領域のうち前記包含領域に含まれている第1領域と、前記複数の分割領域のうち前記包含領域に含まれていない第2領域と、を識別可能に表示させる表示制御手段と
を備えることを特徴とする画像処理装置。
(Item 1)
dividing means for dividing the captured image into a plurality of divided regions based on the distribution of the size of the human body's head in the captured image;
When a plurality of human bodies are located in a frame of a specific area in the captured image, each estimated head region of the plurality of human bodies is specified based on the distribution, and the head regions of the plurality of human bodies are included. processing means for determining an inclusive area;
Display control means for displaying a first region included in the inclusive region among the plurality of divided regions and a second region not included in the inclusive region among the plurality of divided regions in a distinguishable manner; An image processing device comprising:
(項目2)
前記処理手段は、前記撮像画像における特定領域の枠部に複数の人体のそれぞれの枠の下部が位置した場合に推定される該複数の人体のそれぞれの頭部領域を前記分布に基づいて特定し、該複数の人体の頭部領域を包含する包含領域を求めることを特徴とする項目1に記載の画像処理装置。
(Item 2)
The processing means specifies, based on the distribution, a head region of each of the plurality of human bodies that is estimated when a lower part of each frame of the plurality of human bodies is located in a frame of a specific region in the captured image. , the image processing apparatus according to item 1, wherein the image processing apparatus calculates an inclusive area that includes head areas of the plurality of human bodies.
(項目3)
前記処理手段は、人体を包含する枠において判定の対象となる部分、該判定の条件、に応じた配置で複数の人体が前記撮像画像における特定領域の枠部に位置した場合に推定される該複数の人体のそれぞれの頭部領域を前記分布に基づいて取得し、該複数の人体の頭部領域を包含する包含領域を求めることを特徴とする項目1に記載の画像処理装置。
(Item 3)
The processing means is configured to determine the area to be determined when a plurality of human bodies are located in a frame portion of a specific area in the captured image in an arrangement according to a portion to be determined in a frame that includes a human body and conditions for the determination. The image processing apparatus according to item 1, wherein head regions of each of a plurality of human bodies are acquired based on the distribution, and an inclusive region that includes the head regions of the plurality of human bodies is determined.
(項目4)
前記処理手段は、前記特定領域を変換して前記包含領域を求めることを特徴とする項目1ないし3の何れか1項目に記載の画像処理装置。
(Item 4)
The image processing apparatus according to any one of items 1 to 3, wherein the processing means converts the specific area to obtain the inclusive area.
(項目5)
前記変換は、平行移動、拡大、縮小、回転の1以上を含むことを特徴とする項目4に記載の画像処理装置。
(Item 5)
5. The image processing device according to item 4, wherein the transformation includes one or more of translation, enlargement, reduction, and rotation.
(項目6)
さらに、
ユーザ操作に応じて撮像画像に対して前記特定領域が設定された場合、該特定領域に対応する前記包含領域を求め、該求めた包含領域の一部が前記撮像画像からはみ出てしまう場合には通知する手段を備えることを特徴とする項目1ないし5の何れか1項目に記載の画像処理装置。
(Item 6)
moreover,
When the specific area is set for the captured image in response to a user operation, the inclusive area corresponding to the specific area is determined, and if a part of the determined inclusive area protrudes from the captured image, 6. The image processing device according to any one of items 1 to 5, further comprising means for notifying the user.
(項目7)
さらに、
前記第1領域から人体の頭部を検出し、該頭部に基づいて前記特定領域に対する解析処理を行う解析処理手段を備えることを特徴とする項目1ないし6の何れか1項目に記載の画像処理装置。
(Item 7)
moreover,
The image according to any one of items 1 to 6, further comprising an analysis processing means that detects a head of a human body from the first region and performs analysis processing on the specific region based on the head. Processing equipment.
(項目8)
前記解析処理手段は、前記第1領域から人体の頭部を検出し、該頭部に基づいて、該人体の前記特定領域への侵入の有無を判定することを特徴とする項目7に記載の画像処理装置。
(Item 8)
Item 7, wherein the analysis processing means detects a head of a human body from the first area, and determines whether or not the human body has entered the specific area based on the head. Image processing device.
(項目9)
更に、
前記侵入があった場合には、前記侵入があった旨を通知する通知手段を備えることを特徴とする項目8に記載の画像処理装置。
(Item 9)
Furthermore,
9. The image processing apparatus according to item 8, further comprising a notification means for notifying that there has been an intrusion when the intrusion has occurred.
(項目10)
画像処理装置が行う画像処理方法であって、
前記画像処理装置の分割手段が、撮像画像における人体の頭部サイズの分布に基づいて該撮像画像を複数の分割領域に分割する分割工程と、
前記画像処理装置の処理手段が、前記撮像画像における特定領域の枠部に複数の人体が位置した場合に推定される該複数の人体のそれぞれの頭部領域を前記分布に基づいて特定し、該複数の人体の頭部領域を包含する包含領域を求める処理工程と、
前記画像処理装置の表示制御手段が、前記複数の分割領域のうち前記包含領域に含まれている第1領域と、前記複数の分割領域のうち前記包含領域に含まれていない第2領域と、を識別可能に表示させる表示制御工程と
を備えることを特徴とする画像処理方法。
(Item 10)
An image processing method performed by an image processing device, the method comprising:
a dividing step in which the dividing means of the image processing device divides the captured image into a plurality of divided regions based on the distribution of human head sizes in the captured image;
The processing means of the image processing device specifies, based on the distribution, a head region of each of the plurality of human bodies estimated when the plurality of human bodies are located in the frame of the specific region in the captured image, and a processing step of determining an inclusive region that includes head regions of a plurality of human bodies;
The display control means of the image processing device selects a first region of the plurality of divided regions that is included in the inclusive region, and a second region of the plurality of divided regions that is not included in the inclusive region; An image processing method comprising: a display control step for displaying identifiably.
(項目11)
コンピュータを、項目1ないし9の何れか1項目に記載の画像処理装置の各手段として機能させるためのコンピュータプログラム。
(Item 11)
A computer program for causing a computer to function as each means of the image processing apparatus according to any one of items 1 to 9.
発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。 The invention is not limited to the embodiments described above, and various changes and modifications can be made without departing from the spirit and scope of the invention. Therefore, the following claims are hereby appended to disclose the scope of the invention.
130:画像処理装置 501:画像取得部 502:頭部検出部 503:分布取得部 504:設定部 505:取得部 506:決定部 507:侵入判定部 509:表示制御部 510:通信部 512:制御部 130: Image processing device 501: Image acquisition unit 502: Head detection unit 503: Distribution acquisition unit 504: Setting unit 505: Acquisition unit 506: Determination unit 507: Intrusion determination unit 509: Display control unit 510: Communication unit 512: Control Department
Claims (11)
前記撮像画像における特定領域の枠部に複数の人体が位置した場合に推定される該複数の人体のそれぞれの頭部領域を前記分布に基づいて特定し、該複数の人体の頭部領域を包含する包含領域を求める処理手段と、
前記複数の分割領域のうち前記包含領域に含まれている第1領域と、前記複数の分割領域のうち前記包含領域に含まれていない第2領域と、を識別可能に表示させる表示制御手段と
を備えることを特徴とする画像処理装置。 dividing means for dividing the captured image into a plurality of divided regions based on the distribution of the size of the human body's head in the captured image;
When a plurality of human bodies are located in a frame of a specific area in the captured image, each estimated head region of the plurality of human bodies is specified based on the distribution, and the head regions of the plurality of human bodies are included. processing means for determining an inclusive area;
Display control means for displaying a first region included in the inclusive region among the plurality of divided regions and a second region not included in the inclusive region among the plurality of divided regions in a distinguishable manner; An image processing device comprising:
ユーザ操作に応じて撮像画像に対して前記特定領域が設定された場合、該特定領域に対応する前記包含領域を求め、該求めた包含領域の一部が前記撮像画像からはみ出てしまう場合には通知する手段を備えることを特徴とする請求項1に記載の画像処理装置。 moreover,
When the specific area is set for the captured image in response to a user operation, the inclusive area corresponding to the specific area is determined, and if a part of the determined inclusive area protrudes from the captured image, The image processing apparatus according to claim 1, further comprising means for notifying.
前記第1領域から人体の頭部を検出し、該頭部に基づいて前記特定領域に対する解析処理を行う解析処理手段を備えることを特徴とする請求項1に記載の画像処理装置。 moreover,
The image processing apparatus according to claim 1, further comprising analysis processing means for detecting a head of a human body from the first region and performing analysis processing on the specific region based on the head.
前記侵入があった場合には、前記侵入があった旨を通知する通知手段を備えることを特徴とする請求項8に記載の画像処理装置。 Furthermore,
9. The image processing apparatus according to claim 8, further comprising a notification means for notifying that the intrusion has occurred when the intrusion has occurred.
前記画像処理装置の分割手段が、撮像画像における人体の頭部サイズの分布に基づいて該撮像画像を複数の分割領域に分割する分割工程と、
前記画像処理装置の処理手段が、前記撮像画像における特定領域の枠部に複数の人体が位置した場合に推定される該複数の人体のそれぞれの頭部領域を前記分布に基づいて特定し、該複数の人体の頭部領域を包含する包含領域を求める処理工程と、
前記画像処理装置の表示制御手段が、前記複数の分割領域のうち前記包含領域に含まれている第1領域と、前記複数の分割領域のうち前記包含領域に含まれていない第2領域と、を識別可能に表示させる表示制御工程と
を備えることを特徴とする画像処理方法。 An image processing method performed by an image processing device, the method comprising:
a dividing step in which the dividing means of the image processing device divides the captured image into a plurality of divided regions based on the distribution of human head sizes in the captured image;
The processing means of the image processing device specifies, based on the distribution, a head region of each of the plurality of human bodies estimated when the plurality of human bodies are located in the frame of the specific region in the captured image, and a processing step of determining an inclusive region that includes head regions of a plurality of human bodies;
The display control means of the image processing device selects a first region of the plurality of divided regions that is included in the inclusive region, and a second region of the plurality of divided regions that is not included in the inclusive region; An image processing method comprising: a display control step for displaying identifiably.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022140210A JP2024035625A (en) | 2022-09-02 | 2022-09-02 | Image processing device, image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022140210A JP2024035625A (en) | 2022-09-02 | 2022-09-02 | Image processing device, image processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024035625A true JP2024035625A (en) | 2024-03-14 |
Family
ID=90194726
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022140210A Pending JP2024035625A (en) | 2022-09-02 | 2022-09-02 | Image processing device, image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2024035625A (en) |
-
2022
- 2022-09-02 JP JP2022140210A patent/JP2024035625A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3024227B1 (en) | Image processing apparatus and image processing method | |
JP6650677B2 (en) | Video processing apparatus, video processing method, and program | |
JP2015142181A (en) | Control apparatus and control method | |
JP6935247B2 (en) | Image processing equipment, image processing methods, and programs | |
JP2012216006A (en) | Information processing system, information processing device, imaging device, and information processing method | |
JP2012216946A (en) | Information processing device, information processing method, and positional information data structure | |
JP2010267055A (en) | Apparatus and method for detection of moving object, and computer program | |
JP2019134269A (en) | Image processing device, image processing method, and program | |
WO2023006009A1 (en) | Photographing parameter determination method and apparatus, and electronic device | |
JP2019135810A (en) | Image processing apparatus, image processing method, and program | |
JP6991045B2 (en) | Image processing device, control method of image processing device | |
TWI671707B (en) | Image analysis method, electronic system and non-transitory computer-readable recording medium | |
US9842260B2 (en) | Image processing apparatus and image processing method of performing image segmentation | |
JP2024035625A (en) | Image processing device, image processing method | |
JP2007048232A (en) | Information processing device, information processing method, and computer program | |
JP6452738B2 (en) | Image processing apparatus, image processing method, and program | |
US10990802B2 (en) | Imaging apparatus providing out focusing and method for controlling the same | |
JP2019219804A (en) | Object detection device and object detection method | |
WO2017115587A1 (en) | Information processing device, control method, and program | |
JP7208713B2 (en) | Image analysis device and image analysis method | |
JP2021118522A (en) | Image processing device, image processing method, and monitoring system | |
JP2021056899A (en) | Image processor, image processing method, and program | |
US20220172474A1 (en) | Image processing apparatus, 3d model generation method, and program | |
JP7370769B2 (en) | Image processing device, image processing method and program | |
US10885348B2 (en) | Information processing device, information processing method, and storage medium |