JP2024035625A - Image processing device, image processing method - Google Patents

Image processing device, image processing method Download PDF

Info

Publication number
JP2024035625A
JP2024035625A JP2022140210A JP2022140210A JP2024035625A JP 2024035625 A JP2024035625 A JP 2024035625A JP 2022140210 A JP2022140210 A JP 2022140210A JP 2022140210 A JP2022140210 A JP 2022140210A JP 2024035625 A JP2024035625 A JP 2024035625A
Authority
JP
Japan
Prior art keywords
region
head
human body
area
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022140210A
Other languages
Japanese (ja)
Inventor
兼悟 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2022140210A priority Critical patent/JP2024035625A/en
Publication of JP2024035625A publication Critical patent/JP2024035625A/en
Pending legal-status Critical Current

Links

Images

Abstract

【課題】 撮像画像における特定領域に対する解析の精度向上と該解析に要する時間を軽減させるための技術を提供すること。【解決手段】 撮像画像における人体の頭部サイズの分布に基づいて該撮像画像を複数の分割領域に分割する。該撮像画像における特定領域の枠部に複数の人体が位置した場合に推定される該複数の人体のそれぞれの頭部領域を該分布に基づいて特定し、該複数の人体の頭部領域を包含する包含領域を求める。該複数の分割領域のうち該包含領域に含まれている第1領域と、該複数の分割領域のうち該包含領域に含まれていない第2領域と、を識別可能に表示させる。【選択図】 図5An object of the present invention is to provide a technique for improving the accuracy of analysis of a specific region in a captured image and reducing the time required for the analysis. SOLUTION: A captured image is divided into a plurality of divided regions based on the distribution of human head sizes in the captured image. When a plurality of human bodies are located in a frame of a specific area in the captured image, each estimated head region of the plurality of human bodies is specified based on the distribution, and the head regions of the plurality of human bodies are included. Find the containing area. A first region included in the inclusive region among the plurality of divided regions and a second region not included in the inclusive region among the plurality of divided regions are displayed in a distinguishable manner. [Selection diagram] Figure 5

Description

本発明は、画像処理技術に関するものである。 The present invention relates to image processing technology.

近年、撮像装置で所定の領域を撮影し、該撮影した画像を解析することによって、特定の領域(以降、侵入領域と称する)に侵入する人体を検知する侵入検知システムが提案されている。このような侵入検知システムのユースシーンとして、監視対象物に近づく人物の検知が挙げられる。 In recent years, an intrusion detection system has been proposed that detects a human body intruding into a specific area (hereinafter referred to as an intrusion area) by photographing a predetermined area with an imaging device and analyzing the photographed image. An example of a use case for such an intrusion detection system is the detection of a person approaching a monitored object.

侵入検知において、監視対象物や障害物などによって人体に隠れが生じた場合、画像解析に影響を与えるため、正しく侵入を判定できない場合がある。そのため、画像解析によって検出する対象を人体の全身ではなく頭部とし、頭部の検出結果から足元位置を推定することで、人体の身体に隠れが生じたとしても足元位置を基準とした侵入検知が可能である。また、画像全体を解析対象とするのではなく、解析対象を限定することで、解析処理に要する時間を短縮する技術がある。例えば、特許文献1には、検出すべき物体のサイズ情報に基づいて、ユーザが設定した領域を拡大し、その領域に対して検出処理を行う技術が開示されている。 When detecting an intrusion, if the human body is hidden by an object to be monitored or an obstacle, this will affect image analysis and may prevent an accurate determination of intrusion. Therefore, by using image analysis to detect the head of a human body instead of the whole body, and estimating the foot position from the detection results of the head, we can detect intrusion based on the foot position even if the human body is hidden. is possible. Furthermore, there is a technique that reduces the time required for analysis processing by limiting the objects to be analyzed, rather than analyzing the entire image. For example, Patent Document 1 discloses a technique for enlarging a region set by a user based on size information of an object to be detected and performing detection processing on the region.

特開2020-135609号公報Japanese Patent Application Publication No. 2020-135609

侵入検知においても解析対象を限定することで、解析処理に要する時間を短縮することができる。しかしながら、解析処理に要する時間の短縮のために侵入領域を解析対象とする場合、頭部の検出結果から足元位置を推定するため、足元は侵入領域内にあるが頭部が侵入領域外の場合に、侵入の見逃しが発生する。また、特許文献1に開示された技術では、物体のサイズ情報に基づいて解析する領域を拡大するが、拡大のみでは前述した見逃しを回避できない。本発明では、撮像画像における特定領域に対する解析の精度向上と該解析に要する時間を軽減させるための技術を提供する。 In intrusion detection as well, by limiting the objects of analysis, the time required for analysis processing can be shortened. However, when analyzing the intrusion area to reduce the time required for analysis processing, the foot position is estimated from the head detection result, so if the foot is within the intrusion area but the head is outside the intrusion area, Intrusions may be overlooked. Further, in the technique disclosed in Patent Document 1, the area to be analyzed is enlarged based on the size information of the object, but the above-mentioned oversight cannot be avoided by only enlargement. The present invention provides a technique for improving the accuracy of analysis of a specific region in a captured image and reducing the time required for the analysis.

本発明の一様態は、撮像画像における人体の頭部サイズの分布に基づいて該撮像画像を複数の分割領域に分割する分割手段と、前記撮像画像における特定領域の枠部に複数の人体が位置した場合に推定される該複数の人体のそれぞれの頭部領域を前記分布に基づいて特定し、該複数の人体の頭部領域を包含する包含領域を求める処理手段と、前記複数の分割領域のうち前記包含領域に含まれている第1領域と、前記複数の分割領域のうち前記包含領域に含まれていない第2領域と、を識別可能に表示させる表示制御手段とを備えることを特徴とする。 One aspect of the present invention provides a dividing unit that divides a captured image into a plurality of divided regions based on a distribution of head sizes of human bodies in the captured image, and a plurality of human bodies located in a frame of a specific region in the captured image. a processing means for determining a head region of each of the plurality of human bodies estimated when It is characterized by comprising a display control means for displaying a first area included in the inclusive area and a second area that is not included in the inclusive area among the plurality of divided areas in a distinguishable manner. do.

本発明によれば、撮像画像における特定領域に対する解析の精度向上と該解析に要する時間を軽減させることができる。 According to the present invention, it is possible to improve the accuracy of analysis of a specific region in a captured image and to reduce the time required for the analysis.

システムの構成例を示すブロック図。FIG. 1 is a block diagram showing an example of a system configuration. 撮像装置110の構成例を示すブロック図。FIG. 1 is a block diagram showing a configuration example of an imaging device 110. 撮像装置110の機能構成例を示すブロック図。1 is a block diagram showing an example of a functional configuration of an imaging device 110. FIG. サーバ130のハードウェア構成例を示すブロック図。1 is a block diagram showing an example of a hardware configuration of a server 130. FIG. サーバ130の機能構成例を示すブロック図。FIG. 2 is a block diagram showing an example of a functional configuration of a server 130. FIG. 撮像画像の分割例を示す図。The figure which shows the example of division of a captured image. (a)は撮像画像701の一例を示す図、(b)は解析領域を示す図、(c)は撮像画像の表示例を示す図。(a) is a diagram showing an example of a captured image 701, (b) is a diagram showing an analysis region, and (c) is a diagram showing an example of display of the captured image. サーバ130が行う処理のフローチャート。5 is a flowchart of processing performed by the server 130. サーバ130の機能構成例を示すブロック図。FIG. 2 is a block diagram showing an example of a functional configuration of a server 130. FIG. サーバ130が行う処理のフローチャート。5 is a flowchart of processing performed by the server 130. (a)は撮像画像1101の一例を示す図、(b)は解析領域を示す図、(c)は撮像画像の表示例を示す図。(a) is a diagram showing an example of a captured image 1101, (b) is a diagram showing an analysis region, and (c) is a diagram showing an example of display of the captured image.

以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. Note that the following embodiments do not limit the claimed invention. Although a plurality of features are described in the embodiments, not all of these features are essential to the invention, and the plurality of features may be arbitrarily combined. Furthermore, in the accompanying drawings, the same or similar components are designated by the same reference numerals, and redundant description will be omitted.

[第1の実施形態]
本実施形態では、撮像画像中の特定領域への人体の侵入を検知するためのシステムについて説明する。本実施形態に係るシステムは、図1のブロック図に示す如く、撮像装置110およびサーバ130を含み、撮像装置110とサーバ130とがネットワーク120を介して互いにデータ通信が可能なように構成されている。
[First embodiment]
In this embodiment, a system for detecting intrusion of a human body into a specific area in a captured image will be described. As shown in the block diagram of FIG. 1, the system according to this embodiment includes an imaging device 110 and a server 130, and is configured such that the imaging device 110 and the server 130 can communicate with each other via a network 120. There is.

先ず、撮像装置110について説明する。撮像装置110は、ネットワークカメラ、カメラ付きのノート型PC、カメラ付きのタブレット端末装置、スマートフォン、などの撮像装置であり、動画像を撮像するもしくは定期的若しくは不定期的に静止画像を撮像する。撮像装置110は動画像を撮像する場合、該動画像における各フレームを撮像画像とし、該撮像画像を処理する、および/または該撮像画像をネットワーク120を介してサーバ130に対して送信する。一方、撮像装置110は定期的若しくは不定期的に静止画像を撮像する場合、該静止画像を撮像画像とし、該撮像画像を処理する、および/または該撮像画像をネットワーク120を介してサーバ130に対して送信する。 First, the imaging device 110 will be explained. The imaging device 110 is an imaging device such as a network camera, a notebook PC with a camera, a tablet terminal device with a camera, or a smartphone, and captures moving images or periodically or irregularly captures still images. When capturing a moving image, the imaging device 110 uses each frame of the moving image as a captured image, processes the captured image, and/or transmits the captured image to the server 130 via the network 120. On the other hand, when capturing still images regularly or irregularly, the imaging device 110 uses the still images as captured images, processes the captured images, and/or sends the captured images to the server 130 via the network 120. Send to.

本実施形態では、撮像装置110は、各種の演算処理を実行可能な構成を有するものとして説明する。しかしこれに限らず、例えば、該撮像装置110に接続されたPC(パーソナルコンピュータ)等の外部装置に該演算処理を行わせ、該撮像装置110は該演算処理の結果に応じて動作するものとしても良い。また、撮像装置110はズーム機能を有し、且つパンおよびチルトを制御するための雲台を有していてもよい。 In this embodiment, the imaging device 110 will be described as having a configuration capable of executing various types of arithmetic processing. However, the present invention is not limited to this. For example, it is assumed that an external device such as a PC (personal computer) connected to the imaging device 110 is caused to perform the arithmetic processing, and the imaging device 110 operates according to the result of the arithmetic processing. Also good. Further, the imaging device 110 may have a zoom function and a pan head for controlling panning and tilting.

次に、サーバ130について説明する。サーバ130は、PC、タブレット端末装置、スマートフォンなどのコンピュータ装置である。 Next, the server 130 will be explained. The server 130 is a computer device such as a PC, a tablet terminal device, or a smartphone.

次に、ネットワーク120について説明する。ネットワーク120は、例えばEthernet(登録商標)等の通信規格を満たす複数のルータ、スイッチ、ケーブル等を含んで構成される。本実施形態では、ネットワーク120は、撮像装置110とサーバ130との間の通信を可能にする任意のネットワークであってよく、任意の規模や構成、準拠する通信規格によって構築されうる。例えば、ネットワーク120は、インターネットや有線LAN(Local Area Network)、無線LAN、WAN(Wide Area Network)等でありうる。また、ネットワーク120は、例えば、ONVIF(Open Network Video Interface Forum)規格に準拠した通信プロトコルでの通信が可能なように構成されうる。ただし、これに限られず、ネットワーク120は、例えば、独自の通信プロトコル等の他の通信プロトコルでの通信が可能なように構成されてもよい。 Next, the network 120 will be explained. The network 120 includes a plurality of routers, switches, cables, etc. that meet communication standards such as, for example, Ethernet (registered trademark). In this embodiment, the network 120 may be any network that enables communication between the imaging device 110 and the server 130, and may be constructed in any size and configuration, and according to a compliant communication standard. For example, the network 120 may be the Internet, a wired LAN (Local Area Network), a wireless LAN, a WAN (Wide Area Network), or the like. Further, the network 120 may be configured to enable communication using a communication protocol that conforms to the ONVIF (Open Network Video Interface Forum) standard, for example. However, the present invention is not limited thereto, and the network 120 may be configured to enable communication using other communication protocols, such as a proprietary communication protocol.

なお、図1では以降の説明を簡単にするために、撮像装置110およびサーバ130の数を1としている。しかし、撮像装置110やサーバ130の数は1に限らず、特定の数に限らない。 Note that in FIG. 1, the number of imaging devices 110 and servers 130 is set to one in order to simplify the following explanation. However, the number of imaging devices 110 and servers 130 is not limited to one, and is not limited to a specific number.

次に、撮像装置110の構成例について、図2のブロック図を用いて説明する。以下では、図2の各機能部は何れもハードウェアで実装されているものとするが、例えば、画像処理部202や演算処理部203の一部若しくは全部の機能をソフトウェア(コンピュータプログラム)で実装しても良い。その場合、該ソフトウェアは、撮像装置110の不図示のメモリに格納され、撮像装置110の不図示のコントローラによって実行され、これにより対応する機能部の機能が実現される。 Next, a configuration example of the imaging device 110 will be described using the block diagram of FIG. 2. In the following, it is assumed that each functional unit in FIG. 2 is implemented by hardware, but for example, some or all of the functions of the image processing unit 202 and the arithmetic processing unit 203 are implemented by software (computer program). You may do so. In that case, the software is stored in a memory (not shown) of the imaging device 110 and executed by a controller (not shown) of the imaging device 110, thereby realizing the functions of the corresponding functional units.

撮像部201は、光を結像するためのレンズ部、該レンズ部により結像された光をアナログ信号に変換する撮像素子、該アナログ信号をディジタル信号(画像信号)に変換するA/D変換部、を有する。レンズ部は、画角を調整するズーム機能や、光量の調整を行う絞り機能などを有する。撮像素子は、光をアナログ信号に変換する際の感度調整を行うゲイン機能を有する。これらの機能は、画像処理部202から通知された設定値に基づいて調整される。 The imaging unit 201 includes a lens unit for forming an image of light, an image sensor that converts the light imaged by the lens unit into an analog signal, and an A/D conversion unit that converts the analog signal into a digital signal (image signal). It has a department. The lens section has a zoom function that adjusts the angle of view, an aperture function that adjusts the amount of light, and the like. The image sensor has a gain function that adjusts sensitivity when converting light into an analog signal. These functions are adjusted based on the setting values notified from the image processing unit 202.

画像処理部202は、画像処理エンジンと、その周辺デバイスなどを含む。周辺デバイスは、例えば、RAM(Random Access Memory)や、各I/F(インタフェース)のドライバ等を含む。画像処理部202では、撮像部201から取得した画像信号に対して、例えば、現像処理、フィルタ処理、センサ補正、ノイズ除去等の画像処理を施して撮像画像を生成する。また、画像処理部202は、レンズ部や撮像素子へ設定値を通知し、適切な露出の撮像画像を取得できるように、露出調整を実行しうる。 The image processing unit 202 includes an image processing engine, its peripheral devices, and the like. Peripheral devices include, for example, RAM (Random Access Memory), drivers for each I/F (interface), and the like. The image processing unit 202 performs image processing such as development processing, filter processing, sensor correction, and noise removal on the image signal acquired from the imaging unit 201 to generate a captured image. Further, the image processing unit 202 can notify the setting value to the lens unit and the image sensor, and can perform exposure adjustment so that a captured image with an appropriate exposure can be obtained.

演算処理部203は、CPUやMPU等の1つ以上のプロセッサ、RAMやROM等のメモリ、各I/Fのドライバなどを有する。なお、CPUはCentral Processing Unitの、MPUはMicro Processing Unitの、RAMはRandom Access Memoryの、ROMはRead Only Memoryの、頭字語である。演算処理部203は、撮像装置110における各種の動作制御を行う。 The arithmetic processing unit 203 includes one or more processors such as a CPU or MPU, memory such as a RAM or ROM, drivers for each I/F, and the like. Note that CPU is an acronym for Central Processing Unit, MPU is for Micro Processing Unit, RAM is for Random Access Memory, and ROM is for Read Only Memory. The arithmetic processing unit 203 performs various operational controls in the imaging device 110.

配信部204は、ネットワーク配信エンジンと、例えば、RAMやETH PHYモジュールなどの周辺デバイス等を含んで構成される。ETH PHYモジュールは、Ethernetの物理(PHY)レイヤの処理を実行するモジュールである。配信部204は、画像処理部203から取得した撮像画像や、演算処理部203による処理結果を、ネットワーク120へ配信可能な形式に変換し、変換後のデータをネットワーク120へ出力する。 The distribution unit 204 includes a network distribution engine and peripheral devices such as a RAM and an ETH PHY module. The ETH PHY module is a module that executes Ethernet physical (PHY) layer processing. The distribution unit 204 converts the captured image acquired from the image processing unit 203 and the processing result by the arithmetic processing unit 203 into a format that can be distributed to the network 120, and outputs the converted data to the network 120.

撮像装置110の機能構成例について、図3のブロック図を用いて説明する。以下では、図3の各機能部は何れもハードウェアで実装されているものとするが、例えば、撮像制御部301、信号処理部302、通信部304の一部若しくは全部の機能をソフトウェア(コンピュータプログラム)で実装しても良い。その場合、該ソフトウェアは、記憶部303に格納され、制御部305によって実行され、これにより対応する機能部の機能が実現される。 An example of the functional configuration of the imaging device 110 will be described using the block diagram of FIG. 3. In the following, it is assumed that each of the functional units in FIG. It may also be implemented using a program. In that case, the software is stored in the storage unit 303 and executed by the control unit 305, thereby realizing the functions of the corresponding functional units.

撮像制御部301は、撮像部201が周囲の環境を撮像するようにする制御を実行する。信号処理部302は、撮像部201から取得した画像信号に対して上記の画像処理を施して撮像画像を生成する。信号処理部302は、例えば、撮像画像を符号化する。信号処理部302は、撮像画像が静止画像であれば、該静止画像に対して、例えば、JPEG(Joint Photographic Experts Group)等の符号化方式を用いて符号化を行う。また、信号処理部302は、撮像画像が動画像の各フレームであれば、該動画像に対して、H.264/MPEG-4 AVC(以下では「H.264」と呼ぶ。)、HEVC(High Efficiency Video Coding)等の符号化方式を用いて符号化を行う。また、信号処理部302は、予め設定された複数の符号化方式の中から、例えば撮像装置110の不図示の操作部を介してユーザにより選択された符号化方式を用いて、撮像画像を符号化してもよい。記憶部303は、一時的にデータを格納するためのメモリである。通信部304は、ネットワーク120を介してサーバ130との間の通信を行う。制御部305は、撮像装置110全体の動作制御を行う。 The imaging control unit 301 executes control to cause the imaging unit 201 to image the surrounding environment. The signal processing unit 302 performs the above image processing on the image signal acquired from the imaging unit 201 to generate a captured image. The signal processing unit 302 encodes the captured image, for example. If the captured image is a still image, the signal processing unit 302 encodes the still image using an encoding method such as JPEG (Joint Photographic Experts Group). Further, if the captured image is each frame of a moving image, the signal processing unit 302 processes H. Encoding is performed using an encoding method such as H.264/MPEG-4 AVC (hereinafter referred to as "H.264") or HEVC (High Efficiency Video Coding). Further, the signal processing unit 302 encodes the captured image using, for example, an encoding scheme selected by the user via an operation unit (not shown) of the imaging device 110 from among a plurality of preset encoding schemes. may be converted into The storage unit 303 is a memory for temporarily storing data. The communication unit 304 communicates with the server 130 via the network 120. The control unit 305 controls the overall operation of the imaging device 110.

次に、サーバ130のハードウェア構成例について、図4のブロック図を用いて説明する。 Next, an example of the hardware configuration of the server 130 will be described using the block diagram of FIG. 4.

プロセッサ401は、CPU、MPU、GPUなどのプロセッシングユニットであり、RAM402やROM403に格納されたコンピュータプログラムやデータを用いて各種の処理を実行する。これによりプロセッサ401はサーバ130全体の動作制御を行うと共に、サーバ130が行う処理として説明する各種の処理を実行もしくは制御する。 The processor 401 is a processing unit such as a CPU, MPU, or GPU, and executes various processes using computer programs and data stored in the RAM 402 and ROM 403. As a result, the processor 401 controls the overall operation of the server 130, and also executes or controls various processes described as the processes performed by the server 130.

RAM402は、ROM403やHDD(ハードディスクドライブ)404からロードされたコンピュータプログラムやデータを格納するためのエリア、I/F405を介して撮像装置110から受信したデータを格納するためのエリア、を有する。さらにRAM402は、プロセッサ401が各種の処理を実行する際に用いるワークエリアを有する。このようにRAM402は、各種のエリアを適宜提供することができる。 RAM 402 has an area for storing computer programs and data loaded from ROM 403 and HDD (hard disk drive) 404, and an area for storing data received from imaging device 110 via I/F 405. Further, the RAM 402 has a work area used by the processor 401 to execute various processes. In this way, the RAM 402 can provide various areas as appropriate.

ROM403には、サーバ130の設定データ、サーバ130の起動に係るコンピュータプログラムやデータ、サーバ130の基本動作に係るコンピュータプログラムやデータ、などが格納されている。 The ROM 403 stores configuration data for the server 130, computer programs and data related to starting the server 130, computer programs and data related to the basic operations of the server 130, and the like.

HDD404には、OS(オペレーティングシステム)、サーバ130が行う処理として説明する各種の処理をプロセッサ401に実行もしくは制御させるためのコンピュータプログラムやデータ、などが保存されている。HDD404に保存されているコンピュータプログラムやデータは、プロセッサ401による制御に従って適宜RAM402にロードされ、プロセッサ401による処理対象となる。 The HDD 404 stores an OS (operating system), computer programs and data for causing the processor 401 to execute or control various processes described as processes performed by the server 130 . Computer programs and data stored in the HDD 404 are loaded into the RAM 402 as appropriate under the control of the processor 401 and are subject to processing by the processor 401.

I/F405は、ネットワーク120を介して撮像装置110との間のデータ通信を行うための通信インターフェースである。 I/F 405 is a communication interface for performing data communication with imaging device 110 via network 120.

操作部406は、キーボード、マウス、タッチパネルなどのユーザインターフェースであり、ユーザが操作することで各種の指示をプロセッサ401に対して入力することができる。なお、操作部406はマイクであっても良く、その場合、操作部406はユーザが発した音声を収集し、プロセッサ401が該音声を認識することで対応する指示を受け付けることができる。 The operation unit 406 is a user interface such as a keyboard, a mouse, a touch panel, etc., and can be operated by a user to input various instructions to the processor 401. Note that the operation unit 406 may be a microphone, in which case the operation unit 406 can collect the voice uttered by the user, and the processor 401 can receive a corresponding instruction by recognizing the voice.

表示部407は、液晶画面やタッチパネル画面を有し、プロセッサ401による処理結果を画像や文字などでもって表示することができる。なお、表示部407は、画像や文字を投影するプロジェクタなどの投影装置であっても良い。 The display unit 407 has a liquid crystal screen or a touch panel screen, and can display processing results by the processor 401 in the form of images, characters, and the like. Note that the display unit 407 may be a projection device such as a projector that projects images and characters.

プロセッサ401、RAM402、ROM403、HDD404、I/F405、操作部406、表示部407、は何れもシステムバス408に接続されている。なお、図4に示した構成は、サーバ130に適用可能なハードウェア構成の一例に過ぎず、適宜変形/変更が可能である。 The processor 401, RAM 402, ROM 403, HDD 404, I/F 405, operation section 406, and display section 407 are all connected to a system bus 408. Note that the configuration shown in FIG. 4 is only an example of a hardware configuration applicable to the server 130, and can be modified/changed as appropriate.

サーバ130の機能構成例を図5のブロック図に示す。以下では、図5に示した各機能部はソフトウェア(コンピュータプログラム)で実装されているものとする。このコンピュータプログラムはHDD404に保存されており、プロセッサ401による制御の元、必要に応じてRAM402に読み出される。そしてプロセッサ401がRAM402に読み出されたコンピュータプログラムを実行することで、対応する機能部の機能が実現される。しかし、図5に示した機能部のうち1以上をハードウェアで実装しても良い。 An example of the functional configuration of the server 130 is shown in the block diagram of FIG. In the following, it is assumed that each functional unit shown in FIG. 5 is implemented by software (computer program). This computer program is stored in the HDD 404, and is read out to the RAM 402 as necessary under the control of the processor 401. Then, when the processor 401 executes the computer program read into the RAM 402, the functions of the corresponding functional units are realized. However, one or more of the functional units shown in FIG. 5 may be implemented in hardware.

以下では図5の機能部を処理の主体として説明するが、実際には該機能部に対応するコンピュータプログラムをプロセッサ401が実行することで、該機能部に対応する機能が実現される。 Although the functional units in FIG. 5 will be described below as the main body of processing, in reality, the functions corresponding to the functional units are realized by the processor 401 executing a computer program corresponding to the functional units.

次に、撮像装置110による撮像画像において指定されている指定領域に対する人体の侵入を検知するためにサーバ130が行う処理について、図8のフローチャートに従って説明する。 Next, a process performed by the server 130 to detect an intrusion of a human body into a designated area designated in an image captured by the imaging device 110 will be described according to the flowchart of FIG. 8.

ステップS801では、設定部504は、HDD404に保存されている頭部サイズ分布(頭部サイズ分布の設定値)を取得する。頭部サイズ分布は以下のような処理によって予め生成されてHDD404に保存されている。 In step S801, the setting unit 504 obtains the head size distribution (head size distribution setting value) stored in the HDD 404. The head size distribution is generated in advance by the following process and stored in the HDD 404.

画像取得部501は、撮像装置110からネットワーク120を介して送信された撮像画像を取得する。以下では説明を簡単にするために、撮像装置110からは符号化されていない撮像画像が送信されたものとして説明する。 The image acquisition unit 501 acquires a captured image transmitted from the imaging device 110 via the network 120. In order to simplify the explanation, the explanation below will be based on the assumption that an unencoded captured image is transmitted from the imaging device 110.

そして分布取得部503は、画像取得部501が取得した撮像画像上の各位置において想定される頭部サイズの分布を頭部サイズ分布として生成する。例えば、ユーザは操作部406を操作して該撮像画像上の様々な位置における頭部サイズを指定する。撮像画像において頭部サイズが指定されていない位置については、分布取得部503は、該位置の近傍にて指定されている頭部サイズから補間により該位置における頭部サイズを推定する。また、撮像画像中の様々な位置に人体の頭部が写っている場合には、分布取得部503は、それぞれの位置における頭部のサイズ(例えば、頭部を包含する矩形のサイズ)を求める。撮像画像において頭部サイズを求めていない位置については、分布取得部503は、該位置の近傍にて求めた頭部サイズから補間により該位置における頭部サイズを推定する。 Then, the distribution acquisition unit 503 generates a distribution of head sizes assumed at each position on the captured image acquired by the image acquisition unit 501 as a head size distribution. For example, the user operates the operation unit 406 to specify head sizes at various positions on the captured image. For a position where no head size is specified in the captured image, the distribution acquisition unit 503 estimates the head size at the position by interpolation from the head size specified in the vicinity of the position. Furthermore, when the human head is shown at various positions in the captured image, the distribution acquisition unit 503 calculates the size of the head at each position (for example, the size of a rectangle that includes the head). . For a position in the captured image for which the head size has not been determined, the distribution acquisition unit 503 estimates the head size at the position by interpolation from the head size determined in the vicinity of the position.

補間による頭部サイズの推定方法は、例えば、撮像画像上の位置(x,y)における頭部サイズをsとしたとき、sは、x、yおよび未知の1個以上のパラメータによって表せると仮定する。例えば、s=ax+by+cと仮定する。この例では、未知のパラメータは、a、b、cである。分布取得部503は、ユーザが指定した頭部の位置およびサイズの集合、または、顔検出により検出された顔(頭部)の位置およびサイズの集合、を用いて、未知のパラメータを例えば最小二乗法等の統計処理により求めることができる。 The method for estimating the head size by interpolation assumes that, for example, when the head size at the position (x, y) on the captured image is s, s can be expressed by x, y, and one or more unknown parameters. do. For example, assume that s=ax+by+c. In this example, the unknown parameters are a, b, and c. The distribution acquisition unit 503 uses a set of head positions and sizes specified by the user or a set of face (head) positions and sizes detected by face detection to calculate the unknown parameters, for example, by using the set of head positions and sizes specified by the user. It can be determined by statistical processing such as multiplication.

このようにして分布取得部503は、撮像画像上の各位置における頭部サイズを表す情報を、頭部サイズ分布として生成する。そして分布取得部503は、このようにして生成した頭部サイズ分布をHDD404に保存する。ステップS801では、設定部504は、このようにして生成されてHDD404に保存された頭部サイズ分布を取得する。 In this way, the distribution acquisition unit 503 generates information representing the head size at each position on the captured image as a head size distribution. Then, the distribution acquisition unit 503 stores the head size distribution generated in this manner in the HDD 404. In step S801, the setting unit 504 acquires the head size distribution generated in this way and stored in the HDD 404.

また、取得部505は、人体の頭部サイズから該人体の全身サイズを得るための情報である人体サイズ情報(人体サイズ情報の設定値)をHDD404から取得する。人体の頭部サイズ(垂直方向のサイズ)に規定の垂直倍率を乗じることで、該人体を包含する矩形(人体枠)の垂直サイズを得ることができる。また、人体の頭部サイズ(水平方向のサイズ)に規定の水平倍率を乗じることで、該人体を包含する矩形(人体枠)の水平サイズを得ることができる。取得部505は、この垂直倍率および水平倍率を人体サイズ情報として取得する。人体サイズ情報は、ユーザが操作部406を操作して入力した情報であっても良いし、人体の平均頭部サイズおよび平均身長から撮像装置の角度に基づいて決定しても良く、人体サイズ情報を取得するための方法は特定の方法に限らない。 The acquisition unit 505 also acquires human body size information (set value of human body size information) from the HDD 404, which is information for obtaining the whole body size of the human body from the head size of the human body. By multiplying the head size (vertical size) of a human body by a prescribed vertical magnification, the vertical size of a rectangle (human body frame) that includes the human body can be obtained. Furthermore, by multiplying the head size (horizontal size) of a human body by a prescribed horizontal magnification, the horizontal size of a rectangle (human body frame) that includes the human body can be obtained. The acquisition unit 505 acquires this vertical magnification and horizontal magnification as human body size information. The human body size information may be information input by the user by operating the operation unit 406, or may be determined from the average head size and average height of the human body based on the angle of the imaging device. The method for obtaining the information is not limited to a specific method.

また、決定部506は、撮像画像において「人体の侵入の検知を行う領域(侵入領域)として指定された指定領域」を規定する設定値をHDD404から取得する。該設定値は、例えば、ユーザが操作部406を操作して撮像画像上で指定した指定領域を規定する設定値であっても良いし、撮像画像から特定物体を検知した領域を規定する設定値であっても良い。 Further, the determining unit 506 acquires from the HDD 404 a setting value that defines a “designated area designated as an area (intrusion area) where intrusion of a human body is detected” in the captured image. The setting value may be, for example, a setting value that defines a designated area specified on the captured image by the user operating the operation unit 406, or a setting value that defines an area where a specific object is detected from the captured image. It may be.

ここで、指定領域は「侵入領域に侵入する人体の足下の位置」を基準にして設定されるケースがあり、このような場合、従来では上記の如く、指定領域への侵入判定を正確に行うことは困難である。これに対し、本実施形態では、人体の頭部領域を考慮した領域を変換領域として求め、該変換領域から検出される頭部領域の人物についてのみ指定領域への侵入判定を行う。これにより、従来よりも高い精度でかつ高速に該侵入判定を行うことができる。 Here, there are cases where the designated area is set based on the "position of the feet of the human body intruding into the intrusion area", and in such cases, conventionally, intrusion into the designated area is accurately determined as described above. That is difficult. In contrast, in the present embodiment, a region that takes into account the head region of a human body is obtained as a transformation region, and intrusion into the specified region is determined only for the person whose head region is detected from the transformation region. Thereby, the intrusion determination can be performed with higher accuracy and faster than conventional methods.

ステップS802では、設定部504は、画像取得部501が撮像装置110から取得した撮像画像を、ステップS801で取得した頭部サイズ分布に基づいて複数の分割領域に分割する(撮像画像に複数の分割領域を設定する)。機械学習モデルでは、入力画像に対する検出対象の割合に対して、検出精度の高い範囲が存在する場合がある。撮像画像を頭部サイズ分布に基づいて複数の分割領域に分割し、該分割領域を頭部検出部502に入力することで、検出精度の高い結果を得ることが期待できる。 In step S802, the setting unit 504 divides the captured image acquired from the imaging device 110 by the image acquisition unit 501 into a plurality of divided regions based on the head size distribution acquired in step S801 (the captured image is divided into a plurality of divided regions). (setting the area). In machine learning models, there may be a range of high detection accuracy relative to the ratio of detection targets to input images. By dividing the captured image into a plurality of divided regions based on the head size distribution and inputting the divided regions to the head detection unit 502, it can be expected to obtain results with high detection accuracy.

撮像画像を複数の分割領域に分割する方法として、例えば、頭部サイズ分布において水平方向(x方向)の頭部サイズの変化が無視できるほど小さいと仮定した時、頭部サイズ分布において垂直方向(y方向)の頭部サイズの変化に基づいて、撮像画像を複数の分割領域に分割する。図6(a)では、撮像画像をy方向に分割した場合の例を示している。図6(a)では、x方向における頭部サイズの変化は無視できるほど小さく、y方向に頭部サイズが3段階に変化している。そこで図6(a)では、最上段の頭部602を包含する分割領域605、中段の頭部603を包含する分割領域606、最下段の頭部604を包含する分割領域607、を設定している。分割領域605において頭部602が占める割合、分割領域606において頭部603が占める割合、分割領域607において頭部604が占める割合、が何れも同じとなるように、分割領域605,606,607のサイズが決定される。そして図6(b)に示す如く、分割領域602、603,604のそれぞれをx方向に並べることで、分割領域602のサイズを有する領域がx方向に並ぶ最上段の領域列、分割領域603のサイズを有する領域がx方向に並ぶ中段の領域列、分割領域604のサイズを有する領域がx方向に並ぶ最下段の領域列、が得られる。このとき、撮像画像外にはみ出てしまう領域は他の領域と重複させて撮像画像内に収まるように設定してもよい。そして、図6(b)に示したそれぞれの領域を分割領域とし、撮像画像601を分割領域に分割する。 As a method of dividing a captured image into multiple divided regions, for example, assuming that the change in head size in the horizontal direction (x direction) is negligibly small in the head size distribution, The captured image is divided into a plurality of divided regions based on the change in head size in the y direction). FIG. 6A shows an example in which a captured image is divided in the y direction. In FIG. 6A, the change in head size in the x direction is negligibly small, and the head size changes in three stages in the y direction. Therefore, in FIG. 6A, a divided area 605 that includes the topmost head 602, a divided area 606 that includes the middle head 603, and a divided area 607 that includes the bottommost head 604 are set. There is. The divided regions 605, 606, and 607 are arranged so that the ratio occupied by the head 602 in the divided region 605, the ratio occupied by the head 603 in the divided region 606, and the ratio occupied by the head 604 in the divided region 607 are all the same. size is determined. Then, as shown in FIG. 6(b), by arranging each of the divided regions 602, 603, and 604 in the x direction, the uppermost region row in which regions having the size of the divided region 602 are arranged in the x direction, and the divided region 603 A middle region row in which regions having the same size are arranged in the x direction, and a bottom region row in which regions having the size of the divided region 604 are arranged in the x direction are obtained. At this time, the area that protrudes outside the captured image may be set so that it overlaps with other areas and falls within the captured image. Then, each area shown in FIG. 6(b) is defined as a divided area, and the captured image 601 is divided into divided areas.

ステップS803では、決定部506は、ステップS802で得られた複数の分割領域のうち、頭部を検出する対象となる分割領域を解析領域として特定(決定)する。先ず、決定部506は、撮像画像における指定領域(ステップS801で取得した「指定領域を規定する設定値」によって規定される領域)の枠部に人体が位置した場合に推定される該人体の頭部領域を頭部サイズ分布に基づいて求める。この処理を図7(a)を例にとり説明する。 In step S803, the determining unit 506 specifies (determines) a divided region from which the head is to be detected as an analysis region from among the plurality of divided regions obtained in step S802. First, the determining unit 506 determines the head of the human body that is estimated when the human body is located in the frame of the designated area (the area defined by the "setting value defining the designated area" acquired in step S801) in the captured image. The head area is determined based on the head size distribution. This process will be explained using FIG. 7(a) as an example.

図7(a)は複数の分割領域に分割されている撮像画像701の一例を示している。決定部506は、指定領域702の枠部の一例である該指定領域702の左上隅の位置P1を足下の位置として人体703が直立した場合における頭部領域707を求める。また、決定部506は、指定領域702の枠部の一例である該指定領域702の左下隅の位置P2を足下の位置として人体706が直立した場合における頭部領域710を求める。また、決定部506は、指定領域702の枠部の一例である該指定領域702の右上隅の位置P3を足下の位置として人体704が直立した場合における頭部領域708を求める。また、決定部506は、指定領域702の枠部の一例である該指定領域702の右下隅の位置P4を足下の位置として人体705が直立した場合における頭部領域709を求める。 FIG. 7A shows an example of a captured image 701 that is divided into a plurality of divided regions. The determining unit 506 determines the head region 707 when the human body 703 stands upright with position P1 of the upper left corner of the designated region 702, which is an example of the frame of the designated region 702, as the position of the feet. Further, the determining unit 506 determines the head region 710 when the human body 706 stands upright with position P2 of the lower left corner of the designated region 702, which is an example of the frame of the designated region 702, as the foot position. Further, the determining unit 506 determines the head region 708 when the human body 704 stands upright with the position P3 of the upper right corner of the designated region 702, which is an example of the frame of the designated region 702, as the foot position. Further, the determining unit 506 determines the head region 709 when the human body 705 stands upright with position P4 at the lower right corner of the designated region 702, which is an example of the frame of the designated region 702, as the foot position.

より詳しくは、決定部506は、位置Pn(n=1,2,3,4)が属する分割領域Rnを対象分割領域とし、該対象分割領域に対応する頭部サイズSを頭部サイズ分布から取得する。そして決定部506は、頭部サイズSの矩形を、水平方向に「人体サイズ情報が示す水平倍率」だけ拡大し、下方に「人体サイズ情報が示す垂直倍率」だけ拡大(延長)した矩形を、人体枠として求める。そして決定部506は、人体枠の下辺を位置Pnに合わせてから、該人体枠における頭部領域(頭部サイズSの矩形から人体枠を求める為の上記の演算の逆演算により特定可能)を「位置Pnを足下の位置として人体が直立した場合における該人体の頭部領域」として特定する。 More specifically, the determining unit 506 sets the divided region Rn to which the position Pn (n=1, 2, 3, 4) belongs as the target divided region, and calculates the head size S corresponding to the target divided region from the head size distribution. get. Then, the determining unit 506 enlarges the rectangle of the head size S horizontally by the "horizontal magnification indicated by the human body size information" and expands (extends) the rectangle downward by the "vertical magnification indicated by the human body size information". Obtained as a human body frame. Then, the determining unit 506 aligns the lower side of the human body frame with the position Pn, and then determines the head area in the human body frame (which can be specified by the inverse calculation of the above calculation for determining the human body frame from the rectangle of head size S). It is specified as "the head region of the human body when the human body stands upright with position Pn as the position of the feet."

なお、人体枠の下辺を位置Pnに合わせた場合に該人体枠が対象分割領域から上方にはみ出ている場合には、決定部506は、対象分割領域よりも1つ上の分割領域を対象分割領域として上記の処理を再度行って新たに人体枠を求める。そして、決定部506は、この新たに求めた人体枠の下辺を位置Pnに合わせてから、該人体枠における頭部領域を「位置Pnを足下の位置として人体が直立した場合における該人体の頭部領域」として特定する。 Note that if the human body frame protrudes upward from the target divided area when the lower side of the human body frame is aligned with the position Pn, the determining unit 506 divides the divided area one above the target divided area into the target divided area. The above process is performed again as a region to obtain a new human body frame. Then, the determining unit 506 aligns the lower side of the newly obtained human body frame with the position Pn, and then defines the head region of the human body frame as "the head of the human body when the human body stands upright with position Pn as the position of the feet". specified as “part area”.

なお、撮像画像における指定領域の枠部に人体が位置した場合に推定される該人体の頭部領域を頭部サイズ分布に基づいて求める方法には様々な方法があり、上記の方法に限らない。 Note that there are various methods for determining the estimated head area of a human body when the human body is located in the frame of a designated area in a captured image based on the head size distribution, and the method is not limited to the above method. .

そして決定部506は、頭部領域707~710を包含する包含領域を変換領域711として求める。例えば、決定部506は、頭部領域707~710を包含するように指定領域702を変換した領域を変換領域711として求める。変換は、たとえば、平行移動、拡大、縮小、回転などの処理の1以上を含む。 Then, the determining unit 506 determines a containing area that includes the head areas 707 to 710 as a conversion area 711. For example, the determining unit 506 determines as the converted area 711 an area obtained by converting the designated area 702 so as to include the head areas 707 to 710. The transformation includes, for example, one or more of processing such as translation, enlargement, reduction, and rotation.

そして決定部506は、図7(b)に示す如く、撮像画像701における分割領域のうち変換領域711に含まれる分割領域を解析領域712として決定(特定)する。図7(b)では、分割領域の一部でも変換領域711に含まれていれば該分割領域を解析領域としている。しかし、例えば、変換領域711に含まれている割合が規定割合以上の分割領域を解析領域としても良く、分割領域と変換領域とに基づいて解析領域を特定する方法は特定の方法に限らない。 Then, as shown in FIG. 7B, the determining unit 506 determines (specifies) a divided area included in the conversion area 711 among the divided areas in the captured image 701 as an analysis area 712. In FIG. 7B, if even a part of the divided area is included in the conversion area 711, the divided area is set as the analysis area. However, for example, a divided region whose proportion included in the transformed region 711 is equal to or higher than a specified ratio may be used as the analysis region, and the method of specifying the analysis region based on the divided region and the transformed region is not limited to a specific method.

そして決定部506は、撮像画像におけるそれぞれの分割領域の位置およびサイズを示す情報、該それぞれの分割領域のうち解析領域を示す情報(例えば、それぞれの分割領域の識別情報のうち解析領域の識別情報)、を含む情報を領域設定情報として生成する。 The determining unit 506 then generates information indicating the position and size of each divided area in the captured image, information indicating the analysis area among the divided areas (for example, identification information of the analysis area among the identification information of each divided area). ), is generated as area setting information.

ステップS804では、画像取得部501は、撮像装置110からネットワーク120を介して送信された撮像画像を取得する。そして表示制御部509は、上記の領域設定情報から、該撮像画像におけるそれぞれの分割領域を特定し、さらに上記の領域設定情報から、該特定したそれぞれの分割領域のうち解析領域を特定する。そして表示制御部509は、該撮像画像を表示部407に表示させるのであるが、その際、解析領域と、非解析領域(解析領域以外の分割領域)と、を識別可能に表示する。撮像画像の表示例を図7(c)に示す。 In step S804, the image acquisition unit 501 acquires the captured image transmitted from the imaging device 110 via the network 120. Then, the display control unit 509 specifies each divided area in the captured image from the above area setting information, and further specifies an analysis area among the identified divided areas from the above area setting information. Then, the display control unit 509 displays the captured image on the display unit 407, and at this time, displays the analysis area and the non-analysis area (divided areas other than the analysis area) in a distinguishable manner. A display example of the captured image is shown in FIG. 7(c).

図7(c)は、撮像画像を表示するためのGUI(グラフィカルユーザインターフェース)713の表示例を示す図である。このようなGUIの表示や、ユーザ操作に応じたGUIの表示制御は、表示制御部509によって行われる。 FIG. 7C is a diagram showing a display example of a GUI (graphical user interface) 713 for displaying a captured image. The display control unit 509 performs display of such a GUI and controls the display of the GUI in response to user operations.

図7(c)では、ステップS804で取得した撮像画像799における解析領域712を非解析領域714とは異なる色で表示している。なお、解析領域と非解析領域とを識別可能に表示するための方法には様々な方法があり、特定の表示方法に限らない。例えば、解析領域の枠を点線で表示し、非解析領域の枠を実線で表示するようにしても良いし、解析領域の枠を塗りつぶして表示し、非解析領域の枠を塗りつぶさずに表示するようにしても良い。分割領域(解析領域712および非解析領域714)の枠の表示の有無はボタン720に対するユーザ操作に応じて切り変えることができる。ユーザが操作部406を操作してボタン720における「ON」を指示すると分割領域の枠は表示され、ユーザが操作部406を操作してボタン720における「OFF」を指示すると分割領域の枠は表示されない。 In FIG. 7C, the analysis region 712 in the captured image 799 acquired in step S804 is displayed in a different color from the non-analysis region 714. Note that there are various methods for displaying the analysis area and the non-analysis area in a distinguishable manner, and the display method is not limited to a specific one. For example, you can display the frame of the analysis area with a dotted line and the frame of the non-analysis area with a solid line, or you can display the frame of the analysis area with a filled color and the frame of the non-analysis area without filling it. You can do it like this. Whether or not the frames of the divided regions (analysis region 712 and non-analysis region 714) are displayed can be switched depending on the user's operation on the button 720. When the user operates the operation unit 406 and instructs “ON” on the button 720, the frame of the divided area is displayed, and when the user operates the operation unit 406 and instructs “OFF” on the button 720, the frame of the divided area is displayed. Not done.

また、撮像画像799には、変換領域711の枠が表示されている。変換領域711の枠の表示の有無はボタン721に対するユーザ操作に応じて切り変えることができる。ユーザが操作部406を操作してボタン721における「ON」を指示すると変換領域711の枠は表示され、ユーザが操作部406を操作してボタン721における「OFF」を指示すると変換領域711の枠は表示されない。 Further, in the captured image 799, a frame of the conversion area 711 is displayed. Whether or not the frame of the conversion area 711 is displayed can be switched depending on the user's operation on the button 721. When the user operates the operation unit 406 and instructs “ON” on the button 721, the frame of the conversion area 711 is displayed, and when the user operates the operation unit 406 and instructs “OFF” on the button 721, the frame of the conversion area 711 is displayed. is not displayed.

また、撮像画像799には、指定領域702(ステップS801で取得した「指定領域を規定する設定値」によって規定される領域)の枠を重ねて表示している。また、撮像画像799には、人体715,716,717が含まれている。 Furthermore, the frame of the designated area 702 (the area defined by the "setting value defining the designated area" acquired in step S801) is displayed overlappingly on the captured image 799. Furthermore, the captured image 799 includes human bodies 715, 716, and 717.

なお、図7(c)に示したGUIの構成は一例であり、この構成に限らない。例えば、上記の設定値を設定可能な操作部を設けても良いし、解析領域および非解析領域のそれぞれに係る情報を表示可能な表示部を設けても良い。 Note that the configuration of the GUI shown in FIG. 7(c) is an example, and the configuration is not limited to this. For example, an operation section that can set the above-mentioned setting values may be provided, or a display section that can display information regarding each of the analysis area and non-analysis area may be provided.

ステップS805では、頭部検出部502は、ステップS804で画像取得部501が取得した撮像画像における解析領域(ステップS804で特定した解析領域)から人体の頭部を検出する。本実施形態では、頭部検出部502は、画像から人体の頭部を検出できるように予め学習が行われた機械学習モデルを用いて、画像から人体の頭部を検出する。機械学習モデルによる頭部の検出は、例えば、下記の文献に記載の技術を適用することで実現できる。 In step S805, the head detection unit 502 detects the head of the human body from the analysis region (the analysis region specified in step S804) in the captured image acquired by the image acquisition unit 501 in step S804. In this embodiment, the head detection unit 502 detects the head of a human body from an image using a machine learning model that has been trained in advance to be able to detect the head of a human body from an image. Detection of the head using a machine learning model can be realized, for example, by applying the technology described in the following document.

J.Redmon,A.Farhadi,”YOLO9000:Better Faster Stronger”,Computer Vision and Pattern Recognition (CVPR) 2016.
頭部検出部502は、解析領域から人体の頭部を検出すると、該頭部を包含する矩形の位置およびサイズを示す情報を頭部検出情報として出力する。例えば、頭部検出部502は、頭部を包含する矩形の左上隅の位置および該矩形の縦横サイズを頭部検出情報として出力しても良いし、該矩形の左上隅の位置および右下隅の位置を頭部検出情報として出力しても良い。
J. Redmon, A. Farhadi, “YOLO9000: Better Faster Stronger”, Computer Vision and Pattern Recognition (CVPR) 2016.
When the head detection unit 502 detects a human head from the analysis area, it outputs information indicating the position and size of a rectangle that includes the head as head detection information. For example, the head detection unit 502 may output the position of the upper left corner of a rectangle that includes the head and the vertical and horizontal sizes of the rectangle as head detection information, or the position of the upper left corner and the lower right corner of the rectangle. The position may be output as head detection information.

また、機械学習モデルでは、入力するデータのサイズが予め決められている。そのため、入力するデータのサイズが異なる撮像画像が与えられた場合、頭部検出部502は一般的に知られているバイキュービック法等の任意の手法を用いて撮像画像のリサイズや変形処理を行う。 Furthermore, in a machine learning model, the size of input data is determined in advance. Therefore, when a captured image with different input data sizes is given, the head detection unit 502 resizes or deforms the captured image using any method such as the generally known bicubic method. .

ステップS806では、侵入判定部507は、頭部検出情報が示す位置およびサイズを有する矩形を、水平方向に「人体サイズ情報が示す水平倍率」だけ拡大し、下方に「人体サイズ情報が示す垂直倍率」だけ拡大(延長)した矩形を、人体枠として求める。そして表示制御部509は、侵入判定部507が求めた人体枠を表示する。 In step S806, the intrusion determination unit 507 expands the rectangle having the position and size indicated by the head detection information in the horizontal direction by the "horizontal magnification indicated by the human body size information", and downwardly enlarges the rectangle having the position and size indicated by the head detection information by "the vertical magnification indicated by the human body size information". A rectangle expanded (extended) by '' is found as the human body frame. Then, the display control unit 509 displays the human body frame determined by the intrusion determination unit 507.

図7(c)の例では、人体715,716,717のうち解析領域712に含まれている人体は人体715,716である。よって、ステップS805では、人体715,716のそれぞれの頭部が検出されることになり、ステップS806では、人体715の人体枠718および人体716の検出枠719を求めることになる。よってステップS806では、人体715の人体枠718および人体716の人体枠719が表示される。人体717は解析領域712に含まれていないため、該人体717の頭部は検出されず、よって該人体717の人体枠は求めないので、人体717の人体枠は表示されない。 In the example of FIG. 7C, the human bodies 715, 716, and 717 are included in the analysis area 712. Therefore, in step S805, the heads of the human bodies 715 and 716 are detected, and in step S806, the human body frame 718 of the human body 715 and the detection frame 719 of the human body 716 are determined. Therefore, in step S806, a human body frame 718 of the human body 715 and a human body frame 719 of the human body 716 are displayed. Since the human body 717 is not included in the analysis area 712, the head of the human body 717 is not detected, and therefore the human body frame of the human body 717 is not determined, so the human body frame of the human body 717 is not displayed.

そして侵入判定部507は、求めた人体枠が指定領域内に侵入したか否か(侵入の有無)を判定する。本実施形態では、侵入判定部507は、人体枠の下辺の一部もしくは全部が指定領域内に入った場合に「侵入した」と判定する。これにより、人体の足元の位置を基準とした侵入判定ができる。なお、侵入判定の方法は、上記の方法に限らず、例えば、人体枠の一部分でも指定領域に入った場合に「侵入した」と判定しても良いし、人体枠の全部が指定領域に入った場合に「侵入した」と判定しても良い。 Then, the intrusion determination unit 507 determines whether or not the obtained human body frame has intruded into the designated area (presence or absence of intrusion). In the present embodiment, the intrusion determination unit 507 determines that "intrusion has occurred" when part or all of the lower side of the human body frame enters the designated area. This makes it possible to determine intrusion based on the position of the human body's feet. Note that the method for determining intrusion is not limited to the above method; for example, it may be determined that an intrusion has occurred when even a portion of the human body frame enters the designated area, or it may be determined that the entire human body frame enters the designated area. It may be determined that there has been an "intrusion" if the

そしてこのような判定の結果、「侵入した」と判定した場合には、処理はステップS807を介してステップS808に進み、「侵入した」と判定しなかった場合には、処理はステップS807を介してステップS809に進む。 As a result of such determination, if it is determined that there has been an intrusion, the process proceeds to step S808 via step S807, and if it is not determined that there has been an intrusion, the process proceeds to step S807. The process then proceeds to step S809.

ステップS808では、表示制御部509は、人体が指定領域内に侵入した旨を通知するべく、人体が指定領域内に侵入した旨を示す情報を表示部407に表示させる。例えば、表示制御部509は、人体が指定領域内に侵入した旨を示す文字列を表示させても良い。また、表示制御部509は、下辺の一部が指定領域内に入った人体枠を対象人体枠とし、対象人体枠と、非対象人体枠と、を識別可能に表示させても良い。また、表示制御部509は、対象人体枠に対応する人体の頭部に係る情報(頭部検出部502が該頭部の検出時に推定した性別や年齢などの人体情報)を表示させても良い。 In step S808, the display control unit 509 causes the display unit 407 to display information indicating that a human body has entered the designated area, in order to notify that the human body has entered the designated area. For example, the display control unit 509 may display a character string indicating that a human body has entered the designated area. Further, the display control unit 509 may display a human body frame whose lower side partially falls within the designated area as the target human body frame, and display the target human body frame and the non-target human body frame in a distinguishable manner. Further, the display control unit 509 may display information related to the head of the human body corresponding to the target human body frame (human body information such as gender and age estimated by the head detection unit 502 when detecting the head). .

なお、人体が指定領域内に侵入した旨の通知方法は表示に限らず、音声や振動などの方法で通知しても良い。例えば、通信部510は、人体が指定領域内に侵入した旨のメッセージを他の機器に対して送信しても良い。また、通信部510は、人体枠が指定領域内に侵入したと判定された場合には、LEDなどの発光体を点灯/点滅させるようにしても良い。 Note that the notification method to the effect that a human body has entered the designated area is not limited to display, and notification may be made by a method such as sound or vibration. For example, the communication unit 510 may transmit a message to other devices to the effect that a human body has entered the designated area. Furthermore, when it is determined that the human body frame has entered the designated area, the communication unit 510 may turn on/blink a light emitting body such as an LED.

ステップS809では、制御部512は、図8のフローチャートに従った処理を終了するか否かを判断する。例えば、ユーザが操作部406を操作して処理を終了させるための操作指示を入力した場合には、制御部512は図8のフローチャートに従った処理を終了すると判断する。一方、このような操作指示を入力していない限りは、図8のフローチャートに従った処理を終了すると判断しない。 In step S809, the control unit 512 determines whether to end the process according to the flowchart of FIG. 8. For example, if the user operates the operation unit 406 and inputs an operation instruction to end the process, the control unit 512 determines to end the process according to the flowchart of FIG. On the other hand, unless such an operation instruction is input, it is not determined that the process according to the flowchart of FIG. 8 is to be terminated.

このような判断の結果、図8のフローチャートに従った処理を終了すると判断した場合には、図8のフローチャートに従った処理は終了する。一方、図8のフローチャートに従った処理を終了すると判断しなかった場合には、処理はステップS810に進む。 As a result of such determination, if it is determined that the process according to the flowchart of FIG. 8 should be terminated, the process according to the flowchart of FIG. 8 is terminated. On the other hand, if it is not determined that the process according to the flowchart of FIG. 8 should be ended, the process proceeds to step S810.

ステップS810では、制御部512は、上記の各種の設定値のうち1以上の設定値の更新があったか否かを判断する。例えば、制御部512は、ユーザが操作部406を操作して上記の各種の設定値のうち1以上を更新するための操作を行った場合には「更新有り」と判断し、何れの設定値も更新されていない場合には、「更新無し」と判断する。 In step S810, the control unit 512 determines whether one or more of the various setting values described above has been updated. For example, if the user operates the operation unit 406 to update one or more of the various setting values described above, the control unit 512 determines that there is an “updating”, and selects which setting value. If the information has not been updated, it is determined that there is no update.

このような判断の結果、上記の各種の設定値のうち1以上の設定値の更新があった場合には、処理はステップS801に進む。一方、上記の各種の設定値のうち何れの設定値も更新されていない場合には、処理はステップS804に進む。 As a result of such determination, if one or more of the various setting values described above has been updated, the process advances to step S801. On the other hand, if none of the various setting values described above has been updated, the process advances to step S804.

このように本実施形態によれば、解析領域に含まれる人物のみについて頭部領域を特定し、該頭部領域に基づいて足下の位置を基準とする侵入判定を行うため、人物の侵入の見逃しを抑制しつつ、侵入の検知に要する時間をより短縮することができる。 As described above, according to the present embodiment, the head area of only the person included in the analysis area is specified, and intrusion determination is performed based on the head area with the position of the feet as a reference, so that intrusion of a person may not be overlooked. It is possible to further reduce the time required to detect an intrusion while suppressing the intrusion.

<変形例>
第1の実施形態では、解析領域に含まれる人体について指定領域に対する侵入の検知を行うケースについて説明したが、解析領域の用途は指定領域に対する侵入の検知に限らず、様々な解析処理に適用可能である。例えば、解析領域に含まれる頭部の数をカウントすることで指定領域を通過する人体の数をカウントする実施形態も考え得る。また、解析領域に含まれる頭部に係る情報(該頭部の検出時に推定した性別や年齢などの人体情報)を収集することで指定領域を通過する人体に係る情報を収集する実施形態も考え得る。
<Modified example>
In the first embodiment, a case was described in which intrusion into a specified area of a human body included in the analysis area is detected, but the use of the analysis area is not limited to detecting intrusion into a specified area, but can be applied to various analysis processes. It is. For example, an embodiment may be considered in which the number of human bodies passing through a designated area is counted by counting the number of heads included in the analysis area. We are also considering an embodiment in which information on the human body passing through a designated area is collected by collecting information on the head included in the analysis area (human body information such as gender and age estimated when the head is detected). obtain.

[第2の実施形態]
以下では、第1の実施形態との差分について説明し、以下で特に触れない限りは、第1の実施形態と同様であるものとする。第1の実施形態では、人体枠の下辺の一部が指定領域に入ったか否かを判定することで、人体の足元を基準とした侵入判定を行った。しかし、覗き込みのような動作による侵入を検知したい場合は、頭部を基準にして解析領域を設定し、頭部の侵入を検知した方が状況に即している。本実施形態では、侵入判定を行う部位および条件に応じた解析領域の設定及び侵入判定について説明する。
[Second embodiment]
Differences from the first embodiment will be explained below, and unless otherwise mentioned below, it is assumed that the second embodiment is the same as the first embodiment. In the first embodiment, intrusion determination is performed based on the foot of the human body by determining whether a part of the lower side of the human body frame has entered the designated area. However, if you want to detect an intrusion caused by an action such as peeking, it would be more appropriate to set the analysis area based on the head and detect the intrusion of the head. In this embodiment, setting of an analysis area and intrusion determination according to the site and conditions for intrusion determination will be described.

本実施形態に係るサーバ130の機能構成例を図9のブロック図に示す。図9において図5に示した機能部と同様の機能部には同じ参照番号を付しており、該機能部に係る説明は省略する。図9に示した構成は、図5に示した構成に取得部901および取得部902を加えた構成となっている。 An example of the functional configuration of the server 130 according to this embodiment is shown in the block diagram of FIG. In FIG. 9, functional parts similar to those shown in FIG. 5 are given the same reference numerals, and a description of the functional parts will be omitted. The configuration shown in FIG. 9 has an acquisition section 901 and an acquisition section 902 added to the configuration shown in FIG. 5.

取得部901は、侵入判定部位の設定値を取得する。侵入判定部位の設定値は、「上辺」、「下辺」のように人体枠の一部を示す値であり、人体枠において侵入判定の対象となる部分を示す値である。なお、侵入判定部位の設定値は「上部」、「下部」のようにそれぞれ「上辺」および「下辺」に対してある程度の幅を持った部分を示す値でも良い。なお、侵入判定部位の設定値の設定方法は特定の設定方法に限らない。 The acquisition unit 901 acquires the setting value of the intrusion determination part. The setting value of the intrusion determination part is a value indicating a part of the human body frame, such as "upper side" or "lower side," and is a value indicating a part of the human body frame that is the target of intrusion determination. Note that the setting value of the intrusion determination part may be a value indicating a portion having a certain width with respect to the "upper side" and the "lower side", such as "upper" and "lower", respectively. Note that the method of setting the setting value of the intrusion determination part is not limited to a specific setting method.

例えば、表示部407に人体枠を表す矩形を表示する。そして、ユーザが操作部406を操作して該矩形の上辺を指定した場合は、侵入判定部位の設定値として「上辺」が設定され、ユーザが操作部406を操作して該矩形の下辺を指定した場合には、侵入判定部位の設定値として「下辺」が設定される。 For example, a rectangle representing a human body frame is displayed on the display unit 407. Then, when the user operates the operation unit 406 to specify the upper side of the rectangle, “upper side” is set as the setting value of the intrusion determination part, and the user operates the operation unit 406 to specify the lower side of the rectangle. In this case, "lower side" is set as the setting value of the intrusion determination part.

また例えば、表示部407に人体を表す画像を表示する。そして、ユーザが操作部406を操作して該画像における頭部を指定した場合は、侵入判定部位の設定値として「上辺」が設定され、ユーザが操作部406を操作して該画像における足下を指定した場合には、侵入判定部位の設定値として「下辺」が設定される。 For example, an image representing a human body is displayed on the display unit 407. When the user operates the operation unit 406 to specify the head in the image, “upper side” is set as the setting value for the intrusion determination part, and the user operates the operation unit 406 to specify the foot in the image. If specified, "lower side" is set as the setting value for the intrusion determination part.

このような設定方法によって設定された侵入判定部位の設定値はHDD404に保存される。そして、取得部901は、HDD404に保存された侵入判定部位の設定値を取得する。 The setting value of the intrusion determination part set by such a setting method is stored in the HDD 404. The acquisition unit 901 then acquires the setting value of the intrusion determination part stored in the HDD 404.

取得部902は、侵入判定条件の設定値を取得する。侵入判定条件の設定値は、侵入判定部位がどの程度指定領域に入った場合に「侵入した」と判定するのかを示す値であり、「侵入した」と判定するために侵入判定部位が満たすべき条件を示す値である。本実施形態では、侵入判定条件は「一部」または「全部」を設定可能である。侵入判定条件として「一部」が設定された場合、侵入判定部507は侵入判定部位の一部でも指定領域に入った場合に「侵入有り」と判定する。一方、侵入判定条件として「全部」が設定された場合、侵入判定部507は侵入判定部位の全てが指定領域に内包された場合に「侵入有り」と判定する。なお、侵入判定条件の設定方法は特定の設定方法に限らない。 The acquisition unit 902 acquires the setting value of the intrusion determination condition. The set value of the intrusion judgment condition is a value that indicates how much the intrusion judgment part must enter the specified area to be judged as "intrusion", and the value that the intrusion judgment part must satisfy in order to judge that "intrusion" has occurred. This is a value that indicates a condition. In this embodiment, the intrusion determination condition can be set to "part" or "all." When "partial" is set as the intrusion determination condition, the intrusion determination unit 507 determines that there is an "intrusion" when even a part of the intrusion determination part enters the designated area. On the other hand, when "all" is set as the intrusion determination condition, the intrusion determination unit 507 determines that there is "intrusion" when all of the intrusion determination parts are included in the designated area. Note that the method of setting the intrusion determination condition is not limited to a specific setting method.

例えば、ユーザが操作部406を操作して侵入判定条件を設定しても良いし、侵入検知処理の種類などに応じて対応する侵入判定条件が設定されても良い。また例えば、侵入判定条件は割合で指定されても良い。その場合、侵入判定部507は侵入判定部位において指定領域に入った部分の該侵入判定部位に占める割合が侵入判定条件(割合)を超えた場合に、「侵入有り」と判定する。 For example, the user may operate the operation unit 406 to set the intrusion determination conditions, or the corresponding intrusion determination conditions may be set depending on the type of intrusion detection processing. Further, for example, the intrusion determination condition may be specified as a percentage. In this case, the intrusion determination unit 507 determines that there is an "intrusion" when the proportion of the portion of the intrusion determination part that has entered the specified area exceeds the intrusion determination condition (ratio).

次に、撮像装置110による撮像画像における指定領域に対する人体の侵入を検知するためにサーバ130が行う処理について、図10のフローチャートに従って説明する。図10において図8に示した処理ステップと同様の処理ステップには同じステップ番号を付しており、該処理ステップに係る説明は省略する。 Next, a process performed by the server 130 to detect an intrusion of a human body into a designated area in an image captured by the imaging device 110 will be described according to the flowchart of FIG. 10. In FIG. 10, the same step numbers as the processing steps shown in FIG. 8 are given the same step numbers, and a description of the processing steps will be omitted.

ステップS1001では、ステップS801の処理に加えて、取得部901は侵入判定部位の設定値を取得し、取得部902は侵入判定条件の設定値を取得する。ステップS1002では、決定部506は、ステップS802で得られた複数の分割領域のうち、頭部を検出する対象となる分割領域を解析領域として決定する。侵入判定部位の設定値として「下辺」が設定されており、且つ侵入判定条件の設定値として「一部」が設定されている場合には、決定部506は、第1の実施形態と同様にして解析領域を決定する。 In step S1001, in addition to the processing in step S801, the acquisition unit 901 acquires the setting value of the intrusion determination part, and the acquisition unit 902 acquires the setting value of the intrusion determination condition. In step S1002, the determining unit 506 determines, as the analysis region, a divided region from which the head is to be detected, among the plurality of divided regions obtained in step S802. When “lower side” is set as the setting value of the intrusion judgment part and “part” is set as the setting value of the intrusion judgment condition, the determining unit 506 performs the same as in the first embodiment. to determine the analysis area.

侵入判定部位の設定値として「上辺」が設定されており、且つ侵入判定条件の設定として「一部」が設定されている場合には、決定部506は、以下のようにして解析領域を決定する。 If "upper side" is set as the setting value for the intrusion determination part and "part" is set as the setting for the intrusion determination condition, the determining unit 506 determines the analysis area as follows. do.

先ず、決定部506は、撮像画像における指定領域(ステップS801で取得した「指定領域を規定する設定値」によって規定される領域)の枠部に人体が位置した場合に推定される該人体の頭部領域を頭部サイズ分布に基づいて求める。この処理を図11(a)を例にとり説明する。 First, the determining unit 506 determines the head of the human body that is estimated when the human body is located in the frame of the designated area (the area defined by the "setting value defining the designated area" acquired in step S801) in the captured image. The head area is determined based on the head size distribution. This process will be explained using FIG. 11(a) as an example.

図11(a)は分割領域に分割されている撮像画像1101の一例を示している。決定部506は、指定領域1102の枠部の一例である該指定領域1102の左下隅の位置P1を含む分割領域に対応する頭部サイズを頭部サイズ分布から取得する。そして決定部506は、該取得した頭部サイズの矩形を、水平方向に「人体サイズ情報が示す水平倍率」だけ拡大し、下方に「人体サイズ情報が示す垂直倍率」だけ拡大(延長)した矩形を、人体枠として求める。そして決定部506は、位置P1に接する人体枠1111,1112を設定する。人体枠1111の左上隅は位置P1と接しており、人体枠1112の右上隅は位置P1と接している。 FIG. 11A shows an example of a captured image 1101 that is divided into divided regions. The determining unit 506 acquires the head size corresponding to the divided area including the position P1 of the lower left corner of the specified area 1102, which is an example of the frame of the specified area 1102, from the head size distribution. The determining unit 506 then enlarges the obtained rectangle of the head size horizontally by the "horizontal magnification indicated by the human body size information" and expands (extends) the rectangle downward by the "vertical magnification indicated by the human body size information". is determined as a human body frame. The determining unit 506 then sets human body frames 1111 and 1112 that are in contact with the position P1. The upper left corner of the human body frame 1111 is in contact with the position P1, and the upper right corner of the human body frame 1112 is in contact with the position P1.

同様に決定部506は、指定領域1102の左上隅の位置P2を含む分割領域に対応する頭部サイズを頭部サイズ分布から取得する。そして決定部506は、該取得した頭部サイズの矩形を、水平方向に「人体サイズ情報が示す水平倍率」だけ拡大し、下方に「人体サイズ情報が示す垂直倍率」だけ拡大(延長)した矩形を、人体枠として求める。そして決定部506は、位置P2に接する人体枠1103,1104を設定する。人体枠1104の左上隅は位置P2と接しており、人体枠1103の右上隅は位置P2と接している。 Similarly, the determining unit 506 obtains the head size corresponding to the divided region including the upper left corner position P2 of the specified region 1102 from the head size distribution. Then, the determining unit 506 enlarges the rectangle of the obtained head size horizontally by the "horizontal magnification indicated by the human body size information" and expands (extends) the rectangle downward by the "vertical magnification indicated by the human body size information". is determined as a human body frame. The determining unit 506 then sets human body frames 1103 and 1104 that are in contact with the position P2. The upper left corner of human body frame 1104 is in contact with position P2, and the upper right corner of human body frame 1103 is in contact with position P2.

同様に決定部506は、指定領域1102の上隅の位置P3を含む分割領域に対応する頭部サイズを頭部サイズ分布から取得する。そして決定部506は、該取得した頭部サイズの矩形を、水平方向に「人体サイズ情報が示す水平倍率」だけ拡大し、下方に「人体サイズ情報が示す垂直倍率」だけ拡大(延長)した矩形を、人体枠として求める。そして決定部506は、位置P3に接する人体枠1105,1106を設定する。人体枠1106の左上隅は位置P3と接しており、人体枠1105の右上隅は位置P3と接している。 Similarly, the determining unit 506 obtains the head size corresponding to the divided region including the upper corner position P3 of the specified region 1102 from the head size distribution. Then, the determining unit 506 enlarges the rectangle of the obtained head size horizontally by the "horizontal magnification indicated by the human body size information" and expands (extends) the rectangle downward by the "vertical magnification indicated by the human body size information". is determined as a human body frame. The determining unit 506 then sets human body frames 1105 and 1106 that are in contact with the position P3. The upper left corner of human body frame 1106 is in contact with position P3, and the upper right corner of human body frame 1105 is in contact with position P3.

同様に決定部506は、指定領域1102の右上隅の位置P4を含む分割領域に対応する頭部サイズを頭部サイズ分布から取得する。そして決定部506は、該取得した頭部サイズの矩形を、水平方向に「人体サイズ情報が示す水平倍率」だけ拡大し、下方に「人体サイズ情報が示す垂直倍率」だけ拡大(延長)した矩形を、人体枠として求める。そして決定部506は、位置P4に接する人体枠1107,1108を設定する。人体枠1108の左上隅は位置P4と接しており、人体枠1107の右上隅は位置P4と接している。 Similarly, the determining unit 506 obtains the head size corresponding to the divided region including the upper right corner position P4 of the specified region 1102 from the head size distribution. Then, the determining unit 506 enlarges the rectangle of the obtained head size horizontally by the "horizontal magnification indicated by the human body size information" and expands (extends) the rectangle downward by the "vertical magnification indicated by the human body size information". is determined as a human body frame. The determining unit 506 then sets human body frames 1107 and 1108 that are in contact with the position P4. The upper left corner of human body frame 1108 is in contact with position P4, and the upper right corner of human body frame 1107 is in contact with position P4.

同様に決定部506は、指定領域1102の右下隅の位置P5を含む分割領域に対応する頭部サイズを頭部サイズ分布から取得する。そして決定部506は、該取得した頭部サイズの矩形を、水平方向に「人体サイズ情報が示す水平倍率」だけ拡大し、下方に「人体サイズ情報が示す垂直倍率」だけ拡大(延長)した矩形を、人体枠として求める。そして決定部506は、位置P5に接する人体枠1109,1110を設定する。人体枠1109の左上隅は位置P5と接しており、人体枠1110の右上隅は位置P5と接している。 Similarly, the determining unit 506 obtains the head size corresponding to the divided region including the lower right corner position P5 of the designated region 1102 from the head size distribution. Then, the determining unit 506 enlarges the rectangle of the obtained head size horizontally by the "horizontal magnification indicated by the human body size information" and expands (extends) the rectangle downward by the "vertical magnification indicated by the human body size information". is determined as a human body frame. The determining unit 506 then sets human body frames 1109 and 1110 that are in contact with the position P5. The upper left corner of human body frame 1109 is in contact with position P5, and the upper right corner of human body frame 1110 is in contact with position P5.

そして決定部506は、人体枠1103~1112のそれぞれにおける頭部領域を第1の実施形態と同様にして求め、人体枠1103~1112の頭部領域を包含する包含領域を変換領域1113として求める。例えば、決定部506は、人体枠1103~1112の頭部領域を包含するように指定領域1102を第1の実施形態と同様にして変換処理した領域を変換領域1113として求める。そして決定部506は、図11(b)に示す如く、撮像画像1101における分割領域のうち変換領域1113に含まれる分割領域を解析領域1114として決定(特定)する。 Then, the determining unit 506 determines the head regions in each of the human body frames 1103 to 1112 in the same manner as in the first embodiment, and determines a containing region that includes the head regions of the human body frames 1103 to 1112 as a conversion region 1113. For example, the determining unit 506 obtains, as the conversion area 1113, an area obtained by converting the specified area 1102 in the same manner as in the first embodiment so as to include the head area of the human body frames 1103 to 1112. Then, as shown in FIG. 11B, the determining unit 506 determines (specifies) a divided area included in the conversion area 1113 among the divided areas in the captured image 1101 as an analysis area 1114.

なお、侵入判定部位の設定値として「下辺」が設定されており、侵入判定条件の設定値として「一部」が設定されている場合、決定部506は、次のようにして解析領域を求めても良い。 Note that when "lower side" is set as the setting value of the intrusion determination part and "part" is set as the setting value of the intrusion determination condition, the determining unit 506 determines the analysis area as follows. It's okay.

決定部506は、指定領域1102の各頂点の位置に対応する人体枠を第1の実施形態と同様にして求め、該位置に接する人体枠(一方の人体枠の左下隅は該位置と接しており、他方の人体枠の右下隅は該位置と接している)を設定する。そして決定部506は、第1の実施形態と同様にして、それぞれの人体枠における頭部サイズの矩形を「該人体枠に対応する人体の頭部領域」とする。そして決定部506は、全ての人体枠に対応する頭部領域を包含する包含領域を変換領域として求め、撮像画像における分割領域のうち変換領域に含まれる分割領域を解析領域として決定(特定)する。 The determining unit 506 determines the human body frame corresponding to the position of each vertex of the specified region 1102 in the same manner as in the first embodiment, and determines the human body frame that is in contact with the position (the lower left corner of one human body frame is in contact with the position). (and the lower right corner of the other human body frame is in contact with this position). Then, similarly to the first embodiment, the determining unit 506 sets the rectangle of the head size in each human body frame as "the head region of the human body corresponding to the human body frame". Then, the determining unit 506 determines, as a transformation region, an inclusive region that includes the head region corresponding to all the human body frames, and determines (specifies) the divided region included in the transformation region among the divided regions in the captured image as an analysis region. .

なお、侵入判定部位の設定値として「下辺」が設定されており、且つ侵入判定条件の設定値として「全部」が設定されている場合、人体枠の全体が指定領域に含まれるように設定し、以降は第1の実施形態と同様にして解析領域を決定する。図7(a)の例では、人物706の人物枠の下辺が指定領域702の下辺と重なり、且つ該人体枠の全体が該指定領域702に含まれるように該人体枠を設定する。また、人物705の人物枠の下辺が指定領域702の下辺と重なり、且つ該人体枠の全体が該指定領域702に含まれるように該人体枠を設定する。また、人物703の人物枠の上辺が指定領域702の上辺と重なり、且つ該人体枠の全体が該指定領域702に含まれるように該人体枠を設定する。また、人物704の人物枠の上辺が指定領域702の上辺と重なり、且つ該人体枠の全体が該指定領域702に含まれるように該人体枠を設定する。人体枠の設定後は第1の実施形態と同様にして解析領域を決定する。 Note that if "lower side" is set as the setting value for the intrusion detection part and "all" is set as the setting value for the intrusion judgment condition, the entire human body frame is set to be included in the specified area. , and thereafter, the analysis area is determined in the same manner as in the first embodiment. In the example of FIG. 7A, the human body frame is set so that the lower edge of the human frame of the person 706 overlaps the lower edge of the specified area 702, and the entire human body frame is included in the specified area 702. Further, the human body frame is set so that the lower side of the human frame of the person 705 overlaps the lower side of the specified area 702 and the entire human body frame is included in the specified area 702. Further, the human body frame is set so that the upper side of the human frame of the person 703 overlaps the upper side of the specified area 702 and the entire human body frame is included in the specified area 702. Further, the human body frame is set so that the upper side of the human frame of the person 704 overlaps the upper side of the specified area 702 and the entire human body frame is included in the specified area 702. After setting the human body frame, the analysis area is determined in the same manner as in the first embodiment.

なお、侵入判定部位の設定値として「上辺」が設定されており、且つ侵入判定条件の設定値として「全部」が設定されている場合、人体枠の全体が指定領域に含まれるように設定し、以降は第1の実施形態と同様にして解析領域を決定する。図11(a)の例では、人物枠1109~1112の下辺が指定領域1113の下辺と重なり、且つ該人体枠1109~1112の全体が該指定領域1113に含まれるように該人体枠を設定する。また、人物枠1103~1108の全体が対応する頂点の近傍に位置し且つ該指定領域1113に含まれるように該人体枠を設定する。人体枠の設定後は第1の実施形態と同様にして解析領域を決定する。 Note that if "Top Side" is set as the setting value for the intrusion detection part and "All" is set as the setting value for the intrusion judgment condition, the entire human body frame is set to be included in the specified area. , and thereafter, the analysis area is determined in the same manner as in the first embodiment. In the example of FIG. 11A, the human body frame is set so that the lower sides of the human body frames 1109 to 1112 overlap the lower side of the specified area 1113, and the entire human body frames 1109 to 1112 are included in the specified area 1113. . Further, the human body frames are set so that the entire human body frames 1103 to 1108 are located near the corresponding vertices and are included in the designated area 1113. After setting the human body frame, the analysis area is determined in the same manner as in the first embodiment.

このように本実施形態では、人体を包含する枠において判定の対象となる部分、該判定の条件、に応じた配置で複数の人体が撮像画像における指定領域の枠部に位置した場合に推定される該複数の人体のそれぞれの頭部領域を頭部サイズ分布に基づいて取得する。そして、該複数の人体の頭部領域を包含する包含領域を変換領域として求め、該変換領域に含まれる分割領域を解析領域として特定する。 As described above, in this embodiment, the estimation is performed when a plurality of human bodies are located in the frame portion of the specified area in the captured image with the arrangement according to the portion to be determined in the frame that includes the human body and the conditions for the determination. The head regions of each of the plurality of human bodies are acquired based on the head size distribution. Then, an inclusive region that includes the head regions of the plurality of human bodies is determined as a transformed region, and divided regions included in the transformed region are specified as analysis regions.

本実施形態でもステップS804では、第1の実施形態と同様、表示制御部509は解析領域と非解析領域とを識別可能に表示する。撮像画像の表示例を図11(c)に示す。 In this embodiment as well, in step S804, like the first embodiment, the display control unit 509 displays the analysis area and the non-analysis area in a distinguishable manner. A display example of the captured image is shown in FIG. 11(c).

図11(c)は、撮像画像を表示するためのGUI1115の表示例を示す図である。このようなGUIの表示や、ユーザ操作に応じたGUIの表示制御は、表示制御部509によって行われる。 FIG. 11C is a diagram showing a display example of the GUI 1115 for displaying a captured image. The display control unit 509 performs display of such a GUI and controls the display of the GUI in response to user operations.

図11(c)では、ステップS804で取得した撮像画像1199における解析領域1114を非解析領域1116とは異なる色で表示している。また、撮像画像1199には、変換領域1113の枠が表示されている。また、撮像画像1199には、指定領域1102(ステップS801で取得した「指定領域を規定する設定値」によって規定される領域)の枠を重ねて表示している。また、撮像画像1199には、人体1117,1118が含まれている。 In FIG. 11C, the analysis region 1114 in the captured image 1199 acquired in step S804 is displayed in a different color from the non-analysis region 1116. Further, in the captured image 1199, a frame of the conversion area 1113 is displayed. Furthermore, the frame of the designated area 1102 (the area defined by the "setting value defining the designated area" acquired in step S801) is displayed overlappingly on the captured image 1199. Furthermore, the captured image 1199 includes human bodies 1117 and 1118.

分割領域の枠の表示/非表示は第1の実施形態と同様、ボタン720によって切り替えることができ、変換領域の枠の表示/非表示は第1の実施形態と同様、ボタン721によって切り替えることができる。 The display/non-display of the divided area frame can be switched using the button 720, as in the first embodiment, and the display/non-display of the conversion area frame can be switched using the button 721, as in the first embodiment. can.

図7(c)の例では、人体1117,1118のうち人体1117が解析領域1114に含まれているので、ステップS805では、人体1117の頭部が検出されることになり、ステップS806では、人体1117の人体枠1119を求めることになる。よってステップS806では、人体1117の人体枠1119が表示される。人体1118は解析領域1114に含まれていないため、該人体1118の頭部は検出されず、よって該人体1118の人体枠は求めないので、人体1118の人体枠は表示されない。 In the example of FIG. 7C, the human body 1117 of the human bodies 1117 and 1118 is included in the analysis region 1114, so in step S805, the head of the human body 1117 is detected, and in step S806, the human body 1117 is included in the analysis region 1114. The human body frame 1119 of 1117 is calculated. Therefore, in step S806, a human body frame 1119 of the human body 1117 is displayed. Since the human body 1118 is not included in the analysis area 1114, the head of the human body 1118 is not detected, and therefore the human body frame of the human body 1118 is not determined, so the human body frame of the human body 1118 is not displayed.

さらに侵入判定部位に基づいて、人体枠1119の一部を強調表示しても良い。図11(c)では、侵入判定部位の設定値として「上辺」が設定されているため、人体枠1119の上辺を強調表示している。 Furthermore, a part of the human body frame 1119 may be highlighted based on the intrusion determination site. In FIG. 11C, the upper side of the human body frame 1119 is highlighted because "upper side" is set as the setting value for the intrusion determination part.

ステップS807では、侵入判定部507は上記の如く、侵入判定条件の設定値に基づいて侵入検知を行う。ステップS808では、表示制御部509は、上記の強調表示を行っても良いし、侵入判定部位の設定値および侵入判定条件の設定値を表示部407に表示しても良い。 In step S807, the intrusion determination unit 507 performs intrusion detection based on the set value of the intrusion determination condition as described above. In step S808, the display control unit 509 may perform the above-mentioned highlighted display, or may display the setting values of the intrusion determination part and the intrusion determination condition on the display unit 407.

このように、本実施形態によれば、侵入判定部位と侵入判定条件とを設定することで、それぞれの状況に応じた解析領域の設定及び侵入判定が可能となる。 As described above, according to the present embodiment, by setting the intrusion determination part and the intrusion determination condition, it becomes possible to set an analysis area and perform intrusion determination according to each situation.

<変形例>
表示制御部509は、ユーザが操作部406を操作して指定領域を設定すると、上記の処理を行って変換領域を求め、該変換領域の一部が撮像画像からはみ出てしまう場合には、その旨を表示部407に表示するなどしてユーザに通知するようにしても良い。
<Modified example>
When the user operates the operation unit 406 to set a designated area, the display control unit 509 performs the above processing to obtain a transformation area, and if a part of the transformation area protrudes from the captured image, the display control unit 509 calculates the transformation area. The user may be notified by displaying this on the display unit 407 or the like.

[第3の実施形態]
第1の実施形態および第2の実施形態では、指定領域に対する人物の侵入検知は画像処理装置130が行うものとして説明したが、これに限らず、例えば、撮像装置110が行っても良い。この場合、画像処理装置130は、指定領域の設定値、領域設定情報、侵入判定部位の設定値、侵入判定条件の設定、などを撮像装置110に対して送信する。撮像装置110は、自身が撮像した撮像画像における解析領域を、画像処理装置130から受信した領域設定情報から判断し、解析領域に含まれる人体について指定領域(画像処理装置130から受信した指定領域の設定値から判断可能)への侵入検出を行う。
[Third embodiment]
In the first embodiment and the second embodiment, the image processing device 130 detects the intrusion of a person into the specified area. In this case, the image processing device 130 transmits the setting value of the designated area, area setting information, the setting value of the intrusion determination part, the setting of the intrusion determination condition, etc. to the imaging device 110. The imaging device 110 determines the analysis region in the captured image captured by itself from the region setting information received from the image processing device 130, and determines the designated region of the human body included in the analysis region (the designated region received from the image processing device 130). (can be determined from the set value).

また、第1の実施形態や第2の実施形態では、人体枠は矩形であるものとしているが、人体枠の形状は矩形に限らず、人体を包含する楕円であっても良いし、人体の形状に沿った形状であっても良い。この場合、人体枠の「上辺」や「下辺」はそれぞれ「上部(人体枠の上側の領域)」、「下部(人体枠の下側の領域)」と称しても良い。 Further, in the first embodiment and the second embodiment, the human body frame is assumed to be rectangular, but the shape of the human body frame is not limited to a rectangle, but may be an ellipse that encompasses the human body, or may be an ellipse that encompasses the human body. It may be a shape that follows the shape. In this case, the "upper side" and the "lower side" of the human body frame may be respectively referred to as the "upper part (the upper region of the human body frame)" and the "lower part (the lower region of the human body frame)".

また、上記の各実施形態や各変形例で使用した数値、処理タイミング、処理順、処理の主体、データ(情報)の取得方法/送信先/送信元/格納場所などは、具体的な説明を行うために一例として挙げたもので、このような一例に限定することを意図したものではない。 In addition, the numerical values, processing timing, processing order, processing subject, data (information) acquisition method/destination/source/storage location, etc. used in each of the above embodiments and modifications are explained in detail. This is provided as an example for purposes of implementation, and is not intended to be limiting.

また、以上説明した各実施形態や各変形例の一部若しくは全部を適宜組み合わせて使用しても構わない。また、以上説明した各実施形態や各変形例の一部若しくは全部を選択的に使用しても構わない。 Further, a part or all of the embodiments and modifications described above may be used in combination as appropriate. Further, a part or all of the embodiments and modifications described above may be selectively used.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention provides a system or device with a program that implements one or more functions of the embodiments described above via a network or a storage medium, and one or more processors in a computer of the system or device reads and executes the program. This can also be achieved by processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

本明細書の発明は、以下の画像処理装置、画像処理方法、コンピュータプログラムを含む。 The invention of this specification includes the following image processing device, image processing method, and computer program.

(項目1)
撮像画像における人体の頭部サイズの分布に基づいて該撮像画像を複数の分割領域に分割する分割手段と、
前記撮像画像における特定領域の枠部に複数の人体が位置した場合に推定される該複数の人体のそれぞれの頭部領域を前記分布に基づいて特定し、該複数の人体の頭部領域を包含する包含領域を求める処理手段と、
前記複数の分割領域のうち前記包含領域に含まれている第1領域と、前記複数の分割領域のうち前記包含領域に含まれていない第2領域と、を識別可能に表示させる表示制御手段と
を備えることを特徴とする画像処理装置。
(Item 1)
dividing means for dividing the captured image into a plurality of divided regions based on the distribution of the size of the human body's head in the captured image;
When a plurality of human bodies are located in a frame of a specific area in the captured image, each estimated head region of the plurality of human bodies is specified based on the distribution, and the head regions of the plurality of human bodies are included. processing means for determining an inclusive area;
Display control means for displaying a first region included in the inclusive region among the plurality of divided regions and a second region not included in the inclusive region among the plurality of divided regions in a distinguishable manner; An image processing device comprising:

(項目2)
前記処理手段は、前記撮像画像における特定領域の枠部に複数の人体のそれぞれの枠の下部が位置した場合に推定される該複数の人体のそれぞれの頭部領域を前記分布に基づいて特定し、該複数の人体の頭部領域を包含する包含領域を求めることを特徴とする項目1に記載の画像処理装置。
(Item 2)
The processing means specifies, based on the distribution, a head region of each of the plurality of human bodies that is estimated when a lower part of each frame of the plurality of human bodies is located in a frame of a specific region in the captured image. , the image processing apparatus according to item 1, wherein the image processing apparatus calculates an inclusive area that includes head areas of the plurality of human bodies.

(項目3)
前記処理手段は、人体を包含する枠において判定の対象となる部分、該判定の条件、に応じた配置で複数の人体が前記撮像画像における特定領域の枠部に位置した場合に推定される該複数の人体のそれぞれの頭部領域を前記分布に基づいて取得し、該複数の人体の頭部領域を包含する包含領域を求めることを特徴とする項目1に記載の画像処理装置。
(Item 3)
The processing means is configured to determine the area to be determined when a plurality of human bodies are located in a frame portion of a specific area in the captured image in an arrangement according to a portion to be determined in a frame that includes a human body and conditions for the determination. The image processing apparatus according to item 1, wherein head regions of each of a plurality of human bodies are acquired based on the distribution, and an inclusive region that includes the head regions of the plurality of human bodies is determined.

(項目4)
前記処理手段は、前記特定領域を変換して前記包含領域を求めることを特徴とする項目1ないし3の何れか1項目に記載の画像処理装置。
(Item 4)
The image processing apparatus according to any one of items 1 to 3, wherein the processing means converts the specific area to obtain the inclusive area.

(項目5)
前記変換は、平行移動、拡大、縮小、回転の1以上を含むことを特徴とする項目4に記載の画像処理装置。
(Item 5)
5. The image processing device according to item 4, wherein the transformation includes one or more of translation, enlargement, reduction, and rotation.

(項目6)
さらに、
ユーザ操作に応じて撮像画像に対して前記特定領域が設定された場合、該特定領域に対応する前記包含領域を求め、該求めた包含領域の一部が前記撮像画像からはみ出てしまう場合には通知する手段を備えることを特徴とする項目1ないし5の何れか1項目に記載の画像処理装置。
(Item 6)
moreover,
When the specific area is set for the captured image in response to a user operation, the inclusive area corresponding to the specific area is determined, and if a part of the determined inclusive area protrudes from the captured image, 6. The image processing device according to any one of items 1 to 5, further comprising means for notifying the user.

(項目7)
さらに、
前記第1領域から人体の頭部を検出し、該頭部に基づいて前記特定領域に対する解析処理を行う解析処理手段を備えることを特徴とする項目1ないし6の何れか1項目に記載の画像処理装置。
(Item 7)
moreover,
The image according to any one of items 1 to 6, further comprising an analysis processing means that detects a head of a human body from the first region and performs analysis processing on the specific region based on the head. Processing equipment.

(項目8)
前記解析処理手段は、前記第1領域から人体の頭部を検出し、該頭部に基づいて、該人体の前記特定領域への侵入の有無を判定することを特徴とする項目7に記載の画像処理装置。
(Item 8)
Item 7, wherein the analysis processing means detects a head of a human body from the first area, and determines whether or not the human body has entered the specific area based on the head. Image processing device.

(項目9)
更に、
前記侵入があった場合には、前記侵入があった旨を通知する通知手段を備えることを特徴とする項目8に記載の画像処理装置。
(Item 9)
Furthermore,
9. The image processing apparatus according to item 8, further comprising a notification means for notifying that there has been an intrusion when the intrusion has occurred.

(項目10)
画像処理装置が行う画像処理方法であって、
前記画像処理装置の分割手段が、撮像画像における人体の頭部サイズの分布に基づいて該撮像画像を複数の分割領域に分割する分割工程と、
前記画像処理装置の処理手段が、前記撮像画像における特定領域の枠部に複数の人体が位置した場合に推定される該複数の人体のそれぞれの頭部領域を前記分布に基づいて特定し、該複数の人体の頭部領域を包含する包含領域を求める処理工程と、
前記画像処理装置の表示制御手段が、前記複数の分割領域のうち前記包含領域に含まれている第1領域と、前記複数の分割領域のうち前記包含領域に含まれていない第2領域と、を識別可能に表示させる表示制御工程と
を備えることを特徴とする画像処理方法。
(Item 10)
An image processing method performed by an image processing device, the method comprising:
a dividing step in which the dividing means of the image processing device divides the captured image into a plurality of divided regions based on the distribution of human head sizes in the captured image;
The processing means of the image processing device specifies, based on the distribution, a head region of each of the plurality of human bodies estimated when the plurality of human bodies are located in the frame of the specific region in the captured image, and a processing step of determining an inclusive region that includes head regions of a plurality of human bodies;
The display control means of the image processing device selects a first region of the plurality of divided regions that is included in the inclusive region, and a second region of the plurality of divided regions that is not included in the inclusive region; An image processing method comprising: a display control step for displaying identifiably.

(項目11)
コンピュータを、項目1ないし9の何れか1項目に記載の画像処理装置の各手段として機能させるためのコンピュータプログラム。
(Item 11)
A computer program for causing a computer to function as each means of the image processing apparatus according to any one of items 1 to 9.

発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。 The invention is not limited to the embodiments described above, and various changes and modifications can be made without departing from the spirit and scope of the invention. Therefore, the following claims are hereby appended to disclose the scope of the invention.

130:画像処理装置 501:画像取得部 502:頭部検出部 503:分布取得部 504:設定部 505:取得部 506:決定部 507:侵入判定部 509:表示制御部 510:通信部 512:制御部 130: Image processing device 501: Image acquisition unit 502: Head detection unit 503: Distribution acquisition unit 504: Setting unit 505: Acquisition unit 506: Determination unit 507: Intrusion determination unit 509: Display control unit 510: Communication unit 512: Control Department

Claims (11)

撮像画像における人体の頭部サイズの分布に基づいて該撮像画像を複数の分割領域に分割する分割手段と、
前記撮像画像における特定領域の枠部に複数の人体が位置した場合に推定される該複数の人体のそれぞれの頭部領域を前記分布に基づいて特定し、該複数の人体の頭部領域を包含する包含領域を求める処理手段と、
前記複数の分割領域のうち前記包含領域に含まれている第1領域と、前記複数の分割領域のうち前記包含領域に含まれていない第2領域と、を識別可能に表示させる表示制御手段と
を備えることを特徴とする画像処理装置。
dividing means for dividing the captured image into a plurality of divided regions based on the distribution of the size of the human body's head in the captured image;
When a plurality of human bodies are located in a frame of a specific area in the captured image, each estimated head region of the plurality of human bodies is specified based on the distribution, and the head regions of the plurality of human bodies are included. processing means for determining an inclusive area;
Display control means for displaying a first region included in the inclusive region among the plurality of divided regions and a second region not included in the inclusive region among the plurality of divided regions in a distinguishable manner; An image processing device comprising:
前記処理手段は、前記撮像画像における特定領域の枠部に複数の人体のそれぞれの枠の下部が位置した場合に推定される該複数の人体のそれぞれの頭部領域を前記分布に基づいて特定し、該複数の人体の頭部領域を包含する包含領域を求めることを特徴とする請求項1に記載の画像処理装置。 The processing means specifies, based on the distribution, a head region of each of the plurality of human bodies that is estimated when a lower part of each frame of the plurality of human bodies is located in a frame of a specific region in the captured image. , the image processing apparatus according to claim 1, wherein an inclusive region that includes head regions of the plurality of human bodies is determined. 前記処理手段は、人体を包含する枠において判定の対象となる部分、該判定の条件、に応じた配置で複数の人体が前記撮像画像における特定領域の枠部に位置した場合に推定される該複数の人体のそれぞれの頭部領域を前記分布に基づいて取得し、該複数の人体の頭部領域を包含する包含領域を求めることを特徴とする請求項1に記載の画像処理装置。 The processing means is configured to determine the area to be determined when a plurality of human bodies are located in a frame portion of a specific area in the captured image in an arrangement according to a portion to be determined in a frame that includes a human body and conditions for the determination. 2. The image processing apparatus according to claim 1, wherein head regions of each of a plurality of human bodies are acquired based on the distribution, and an inclusive region that includes the head regions of the plurality of human bodies is determined. 前記処理手段は、前記特定領域を変換して前記包含領域を求めることを特徴とする請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the processing means converts the specific area to obtain the inclusive area. 前記変換は、平行移動、拡大、縮小、回転の1以上を含むことを特徴とする請求項4に記載の画像処理装置。 The image processing apparatus according to claim 4, wherein the transformation includes one or more of translation, enlargement, reduction, and rotation. さらに、
ユーザ操作に応じて撮像画像に対して前記特定領域が設定された場合、該特定領域に対応する前記包含領域を求め、該求めた包含領域の一部が前記撮像画像からはみ出てしまう場合には通知する手段を備えることを特徴とする請求項1に記載の画像処理装置。
moreover,
When the specific area is set for the captured image in response to a user operation, the inclusive area corresponding to the specific area is determined, and if a part of the determined inclusive area protrudes from the captured image, The image processing apparatus according to claim 1, further comprising means for notifying.
さらに、
前記第1領域から人体の頭部を検出し、該頭部に基づいて前記特定領域に対する解析処理を行う解析処理手段を備えることを特徴とする請求項1に記載の画像処理装置。
moreover,
The image processing apparatus according to claim 1, further comprising analysis processing means for detecting a head of a human body from the first region and performing analysis processing on the specific region based on the head.
前記解析処理手段は、前記第1領域から人体の頭部を検出し、該頭部に基づいて、該人体の前記特定領域への侵入の有無を判定することを特徴とする請求項7に記載の画像処理装置。 8. The analysis processing means detects a head of a human body from the first area, and determines whether or not the human body has entered the specific area based on the head. image processing device. 更に、
前記侵入があった場合には、前記侵入があった旨を通知する通知手段を備えることを特徴とする請求項8に記載の画像処理装置。
Furthermore,
9. The image processing apparatus according to claim 8, further comprising a notification means for notifying that the intrusion has occurred when the intrusion has occurred.
画像処理装置が行う画像処理方法であって、
前記画像処理装置の分割手段が、撮像画像における人体の頭部サイズの分布に基づいて該撮像画像を複数の分割領域に分割する分割工程と、
前記画像処理装置の処理手段が、前記撮像画像における特定領域の枠部に複数の人体が位置した場合に推定される該複数の人体のそれぞれの頭部領域を前記分布に基づいて特定し、該複数の人体の頭部領域を包含する包含領域を求める処理工程と、
前記画像処理装置の表示制御手段が、前記複数の分割領域のうち前記包含領域に含まれている第1領域と、前記複数の分割領域のうち前記包含領域に含まれていない第2領域と、を識別可能に表示させる表示制御工程と
を備えることを特徴とする画像処理方法。
An image processing method performed by an image processing device, the method comprising:
a dividing step in which the dividing means of the image processing device divides the captured image into a plurality of divided regions based on the distribution of human head sizes in the captured image;
The processing means of the image processing device specifies, based on the distribution, a head region of each of the plurality of human bodies estimated when the plurality of human bodies are located in the frame of the specific region in the captured image, and a processing step of determining an inclusive region that includes head regions of a plurality of human bodies;
The display control means of the image processing device selects a first region of the plurality of divided regions that is included in the inclusive region, and a second region of the plurality of divided regions that is not included in the inclusive region; An image processing method comprising: a display control step for displaying identifiably.
コンピュータを、請求項1ないし9の何れか1項に記載の画像処理装置の各手段として機能させるためのコンピュータプログラム。 A computer program for causing a computer to function as each means of the image processing apparatus according to claim 1.
JP2022140210A 2022-09-02 2022-09-02 Image processing device, image processing method Pending JP2024035625A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022140210A JP2024035625A (en) 2022-09-02 2022-09-02 Image processing device, image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022140210A JP2024035625A (en) 2022-09-02 2022-09-02 Image processing device, image processing method

Publications (1)

Publication Number Publication Date
JP2024035625A true JP2024035625A (en) 2024-03-14

Family

ID=90194726

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022140210A Pending JP2024035625A (en) 2022-09-02 2022-09-02 Image processing device, image processing method

Country Status (1)

Country Link
JP (1) JP2024035625A (en)

Similar Documents

Publication Publication Date Title
EP3024227B1 (en) Image processing apparatus and image processing method
JP6650677B2 (en) Video processing apparatus, video processing method, and program
JP2015142181A (en) Control apparatus and control method
JP6935247B2 (en) Image processing equipment, image processing methods, and programs
JP2012216006A (en) Information processing system, information processing device, imaging device, and information processing method
JP2012216946A (en) Information processing device, information processing method, and positional information data structure
JP2010267055A (en) Apparatus and method for detection of moving object, and computer program
JP2019134269A (en) Image processing device, image processing method, and program
WO2023006009A1 (en) Photographing parameter determination method and apparatus, and electronic device
JP2019135810A (en) Image processing apparatus, image processing method, and program
JP6991045B2 (en) Image processing device, control method of image processing device
TWI671707B (en) Image analysis method, electronic system and non-transitory computer-readable recording medium
US9842260B2 (en) Image processing apparatus and image processing method of performing image segmentation
JP2024035625A (en) Image processing device, image processing method
JP2007048232A (en) Information processing device, information processing method, and computer program
JP6452738B2 (en) Image processing apparatus, image processing method, and program
US10990802B2 (en) Imaging apparatus providing out focusing and method for controlling the same
JP2019219804A (en) Object detection device and object detection method
WO2017115587A1 (en) Information processing device, control method, and program
JP7208713B2 (en) Image analysis device and image analysis method
JP2021118522A (en) Image processing device, image processing method, and monitoring system
JP2021056899A (en) Image processor, image processing method, and program
US20220172474A1 (en) Image processing apparatus, 3d model generation method, and program
JP7370769B2 (en) Image processing device, image processing method and program
US10885348B2 (en) Information processing device, information processing method, and storage medium