JP7089493B2 - Person detectors, methods and programs - Google Patents

Person detectors, methods and programs Download PDF

Info

Publication number
JP7089493B2
JP7089493B2 JP2019148797A JP2019148797A JP7089493B2 JP 7089493 B2 JP7089493 B2 JP 7089493B2 JP 2019148797 A JP2019148797 A JP 2019148797A JP 2019148797 A JP2019148797 A JP 2019148797A JP 7089493 B2 JP7089493 B2 JP 7089493B2
Authority
JP
Japan
Prior art keywords
person
aspect ratio
area
extracted
person area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019148797A
Other languages
Japanese (ja)
Other versions
JP2021033343A (en
Inventor
建鋒 徐
和之 田坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2019148797A priority Critical patent/JP7089493B2/en
Publication of JP2021033343A publication Critical patent/JP2021033343A/en
Application granted granted Critical
Publication of JP7089493B2 publication Critical patent/JP7089493B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、人物検知装置、方法およびプログラムに係り、特に、カメラ画像上で転倒している人物を検知する人物検知装置、方法およびプログラムに関する。 The present invention relates to a person detection device, a method and a program, and more particularly to a person detection device, a method and a program for detecting a person who has fallen on a camera image.

警備や防犯上の要請から、屋外で人物を上方から撮影したカメラ映像に基づいて人物領域を抽出し、各人物の動向を分析する研究が行われている。従来、このような屋外カメラはビルなどの構造物の高所に固定的に設けられていたが、近年、いわゆるドローンへの小型カメラの搭載が可能となったことから、任意の場所を、任意の角度、向きで撮影することが容易となり、様々な分野への応用が期待されている。 Research is being conducted to analyze the movement of each person by extracting the person's area based on the camera image of the person taken outdoors from above from the request for security and crime prevention. In the past, such outdoor cameras were fixedly installed at high places in structures such as buildings, but in recent years, since it has become possible to mount small cameras on so-called drones, any location can be used. It is easy to shoot at the angle and orientation of, and it is expected to be applied to various fields.

非特許文献1には、機械学習により物体をその画像の色の特徴などに基づいて識別する技術が開示されている。 Non-Patent Document 1 discloses a technique for identifying an object based on the color characteristics of the image by machine learning.

非特許文献2には、画像のみから人物の骨格を抽出する技術が開示されている。 Non-Patent Document 2 discloses a technique for extracting a human skeleton from only an image.

特許文献1には、被監視サイトにおいて、進入者を検知する検知エリアへの不正進入者の追跡を迅速かつ正確に行う技術が開示されている。 Patent Document 1 discloses a technique for quickly and accurately tracking an unauthorized intruder into a detection area for detecting an intruder at a monitored site.

特許文献2には、不特定多数の人物が集まり且つ専ら出迎えのために人物同士の接触が生じる監視領域において、不審度の高い受け渡しを行った可能性のある不審者を効率的に監視できる画像監視装置が開示されている。 Patent Document 2 describes an image capable of efficiently monitoring a suspicious person who may have delivered with a high degree of suspicion in a monitoring area where an unspecified number of people gather and contact each other exclusively for welcoming. The monitoring device is disclosed.

特許文献3には、人物を真上のカメラから撮影し、人物領域の面積に基づいて当該人物が転倒しているか否かを判断する技術が開示されている。 Patent Document 3 discloses a technique of photographing a person from a camera directly above and determining whether or not the person has fallen based on the area of the person area.

特願2017-216477号Japanese Patent Application No. 2017-216477 特願2017-238178号Japanese Patent Application No. 2017-238178 特開2000-207664号公報Japanese Unexamined Patent Publication No. 2000-207664

SSD:Single Shot Multi Detector ( https://arxiv.org/pdf/1512.02325.pdf)SSD: Single Shot Multi Detector (https://arxiv.org/pdf/1512.02325.pdf) Z. Cao, T. Simon, S. Wei and Y. Sheikh, "Realtime Multi-person 2D Pose Estimation Using Part Affinity Fields," 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Honolulu, HI, 2017, pp. 1302-1310.Z. Cao, T. Simon, S. Wei and Y. Sheikh, "Realtime Multi-person 2D Pose Optimization Using Part Affinity Fields," 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Honolulu, HI, 2017, pp . 1302-1310.

図9のように、人物を上方から撮影した場合、立位状態の人物は角度や向きに関わらず上半身が下半身の上方に位置するのに対して、転倒状態の人物は上半身が下半身の上方に位置しなくなる。そのため、各人物の骨格情報を分析し、上半身と下半身との相対的な位置関係を識別することができれば、当該人物が立位状態および転倒状態のいずれにあるかを比較的正確に認識することができる。 As shown in FIG. 9, when a person is photographed from above, the upper body of a person in a standing position is located above the lower body regardless of the angle or orientation, whereas the upper body of a person in a fall state is above the lower body. It will not be positioned. Therefore, if the skeletal information of each person can be analyzed and the relative positional relationship between the upper body and the lower body can be identified, it is possible to relatively accurately recognize whether the person is in a standing state or a fallen state. Can be done.

これに対して、図10に示したように、人物がカメラ視点で後方に転倒した場合、そのカメラ映像は立位人物を撮影した場合と同様に、上半身が下半身の上方に位置するように映るので、当該人物が立位状態および転倒状態のいずれにあるかを骨格情報に基づいて判別することが難しかった。 On the other hand, as shown in FIG. 10, when a person falls backward from the camera viewpoint, the camera image appears as if the upper body is located above the lower body, as in the case of shooting a standing person. Therefore, it was difficult to determine whether the person was in a standing state or a fallen state based on the skeletal information.

特許文献3では、人物を真上から撮影したカメラ画像であれば当該人物の転倒/非転倒を判断できる。しかしながら、例えばビルの高所に設けられカメラで人物を上方斜めから撮影した鳥瞰画のような画像上で、特に人物がカメラ視点で後方に倒れた場合には転倒状態を検知することが難しかった。 In Patent Document 3, if a camera image of a person is taken from directly above, it can be determined whether the person has fallen or not. However, it has been difficult to detect a fallen state, for example, on an image such as a bird's-eye view of a person taken at a high place in a building from above and diagonally, especially when the person falls backward from the camera's point of view. ..

本発明の目的は、上記の技術課題を解決し、転倒状態にある人物を、その転倒方向とカメラとの位置関係に関わらず確実に判別できる人物検知装置、方法およびプログラムを提供することにある。 An object of the present invention is to solve the above-mentioned technical problems and to provide a person detection device, a method and a program capable of reliably discriminating a person who is in a fall state regardless of the positional relationship between the fall direction and the camera. ..

上記の目的を達成するために、本発明の人物検知装置は、以下の構成を具備した点に特徴がある。 In order to achieve the above object, the person detection device of the present invention is characterized in that it has the following configurations.

(1) カメラ映像から人物領域を抽出する手段と、抽出した人物領域の縦横比を計算する手段と、人物領域の縦横比に基づいて当該人物が転倒状態にあるか否かを判定する縦横比ベース判定手段とを具備した。 (1) A means for extracting a person area from a camera image, a means for calculating the aspect ratio of the extracted person area, and an aspect ratio for determining whether or not the person is in a fallen state based on the aspect ratio of the person area. It is equipped with a base determination means.

(2) 人物領域から骨格情報を抽出する手段と、骨格情報に基づいて当該人物が転倒状態にあるか否かを判定する骨格情報ベース判定手段とを具備し、縦横比ベース判定手段は、骨格情報ベース判定手段が転倒状態と判定しなかった人物が転倒状態にあるか否かを判定するようにした。 (2) A means for extracting skeleton information from a person area and a skeleton information-based determination means for determining whether or not the person is in a fall state based on the skeleton information are provided, and the aspect ratio-based determination means is a skeleton. The information-based determination means now determines whether or not a person who has not been determined to be in a fall state is in a fall state.

(3) 骨格情報ベース判定手段は、人物の上半身またはその主要部位が、下半身またはその主要部位の上方に位置していないと当該人物を転倒状態と判定するようにした。 (3) The skeletal information-based determination means determines that the person is in a fall state if the upper body of the person or the main part thereof is not located above the lower body or the main part thereof.

(4) 立位状態にある人物のカメラ映像上での人物領域の縦横比の標準値RrefおよびそのレンジΔRrefを保持し、抽出した人物領域の縦横比と標準値Rrefとの差分がレンジΔRrefから外れると、当該人物を転倒状態と判定するようにした。 (4) The standard value R ref of the aspect ratio of the person area on the camera image of the standing person and its range ΔR ref are held, and the difference between the aspect ratio of the extracted person area and the standard value R ref is When the person goes out of the range ΔR ref , the person is judged to be in a fallen state.

(5) カメラ映像を出力するカメラの光軸角度θcamを取得し、光軸角度に基づいて標準値Rrefを計算するようにした。 (5) The optical axis angle θ cam of the camera that outputs the camera image is acquired, and the standard value R ref is calculated based on the optical axis angle.

本発明によれば、以下のような効果が達成される。 According to the present invention, the following effects are achieved.

(1) 人物領域の縦横比に基づいて、当該人物が転倒状態にあるか否かを判定するので、人物がカメラ視点で後方に倒れた場合も転倒状態を確実に検知できるようになる。 (1) Since it is determined whether or not the person is in a fall state based on the aspect ratio of the person area, even if the person falls backward from the camera viewpoint, the fall state can be reliably detected.

(2) 骨格情報ベースで転倒状態を判別し、骨格情報ベースで転倒状態と判定しなかった人物を人物領域の縦横比に基づいて転倒状態にあるか否かを判定するので、人物領域の縦横比のみでは転倒状態を正確に検知できない場合も含めて、転倒状態の人物を確実に検知できるようになる。 (2) Since the fall state is determined based on the skeletal information base and whether or not the person who is not determined to be in the fall state on the skeleton information base is in the fall state based on the aspect ratio of the person area, the aspect ratio of the person area is determined. Even if the fall state cannot be detected accurately only by the ratio, the person in the fall state can be reliably detected.

(3) 人物の上半身またはその主要部位が、下半身またはその主要部位の上方に位置していないと当該人物を転倒状態と判定するので、転倒状態の人物を確実に検知できるようになる。 (3) If the upper body or the main part of the person is not located above the lower body or the main part of the person, the person is judged to be in a fall state, so that the person in the fall state can be reliably detected.

(4) 人物領域の縦横比と標準値Rrefとの差分がレンジΔRrefから外れると当該人物を転倒状態と判定するので、人物領域の縦横比の個体差に関わらず転倒状態の人物を確実に検知できるようになる。 (4) If the difference between the aspect ratio of the person area and the standard value R ref deviates from the range ΔR ref , the person is judged to be in a fallen state. Will be able to detect.

(5) カメラの光軸角度θcamを取得し、この光軸角度に基づいて人物領域の縦横比の標準値Rrefを計算するので、カメラがドローンに搭載され、あるいはハンディカメラであって、光軸角度θcamの変化に応じて標準値Rrefが変化する場合でも、人物領域の縦横比(H/W)に基づいて転倒状態の人物を確実に検知できるようになる。 (5) Since the optical axis angle θ cam of the camera is acquired and the standard value R ref of the aspect ratio of the person area is calculated based on this optical axis angle, the camera is mounted on the drone or is a handy camera. Even if the standard value R ref changes according to the change in the optical axis angle θ cam , it becomes possible to reliably detect a person in a fallen state based on the aspect ratio (H / W) of the person area.

本発明の一実施形態に係る人物検知装置の主要部の構成を示した機能ブロック図である。It is a functional block diagram which showed the structure of the main part of the person detection apparatus which concerns on one Embodiment of this invention. 固定カメラの光軸角度θcamが45°よりも十分に小さい場合の実施例を示した図である。It is a figure which showed the Example when the optical axis angle θ cam of a fixed camera is sufficiently smaller than 45 °. 固定カメラの光軸角度θcamが45°よりも十分に大きい場合の実施例を示した図である。It is a figure which showed the Example when the optical axis angle θ cam of a fixed camera is sufficiently larger than 45 °. 立位状態の人物の人物領域の縦横比(H/W)の例を示した図である。It is a figure which showed the example of the aspect ratio (H / W) of the person area of the person in a standing state. 転倒状態の人物の人物領域の縦横比(H/W)の例を示した図である。It is a figure which showed the example of the aspect ratio (H / W) of the person area of a person in a fall state. 本発明の第1実施形態の動作を示したフローチャートである。It is a flowchart which showed the operation of 1st Embodiment of this invention. 本発明の第2実施形態に係る人物検知装置の主要部の構成を示した機能ブロック図である。It is a functional block diagram which showed the structure of the main part of the person detection apparatus which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態の動作を示したフローチャートである。It is a flowchart which showed the operation of the 2nd Embodiment of this invention. 人物を上方から撮影したカメラ映像の例を示した図である。It is a figure which showed the example of the camera image which took the person from above. 人物がカメラ視点で後方へ転倒した場合のカメラ画像の例を示した図である。It is a figure which showed the example of the camera image when a person falls backward from the viewpoint of a camera.

以下、図面を参照して本発明の実施の形態について詳細に説明する。図1は、本発明の一実施形態に係る人物検知装置1の主要部の構成を示した機能ブロック図であり、固定カメラ2が撮影した動画映像に基づいて、特に転倒している人物を検知する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 is a functional block diagram showing a configuration of a main part of a person detection device 1 according to an embodiment of the present invention, and detects a person who has fallen particularly based on a moving image taken by a fixed camera 2. do.

このような人物検知装置1は、CPU、メモリ、インタフェースおよびこれらを接続するバス等を備えた汎用のコンピュータやサーバに、後述する各機能を実現するアプリケーション(プログラム)を実装することで構成できる。あるいは、アプリケーションの一部をハードウェア化またはプログラム化した専用機や単能機としても構成できる。 Such a person detection device 1 can be configured by mounting an application (program) that realizes each function described later on a general-purpose computer or server provided with a CPU, a memory, an interface, a bus connecting them, and the like. Alternatively, it can be configured as a dedicated machine or a single-purpose machine in which a part of the application is made into hardware or programmed.

人物検知装置1において、フレーム画像取得部101は、人物が映ったカメラ映像からフレーム画像を取得する。人物領域抽出部102は、フレーム画像から人物領域を抽出する。骨格情報抽出部103は、抽出した人物領域から骨格情報を抽出する。 In the person detection device 1, the frame image acquisition unit 101 acquires a frame image from a camera image showing a person. The person area extraction unit 102 extracts a person area from the frame image. The skeleton information extraction unit 103 extracts skeleton information from the extracted person area.

カメラ映像のフレーム画像から人物領域を矩形のBounding Boxとして抽出する技術は、例えば非特許文献1に開示されている。人物領域から骨格情報を抽出して人物の行動を分析、認識する技術は、例えば非特許文献2に開示されている。 A technique for extracting a person area as a rectangular Bounding Box from a frame image of a camera image is disclosed in, for example, Non-Patent Document 1. A technique for extracting skeletal information from a person's domain and analyzing and recognizing a person's behavior is disclosed in, for example, Non-Patent Document 2.

身体配置検知部104は、抽出した骨格情報に基づいて各身体部位の配置を検知する。本実施形態では、骨格情報に基づいて上半身および下半身の位置を検知し、下半身と上半身との相対的な位置関係を検知する。なお、上半身に代えてその主要部位である頭や首を検知しても良い。同様に、下半身に代えてその主要部位である大腿部や下腿部を検知しても良い。 The body placement detection unit 104 detects the placement of each body part based on the extracted skeletal information. In the present embodiment, the positions of the upper body and the lower body are detected based on the skeletal information, and the relative positional relationship between the lower body and the upper body is detected. Instead of the upper body, the head and neck, which are the main parts thereof, may be detected. Similarly, instead of the lower body, the thighs and lower legs, which are the main parts thereof, may be detected.

比率計算部105は、前記身体配置の検知結果に基づき、下半身の上方に上半身が位置しており、立位状態と推定できる人物を対象に、その人物領域の縦横比(H/W)を計算する。但し、人物の上半身もしくはその主要部位、または下半身もしくはその主要部位を検出できない場合は縦横比(H/W)を計算しない。なお、下半身等の上方に上半身等が位置しているか否かは、人物の骨格情報として各骨格や関節の座標が与えられているとき、上半身に分類される骨格等に外接する矩形枠と、下半身に分類される骨格等に外接する矩形枠との相対位置を比較し、上半身の矩形枠が下半身の矩形枠よりも上に位置し、かつ各矩形枠の水平方向の重なりが所定の割合以上であれば下半身等の上方に上半身等が位置していると判断することができる。 Based on the detection result of the body arrangement, the ratio calculation unit 105 calculates the aspect ratio (H / W) of the person area of a person whose upper body is located above the lower body and can be estimated to be in a standing position. do. However, if the upper body or the main part of the person, or the lower body or the main part cannot be detected, the aspect ratio (H / W) is not calculated. Whether or not the upper body is located above the lower body is determined by the rectangular frame circumscribing the skeleton classified as the upper body when the coordinates of each skeleton or joint are given as the skeletal information of the person. Comparing the relative positions with the rectangular frame circumscribing the skeleton classified in the lower body, the rectangular frame of the upper body is located above the rectangular frame of the lower body, and the horizontal overlap of each rectangular frame is more than a predetermined ratio. If so, it can be determined that the upper body or the like is located above the lower body or the like.

転倒検知部106は、身体配置検知部104の検知結果および比率計算部105の計算結果に基づいて、転倒した人物を検知する。本実施形態では、身体配置検知部104による検知結果に基づき、下半身の上方に上半身が位置していない人物は転倒状態と判断される。これに対して、下半身の上方に上半身が位置している人物は、前記縦横比(H/W)に基づいて転倒状態であるか否かが判断される。 The fall detection unit 106 detects a person who has fallen based on the detection result of the body placement detection unit 104 and the calculation result of the ratio calculation unit 105. In the present embodiment, a person whose upper body is not located above the lower body is determined to be in a fall state based on the detection result by the body placement detection unit 104. On the other hand, a person whose upper body is located above the lower body is determined whether or not he / she is in a fall state based on the aspect ratio (H / W).

本実施形態では、人物領域の縦横比(H/W)が次式(1)を満足した人物は立位状態と判断され、次式(1)を満足しない人物は転倒状態またはそれに類する立位以外の状態と判断される。ここで、Rrefは固定カメラ2の光軸角度θcamにおいて立位状態の人物を撮影した場合の標準的な縦横比(H/W)であり、ΔRrefは縦横比(H/W)の個体差レンジである。 In the present embodiment, a person whose aspect ratio (H / W) of the person area satisfies the following equation (1) is determined to be in a standing state, and a person who does not satisfy the following equation (1) is in a standing state or a similar standing state. It is judged to be in a state other than. Here, R ref is the standard aspect ratio (H / W) when a person in a standing position is photographed at the optical axis angle θ cam of the fixed camera 2, and ΔR ref is the aspect ratio (H / W). It is an individual difference range.

|H/W-Rref|≦ΔRref ...(1) | H / WR ref | ≦ ΔR ref ... (1)

例えば、図2に示すように固定カメラ2の光軸Ocamと地表とがなす光軸角度θcamが45°よりも十分に小さい場合、固定カメラ2が十分に遠方に位置していると仮定すれば、図4,5に示すように、転倒状態の人物PLの投影画像における身長HLは、立位状態の人物Psの投影画像における身長HSよりも低くなる一方、投影画像上での幅Wに差はない。したがって、転倒状態の人物PLのH/Wは、光軸角度θcamに対応した立位状態での標準的な縦横比Rrefとの比較で有意に小さくなり、H/WとRrefとの差が個体差レンジΔRrefを超える。その結果、上式(1)が不成立となるので転倒した人物PLを確実に検知できるようになる。 For example, as shown in FIG. 2, when the optical axis angle θ cam formed by the optical axis O cam of the fixed camera 2 and the ground surface is sufficiently smaller than 45 °, it is assumed that the fixed camera 2 is located sufficiently far away. Then, as shown in FIGS. 4 and 5, the height H L in the projected image of the fallen person P L is lower than the height H S in the projected image of the standing person Ps, while on the projected image. There is no difference in the width W of. Therefore, the H / W of the person PL in the fallen state is significantly smaller than the standard aspect ratio R ref in the standing state corresponding to the optical axis angle θ cam , and the H / W and R ref Exceeds the individual difference range ΔR ref . As a result, since the above equation (1) is not established, it becomes possible to reliably detect the person P L who has fallen.

同様に、図3に示すように固定カメラ2の光軸角度θcamが45°よりも十分に大きい場合、転倒状態の人物PLの投影画像における身長HLは、立位状態の人物Psの投影画像における身長HSよりも高くなる一方、投影画像上での幅Wに差はない。したがって、転倒状態の人物PLのH/Wは、光軸角度θcamに対応した立位状態での標準的な縦横比Rrefとの比較で有意に大きくなり、H/WとRrefとの差が個体差レンジΔRrefを超える。その結果、上式(1)が不成立となるので転倒状態の人物PLを確実に検知できるようになる。 Similarly, as shown in FIG. 3, when the optical axis angle θ cam of the fixed camera 2 is sufficiently larger than 45 °, the height H L in the projected image of the person P L in the fallen state is that of the person Ps in the standing state. While it is taller than the height H S in the projected image, there is no difference in the width W on the projected image. Therefore, the H / W of the person PL in the fallen state is significantly larger than the standard aspect ratio R ref in the standing state corresponding to the optical axis angle θ cam , and the H / W and R ref Exceeds the individual difference range ΔR ref . As a result, since the above equation (1) is not established, it becomes possible to reliably detect the person P L in the fallen state.

図6は、本実施形態の動作を示したフローチャートであり、ステップS1では、前記フレーム画像取得部101により、カメラ画像から静止画がフレーム単位で取得される。ステップS2では、前記人物領域抽出部102により、フレーム画像から人物領域が抽出される。ステップS3では、前記骨格情報抽出部103により、人物領域から骨格情報が抽出される。 FIG. 6 is a flowchart showing the operation of the present embodiment, and in step S1, the frame image acquisition unit 101 acquires a still image from the camera image in frame units. In step S2, the person area extraction unit 102 extracts the person area from the frame image. In step S3, the skeleton information extraction unit 103 extracts skeleton information from the person area.

ステップS4では、前記身体配置検知部104により、骨格情報に基づいて上半身またはその主要部位および下半身またはその主要部位が識別され、ステップS5では、上半身等が下半身等の上方に位置しているか否かが判断される。上半身等が下半身等の上方に位置していなければステップS9へ進み、当該人物が転倒していると判断される。 In step S4, the body placement detecting unit 104 identifies the upper body or its main part and the lower body or its main part based on the skeletal information, and in step S5, whether or not the upper body or the like is located above the lower body or the like. Is judged. If the upper body or the like is not located above the lower body or the like, the process proceeds to step S9, and it is determined that the person has fallen.

これに対して、上半身等が下半身等の上方に位置していればステップS6へ進み、前記比率計算部105により、人物領域の縦横比(H/W)が計測される。ステップS7では、前記転倒検知部106により、上式(1)が成立するか否かが判断される。上式(1)が成立しなければステップS9へ進み、当該人物が後方に転倒していると判定される。これに対して、上式(1)が成立すればステップS8へ進み、当該人物が転倒していないと判定される。 On the other hand, if the upper body or the like is located above the lower body or the like, the process proceeds to step S6, and the ratio calculation unit 105 measures the aspect ratio (H / W) of the person area. In step S7, the fall detection unit 106 determines whether or not the above equation (1) holds. If the above equation (1) is not satisfied, the process proceeds to step S9, and it is determined that the person has fallen backward. On the other hand, if the above equation (1) is satisfied, the process proceeds to step S8, and it is determined that the person has not fallen.

図7は、本発明の第2実施形態に係る人物検知装置1の主要部の構成を示した機能ブロック図であり、前記と同一の又は同等部分を表しているので、その説明は省略する。 FIG. 7 is a functional block diagram showing the configuration of the main part of the person detection device 1 according to the second embodiment of the present invention, and represents the same or equivalent part as described above, and thus the description thereof will be omitted.

上記の第1実施形態では、カメラ2が固定され、その光軸と地表との角度θcamに応じて人物領域の縦横比に関する標準値Rrefが予め登録されているものとして説明した。本実施形態ではカメラ2がドローンに搭載され、あるいはハンディカメラであって、その光軸角度θcamが可変であるために標準値Rrefを予め登録しておくことができない場合を例にして説明する。 In the above first embodiment, it has been described that the camera 2 is fixed and the standard value R ref regarding the aspect ratio of the person area is registered in advance according to the angle θ cam between the optical axis and the ground surface. In the present embodiment, the case where the camera 2 is mounted on the drone or is a handy camera and the standard value R ref cannot be registered in advance because the optical axis angle θ cam is variable will be described as an example. do.

カメラ2は、自身の姿勢をモーションセンサで検知し、地表に対する光軸角度θcamを出力する。転倒検知部106は、Rref計算部106aを具備し、前記光軸角度θcamに基づいて、当該光軸角度θcamにおける人物領域の縦横比の標準値Rrefを動的に計算する。光軸角度θcamと標準値Rrefとの関係は、例えばマップ形式で予め登録しておくことができる。 The camera 2 detects its own posture with a motion sensor and outputs an optical axis angle θ cam with respect to the ground surface. The fall detection unit 106 includes an R ref calculation unit 106a, and dynamically calculates a standard value R ref of the aspect ratio of the person region at the optical axis angle θ cam based on the optical axis angle θ cam . The relationship between the optical axis angle θ cam and the standard value R ref can be registered in advance in, for example, a map format.

転倒検知部106は、Rref計算部106aが光軸角度θcamに基づいて計算したRrefを、人物領域の縦横比(H/W)の計算結果と共に上式(1)に適用することにより、当該人物が転倒しているか否かを判断する。 The fall detection unit 106 applies the R ref calculated by the R ref calculation unit 106a based on the optical axis angle θ cam to the above equation (1) together with the calculation result of the aspect ratio (H / W) of the person area. , Determine if the person has fallen.

図8は、本発明の第2実施形態の動作を示したフローチャートであり、前記と同一のステップ番号を付した手順では同一または同等の処理が実行されるので、その説明は省略する。 FIG. 8 is a flowchart showing the operation of the second embodiment of the present invention, and since the same or equivalent processing is executed in the procedure with the same step number as described above, the description thereof will be omitted.

本実施形態では、ステップS5において上半身が下半身の上方に位置していると判断され、骨格情報のみからは立位/転倒の状態を判別できない場合、ステップS6aにおいて、カメラ2から光軸角度θcamが取得される。ステップS6bでは、光軸角度θcamに基づいてθcam/Rrefマップを参照することでRrefが取得される。ステップS6cでは、前記人物領域の縦横比(H/W)が計測される。 In the present embodiment, when it is determined in step S5 that the upper body is located above the lower body and the standing / falling state cannot be determined only from the skeleton information, in step S6a, the optical axis angle θcam is determined from the camera 2. To be acquired. In step S6b, the R ref is acquired by referring to the θ cam / R ref map based on the optical axis angle θ cam . In step S6c, the aspect ratio (H / W) of the person area is measured.

本実施形態によれば、カメラの光軸角度θcamに基づいて標準値Rrefが動的に変更されるので、光軸角度θcamが撮影中に変化する場合でも転倒人物を正確に検知できるようになる。 According to this embodiment, since the standard value R ref is dynamically changed based on the optical axis angle θ cam of the camera, it is possible to accurately detect a fallen person even if the optical axis angle θ cam changes during shooting. It will be like.

1...人物検知装置,2...固定カメラ,101...フレーム画像取得部,102...人物領域抽出部,103...骨格情報抽出部,104...身体配置検知部,105...比率計算部,106...転倒検知部 1 ... person detection device, 2 ... fixed camera, 101 ... frame image acquisition unit, 102 ... person area extraction unit, 103 ... skeleton information extraction unit, 104 ... body placement detection unit , 105 ... Ratio calculation unit, 106 ... Fall detection unit

Claims (10)

カメラ映像から人物領域を抽出する手段と、
前記抽出した人物領域の縦横比を計算する手段と、
前記抽出した人物領域から骨格情報を抽出する手段と、
前記骨格情報に基づいて当該人物が転倒状態にあるか否かを判定する骨格情報ベース判定手段と、
前記骨格情報に基づいて転倒状態と判定しなかった人物を対象に、前記縦横比に基づいて当該人物が転倒状態にあるか否かを判定する縦横比ベース判定手段とを具備したことを特徴とする人物検知装置。
A means of extracting a person area from a camera image,
A means for calculating the aspect ratio of the extracted person area, and
A means for extracting skeletal information from the extracted person area,
A skeleton information-based determination means for determining whether or not the person is in a fall state based on the skeleton information,
It is characterized by being provided with an aspect ratio-based determination means for determining whether or not the person is in a fallen state based on the aspect ratio of a person who is not determined to be in a fallen state based on the skeletal information. Person detection device.
カメラ映像から人物領域を抽出する手段と、 A means of extracting a person area from a camera image,
前記抽出した人物領域の縦横比を計算する手段と、 A means for calculating the aspect ratio of the extracted person area, and
前記縦横比に基づいて当該人物が転倒状態にあるか否かを判定する縦横比ベース判定手段とを具備し、 It is provided with an aspect ratio-based determination means for determining whether or not the person is in a fallen state based on the aspect ratio.
前記縦横比ベース判定手段は、立位状態にある人物のカメラ映像上での人物領域の縦横比の標準値RrefおよびそのレンジΔRrefを保持し、抽出した人物領域の縦横比と標準値Rrefとの差分がレンジΔRrefから外れると、当該人物を転倒状態と判定することを特徴とする人物検知装置。 The aspect ratio-based determination means holds a standard value Rref of the aspect ratio of the person area on the camera image of the person in the standing state and its range ΔRref, and sets the aspect ratio of the extracted person area and the standard value Rref. A person detection device characterized in that when the difference deviates from the range ΔRref, the person is determined to be in a fall state.
前記抽出した人物領域から骨格情報を抽出する手段と、
前記骨格情報に基づいて当該人物が転倒状態にあるか否かを判定する骨格情報ベース判定手段とを具備し、
前記縦横比ベース判定手段は、前記骨格情報ベース判定手段が転倒状態と判定しなかった人物が転倒状態にあるか否かを判定することを特徴とする請求項に記載の人物検知装置。
A means for extracting skeletal information from the extracted person area,
A skeleton information-based determination means for determining whether or not the person is in a fallen state based on the skeleton information is provided.
The person detection device according to claim 2 , wherein the aspect ratio-based determination means determines whether or not a person who has not been determined by the skeletal information-based determination means to be in a fall state is in a fall state.
前記骨格情報ベース判定手段は、人物の上半身またはその主要部位が、下半身またはその主要部位の上方に位置していないと当該人物を転倒状態と判定することを特徴とする請求項1または3に記載の人物検知装置。 The skeletal information-based determination means according to claim 1 or 3 , wherein the person is determined to be in a fall state if the upper body of the person or the main part thereof is not located above the lower body or the main part thereof. Person detection device. 立位状態にある人物のカメラ映像上での人物領域の縦横比の標準値RrefおよびそのレンジΔRrefを保持し、抽出した人物領域の縦横比と標準値Rrefとの差分がレンジΔRrefから外れると、当該人物を転倒状態と判定することを特徴とする請求項1に記載の人物検知装置。 When the standard value Rref of the aspect ratio of the person area on the camera image of the standing person and its range ΔRref are held, and the difference between the aspect ratio of the extracted person area and the standard value Rref deviates from the range ΔRref, The person detection device according to claim 1, wherein the person is determined to be in a fallen state. カメラ映像を出力するカメラの光軸角度θcamを取得する手段と、
前記光軸角度に基づいて前記標準値Rrefを計算する手段とを更に具備したことを特徴とする請求項2または5に記載の人物検知装置。
A means to acquire the optical axis angle θcam of the camera that outputs the camera image,
The person detection device according to claim 2 or 5 , further comprising means for calculating the standard value Rref based on the optical axis angle.
コンピュータが、
カメラ映像から人物領域を抽出し、
前記抽出した人物領域の縦横比を計算し、
前記抽出した人物領域から骨格情報を抽出し、
前記骨格情報に基づいて当該人物が転倒状態にあるか否かを判定し、
前記骨格情報に基づいて転倒状態と判定しなかった人物を対象に、前記縦横比に基づいて当該人物が転倒状態にあるか否かを判定することを特徴とする人物検知方法。
The computer
Extract the person area from the camera image and
The aspect ratio of the extracted person area is calculated, and the aspect ratio is calculated.
The skeleton information is extracted from the extracted person area, and the skeleton information is extracted.
Based on the skeletal information, it is determined whether or not the person is in a fallen state.
A person detection method for determining whether or not a person who has not been determined to be in a fallen state based on the skeletal information is in a fallen state based on the aspect ratio.
コンピュータが、 The computer
カメラ映像から人物領域を抽出し、 Extract the person area from the camera image and
前記抽出した人物領域の縦横比を計算し、 The aspect ratio of the extracted person area is calculated, and the aspect ratio is calculated.
前記縦横比に基づいて当該人物が転倒状態にあるか否かを判定し、 Based on the aspect ratio, it is determined whether or not the person is in a fallen state.
立位状態にある人物のカメラ映像上での人物領域の縦横比の標準値RrefおよびそのレンジΔRrefを保持し、抽出した人物領域の縦横比と標準値Rrefとの差分がレンジΔRrefから外れると、当該人物を転倒状態と判定することを特徴とする人物検知方法。 When the standard value Rref of the aspect ratio of the person area on the camera image of the standing person and its range ΔRref are held, and the difference between the aspect ratio of the extracted person area and the standard value Rref deviates from the range ΔRref, A person detection method characterized in that the person is determined to be in a fallen state.
カメラ映像から人物領域を抽出する手順と、
前記抽出した人物領域の縦横比を計算する手順と、
前記抽出した人物領域から骨格情報を抽出する手順と、
前記骨格情報に基づいて当該人物が転倒状態にあるか否かを判定する手順と、
前記骨格情報に基づいて転倒状態と判定しなかった人物を対象に、前記縦横比に基づいて当該人物が転倒状態にあるか否かを判定する手順と、
をコンピュータに実行させる人物検知プログラム。
The procedure for extracting the person area from the camera image and
The procedure for calculating the aspect ratio of the extracted person area and
The procedure for extracting skeletal information from the extracted person area and
A procedure for determining whether or not the person is in a fall state based on the skeletal information, and
For a person who was not determined to be in a fall state based on the skeletal information, a procedure for determining whether or not the person is in a fall state based on the aspect ratio, and
A person detection program that causes a computer to execute.
カメラ映像から人物領域を抽出する手順と、 The procedure for extracting the person area from the camera image and
前記抽出した人物領域の縦横比を計算する手順と、 The procedure for calculating the aspect ratio of the extracted person area and
前記縦横比に基づいて当該人物が転倒状態にあるか否かを判定する手順とをコンピュータに実行させ、 A computer is made to perform a procedure for determining whether or not the person is in a fallen state based on the aspect ratio.
前記判定する手順では、立位状態にある人物のカメラ映像上での人物領域の縦横比の標準値RrefおよびそのレンジΔRrefを保持し、抽出した人物領域の縦横比と標準値Rrefとの差分がレンジΔRrefから外れると、当該人物を転倒状態と判定することを特徴とする人物検知プログラム。 In the above-mentioned procedure, the standard value Rref of the aspect ratio of the person area on the camera image of the standing person and its range ΔRref are held, and the difference between the aspect ratio of the extracted person area and the standard value Rref is obtained. A person detection program characterized in that when the person deviates from the range ΔRref, the person is determined to be in a fall state.
JP2019148797A 2019-08-14 2019-08-14 Person detectors, methods and programs Active JP7089493B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019148797A JP7089493B2 (en) 2019-08-14 2019-08-14 Person detectors, methods and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019148797A JP7089493B2 (en) 2019-08-14 2019-08-14 Person detectors, methods and programs

Publications (2)

Publication Number Publication Date
JP2021033343A JP2021033343A (en) 2021-03-01
JP7089493B2 true JP7089493B2 (en) 2022-06-22

Family

ID=74676532

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019148797A Active JP7089493B2 (en) 2019-08-14 2019-08-14 Person detectors, methods and programs

Country Status (1)

Country Link
JP (1) JP7089493B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113807197A (en) * 2021-08-24 2021-12-17 苏州爱可尔智能科技有限公司 Fall detection method and device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011211631A (en) 2010-03-30 2011-10-20 Sony Corp Image processing device and method, and program
JP2012141686A (en) 2010-12-28 2012-07-26 Secom Co Ltd Abnormality detection device
JP2018206321A (en) 2017-06-09 2018-12-27 コニカミノルタ株式会社 Image processing device, image processing method and image processing program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6189170B2 (en) * 2013-10-16 2017-08-30 セコム株式会社 Posture estimation device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011211631A (en) 2010-03-30 2011-10-20 Sony Corp Image processing device and method, and program
JP2012141686A (en) 2010-12-28 2012-07-26 Secom Co Ltd Abnormality detection device
JP2018206321A (en) 2017-06-09 2018-12-27 コニカミノルタ株式会社 Image processing device, image processing method and image processing program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
李森, 外3名,"省人化工場内の作業員の安全確保のためのモニタリング手法",日本経営工学会論文誌,日本,社団法人日本経営工学会,2001年04月15日,第52巻, 第1号,p.38-45

Also Published As

Publication number Publication date
JP2021033343A (en) 2021-03-01

Similar Documents

Publication Publication Date Title
GB2529943B (en) Tracking processing device and tracking processing system provided with same, and tracking processing method
EP3029604B1 (en) Area information estimating device, area information estimating method, and air conditioning apparatus
CN108111818B (en) Moving target actively perceive method and apparatus based on multiple-camera collaboration
JP6534499B1 (en) MONITORING DEVICE, MONITORING SYSTEM, AND MONITORING METHOD
WO2016199244A1 (en) Object recognition device and object recognition system
KR101618814B1 (en) Method and Apparatus for Monitoring Video for Estimating Gradient of Single Object
CN107079093B (en) Calibration device
CN104954747B (en) Video monitoring method and device
JP6352208B2 (en) 3D model processing apparatus and camera calibration system
KR101541272B1 (en) Apparatus and method for detecting terrorism using irregular motion of peoples
JP6579950B2 (en) Image analysis apparatus, program, and method for detecting person appearing in captured image of camera
WO2015133159A1 (en) Image processing device, image processing method, and image processing program
GB2475104A (en) Detecting movement of 3D objects using a TOF camera
US11948363B2 (en) Person detection device and person detection method
CN112053397A (en) Image processing method, image processing device, electronic equipment and storage medium
JP5771039B2 (en) Abandoned person detection device
KR101469099B1 (en) Auto-Camera Calibration Method Based on Human Object Tracking
JP2001094975A (en) Mobile object tracing method and device
JP7089493B2 (en) Person detectors, methods and programs
KR101620580B1 (en) Method and system for dectecting run
WO2019016879A1 (en) Object detection device and object detection method
JP2006041939A (en) Monitor device and monitor program
JP5960471B2 (en) Image monitoring device
CN111754713B (en) Video monitoring method, device and system
JP7201554B2 (en) Person detection device, method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210706

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220310

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220323

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220510

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220608

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220610

R150 Certificate of patent or registration of utility model

Ref document number: 7089493

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150