JP7089493B2 - Person detectors, methods and programs - Google Patents
Person detectors, methods and programs Download PDFInfo
- Publication number
- JP7089493B2 JP7089493B2 JP2019148797A JP2019148797A JP7089493B2 JP 7089493 B2 JP7089493 B2 JP 7089493B2 JP 2019148797 A JP2019148797 A JP 2019148797A JP 2019148797 A JP2019148797 A JP 2019148797A JP 7089493 B2 JP7089493 B2 JP 7089493B2
- Authority
- JP
- Japan
- Prior art keywords
- person
- aspect ratio
- area
- extracted
- person area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Description
本発明は、人物検知装置、方法およびプログラムに係り、特に、カメラ画像上で転倒している人物を検知する人物検知装置、方法およびプログラムに関する。 The present invention relates to a person detection device, a method and a program, and more particularly to a person detection device, a method and a program for detecting a person who has fallen on a camera image.
警備や防犯上の要請から、屋外で人物を上方から撮影したカメラ映像に基づいて人物領域を抽出し、各人物の動向を分析する研究が行われている。従来、このような屋外カメラはビルなどの構造物の高所に固定的に設けられていたが、近年、いわゆるドローンへの小型カメラの搭載が可能となったことから、任意の場所を、任意の角度、向きで撮影することが容易となり、様々な分野への応用が期待されている。 Research is being conducted to analyze the movement of each person by extracting the person's area based on the camera image of the person taken outdoors from above from the request for security and crime prevention. In the past, such outdoor cameras were fixedly installed at high places in structures such as buildings, but in recent years, since it has become possible to mount small cameras on so-called drones, any location can be used. It is easy to shoot at the angle and orientation of, and it is expected to be applied to various fields.
非特許文献1には、機械学習により物体をその画像の色の特徴などに基づいて識別する技術が開示されている。
Non-Patent
非特許文献2には、画像のみから人物の骨格を抽出する技術が開示されている。
Non-Patent
特許文献1には、被監視サイトにおいて、進入者を検知する検知エリアへの不正進入者の追跡を迅速かつ正確に行う技術が開示されている。
特許文献2には、不特定多数の人物が集まり且つ専ら出迎えのために人物同士の接触が生じる監視領域において、不審度の高い受け渡しを行った可能性のある不審者を効率的に監視できる画像監視装置が開示されている。
特許文献3には、人物を真上のカメラから撮影し、人物領域の面積に基づいて当該人物が転倒しているか否かを判断する技術が開示されている。 Patent Document 3 discloses a technique of photographing a person from a camera directly above and determining whether or not the person has fallen based on the area of the person area.
図9のように、人物を上方から撮影した場合、立位状態の人物は角度や向きに関わらず上半身が下半身の上方に位置するのに対して、転倒状態の人物は上半身が下半身の上方に位置しなくなる。そのため、各人物の骨格情報を分析し、上半身と下半身との相対的な位置関係を識別することができれば、当該人物が立位状態および転倒状態のいずれにあるかを比較的正確に認識することができる。 As shown in FIG. 9, when a person is photographed from above, the upper body of a person in a standing position is located above the lower body regardless of the angle or orientation, whereas the upper body of a person in a fall state is above the lower body. It will not be positioned. Therefore, if the skeletal information of each person can be analyzed and the relative positional relationship between the upper body and the lower body can be identified, it is possible to relatively accurately recognize whether the person is in a standing state or a fallen state. Can be done.
これに対して、図10に示したように、人物がカメラ視点で後方に転倒した場合、そのカメラ映像は立位人物を撮影した場合と同様に、上半身が下半身の上方に位置するように映るので、当該人物が立位状態および転倒状態のいずれにあるかを骨格情報に基づいて判別することが難しかった。 On the other hand, as shown in FIG. 10, when a person falls backward from the camera viewpoint, the camera image appears as if the upper body is located above the lower body, as in the case of shooting a standing person. Therefore, it was difficult to determine whether the person was in a standing state or a fallen state based on the skeletal information.
特許文献3では、人物を真上から撮影したカメラ画像であれば当該人物の転倒/非転倒を判断できる。しかしながら、例えばビルの高所に設けられカメラで人物を上方斜めから撮影した鳥瞰画のような画像上で、特に人物がカメラ視点で後方に倒れた場合には転倒状態を検知することが難しかった。 In Patent Document 3, if a camera image of a person is taken from directly above, it can be determined whether the person has fallen or not. However, it has been difficult to detect a fallen state, for example, on an image such as a bird's-eye view of a person taken at a high place in a building from above and diagonally, especially when the person falls backward from the camera's point of view. ..
本発明の目的は、上記の技術課題を解決し、転倒状態にある人物を、その転倒方向とカメラとの位置関係に関わらず確実に判別できる人物検知装置、方法およびプログラムを提供することにある。 An object of the present invention is to solve the above-mentioned technical problems and to provide a person detection device, a method and a program capable of reliably discriminating a person who is in a fall state regardless of the positional relationship between the fall direction and the camera. ..
上記の目的を達成するために、本発明の人物検知装置は、以下の構成を具備した点に特徴がある。 In order to achieve the above object, the person detection device of the present invention is characterized in that it has the following configurations.
(1) カメラ映像から人物領域を抽出する手段と、抽出した人物領域の縦横比を計算する手段と、人物領域の縦横比に基づいて当該人物が転倒状態にあるか否かを判定する縦横比ベース判定手段とを具備した。 (1) A means for extracting a person area from a camera image, a means for calculating the aspect ratio of the extracted person area, and an aspect ratio for determining whether or not the person is in a fallen state based on the aspect ratio of the person area. It is equipped with a base determination means.
(2) 人物領域から骨格情報を抽出する手段と、骨格情報に基づいて当該人物が転倒状態にあるか否かを判定する骨格情報ベース判定手段とを具備し、縦横比ベース判定手段は、骨格情報ベース判定手段が転倒状態と判定しなかった人物が転倒状態にあるか否かを判定するようにした。 (2) A means for extracting skeleton information from a person area and a skeleton information-based determination means for determining whether or not the person is in a fall state based on the skeleton information are provided, and the aspect ratio-based determination means is a skeleton. The information-based determination means now determines whether or not a person who has not been determined to be in a fall state is in a fall state.
(3) 骨格情報ベース判定手段は、人物の上半身またはその主要部位が、下半身またはその主要部位の上方に位置していないと当該人物を転倒状態と判定するようにした。 (3) The skeletal information-based determination means determines that the person is in a fall state if the upper body of the person or the main part thereof is not located above the lower body or the main part thereof.
(4) 立位状態にある人物のカメラ映像上での人物領域の縦横比の標準値RrefおよびそのレンジΔRrefを保持し、抽出した人物領域の縦横比と標準値Rrefとの差分がレンジΔRrefから外れると、当該人物を転倒状態と判定するようにした。 (4) The standard value R ref of the aspect ratio of the person area on the camera image of the standing person and its range ΔR ref are held, and the difference between the aspect ratio of the extracted person area and the standard value R ref is When the person goes out of the range ΔR ref , the person is judged to be in a fallen state.
(5) カメラ映像を出力するカメラの光軸角度θcamを取得し、光軸角度に基づいて標準値Rrefを計算するようにした。 (5) The optical axis angle θ cam of the camera that outputs the camera image is acquired, and the standard value R ref is calculated based on the optical axis angle.
本発明によれば、以下のような効果が達成される。 According to the present invention, the following effects are achieved.
(1) 人物領域の縦横比に基づいて、当該人物が転倒状態にあるか否かを判定するので、人物がカメラ視点で後方に倒れた場合も転倒状態を確実に検知できるようになる。 (1) Since it is determined whether or not the person is in a fall state based on the aspect ratio of the person area, even if the person falls backward from the camera viewpoint, the fall state can be reliably detected.
(2) 骨格情報ベースで転倒状態を判別し、骨格情報ベースで転倒状態と判定しなかった人物を人物領域の縦横比に基づいて転倒状態にあるか否かを判定するので、人物領域の縦横比のみでは転倒状態を正確に検知できない場合も含めて、転倒状態の人物を確実に検知できるようになる。 (2) Since the fall state is determined based on the skeletal information base and whether or not the person who is not determined to be in the fall state on the skeleton information base is in the fall state based on the aspect ratio of the person area, the aspect ratio of the person area is determined. Even if the fall state cannot be detected accurately only by the ratio, the person in the fall state can be reliably detected.
(3) 人物の上半身またはその主要部位が、下半身またはその主要部位の上方に位置していないと当該人物を転倒状態と判定するので、転倒状態の人物を確実に検知できるようになる。 (3) If the upper body or the main part of the person is not located above the lower body or the main part of the person, the person is judged to be in a fall state, so that the person in the fall state can be reliably detected.
(4) 人物領域の縦横比と標準値Rrefとの差分がレンジΔRrefから外れると当該人物を転倒状態と判定するので、人物領域の縦横比の個体差に関わらず転倒状態の人物を確実に検知できるようになる。 (4) If the difference between the aspect ratio of the person area and the standard value R ref deviates from the range ΔR ref , the person is judged to be in a fallen state. Will be able to detect.
(5) カメラの光軸角度θcamを取得し、この光軸角度に基づいて人物領域の縦横比の標準値Rrefを計算するので、カメラがドローンに搭載され、あるいはハンディカメラであって、光軸角度θcamの変化に応じて標準値Rrefが変化する場合でも、人物領域の縦横比(H/W)に基づいて転倒状態の人物を確実に検知できるようになる。 (5) Since the optical axis angle θ cam of the camera is acquired and the standard value R ref of the aspect ratio of the person area is calculated based on this optical axis angle, the camera is mounted on the drone or is a handy camera. Even if the standard value R ref changes according to the change in the optical axis angle θ cam , it becomes possible to reliably detect a person in a fallen state based on the aspect ratio (H / W) of the person area.
以下、図面を参照して本発明の実施の形態について詳細に説明する。図1は、本発明の一実施形態に係る人物検知装置1の主要部の構成を示した機能ブロック図であり、固定カメラ2が撮影した動画映像に基づいて、特に転倒している人物を検知する。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 is a functional block diagram showing a configuration of a main part of a
このような人物検知装置1は、CPU、メモリ、インタフェースおよびこれらを接続するバス等を備えた汎用のコンピュータやサーバに、後述する各機能を実現するアプリケーション(プログラム)を実装することで構成できる。あるいは、アプリケーションの一部をハードウェア化またはプログラム化した専用機や単能機としても構成できる。
Such a
人物検知装置1において、フレーム画像取得部101は、人物が映ったカメラ映像からフレーム画像を取得する。人物領域抽出部102は、フレーム画像から人物領域を抽出する。骨格情報抽出部103は、抽出した人物領域から骨格情報を抽出する。
In the
カメラ映像のフレーム画像から人物領域を矩形のBounding Boxとして抽出する技術は、例えば非特許文献1に開示されている。人物領域から骨格情報を抽出して人物の行動を分析、認識する技術は、例えば非特許文献2に開示されている。
A technique for extracting a person area as a rectangular Bounding Box from a frame image of a camera image is disclosed in, for example, Non-Patent
身体配置検知部104は、抽出した骨格情報に基づいて各身体部位の配置を検知する。本実施形態では、骨格情報に基づいて上半身および下半身の位置を検知し、下半身と上半身との相対的な位置関係を検知する。なお、上半身に代えてその主要部位である頭や首を検知しても良い。同様に、下半身に代えてその主要部位である大腿部や下腿部を検知しても良い。
The body
比率計算部105は、前記身体配置の検知結果に基づき、下半身の上方に上半身が位置しており、立位状態と推定できる人物を対象に、その人物領域の縦横比(H/W)を計算する。但し、人物の上半身もしくはその主要部位、または下半身もしくはその主要部位を検出できない場合は縦横比(H/W)を計算しない。なお、下半身等の上方に上半身等が位置しているか否かは、人物の骨格情報として各骨格や関節の座標が与えられているとき、上半身に分類される骨格等に外接する矩形枠と、下半身に分類される骨格等に外接する矩形枠との相対位置を比較し、上半身の矩形枠が下半身の矩形枠よりも上に位置し、かつ各矩形枠の水平方向の重なりが所定の割合以上であれば下半身等の上方に上半身等が位置していると判断することができる。
Based on the detection result of the body arrangement, the
転倒検知部106は、身体配置検知部104の検知結果および比率計算部105の計算結果に基づいて、転倒した人物を検知する。本実施形態では、身体配置検知部104による検知結果に基づき、下半身の上方に上半身が位置していない人物は転倒状態と判断される。これに対して、下半身の上方に上半身が位置している人物は、前記縦横比(H/W)に基づいて転倒状態であるか否かが判断される。
The
本実施形態では、人物領域の縦横比(H/W)が次式(1)を満足した人物は立位状態と判断され、次式(1)を満足しない人物は転倒状態またはそれに類する立位以外の状態と判断される。ここで、Rrefは固定カメラ2の光軸角度θcamにおいて立位状態の人物を撮影した場合の標準的な縦横比(H/W)であり、ΔRrefは縦横比(H/W)の個体差レンジである。
In the present embodiment, a person whose aspect ratio (H / W) of the person area satisfies the following equation (1) is determined to be in a standing state, and a person who does not satisfy the following equation (1) is in a standing state or a similar standing state. It is judged to be in a state other than. Here, R ref is the standard aspect ratio (H / W) when a person in a standing position is photographed at the optical axis angle θ cam of the fixed
|H/W-Rref|≦ΔRref ...(1) | H / WR ref | ≦ ΔR ref ... (1)
例えば、図2に示すように固定カメラ2の光軸Ocamと地表とがなす光軸角度θcamが45°よりも十分に小さい場合、固定カメラ2が十分に遠方に位置していると仮定すれば、図4,5に示すように、転倒状態の人物PLの投影画像における身長HLは、立位状態の人物Psの投影画像における身長HSよりも低くなる一方、投影画像上での幅Wに差はない。したがって、転倒状態の人物PLのH/Wは、光軸角度θcamに対応した立位状態での標準的な縦横比Rrefとの比較で有意に小さくなり、H/WとRrefとの差が個体差レンジΔRrefを超える。その結果、上式(1)が不成立となるので転倒した人物PLを確実に検知できるようになる。
For example, as shown in FIG. 2, when the optical axis angle θ cam formed by the optical axis O cam of the fixed
同様に、図3に示すように固定カメラ2の光軸角度θcamが45°よりも十分に大きい場合、転倒状態の人物PLの投影画像における身長HLは、立位状態の人物Psの投影画像における身長HSよりも高くなる一方、投影画像上での幅Wに差はない。したがって、転倒状態の人物PLのH/Wは、光軸角度θcamに対応した立位状態での標準的な縦横比Rrefとの比較で有意に大きくなり、H/WとRrefとの差が個体差レンジΔRrefを超える。その結果、上式(1)が不成立となるので転倒状態の人物PLを確実に検知できるようになる。
Similarly, as shown in FIG. 3, when the optical axis angle θ cam of the fixed
図6は、本実施形態の動作を示したフローチャートであり、ステップS1では、前記フレーム画像取得部101により、カメラ画像から静止画がフレーム単位で取得される。ステップS2では、前記人物領域抽出部102により、フレーム画像から人物領域が抽出される。ステップS3では、前記骨格情報抽出部103により、人物領域から骨格情報が抽出される。
FIG. 6 is a flowchart showing the operation of the present embodiment, and in step S1, the frame
ステップS4では、前記身体配置検知部104により、骨格情報に基づいて上半身またはその主要部位および下半身またはその主要部位が識別され、ステップS5では、上半身等が下半身等の上方に位置しているか否かが判断される。上半身等が下半身等の上方に位置していなければステップS9へ進み、当該人物が転倒していると判断される。
In step S4, the body
これに対して、上半身等が下半身等の上方に位置していればステップS6へ進み、前記比率計算部105により、人物領域の縦横比(H/W)が計測される。ステップS7では、前記転倒検知部106により、上式(1)が成立するか否かが判断される。上式(1)が成立しなければステップS9へ進み、当該人物が後方に転倒していると判定される。これに対して、上式(1)が成立すればステップS8へ進み、当該人物が転倒していないと判定される。
On the other hand, if the upper body or the like is located above the lower body or the like, the process proceeds to step S6, and the
図7は、本発明の第2実施形態に係る人物検知装置1の主要部の構成を示した機能ブロック図であり、前記と同一の又は同等部分を表しているので、その説明は省略する。
FIG. 7 is a functional block diagram showing the configuration of the main part of the
上記の第1実施形態では、カメラ2が固定され、その光軸と地表との角度θcamに応じて人物領域の縦横比に関する標準値Rrefが予め登録されているものとして説明した。本実施形態ではカメラ2がドローンに搭載され、あるいはハンディカメラであって、その光軸角度θcamが可変であるために標準値Rrefを予め登録しておくことができない場合を例にして説明する。
In the above first embodiment, it has been described that the
カメラ2は、自身の姿勢をモーションセンサで検知し、地表に対する光軸角度θcamを出力する。転倒検知部106は、Rref計算部106aを具備し、前記光軸角度θcamに基づいて、当該光軸角度θcamにおける人物領域の縦横比の標準値Rrefを動的に計算する。光軸角度θcamと標準値Rrefとの関係は、例えばマップ形式で予め登録しておくことができる。
The
転倒検知部106は、Rref計算部106aが光軸角度θcamに基づいて計算したRrefを、人物領域の縦横比(H/W)の計算結果と共に上式(1)に適用することにより、当該人物が転倒しているか否かを判断する。
The
図8は、本発明の第2実施形態の動作を示したフローチャートであり、前記と同一のステップ番号を付した手順では同一または同等の処理が実行されるので、その説明は省略する。 FIG. 8 is a flowchart showing the operation of the second embodiment of the present invention, and since the same or equivalent processing is executed in the procedure with the same step number as described above, the description thereof will be omitted.
本実施形態では、ステップS5において上半身が下半身の上方に位置していると判断され、骨格情報のみからは立位/転倒の状態を判別できない場合、ステップS6aにおいて、カメラ2から光軸角度θcamが取得される。ステップS6bでは、光軸角度θcamに基づいてθcam/Rrefマップを参照することでRrefが取得される。ステップS6cでは、前記人物領域の縦横比(H/W)が計測される。
In the present embodiment, when it is determined in step S5 that the upper body is located above the lower body and the standing / falling state cannot be determined only from the skeleton information, in step S6a, the optical axis angle θcam is determined from the
本実施形態によれば、カメラの光軸角度θcamに基づいて標準値Rrefが動的に変更されるので、光軸角度θcamが撮影中に変化する場合でも転倒人物を正確に検知できるようになる。 According to this embodiment, since the standard value R ref is dynamically changed based on the optical axis angle θ cam of the camera, it is possible to accurately detect a fallen person even if the optical axis angle θ cam changes during shooting. It will be like.
1...人物検知装置,2...固定カメラ,101...フレーム画像取得部,102...人物領域抽出部,103...骨格情報抽出部,104...身体配置検知部,105...比率計算部,106...転倒検知部 1 ... person detection device, 2 ... fixed camera, 101 ... frame image acquisition unit, 102 ... person area extraction unit, 103 ... skeleton information extraction unit, 104 ... body placement detection unit , 105 ... Ratio calculation unit, 106 ... Fall detection unit
Claims (10)
前記抽出した人物領域の縦横比を計算する手段と、
前記抽出した人物領域から骨格情報を抽出する手段と、
前記骨格情報に基づいて当該人物が転倒状態にあるか否かを判定する骨格情報ベース判定手段と、
前記骨格情報に基づいて転倒状態と判定しなかった人物を対象に、前記縦横比に基づいて当該人物が転倒状態にあるか否かを判定する縦横比ベース判定手段とを具備したことを特徴とする人物検知装置。 A means of extracting a person area from a camera image,
A means for calculating the aspect ratio of the extracted person area, and
A means for extracting skeletal information from the extracted person area,
A skeleton information-based determination means for determining whether or not the person is in a fall state based on the skeleton information,
It is characterized by being provided with an aspect ratio-based determination means for determining whether or not the person is in a fallen state based on the aspect ratio of a person who is not determined to be in a fallen state based on the skeletal information. Person detection device.
前記抽出した人物領域の縦横比を計算する手段と、 A means for calculating the aspect ratio of the extracted person area, and
前記縦横比に基づいて当該人物が転倒状態にあるか否かを判定する縦横比ベース判定手段とを具備し、 It is provided with an aspect ratio-based determination means for determining whether or not the person is in a fallen state based on the aspect ratio.
前記縦横比ベース判定手段は、立位状態にある人物のカメラ映像上での人物領域の縦横比の標準値RrefおよびそのレンジΔRrefを保持し、抽出した人物領域の縦横比と標準値Rrefとの差分がレンジΔRrefから外れると、当該人物を転倒状態と判定することを特徴とする人物検知装置。 The aspect ratio-based determination means holds a standard value Rref of the aspect ratio of the person area on the camera image of the person in the standing state and its range ΔRref, and sets the aspect ratio of the extracted person area and the standard value Rref. A person detection device characterized in that when the difference deviates from the range ΔRref, the person is determined to be in a fall state.
前記骨格情報に基づいて当該人物が転倒状態にあるか否かを判定する骨格情報ベース判定手段とを具備し、
前記縦横比ベース判定手段は、前記骨格情報ベース判定手段が転倒状態と判定しなかった人物が転倒状態にあるか否かを判定することを特徴とする請求項2に記載の人物検知装置。 A means for extracting skeletal information from the extracted person area,
A skeleton information-based determination means for determining whether or not the person is in a fallen state based on the skeleton information is provided.
The person detection device according to claim 2 , wherein the aspect ratio-based determination means determines whether or not a person who has not been determined by the skeletal information-based determination means to be in a fall state is in a fall state.
前記光軸角度に基づいて前記標準値Rrefを計算する手段とを更に具備したことを特徴とする請求項2または5に記載の人物検知装置。 A means to acquire the optical axis angle θcam of the camera that outputs the camera image,
The person detection device according to claim 2 or 5 , further comprising means for calculating the standard value Rref based on the optical axis angle.
カメラ映像から人物領域を抽出し、
前記抽出した人物領域の縦横比を計算し、
前記抽出した人物領域から骨格情報を抽出し、
前記骨格情報に基づいて当該人物が転倒状態にあるか否かを判定し、
前記骨格情報に基づいて転倒状態と判定しなかった人物を対象に、前記縦横比に基づいて当該人物が転倒状態にあるか否かを判定することを特徴とする人物検知方法。 The computer
Extract the person area from the camera image and
The aspect ratio of the extracted person area is calculated, and the aspect ratio is calculated.
The skeleton information is extracted from the extracted person area, and the skeleton information is extracted.
Based on the skeletal information, it is determined whether or not the person is in a fallen state.
A person detection method for determining whether or not a person who has not been determined to be in a fallen state based on the skeletal information is in a fallen state based on the aspect ratio.
カメラ映像から人物領域を抽出し、 Extract the person area from the camera image and
前記抽出した人物領域の縦横比を計算し、 The aspect ratio of the extracted person area is calculated, and the aspect ratio is calculated.
前記縦横比に基づいて当該人物が転倒状態にあるか否かを判定し、 Based on the aspect ratio, it is determined whether or not the person is in a fallen state.
立位状態にある人物のカメラ映像上での人物領域の縦横比の標準値RrefおよびそのレンジΔRrefを保持し、抽出した人物領域の縦横比と標準値Rrefとの差分がレンジΔRrefから外れると、当該人物を転倒状態と判定することを特徴とする人物検知方法。 When the standard value Rref of the aspect ratio of the person area on the camera image of the standing person and its range ΔRref are held, and the difference between the aspect ratio of the extracted person area and the standard value Rref deviates from the range ΔRref, A person detection method characterized in that the person is determined to be in a fallen state.
前記抽出した人物領域の縦横比を計算する手順と、
前記抽出した人物領域から骨格情報を抽出する手順と、
前記骨格情報に基づいて当該人物が転倒状態にあるか否かを判定する手順と、
前記骨格情報に基づいて転倒状態と判定しなかった人物を対象に、前記縦横比に基づいて当該人物が転倒状態にあるか否かを判定する手順と、
をコンピュータに実行させる人物検知プログラム。 The procedure for extracting the person area from the camera image and
The procedure for calculating the aspect ratio of the extracted person area and
The procedure for extracting skeletal information from the extracted person area and
A procedure for determining whether or not the person is in a fall state based on the skeletal information, and
For a person who was not determined to be in a fall state based on the skeletal information, a procedure for determining whether or not the person is in a fall state based on the aspect ratio, and
A person detection program that causes a computer to execute.
前記抽出した人物領域の縦横比を計算する手順と、 The procedure for calculating the aspect ratio of the extracted person area and
前記縦横比に基づいて当該人物が転倒状態にあるか否かを判定する手順とをコンピュータに実行させ、 A computer is made to perform a procedure for determining whether or not the person is in a fallen state based on the aspect ratio.
前記判定する手順では、立位状態にある人物のカメラ映像上での人物領域の縦横比の標準値RrefおよびそのレンジΔRrefを保持し、抽出した人物領域の縦横比と標準値Rrefとの差分がレンジΔRrefから外れると、当該人物を転倒状態と判定することを特徴とする人物検知プログラム。 In the above-mentioned procedure, the standard value Rref of the aspect ratio of the person area on the camera image of the standing person and its range ΔRref are held, and the difference between the aspect ratio of the extracted person area and the standard value Rref is obtained. A person detection program characterized in that when the person deviates from the range ΔRref, the person is determined to be in a fall state.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019148797A JP7089493B2 (en) | 2019-08-14 | 2019-08-14 | Person detectors, methods and programs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019148797A JP7089493B2 (en) | 2019-08-14 | 2019-08-14 | Person detectors, methods and programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021033343A JP2021033343A (en) | 2021-03-01 |
JP7089493B2 true JP7089493B2 (en) | 2022-06-22 |
Family
ID=74676532
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019148797A Active JP7089493B2 (en) | 2019-08-14 | 2019-08-14 | Person detectors, methods and programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7089493B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113807197A (en) * | 2021-08-24 | 2021-12-17 | 苏州爱可尔智能科技有限公司 | Fall detection method and device |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011211631A (en) | 2010-03-30 | 2011-10-20 | Sony Corp | Image processing device and method, and program |
JP2012141686A (en) | 2010-12-28 | 2012-07-26 | Secom Co Ltd | Abnormality detection device |
JP2018206321A (en) | 2017-06-09 | 2018-12-27 | コニカミノルタ株式会社 | Image processing device, image processing method and image processing program |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6189170B2 (en) * | 2013-10-16 | 2017-08-30 | セコム株式会社 | Posture estimation device |
-
2019
- 2019-08-14 JP JP2019148797A patent/JP7089493B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011211631A (en) | 2010-03-30 | 2011-10-20 | Sony Corp | Image processing device and method, and program |
JP2012141686A (en) | 2010-12-28 | 2012-07-26 | Secom Co Ltd | Abnormality detection device |
JP2018206321A (en) | 2017-06-09 | 2018-12-27 | コニカミノルタ株式会社 | Image processing device, image processing method and image processing program |
Non-Patent Citations (1)
Title |
---|
李森, 外3名,"省人化工場内の作業員の安全確保のためのモニタリング手法",日本経営工学会論文誌,日本,社団法人日本経営工学会,2001年04月15日,第52巻, 第1号,p.38-45 |
Also Published As
Publication number | Publication date |
---|---|
JP2021033343A (en) | 2021-03-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
GB2529943B (en) | Tracking processing device and tracking processing system provided with same, and tracking processing method | |
EP3029604B1 (en) | Area information estimating device, area information estimating method, and air conditioning apparatus | |
CN108111818B (en) | Moving target actively perceive method and apparatus based on multiple-camera collaboration | |
JP6534499B1 (en) | MONITORING DEVICE, MONITORING SYSTEM, AND MONITORING METHOD | |
WO2016199244A1 (en) | Object recognition device and object recognition system | |
KR101618814B1 (en) | Method and Apparatus for Monitoring Video for Estimating Gradient of Single Object | |
CN107079093B (en) | Calibration device | |
CN104954747B (en) | Video monitoring method and device | |
JP6352208B2 (en) | 3D model processing apparatus and camera calibration system | |
KR101541272B1 (en) | Apparatus and method for detecting terrorism using irregular motion of peoples | |
JP6579950B2 (en) | Image analysis apparatus, program, and method for detecting person appearing in captured image of camera | |
WO2015133159A1 (en) | Image processing device, image processing method, and image processing program | |
GB2475104A (en) | Detecting movement of 3D objects using a TOF camera | |
US11948363B2 (en) | Person detection device and person detection method | |
CN112053397A (en) | Image processing method, image processing device, electronic equipment and storage medium | |
JP5771039B2 (en) | Abandoned person detection device | |
KR101469099B1 (en) | Auto-Camera Calibration Method Based on Human Object Tracking | |
JP2001094975A (en) | Mobile object tracing method and device | |
JP7089493B2 (en) | Person detectors, methods and programs | |
KR101620580B1 (en) | Method and system for dectecting run | |
WO2019016879A1 (en) | Object detection device and object detection method | |
JP2006041939A (en) | Monitor device and monitor program | |
JP5960471B2 (en) | Image monitoring device | |
CN111754713B (en) | Video monitoring method, device and system | |
JP7201554B2 (en) | Person detection device, method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210706 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220310 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220323 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220510 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220608 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220610 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7089493 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |