JP2008009498A - Fall detection device, program, fall detection method, and fall detection system - Google Patents

Fall detection device, program, fall detection method, and fall detection system Download PDF

Info

Publication number
JP2008009498A
JP2008009498A JP2006176516A JP2006176516A JP2008009498A JP 2008009498 A JP2008009498 A JP 2008009498A JP 2006176516 A JP2006176516 A JP 2006176516A JP 2006176516 A JP2006176516 A JP 2006176516A JP 2008009498 A JP2008009498 A JP 2008009498A
Authority
JP
Japan
Prior art keywords
fall detection
person
fall
image
evaluation value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006176516A
Other languages
Japanese (ja)
Other versions
JP5110246B2 (en
Inventor
Shigeaki Motooka
茂哲 本岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MegaChips System Solutions Inc
Original Assignee
MegaChips System Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MegaChips System Solutions Inc filed Critical MegaChips System Solutions Inc
Priority to JP2006176516A priority Critical patent/JP5110246B2/en
Publication of JP2008009498A publication Critical patent/JP2008009498A/en
Application granted granted Critical
Publication of JP5110246B2 publication Critical patent/JP5110246B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Alarm Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Emergency Alarm Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technology for precisely detecting the fall of a person. <P>SOLUTION: After various processing is performed by the respective processing parts of a control part 12 to the image data(photographic images) of respective frames configuring a moving image photographed by a camera, the central position of a convex semi-circle is detected on the approximate curve of an outline included in a photographic image by a shoulder position detecting/tracing part 160. Then, an evaluation value(vertical change evaluation value) for evaluating the secular change of the center position to the vertical direction is calculated by a fall detection part 180 so that the fall of a person can be detected based on at least the vertical change evaluation value. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、転倒を検知する技術に関する。   The present invention relates to a technique for detecting a fall.

近年、公共の場などには多数の監視カメラが設けられ、主に異常の発生や混雑の状況などを把握する目的で利用されている。   In recent years, a large number of surveillance cameras are provided in public places and the like, and they are mainly used for the purpose of grasping the occurrence of abnormalities and congestion.

この異常の一例としては人の転倒(倒れ)などが挙げられる。   An example of this abnormality is a person's fall (fall).

そして、監視カメラで取得された画像データを用いて、浴室やトイレなどの部屋内において人が転倒するなどといった異常を検出する技術が種々提案されている(例えば、特許文献1〜4)。例えば、上記特許文献1で提案された技術では、画像データから高周波成分を抽出して動状態と静止状態とを判定することで異常の発生を検知する。また、上記特許文献2〜4で提案された技術では、各画像データについて、背景画像(参照画像)との差分領域を抽出して、当該差分領域(すなわち人体画像)の高さ情報の時間あたりの変化や面積の変化によって人体の転倒動作を検知する。   Various techniques for detecting abnormalities such as a person falling over in a room such as a bathroom or a toilet using image data acquired by a surveillance camera have been proposed (for example, Patent Documents 1 to 4). For example, in the technique proposed in Patent Document 1, an abnormality is detected by extracting a high-frequency component from image data and determining a moving state and a stationary state. Further, in the techniques proposed in Patent Documents 2 to 4, a difference area from the background image (reference image) is extracted for each image data, and the height information of the difference area (that is, the human body image) per time The human body's overturning motion is detected by the change of the area and the change of the area.

特開2002−304680号公報JP 2002-304680 A 特開2000−253382号公報JP 2000-253382 A 特開2000−207665号公報JP 2000-207665 A 特開2000−207664号公報JP 2000-207664 A

しかしながら、上記特許文献1〜4で提案された技術では、エスカレータや動く歩道などといった限られた空間に多数の人間が混み入って存在している場合には、1人1人が転倒したか否かを検知することが困難である。   However, in the techniques proposed in Patent Documents 1 to 4, if a large number of people are crowded in a limited space such as an escalator or a moving sidewalk, whether or not one person falls down It is difficult to detect this.

例えば、人の特徴量を用いて転倒を検知する手法では、複数人が存在する場合には、人の重なり具合や並び具合が変化しただけでも特徴量が変化してしまうため、誤検知が発生する。特に、例えば、エスカレータ等では、乗降エリア付近を進行方向の正面側からカメラで撮影する場合、後方に背の高い人が立っていて、手前の比較的背の低い人(例えば子供)が転倒しても、1人1人を区別して転倒を検知することができないため、手前の人の転倒を検知することができない。   For example, in the method of detecting falls using human feature values, if there are multiple people, the feature values will change even if the overlap or alignment of people changes, resulting in false detection. To do. In particular, for example, in an escalator or the like, when photographing the vicinity of the boarding area with a camera from the front side in the direction of travel, a tall person stands behind and a relatively short person (for example, a child) in front of the person falls down. However, since it is impossible to detect a fall by distinguishing one person from another, it is not possible to detect the fall of the person in front.

また、人物を1人1人区別して検出する手法としては、形状や特徴量や色に基づいて頭部や顔を検出する手法が知られているが、例えば、顔を検出するためには、人物を正面側から撮影しなければならないといった制約がある。また、円や楕円などといった形状認識によって頭部を検出する場合には、人全体を占める頭部の割合はあまり大きくなく、頭部以外の丸っぽい他の部位まで頭部として誤検出され易い。更に、色で顔を検出する手法では、照明や背景や衣服の色の影響や肌自体の色のぶれによって誤検出が生じ易い。すなわち、環境や被写体の条件によって人物の倒れの誤検知が生じ易い。   In addition, as a technique for detecting a person by distinguishing one person from another, a technique for detecting a head or a face based on a shape, a feature amount, or a color is known. For example, in order to detect a face, There is a restriction that a person must be photographed from the front side. In addition, when the head is detected by shape recognition such as a circle or an ellipse, the proportion of the head occupying the whole person is not so large, and other rounded parts other than the head are likely to be erroneously detected as the head. . Furthermore, in the method of detecting a face by color, erroneous detection is likely to occur due to the influence of illumination, the background or the color of clothes, or the blurring of the skin itself. That is, false detection of a person's fall is likely to occur depending on the environment and subject conditions.

本発明は、上記課題に鑑みてなされたものであり、人物の倒れ検知を精度良く行うことができる技術を提供することを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to provide a technique capable of accurately detecting a person's fall.

上記の課題を解決するために、請求項1の発明は、複数フレームの撮影画像を時間順次に受け付ける画像受付手段と、撮影画像に含まれる輪郭の近似曲線であって、上に凸かつ所定の値域範囲の曲率半径を有するカーブに対し、各フレームによらずに前記カーブと所定の関係を維持する基準位置を、前記画像受付手段によって受け付けられる複数フレームの撮影画像を構成する各フレームの撮影画像から検出する位置検出手段と、前記位置検出手段によって複数フレームの撮影画像からそれぞれ検出される複数の基準位置に基づいて少なくとも基準位置の垂直方向への変化に係る垂直変化評価値を算出する評価値算出手段と、少なくとも前記垂直変化評価値に基づいて人の転倒を検知する転倒検知処理を行う転倒検知手段とを備えることを特徴とする。   In order to solve the above-described problem, the invention of claim 1 is an image receiving means for receiving a plurality of frames of captured images in time sequence, and an approximate curve of an outline included in the captured image, which is convex upward and has a predetermined For the curve having a radius of curvature in the range, the reference position that maintains a predetermined relationship with the curve regardless of the frame, the captured image of each frame constituting the captured image of a plurality of frames that can be received by the image receiving means A position detection means for detecting from the above, and an evaluation value for calculating a vertical change evaluation value related to a change in at least the reference position in the vertical direction based on a plurality of reference positions respectively detected from a plurality of frames of captured images by the position detection means And a fall means for performing a fall detection process for detecting a fall of a person based on at least the vertical change evaluation value. To.

また、請求項2の発明は、請求項1に記載の転倒検知装置であって、前記転倒検知処理が、前記垂直変化評価値が所定値を超えた状態を検出する処理を含むことを特徴とする。   The invention of claim 2 is the fall detection device according to claim 1, wherein the fall detection process includes a process of detecting a state in which the vertical change evaluation value exceeds a predetermined value. To do.

また、請求項3の発明は、請求項2に記載の転倒検知装置であって、前記評価値算出手段が、前記位置検出手段によって複数フレームの撮影画像からそれぞれ検出される複数の基準位置に基づいて基準位置の移動に係る移動評価値を算出する手段を有し、前記転倒検知処理が、前記垂直変化評価値が所定値を超えた状態を検出した後に、前記移動評価値が予め設定された値域範囲に含まれる状態を検出する処理を含むことを特徴とする。   The invention according to claim 3 is the fall detection device according to claim 2, wherein the evaluation value calculating means is based on a plurality of reference positions respectively detected from a plurality of frames of captured images by the position detecting means. Means for calculating a movement evaluation value relating to the movement of the reference position, and the movement evaluation value is set in advance after the fall detection process detects that the vertical change evaluation value exceeds a predetermined value. It includes processing for detecting a state included in the range of values.

また、請求項4の発明は、請求項1から請求項3のいずれかに記載の転倒検知装置であって、前記複数フレームの撮影画像が、人物搬送装置における人物の搬送経路に対して撮影方向が略平行に設定された撮像装置によって異なるタイミングでそれぞれ撮影された画像であることを特徴とする。   According to a fourth aspect of the present invention, there is provided the fall detection device according to any one of the first to third aspects, wherein the captured images of the plurality of frames are in a photographing direction with respect to a person conveyance path in the person conveyance device. Are images taken at different timings depending on the imaging device set substantially parallel to each other.

また、請求項5の発明は、請求項4に記載の転倒検知装置であって、前記人物搬送装置が、エスカレータを含むことを特徴とする。   The invention according to claim 5 is the fall detection device according to claim 4, wherein the person conveying device includes an escalator.

また、請求項6の発明は、転倒検知装置に含まれるコンピュータによって実行されることにより、前記転倒検知装置を、請求項1から請求項5のいずれかに記載の転倒検知装置として機能させるプログラムである。   The invention according to claim 6 is a program for causing the fall detection device to function as the fall detection device according to any one of claims 1 to 5 by being executed by a computer included in the fall detection device. is there.

また、請求項7の発明は、(a)撮影画像に含まれる輪郭の近似曲線であって、上に凸かつ所定の値域範囲の曲率半径を有するカーブに対し、各フレームによらずに前記カーブと所定の関係を維持する基準位置を、撮影タイミングが互いに前後する複数フレームの撮影画像を構成する各フレームの撮影画像から検出するステップと、(b)前記ステップ(a)で複数フレームの撮影画像からそれぞれ検出される複数の基準位置に基づいて少なくとも基準位置の垂直方向への変化に係る垂直変化評価値を算出するステップと、(c)少なくとも前記垂直変化評価値に基づいて人の転倒を検知する転倒検知処理を行うステップとを備えることを特徴とする。   Further, the invention of claim 7 is directed to (a) an approximate curve of a contour included in a photographed image, wherein the curve has a curvature radius in a predetermined range within a convex range and is not related to each frame. And a reference position that maintains a predetermined relationship with each other from a captured image of each frame constituting a captured image of a plurality of frames whose shooting timings are before and after each other, and (b) a captured image of a plurality of frames in step (a) Calculating a vertical change evaluation value related to a change in at least the reference position in the vertical direction based on a plurality of reference positions respectively detected from (c), and (c) detecting a human fall based on at least the vertical change evaluation value. And a step of performing a fall detection process.

また、請求項8の発明は、請求項7に記載の転倒検知方法であって、前記転倒検知処理が、前記垂直変化評価値が所定値を超えた状態を検出する処理を含むことを特徴とする。   The invention according to claim 8 is the fall detection method according to claim 7, wherein the fall detection process includes a process of detecting a state in which the vertical change evaluation value exceeds a predetermined value. To do.

また、請求項9の発明は、請求項8に記載の転倒検知方法であって、前記ステップ(b)が、前記ステップ(a)で複数フレームの撮影画像からそれぞれ検出される複数の基準位置に基づいて基準位置の移動に係る移動評価値を算出するステップを有し、前記転倒検知処理が、前記垂直変化評価値が所定値を超えた状態を検出した後に、前記移動評価値が予め設定された値域範囲に含まれる状態を検出する処理を含むことを特徴とする。   The invention according to claim 9 is the fall detection method according to claim 8, wherein the step (b) is set at a plurality of reference positions respectively detected from a plurality of frames of captured images in the step (a). And calculating a movement evaluation value related to the movement of the reference position based on, and the movement evaluation value is set in advance after the fall detection process detects a state where the vertical change evaluation value exceeds a predetermined value. And a process for detecting a state included in the range.

また、請求項10の発明は、請求項7から請求項9のいずれかに記載の転倒検知方法であって、前記複数フレームの撮影画像が、人物搬送装置における人物の搬送経路に対して撮影方向が略平行に設定された撮像装置によって異なるタイミングでそれぞれ撮影された画像であることを特徴とする。   The invention according to claim 10 is the fall detection method according to any one of claims 7 to 9, wherein the captured images of the plurality of frames are captured in a capturing direction with respect to the transport path of the person in the person transport apparatus. Are images taken at different timings depending on the imaging device set substantially parallel to each other.

また、請求項11の発明は、請求項10に記載の転倒検知方法であって、前記人物搬送装置が、エスカレータを含むことを特徴とする。   An eleventh aspect of the present invention is the fall detection method according to the tenth aspect, wherein the person conveying device includes an escalator.

また、請求項12の発明は、異なるタイミングで複数フレームの撮影画像を取得する撮像装置と、請求項1から請求項3のいずれかに記載の転倒検知装置とを備えることを特徴とする。   According to a twelfth aspect of the present invention, there is provided an imaging device that acquires captured images of a plurality of frames at different timings, and the fall detection device according to any one of the first to third aspects.

また、請求項13の発明は、請求項12に記載の転倒検知システムであって、前記撮像装置の撮影方向が、人物搬送装置における人物の搬送経路に対して略平行に設定されていることを特徴とする。   The invention according to claim 13 is the fall detection system according to claim 12, wherein the imaging direction of the imaging device is set substantially parallel to the conveyance path of the person in the person conveyance device. Features.

また、請求項14の発明は、請求項13に記載の転倒検知システムであって、前記人物搬送装置が、エスカレータを含むことを特徴とする。   The invention according to claim 14 is the fall detection system according to claim 13, wherein the person conveying device includes an escalator.

請求項1に記載の発明によれば、撮影画像に含まれる輪郭の近似曲線であって、上に凸かつ所定の値域範囲の曲率半径を有するカーブに対し、各フレームによらずに当該カーブと所定の関係を維持する基準位置を、各フレームの撮影画像から検出し、少なくとも基準位置の垂直方向への変化に係る評価値に基づいて人の転倒を検知することで、人物の倒れ検知を精度良く行うことができる。   According to the first aspect of the present invention, an approximate curve of a contour included in a photographed image, which is convex upward and has a radius of curvature in a predetermined range, the curve is not related to each frame. A reference position that maintains a predetermined relationship is detected from the captured image of each frame, and at least a person's fall is detected based on an evaluation value related to a change in the reference position in the vertical direction. Can be done well.

また、請求項2に記載の発明によれば、基準位置の垂直方向への変化に係る評価値が所定値を超えた状態を検出する処理を用いて人物の転倒を検知することで、人物が倒れていく状態を精度良く検出して、人物の倒れ検知を精度良く行うことができる。   According to the second aspect of the present invention, a person is detected by detecting a person's fall using a process for detecting a state in which an evaluation value related to a change in the reference position in the vertical direction exceeds a predetermined value. It is possible to detect the falling state with high accuracy and to accurately detect the falling of the person.

また、請求項3に記載の発明によれば、基準位置の垂直方向への変化に係る評価値が所定値を超えた後に、基準位置の移動に係る評価値が所定範囲内となった場合に、人物が転倒したと検知することで、人物が倒れていく状態とその後の転倒状態とを精度良く検出して、人物の倒れ検知を精度良く行うことができる。また、例えば、人物が走り抜けていく際に誤って人物が倒れていると検知されてしまうような不具合も解消することができる。   According to the invention of claim 3, when the evaluation value related to the movement of the reference position falls within the predetermined range after the evaluation value related to the vertical change of the reference position exceeds the predetermined value. By detecting that the person has fallen, it is possible to accurately detect the state where the person falls and the subsequent fall state, and to accurately detect the fall of the person. In addition, for example, it is possible to eliminate a problem that a person is detected to have fallen accidentally when the person runs through.

また、請求項4に記載の発明によれば、人物搬送装置において人物が搬送される方向に対して撮影方向が略平行に設定された撮像装置により異なるタイミングでそれぞれ撮影された複数フレームの撮影画像を用いて、人物の転倒を検知するような構成を採用しても、肩の輪郭の近似曲線と所定の関係を維持する基準位置を精度良く検出することができるため、人物の倒れ検知を精度良く行うことができる。   According to the invention of claim 4, a plurality of frames of captured images respectively captured at different timings by the imaging device in which the imaging direction is set substantially parallel to the direction in which the person is conveyed in the person conveyance device. Even if a configuration that detects the fall of a person is used, it is possible to accurately detect the reference position that maintains a predetermined relationship with the approximate curve of the shoulder contour, so the fall of the person can be detected with high accuracy. Can be done well.

また、請求項5に記載の発明によれば、人物搬送装置がエスカレータを含むため、エスカレータなどの人物搬送装置における人物の倒れを精度良く検知することができる。   According to the fifth aspect of the present invention, since the person conveyance device includes the escalator, it is possible to accurately detect the fall of the person in the person conveyance device such as the escalator.

また、請求項6に記載の発明によれば、請求項1から請求項5に記載の発明と同様な効果を得ることができる。   Further, according to the invention described in claim 6, it is possible to obtain the same effect as the invention described in claims 1-5.

また、請求項7から請求項11に記載の発明によれば、請求項1から請求項5にそれぞれ記載された発明と同様な効果を得ることができる。   Further, according to the invention described in claims 7 to 11, it is possible to obtain the same effect as the invention described in each of claims 1 to 5.

また、請求項12に記載の発明によれば、請求項1から請求項3に記載の発明と同様な効果を得ることができる。   According to the invention described in claim 12, the same effects as those of the invention described in claims 1 to 3 can be obtained.

また、請求項13及び請求項14に記載の発明によれば、請求項4及び請求項5にそれぞれ記載された発明と同様な効果を得ることができる。   Moreover, according to the invention of Claim 13 and Claim 14, the effect similar to the invention described in Claim 4 and Claim 5 can be acquired, respectively.

以下、本発明の実施形態を図面に基づいて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<倒れ検知システムの概要>
図1は、本発明の実施形態に係る倒れ検知システム1の概略構成を例示する図である。倒れ検知システム1は、例えば、エスカレータの乗降における人物の転倒を検知する監視システムに用いられている。なお、本実施形態では、監視場所をエスカレータの乗降位置付近としているが、これに限られず、例えば動く歩道等といったその他の人物を搬送する装置(以下「人物搬送装置」とも称する)一般の乗降位置付近等であっても良い。
<Outline of the fall detection system>
FIG. 1 is a diagram illustrating a schematic configuration of a fall detection system 1 according to an embodiment of the invention. The fall detection system 1 is used, for example, in a monitoring system that detects the fall of a person when getting on and off an escalator. In the present embodiment, the monitoring location is the vicinity of the escalator boarding / exiting position. However, the present invention is not limited to this, and a general boarding / alighting position for a device that transports other persons such as a moving sidewalk (hereinafter also referred to as “person transporting device”). It may be near.

図1に示すように、倒れ検知システム1は、倒れ検知装置10とN台(Nは4以上の自然数)のカメラ(第1のカメラ、第2のカメラ、第3のカメラ、・・・第Nのカメラ)C1〜CNとがネットワーク回線NT等の通信回線を介してデータ送受信可能に接続されて構成されている。なお、本実施形態では、カメラの台数を4台以上としたが、これに限られず、1台以上であれば何台であっても良い。   As shown in FIG. 1, the fall detection system 1 includes a fall detection device 10 and N cameras (N is a natural number of 4 or more) (first camera, second camera, third camera,... N cameras) C1 to CN are connected via a communication line such as a network line NT so that data can be transmitted and received. In the present embodiment, the number of cameras is four or more. However, the number of cameras is not limited to this.

倒れ検知装置10は、例えば、各種施設のセキュリティーセンター等に設置され、第1〜第NのカメラC1〜CNから送信されてくる動画を解析することで人の転倒を検知する装置である。   The fall detection device 10 is a device that is installed in, for example, a security center of various facilities and detects a person's fall by analyzing moving images transmitted from the first to Nth cameras C1 to CN.

第1〜第NのカメラC1〜CNは、動画撮影が可能なビデオカメラであり、人が転倒し易い位置であるエスカレータの乗り口や降り口付近等を撮影することができるように設置されている。また、第1〜第NのカメラC1〜CNは、毎秒30フレームによって構成される動画撮影が可能であり、1/30秒毎に1フレーム分の画像データ(すなわち撮影画像)を倒れ検知装置10に対して送出する。   The first to Nth cameras C1 to CN are video cameras that can shoot moving images, and are installed so as to be able to shoot the vicinity of entrances and exits of escalators where people are likely to fall. Yes. In addition, the first to Nth cameras C1 to CN are capable of shooting a moving image composed of 30 frames per second, and fallen the image data for one frame (that is, the shot image) every 1/30 seconds. Is sent to.

<カメラの配置>
図2は、第1及び第2のカメラC1,C2の配置例を示す模式図であり、図2では第1及び第2のカメラC1,C2による撮影範囲の外縁がそれぞれ破線で示されている。
<Camera layout>
FIG. 2 is a schematic diagram illustrating an arrangement example of the first and second cameras C1 and C2. In FIG. 2, the outer edges of the shooting ranges of the first and second cameras C1 and C2 are indicated by broken lines, respectively. .

図2に示すように、エスカレータ100は、例えば、人物Hを図中矢印方向に搬送する。そして、第1のカメラC1がエスカレータ100の降り口101付近を撮影することができるように設置され、第2のカメラC2がエスカレータ100の乗り口102付近を撮影することができるように設置されている。具体的には、エスカレータ100が人物Hを搬送する経路(以下「人物搬送経路」とも称する)の略延長線上に第1及び第2のカメラC1,C2が設置されている。このような第1及び第2のカメラC1,C2の配置は、エスカレータ付近を監視する一般的なカメラと同様な配置である。   As shown in FIG. 2, the escalator 100 conveys the person H in the arrow direction in the figure, for example. The first camera C1 is installed so as to be able to photograph the vicinity of the exit 101 of the escalator 100, and the second camera C2 is installed so that the vicinity of the entrance 102 of the escalator 100 can be photographed. Yes. Specifically, the first and second cameras C1 and C2 are installed on a substantially extended line of a path (hereinafter also referred to as “person transport path”) through which the escalator 100 transports the person H. The arrangement of the first and second cameras C1 and C2 is the same as that of a general camera that monitors the vicinity of the escalator.

より詳細には、第1のカメラC1は、エスカレータ100で搬送される人物Hを正面側から撮影することができるように、降り口101付近におけるエスカレータ100の進行方向(すなわち、人物Hを搬送する搬送方向)の前方に配置され、第2のカメラC2は、エスカレータ100で搬送される人物Hを背面側から撮影することができるように、乗り口102付近におけるエスカレータ100の進行方向の後方に配置されている。よって、第1のカメラC1は、一定のアングルを保持しつつエスカレータ100から降りる際の人物Hの動作を前方から動画撮影し、第2のカメラC2は、一定のアングルを保持しつつエスカレータ100に乗る際の人物Hの動作を後方から動画撮影する。その結果、第1のカメラC1では、エスカレータ100から降りる人物Hを正面から捉えた画像(正面画像)が得られ、第2のカメラC2では、エスカレータ100に乗る人物Hを背面から捉えた画像(背面画像)が得られる。   More specifically, the first camera C1 conveys the traveling direction of the escalator 100 in the vicinity of the exit 101 (that is, the person H so that the person H conveyed by the escalator 100 can be photographed from the front side. The second camera C2 is disposed in front of the escalator 100 in the vicinity of the entrance 102 so that the person H conveyed by the escalator 100 can be photographed from the back side. Has been. Therefore, the first camera C1 captures a moving image from the front of the movement of the person H when getting off the escalator 100 while maintaining a constant angle, and the second camera C2 holds the constant angle at the escalator 100. The motion of the person H when riding is shot from behind. As a result, the first camera C1 obtains an image (front image) that captures the person H descending from the escalator 100 from the front, and the second camera C2 captures the person H riding on the escalator 100 from the back (image). Back image) is obtained.

換言すれば、第1のカメラC1の撮影方向と、降り口101付近におけるエスカレータ100の進行方向とが略同一となるように設定され、第2のカメラC2の撮影方向と、乗り口102付近におけるエスカレータ100の進行方向とが略反対となるように設定されている。更に換言すれば、第1のカメラC1の撮影方向と、降り口101付近においてエスカレータ100が人物Hを搬送する経路(人物搬送経路)とが略平行となるように設定され、第2のカメラC2の撮影方向と、乗り口102付近においてエスカレータ100が人物Hを搬送する経路(人物搬送経路)とが略平行となるように設定されている。なお、ここで人物搬送経路と各カメラの撮影方向とが略平行に設定されるのは、後述する人物の肩の輪郭を略半円状として検出する際に、人物Hを極力正面又は背面から捉える方が好ましいからである。したがって、ここで言う「略平行」には、完全な平行から約30度程度の角度のずれも許容し含まれるが、角度のずれは例えば約15度以下など極力小さな方が好ましく、角度のずれがほとんどない状態が更に好ましい。   In other words, the shooting direction of the first camera C1 and the traveling direction of the escalator 100 in the vicinity of the exit 101 are set to be substantially the same, and the shooting direction of the second camera C2 and the vicinity of the entrance 102 are set. It is set so that the traveling direction of the escalator 100 is substantially opposite. In other words, the shooting direction of the first camera C1 and the path (person transport path) through which the escalator 100 transports the person H in the vicinity of the exit 101 are set to be substantially parallel, and the second camera C2 is set. The shooting direction is set so that the escalator 100 transports the person H in the vicinity of the entrance 102 (person transport path) is substantially parallel. It should be noted that the person conveyance path and the shooting direction of each camera are set to be substantially parallel here when the person H is detected from the front or back as much as possible when detecting the contour of the shoulder of the person described later as a substantially semicircular shape. This is because it is preferable to capture. Accordingly, the term “substantially parallel” as used herein allows and includes an angle deviation of about 30 degrees from completely parallel, but the angle deviation is preferably as small as possible, for example, about 15 degrees or less. More preferably, there is no state.

図2では、第1〜第NのカメラC1〜CNの配置のうち、第1及び第2のカメラC1,C2の配置を代表例として説明したが、第3〜第NのカメラC3〜CNの配置も、第1及び第2のカメラC1,C2の配置と同様に設定されるため、ここでは説明を省略する。   In FIG. 2, the arrangement of the first and second cameras C1 and C2 among the arrangements of the first to Nth cameras C1 to CN has been described as a representative example, but the arrangement of the third to Nth cameras C3 to CN is described. Since the arrangement is also set in the same manner as the arrangement of the first and second cameras C1 and C2, description thereof is omitted here.

<倒れ検知装置の構成>
図3は、倒れ検知装置10の物理的構成(ハードウエア構成)を中心に示すブロック図である。なお、図3では、図が複雑化するのを防ぐため、第1〜第NのカメラC1〜CNを代表して第1のカメラC1のみを記載し、以下では、第1のカメラC1からの画像データを解析して倒れ検知を行う場合を代表例として説明する。
<Configuration of the fall detection device>
FIG. 3 is a block diagram showing mainly the physical configuration (hardware configuration) of the fall detection device 10. In FIG. 3, only the first camera C1 is described as a representative of the first to Nth cameras C1 to CN in order to prevent the diagram from becoming complicated. A case in which image data is analyzed to detect a fall will be described as a representative example.

倒れ検知装置10は、例えば、一般的なパーソナルコンピュータ(パソコン)を用いて構成される。この倒れ検知装置10は、主にインターフェース(I/F)11、制御部12、記憶部13、操作部14、及び表示部15を備えている。   The fall detection device 10 is configured using, for example, a general personal computer (personal computer). The fall detection device 10 mainly includes an interface (I / F) 11, a control unit 12, a storage unit 13, an operation unit 14, and a display unit 15.

I/F11は、第1のカメラC1等との間におけるネットワーク回線NTを介したデータの送受信をコントロールするためのインターフェースである。I/F11では、倒れ検知装置10から第1のカメラC1に対し、第1のカメラC1の動作をコントロールする制御信号が出力され、第1のカメラC1から出力される画像データが入力される。具体的には、第1のカメラC1によって時間的に前後するタイミング(ここでは、1/30秒毎)でそれぞれ取得された画像データ(毎秒30フレーム分の画像データ)が時間順次にI/F11に対して入力され、I/F11で受け付けられる。   The I / F 11 is an interface for controlling transmission / reception of data via the network line NT with the first camera C1 and the like. In the I / F 11, a control signal for controlling the operation of the first camera C1 is output from the fall detection device 10 to the first camera C1, and image data output from the first camera C1 is input. Specifically, the image data (image data for 30 frames per second) respectively acquired at the timing (in this case, every 1/30 seconds) that moves back and forth in time by the first camera C1 is time-sequentially I / F11. And is received by the I / F 11.

制御部12は、CPU12a及びメモリ12bを有し、操作部14からの各種信号や、記憶部13に格納されたプログラムPG等に基づいて、各種機能や動作を実現する。例えば、制御部12が、記憶部13に格納されたプログラムPGを読み込んで実行することにより、第1のカメラC1等から入力された画像データを解析することで人物の倒れを検知する処理(倒れ検知処理)を行う機能(倒れ検知機能)が実現される。より詳細には、所定のOS(オペレーションシステム)が稼働するコンピュータにおいて、所定のアプリケーションプログラム(ここでは、プログラムPG)を実行することなどによって倒れ検知処理に係る各種機能が実現される。なお、制御部12における各種情報処理の過程で生成される各種データはメモリ12bに一時的に記憶される。   The control unit 12 includes a CPU 12a and a memory 12b, and realizes various functions and operations based on various signals from the operation unit 14, a program PG stored in the storage unit 13, and the like. For example, the control unit 12 reads and executes the program PG stored in the storage unit 13 to analyze the image data input from the first camera C1 or the like and detect a person's fall (fall down). A function for performing detection processing (falling detection function) is realized. More specifically, various functions related to the fall detection process are realized by executing a predetermined application program (here, program PG) in a computer running a predetermined OS (operation system). Note that various data generated in the course of various information processing in the control unit 12 is temporarily stored in the memory 12b.

記憶部13は、例えばハードディスク等を備えて構成され、倒れ検知機能を実現するためのプログラムPGを格納している。なお、このプログラムPGは、可搬性の記録媒体(CD−ROMあるいはDVD等)に格納された状態で提供されても良いし、ネットワーク上の所定のダウンロードサイトからダウンロードされても良い。   The storage unit 13 includes a hard disk or the like, for example, and stores a program PG for realizing a fall detection function. The program PG may be provided in a state where it is stored on a portable recording medium (CD-ROM or DVD), or may be downloaded from a predetermined download site on the network.

操作部14は、例えばキーボードやマウス等を備えて構成されており、倒れ検知装置10のユーザー(例えば、警備員)によって操作部14が適宜操作されると、制御部12に対して操作に応じた各種信号を送信する。   The operation unit 14 includes, for example, a keyboard, a mouse, and the like. When the operation unit 14 is appropriately operated by a user of the fall detection device 10 (for example, a guard), the control unit 12 is operated according to the operation. Send various signals.

表示部15は、例えば、ブラウン管や液晶パネル等によって構成され、制御部12からの信号に応答して各種画像を可視的に出力する。   The display unit 15 is configured by, for example, a cathode ray tube or a liquid crystal panel, and visually outputs various images in response to signals from the control unit 12.

<倒れ検知機能に係る機能構成>
図4は、制御部12によって実現される倒れ検知機能に係る機能構成を概念的に示す機能ブロック図である。
<Functional configuration related to the fall detection function>
FIG. 4 is a functional block diagram conceptually showing the functional configuration related to the fall detection function realized by the control unit 12.

図4に示すように、制御部12は、倒れ検知機能に係る機能構成として、主に輝度画像生成部120、画素間引き部130、フレーム間引き部140、人物エッジ画像生成部150、肩位置検出/追跡部160、処理切換部170、倒れ途中検出部180、倒れ状態検出部190、及び警告画面生成部200を備えている。   As shown in FIG. 4, the control unit 12 mainly has a luminance image generation unit 120, a pixel thinning unit 130, a frame thinning unit 140, a person edge image generation unit 150, a shoulder position detection / detection function as a functional configuration related to the fall detection function. A tracking unit 160, a process switching unit 170, a fall-down detection unit 180, a fall-down state detection unit 190, and a warning screen generation unit 200 are provided.

輝度画像生成部120は、第1のカメラC1から出力されI/F11を介して入力された画像データから輝度によって表現した画像データ(以下「輝度画像」とも称する)を生成する。具体的には、第1のカメラC1から出力される画像データは例えば縦240×横320画素の24ビットのRGBの画像データであり、輝度画像生成部120は、RGBの画像データから各画素について下式(1)を用いて輝度値Yを算出することで縦240×横320画素の輝度画像を生成する。   The luminance image generation unit 120 generates image data expressed by luminance from the image data output from the first camera C1 and input via the I / F 11 (hereinafter also referred to as “luminance image”). Specifically, the image data output from the first camera C1 is, for example, 24-bit RGB image data of 240 × 320 pixels, and the luminance image generation unit 120 determines each pixel from the RGB image data. By calculating the luminance value Y using the following equation (1), a luminance image of 240 × 320 pixels is generated.

Y=0.29891×R+0.58661×G+0.11448×B・・・(1)     Y = 0.29891 × R + 0.58661 × G + 1.448 × B (1)

画素間引き部130は、輝度画像生成部120において生成された輝度画像について、縦及び横ラインともに1ラインおきにライン間引きを行うことで、縦120×横160画素の画像(以下「縮小画像」とも称する)を生成する。   The pixel thinning unit 130 thins the luminance image generated by the luminance image generation unit 120 every other line for both the vertical and horizontal lines, so that an image of 120 × 160 pixels (hereinafter referred to as a “reduced image”). To generate).

フレーム間引き部140は、画素間引き部130において毎秒30フレーム分生成される縮小画像について、1フレームおきにフレーム間引きを行う(すなわち、1フレームおきに画像データを採用する)ことで、毎秒15フレームの縮小画像を人物エッジ画像生成部150に出力する。   The frame thinning unit 140 performs frame thinning every other frame (that is, adopts image data every other frame) for the reduced image generated by the pixel thinning unit 130 for 30 frames per second, so that 15 frames per second are obtained. The reduced image is output to the person edge image generation unit 150.

人物エッジ画像生成部150は、背景とは異なる被写体を人物とみなして、当該人物の輪郭を示す画像(以下「人物エッジ画像」とも称する)を生成し、肩位置検出/追跡部160に出力する。人物エッジ画像生成部150の詳細については後述する。   The person edge image generation unit 150 regards a subject different from the background as a person, generates an image showing the outline of the person (hereinafter also referred to as “person edge image”), and outputs the image to the shoulder position detection / tracking unit 160. . Details of the person edge image generation unit 150 will be described later.

肩位置検出/追跡部160は、人物の肩の輪郭を半円(半円弧)に類似した所定範囲の大きさを有する形状とみなして、人物エッジ画像生成部150で生成された人物エッジ画像に含まれる輪郭の近似曲線である上に凸の半円の中心位置を人物の肩が存在する大凡の場所を示す位置(以下「基準位置」とも称する)として検出する。更に、肩位置検出/追跡部160は、時間的に連続して入力されてくる各人物エッジ画像から中心位置をそれぞれ検出するとともに、人物毎に区別して中心位置に係る情報をメモリ12bに格納することで、中心位置の移動を追跡した情報(以下「肩追跡情報」とも称する)TIを生成及び更新する。肩位置検出/追跡部160は、各フレームの画像データについて肩追跡情報TIを生成又は更新し終わると、処理切換部170に対して信号を出力する。肩位置検出/追跡部160の詳細については後述する。   The shoulder position detection / tracking unit 160 regards the contour of the person's shoulder as a shape having a predetermined range size similar to a semicircle (semicircular arc), and adds the person edge image generated by the person edge image generation unit 150 to the person edge image. The center position of an upwardly convex semicircle, which is an approximate curve of the included contour, is detected as a position (hereinafter also referred to as “reference position”) indicating an approximate place where a person's shoulder exists. Furthermore, the shoulder position detection / tracking unit 160 detects the center position from each person edge image input continuously in time, and stores information on the center position in the memory 12b by distinguishing each person. Thus, information (hereinafter also referred to as “shoulder tracking information”) TI that tracks the movement of the center position is generated and updated. The shoulder position detection / tracking unit 160 outputs a signal to the processing switching unit 170 when the shoulder tracking information TI is generated or updated for the image data of each frame. Details of the shoulder position detection / tracking unit 160 will be described later.

処理切換部170は、局面(フェイズ)に応じて、人物が倒れ途中にある状態(以下「倒れ途中状態」とも称する)を検出する処理(以下「倒れ途中状態検出処理」とも称する)と、人物が倒れてしまった状態(以下「倒れ状態」とも称する)を検出する処理(以下「倒れ状態検出処理」とも称する)とを選択的に切り換えて実行させる。処理切換部170は、肩位置検出/追跡部160から各フレームの画像データの解析が終了された旨の信号が入力される度に、上記処理の切換処理の判定及び決定を行う。ここで、処理切換部170は、初期状態では、倒れ途中検出部180において倒れ途中状態検出処理を実行させる。そして、ある人物について一旦倒れ途中検出部180において倒れ途中状態が検出されると、当該ある人物については倒れ状態検出部190において倒れ状態検出処理を実行させる。なお、倒れ状態検出処理は、ある人物について中心位置が評価範囲外に到達したことによって終了される。このような処理の切換を行うのは、倒れ途中状態を経て倒れ状態に至る人物の詳細な転倒動作に対応させるためである。   The process switching unit 170 detects a state in which the person is in the middle of falling (hereinafter also referred to as a “falling state”) according to the situation (phase), and a person A process of detecting a state (hereinafter also referred to as a “falling state”) that has fallen down (hereinafter also referred to as a “falling state detection process”) is selectively switched and executed. The process switching unit 170 determines and determines the process switching process each time a signal indicating that the analysis of the image data of each frame has been completed is input from the shoulder position detection / tracking unit 160. Here, in the initial state, the process switching unit 170 causes the in-falling state detection unit 180 to execute the in-falling state detection process. Then, once the fall-in-progress state detection unit 180 detects a fall-in-progress state for a certain person, the fall-state detection unit 190 executes the fall-down state detection process for the certain person. Note that the fall state detection process is terminated when the center position of a certain person reaches outside the evaluation range. The reason for switching the processing is to cope with the detailed fall operation of the person who reaches the fall state through the fall state.

倒れ途中検出部180は、肩位置検出/追跡部160によって生成された肩追跡情報TIに基づいて中心位置の垂直方向への変化を評価することで倒れ途中状態を検出する。なお、倒れ途中検出部180は、倒れ途中状態が検出されると当該検出結果を処理切換部170に出力することで、処理切換部170による処理の切換を実現させる。また、倒れ途中検出部180における算出結果に基づいて肩追跡情報TIが更新される。倒れ途中検出部180の詳細については後述する。   The mid-fall detection unit 180 detects a mid-fall state by evaluating a change in the center position in the vertical direction based on the shoulder tracking information TI generated by the shoulder position detection / tracking unit 160. In addition, when the fall-in-progress state is detected, the fall-in-progress detection unit 180 outputs the detection result to the process switching unit 170, thereby realizing the process switching by the process switching unit 170. Further, the shoulder tracking information TI is updated based on the calculation result in the fall-down detection unit 180. Details of the fall-down detection unit 180 will be described later.

倒れ状態検出部190は、肩位置検出/追跡部160によって生成された肩追跡情報TIに基づいて中心位置の変化を評価することで倒れ状態を検出する。なお、倒れ状態検出部190は、倒れ状態が検出されると当該検出結果を警告画面生成部200に出力する。また、倒れ状態検出部190における算出結果に基づいて肩追跡情報TIが更新される。倒れ状態検出部190の詳細については後述する。   The fall state detection unit 190 detects a fall state by evaluating a change in the center position based on the shoulder tracking information TI generated by the shoulder position detection / tracking unit 160. In addition, when the fall state is detected, the fall state detection unit 190 outputs the detection result to the warning screen generation unit 200. Further, the shoulder tracking information TI is updated based on the calculation result in the falling state detection unit 190. Details of the fall state detection unit 190 will be described later.

警告画面生成部200は、倒れ状態検出部190から入力される倒れ状態が検出された検出結果に基づいて、人物が倒れたことを報知する警告画面の画像データを生成し、表示部15に対して出力する。このとき、表示部15では、警告画面が可視的に出力される。   The warning screen generation unit 200 generates image data of a warning screen that notifies that the person has fallen based on the detection result of the fall state detected from the fall state detection unit 190, and the display unit 15 Output. At this time, a warning screen is visibly output on the display unit 15.

図5から図8は、人物エッジ画像生成部150、肩位置検出/追跡部160、倒れ途中検出部180、及び倒れ状態検出部190にそれぞれ含まれる機能構成を概念的に示す機能ブロック図である。以下、図5から図8を参照しつつ、人物エッジ画像生成部150、肩位置検出/追跡部160、倒れ途中検出部180、及び倒れ状態検出部190の詳細な機能について説明する。   FIGS. 5 to 8 are functional block diagrams conceptually showing functional configurations included in the person edge image generation unit 150, the shoulder position detection / tracking unit 160, the fall-in-progress detection unit 180, and the fall-down state detection unit 190, respectively. . Hereinafter, the detailed functions of the person edge image generation unit 150, the shoulder position detection / tracking unit 160, the fall-in-progress detection unit 180, and the fall-down state detection unit 190 will be described with reference to FIGS.

○人物エッジ画像生成部150:
図5に示すように、人物エッジ画像生成部150は、機能構成として、主に差分画像生成部151、平滑化処理部152、2値化処理部153、膨張処理部154、エッジ強調部155、2値化処理部156、マスク処理部157、及びノイズ除去部158を備えている。
○ Personal edge image generation unit 150:
As shown in FIG. 5, the person edge image generation unit 150 mainly includes a difference image generation unit 151, a smoothing processing unit 152, a binarization processing unit 153, an expansion processing unit 154, an edge enhancement unit 155, as functional configurations. A binarization processing unit 156, a mask processing unit 157, and a noise removal unit 158 are provided.

差分画像生成部151は、第1のカメラC1によって予め背景を撮影して記憶部13等に記憶しておいた画像(以下「背景画像」とも称する)G1(例えば図9)と、フレーム間引き部140から入力される縮小画像G2(例えば図10)との差分画像G3(例えば図11)を生成する。この差分画像G3は、背景とは異なる主に人物を含む被写体を捉えた画像となっている。   The difference image generation unit 151 includes an image (hereinafter also referred to as “background image”) G1 (for example, FIG. 9) obtained by capturing a background in advance by the first camera C1 and storing it in the storage unit 13 or the like, and a frame thinning unit. A difference image G3 (for example, FIG. 11) from the reduced image G2 (for example, FIG. 10) input from 140 is generated. The difference image G3 is an image that captures a subject that mainly includes a person, which is different from the background.

差分画像生成部151で生成された差分画像G3に対して、平滑化処理部152において平滑化処理、2値化処理部153において2値化処理、膨張処理部154において膨張処理がそれぞれ施されることで、撮影画像のうちで人物を捉えた領域を特定する画像(以下「人物領域特定画像」とも称する)が生成される。なお、平滑化処理部152では、例えば、注目画素とその近傍画素の間で単純平均を行う一般的な平滑化処理が実施される。また、2値化処理部153では、例えば、予め設定された所定値を閾値とした2値化処理又は全画素値から所定ルールに従って求められる値を閾値とした2値化処理が実施される。更に、膨張処理部154では、例えば、注目画素の近傍に1つでも白画素があれば、当該注目画素を白画素とするような一般的な膨張処理が実施される。   The difference image G3 generated by the difference image generation unit 151 is subjected to smoothing processing in the smoothing processing unit 152, binarization processing in the binarization processing unit 153, and expansion processing in the expansion processing unit 154, respectively. As a result, an image (hereinafter also referred to as “person region specifying image”) that specifies the region in which the person is captured in the captured image is generated. In the smoothing processing unit 152, for example, a general smoothing process is performed in which a simple average is performed between the target pixel and its neighboring pixels. In the binarization processing unit 153, for example, a binarization process using a preset predetermined value as a threshold value or a binarization process using a value obtained from all pixel values according to a predetermined rule as a threshold value is performed. Further, in the expansion processing unit 154, for example, if there is at least one white pixel in the vicinity of the target pixel, a general expansion process is performed so that the target pixel is a white pixel.

このように、差分画像生成部151、平滑化処理部152、2値化処理部153、及び膨張処理部154によって、人物等といった動体のみを抽出するためのマスク情報として機能する人物領域特定画像が生成される。   In this way, the person image specifying unit 151, the smoothing processing unit 152, the binarization processing unit 153, and the dilation processing unit 154 generate a person area specifying image that functions as mask information for extracting only moving objects such as people. Generated.

一方、エッジ強調部155において、フレーム間引き部140から入力される縮小画像G2(例えば図10)に対して横方向に伸びる輪郭を強調するエッジ強調処理が施された後に、2値化処理部156において、2値化処理が施されることで、縮小画像の横方向の輪郭を主に強調して抽出したエッジ画像(例えば図12)が生成される。なお、エッジ強調部155では、例えば、図13に示すようなソーベルフィルタを用いたエッジ強調処理が実施される。また、2値化処理部156では、例えば、予め設定された所定値を閾値とした2値化処理又は全画素値から所定ルールに従って求められる値を閾値とした2値化処理が実施される。なお、以下では、エッジ画像は、例えば背景が白でエッジが黒で表されたものとして説明する。   On the other hand, the edge enhancement unit 155 performs edge enhancement processing for enhancing the contour extending in the horizontal direction on the reduced image G2 (for example, FIG. 10) input from the frame thinning unit 140, and then the binarization processing unit 156. In FIG. 12, an edge image (for example, FIG. 12) extracted by mainly emphasizing the lateral contour of the reduced image is generated by performing the binarization process. In the edge enhancement unit 155, for example, edge enhancement processing using a Sobel filter as shown in FIG. 13 is performed. In the binarization processing unit 156, for example, a binarization process using a preset predetermined value as a threshold value or a binarization process using a value obtained from all pixel values according to a predetermined rule as a threshold value is performed. In the following description, the edge image will be described assuming that the background is white and the edge is black, for example.

マスク処理部157は、膨張処理部154から入力される人物領域特定画像と、2値化処理部156から入力されるエッジ画像との論理積を得ることで、人物等の動体に注目したエッジ画像(人物エッジ画像)G5(例えば図14)を生成する。マスク処理部157で生成された人物エッジ画像G5は、ノイズ除去部158において例えば孤立点除去等の公知のノイズ除去処理が施されて、肩位置検出/追跡部160に出力される。ここで生成される人物エッジ画像は、例えば背景が白で人物等のエッジが黒で表されたものとなっている。   The mask processing unit 157 obtains a logical product of the person region specifying image input from the dilation processing unit 154 and the edge image input from the binarization processing unit 156, so that an edge image focused on a moving object such as a person is obtained. (Personal edge image) G5 (for example, FIG. 14) is generated. The human edge image G5 generated by the mask processing unit 157 is subjected to a known noise removal process such as isolated point removal in the noise removal unit 158, and is output to the shoulder position detection / tracking unit 160. The person edge image generated here has, for example, a white background and an edge of a person or the like expressed in black.

なお、ここで、人物等の動体に係るエッジを選択的に採用したのは、後述する中心位置の検出における計算量を低減するとともに、背景から中心位置が誤って検知されるような不具合を抑制するためである。   In this case, the selective use of edges related to moving objects such as people reduces the amount of calculation in the detection of the center position, which will be described later, and suppresses the problem that the center position is erroneously detected from the background. It is to do.

○肩位置検出/追跡部160:
図6に示すように、肩位置検出/追跡部160は、機能構成として、主に半円中心検出部161、及び中心位置グループ化部162を備えている。
○ Shoulder position detection / tracking unit 160:
As shown in FIG. 6, the shoulder position detection / tracking unit 160 mainly includes a semicircular center detection unit 161 and a center position grouping unit 162 as functional configurations.

半円中心検出部161は、人物の肩の輪郭が下弦の半円の弧と類似していることを利用して、人物エッジ画像生成部150から入力される人物エッジ画像から肩の輪郭に近似した半円の中心位置(すなわち中心位置の座標)を検出する。当該中心位置は、人物の肩が存在する大凡の場所を示す基準位置であり、中心位置の検出は、例えば、円の検出で用いられるハフ変換を採用することで実現することができる。なお、中心位置の検出及び管理においては、図10で示すような縮小画像(縦120画素×横160画素)の各画素の座標を、例えば、縮小画像の左下を原点、右方向をX軸方向、上方向をY軸方向としたXY平面上の座標(X,Y)として扱う。   The semicircular center detection unit 161 approximates the contour of the shoulder from the human edge image input from the human edge image generation unit 150 using the fact that the contour of the human shoulder is similar to the arc of the lower chord semicircle. The center position of the semicircle (that is, the coordinates of the center position) is detected. The center position is a reference position indicating a general place where a person's shoulder exists, and the center position can be detected by employing, for example, a Hough transform used for detecting a circle. In the detection and management of the center position, the coordinates of each pixel of the reduced image (vertical 120 pixels × horizontal 160 pixels) as shown in FIG. 10, for example, the lower left of the reduced image is the origin, and the right direction is the X-axis direction. The upper direction is treated as coordinates (X, Y) on the XY plane with the Y-axis direction as the upper direction.

ここで、ハフ変換を用いた中心位置の検出手法について説明する。   Here, a center position detection method using the Hough transform will be described.

半円中心検出部161における中心位置の検出においては、まず、ある座標を中心位置として検出するか否かを判定する際に指標となるスコアを算出する。   In the detection of the center position in the semicircular center detection unit 161, first, a score is calculated as an index when determining whether or not to detect a certain coordinate as the center position.

図15は、半円中心検出部161において実施されるスコアの算出処理の動作フローを例示するフローチャートである。   FIG. 15 is a flowchart illustrating an operation flow of a score calculation process performed in the semicircle center detection unit 161.

ステップS1では、スコアがリセットされて、初期値である0に設定される。   In step S1, the score is reset and set to 0, which is an initial value.

ステップS2では、人物エッジ画像を構成する全画素のうちの判断対象となる画素(判断対象画素)を特定するためのカウントi(iは自然数)が初期値である1に設定される。   In step S2, a count i (i is a natural number) for specifying a pixel to be determined (determination target pixel) among all the pixels constituting the person edge image is set to 1 which is an initial value.

ステップS3では、人物エッジ画像を構成する全画素のうちのi番目の画素(Xi,Yi)が判断対象画素として指定される。   In step S3, the i-th pixel (Xi, Yi) of all the pixels constituting the person edge image is designated as the determination target pixel.

ステップS4では、ステップS3で指定された画素(指定画素)が黒画素であるか否か判定される。ここで、指定画素が黒画素でない場合(すなわち、人物等のエッジに対応する画素でない場合)には、ステップS5に進み、黒画素である場合には、ステップS7に進む。   In step S4, it is determined whether or not the pixel (designated pixel) designated in step S3 is a black pixel. If the designated pixel is not a black pixel (that is, if it is not a pixel corresponding to an edge such as a person), the process proceeds to step S5. If the designated pixel is a black pixel, the process proceeds to step S7.

ステップS5では、人物エッジ画像を構成する全画素が判断対象画素として指定されたか否か判定される。ここで、全画素(ここでは、120×160=19200画素)が判断対象画素として指定されていなければ、ステップS6でカウントiが1だけ増加されて、ステップS3に進む。一方、全画素が判断対象画素として指定されていれば、スコアの算出処理動作のフローが終了される。つまり、全画素が判断対象画素として指定されるまで、ステップS3以降の処理が適宜繰り返して実行される。   In step S5, it is determined whether all the pixels constituting the person edge image have been designated as the determination target pixels. Here, if all the pixels (120 × 160 = 19200 pixels in this case) are not designated as the determination target pixels, the count i is incremented by 1 in step S6, and the process proceeds to step S3. On the other hand, if all the pixels are designated as the determination target pixels, the flow of the score calculation processing operation is ended. That is, the processes after step S3 are repeated as appropriate until all the pixels are designated as the determination target pixels.

ステップS7では、指定画素である黒画素(Xi,Yi)を通る円の中心座標(Xc,Yc)が求められる。ここでは、円の最大半径をRmaxとし、下式(2),(3)を満たす範囲内で、中心座標(Xc,Yc)が求められる。   In step S7, the center coordinates (Xc, Yc) of the circle passing through the black pixel (Xi, Yi) that is the designated pixel are obtained. Here, assuming that the maximum radius of the circle is Rmax, the center coordinates (Xc, Yc) are obtained within a range satisfying the following expressions (2) and (3).

(Xi−Rmax)≦Xc≦(Xi+Rmax)・・・(2)
(Yi−Rmax)≦Yc≦Yi ・・・(3)
(Xi−Rmax) ≦ Xc ≦ (Xi + Rmax) (2)
(Yi−Rmax) ≦ Yc ≦ Yi (3)

つまり、黒画素(Xi,Yi)を中心とした半径Rmaxの半円(上弦の半円)に含まれる全画素の座標が、中心座標(Xc,Yc)として求められる。したがって、ステップS7では、多数の座標が中心座標(Xc,Yc)として求められる。なお、最大半径Rmaxは、画像において捉えられる人物の肩の大きさの上限値として予め設定される値であり、プログラムPGで予め規定されていても良いし、ユーザによる操作部14の操作により任意に設定可能とされていても良い。   That is, the coordinates of all the pixels included in the semicircle with the radius Rmax (first chord semicircle) centered on the black pixel (Xi, Yi) are obtained as the center coordinates (Xc, Yc). Therefore, in step S7, a large number of coordinates are obtained as center coordinates (Xc, Yc). The maximum radius Rmax is a value set in advance as an upper limit value of the size of the person's shoulder captured in the image, and may be specified in advance by the program PG, or may be arbitrarily determined by the operation of the operation unit 14 by the user. It may be possible to set to.

ステップS8では、ステップS7において求められた多数の中心座標(Xc,Yc)のうちスコアを算出する対象となる中心座標(以下「スコア算出対象中心座標」とも称する)を特定するためのカウントj(jは自然数)が初期値である1に設定される。   In step S8, a count j for specifying a center coordinate (hereinafter also referred to as “score calculation target central coordinate”) for which a score is to be calculated among the many central coordinates (Xc, Yc) obtained in step S7. j is a natural number) which is set to 1 which is an initial value.

ステップS9では、ステップS7において求められた多数の中心座標(Xc,Yc)のうちのj番目の中心座標(Xcj,Ycj)がスコア算出対象中心座標として指定される。   In step S9, the j-th center coordinate (Xcj, Ycj) among the many center coordinates (Xc, Yc) obtained in step S7 is designated as the score calculation target center coordinate.

ステップS10では、ステップS9で指定された中心座標(Xcj,Ycj)と指定画素である黒画素(Xi,Yi)との距離が、下式(4)によって、座標(Xcj,Ycj)を中心として黒画素(Xi,Yi)を通る半円の半径Rjとして求められる。   In step S10, the distance between the center coordinate (Xcj, Ycj) specified in step S9 and the black pixel (Xi, Yi) that is the specified pixel is centered on the coordinate (Xcj, Ycj) by the following equation (4). It is obtained as a radius Rj of a semicircle passing through the black pixel (Xi, Yi).

Rj=√{(Xi−Xcj)2+(Yi−Ycj)2}・・・(4) Rj = √ {(Xi−Xcj) 2 + (Yi−Ycj) 2 } (4)

ステップS11では、ステップS10で求められた半径Rjが、予め設定された最小半径Rmin以上でかつ予め設定された最大半径Rmax以下であるか否か判定される。すなわち、下式(5)を満たすか否か判定される。   In step S11, it is determined whether or not the radius Rj obtained in step S10 is not less than a preset minimum radius Rmin and not more than a preset maximum radius Rmax. That is, it is determined whether or not the following expression (5) is satisfied.

Rmin≦Rj≦Rmax・・・(5)     Rmin ≦ Rj ≦ Rmax (5)

なお、最小半径Rminは、画像において捉えられる人物の肩の大きさの下限値として予め設定される値であり、プログラムPGで予め規定されていても良いし、ユーザによる操作部14の操作により任意に設定可能とされていても良い。このように、人物の肩の大きさに合わせて半径の範囲をある程度限定することで、ハフ変換における計算量の低減、ひいては処理の高速化を図ることができる。   The minimum radius Rmin is a value set in advance as a lower limit value of the size of the person's shoulder captured in the image, and may be defined in advance by the program PG, or may be arbitrarily determined by the user operating the operation unit 14. It may be possible to set to. In this way, by limiting the radius range to some extent according to the size of the person's shoulder, the amount of calculation in the Hough transform can be reduced, and the processing speed can be increased.

このステップS11では、中心座標(Xcj,Ycj)と半径Rjとの組合せについて、上式(5)を満たさないと判定されると、ステップS13に進み、上式(5)を満たすと判定されると、ステップS12で中心座標(Xcj,Ycj)と半径Rjとの組合せに対するスコアが1だけ増加されて、ステップS13に進む。   In this step S11, if it is determined that the above equation (5) is not satisfied for the combination of the center coordinates (Xcj, Ycj) and the radius Rj, the process proceeds to step S13, and it is determined that the above equation (5) is satisfied. In step S12, the score for the combination of the center coordinates (Xcj, Ycj) and the radius Rj is increased by 1, and the process proceeds to step S13.

ステップS13では、ステップS7で求められた全中心座標(Xc,Yc)がスコア算出対象中心座標として指定されたか否か判定される。ここで、全中心座標(Xc,Yc)がスコア算出対象中心座標として指定されていなければ、ステップS14でカウントjが1だけ増加されて、ステップS9に進む。一方、全中心座標(Xc,Yc)がスコア算出対象中心座標として指定されていれば、ステップS5に進む。つまり、1つの指定画素(Xi,Yi)について全中心座標(Xc,Yc)に係るスコアが算出されるまで、ステップS9〜S14の処理が繰り返され、1つの指定画素(Xi,Yi)について全中心座標(Xc,Yc)に係るスコアが算出されると、次の画素が指定画素として指定されるか、又はスコアの算出処理動作のフローが終了される。   In step S13, it is determined whether or not all center coordinates (Xc, Yc) obtained in step S7 are designated as score calculation target center coordinates. If all the center coordinates (Xc, Yc) are not designated as the score calculation target center coordinates, the count j is incremented by 1 in step S14, and the process proceeds to step S9. On the other hand, if all the center coordinates (Xc, Yc) are designated as the score calculation target center coordinates, the process proceeds to step S5. That is, until the score relating to all the central coordinates (Xc, Yc) is calculated for one designated pixel (Xi, Yi), the processes in steps S9 to S14 are repeated, and all the designated pixels (Xi, Yi) are obtained. When the score relating to the central coordinates (Xc, Yc) is calculated, the next pixel is designated as the designated pixel, or the flow of the score calculation processing operation is ended.

なお、半円中心検出部161におけるスコアの算出処理動作(図15)は、人物エッジ画像生成部150から1フレームの人物エッジ画像が入力される度に実行される。   Note that the score calculation processing operation (FIG. 15) in the semicircle center detection unit 161 is executed each time one frame of a person edge image is input from the person edge image generation unit 150.

半円中心検出部161は、上述したスコアの算出処理動作(図15)によってスコアを算出した後に、スコアが高い方から所定数(ここでは上位5つ)のスコアについて、下式(6)を満たすスコアが付与された中心座標(Xcj,Ycj)と半径Rjの組合せがあれば、その中心座標(Xcj,Ycj)を中心位置の座標(以下単に「中心位置」と略する)として検出する。   After calculating the score by the above-described score calculation processing operation (FIG. 15), the semicircle center detecting unit 161 calculates the following formula (6) for a predetermined number (here, the top five) scores from the highest score: If there is a combination of a center coordinate (Xcj, Ycj) to which a satisfying score is given and a radius Rj, the center coordinate (Xcj, Ycj) is detected as a coordinate of the center position (hereinafter simply referred to as “center position”).

{(スコア×100)/(3.14×Rj)}>70・・・(6)     {(Score × 100) / (3.14 × Rj)}> 70 (6)

図16は、人物エッジ画像G5(図14)に対して検出される肩の輪郭を大凡示す略半円の位置とその中心位置とを例示する図である。図16では、肩の輪郭を示す略半円が太線で示されており、その中心位置Pc1,Pc2が示されている。   FIG. 16 is a diagram exemplifying the position of a substantially semicircle that roughly indicates the contour of the shoulder detected for the person edge image G5 (FIG. 14) and the center position thereof. In FIG. 16, a substantially semicircle indicating the contour of the shoulder is indicated by a thick line, and the center positions Pc1 and Pc2 are indicated.

なお、半円中心検出部161におけるスコアの評価方法については、上式(6)を用いるものに限られず、例えば、他の関係式を用いても良い。また、半円中心検出部161においては、中心位置が複数存在する場合に、中心位置どうしの距離が所定距離(例えば最小半径Rminの4分の1など)以下の関係にある複数の中心位置については、所定のルール(例えば、付与されたスコアが最大のものを採用するルールや半径Rjが最大のものを採用するルール等)に従い、1つの中心位置を排他的に採用するようにしても良い。この処理は、肩の輪郭が完全には半円形状とはならないことに起因して、1人の人物の肩について複数の中心位置が検出される不具合の発生を抑制するための処理である。   In addition, about the score evaluation method in the semicircle center detection part 161, it is not restricted to what uses the said Formula (6), For example, you may use another relational expression. Further, in the semicircular center detection unit 161, when there are a plurality of center positions, a plurality of center positions where the distance between the center positions is less than or equal to a predetermined distance (for example, a quarter of the minimum radius Rmin). May exclusively adopt one central position according to a predetermined rule (for example, a rule that adopts the one with the largest assigned score or a rule that adopts the one with the largest radius Rj). . This process is a process for suppressing the occurrence of a problem in which a plurality of center positions are detected for the shoulder of one person due to the fact that the contour of the shoulder is not completely semicircular.

そして、半円中心検出部161における中心位置の検出は、人物エッジ画像生成部150から人物エッジ画像が入力される度に実行され、その都度、中心位置グループ化部162に中心位置の情報が出力される。   Then, the detection of the center position in the semicircle center detection unit 161 is executed every time a person edge image is input from the person edge image generation unit 150, and each time the center position information is output to the center position grouping unit 162. Is done.

中心位置グループ化部162は、半円中心検出部161から時間順次に入力される中心位置の情報を、各人物毎の中心位置の情報にグループ分けして中心位置を追跡した情報(以下「肩追跡情報」とも称する)TIを生成し、メモリ12bに記憶する。   The center position grouping unit 162 groups the information on the center position sequentially input from the semicircular center detection unit 161 into information on the center position for each person and tracks the center position (hereinafter referred to as “shoulder”). TI) (also called “tracking information”) is generated and stored in the memory 12b.

このグループ分けの手法としては、例えば、nフレーム目(nは自然数)の人物エッジ画像において検出された中心位置(以下「n中心位置」とも称する)とn+1フレーム目の人物エッジ画像において検出された中心位置(以下「n+1中心位置」とも称する)との距離が最も近い中心位置の組合せを、同一人物の中心位置としてグループ化するような手法を採用することができる。なお、n中心位置とn+1中心位置との距離Dは、n中心位置の座標を(X1,Y1)、n+1中心位置の座標を(X2,Y2)とすると、下式(7)によって算出される。   As a method of grouping, for example, a center position (hereinafter also referred to as “n center position”) detected in an nth frame (n is a natural number) person edge image and an n + 1th frame person edge image are detected. A method of grouping combinations of center positions that are closest to the center position (hereinafter also referred to as “n + 1 center position”) as the center positions of the same person can be employed. The distance D between the n center position and the n + 1 center position is calculated by the following expression (7), where the coordinates of the n center position are (X1, Y1) and the coordinates of the n + 1 center position are (X2, Y2). .

D=√{(X1−X2)2+(Y1−Y2)2}・・・(7) D = √ {(X1−X2) 2 + (Y1−Y2) 2 } (7)

このような中心位置のグループ分けによって、1フレームの人物エッジ画像G5において複数の人物が捉えられている場合でも、各人物毎の中心位置を区別して追跡、管理することができる。   By such grouping of the central positions, even when a plurality of persons are captured in one frame of the person edge image G5, it is possible to distinguish and track and manage the central positions for each person.

図17は、5フレーム分の人物エッジ画像を解析することで検出された中心位置をグループ分けすることで得られた第1及び第2の中心位置のグループGc1,Gc2を例示する図である。図17では、人物エッジ画像G5に対応する画像領域ARに対して、各々5点の中心位置からなる第1及び第2の中心位置のグループGc1,Gc2が示されている。   FIG. 17 is a diagram illustrating first and second center position groups Gc1 and Gc2 obtained by grouping the center positions detected by analyzing the human edge image for five frames. FIG. 17 shows first and second center position groups Gc1 and Gc2 each having five center positions for the image area AR corresponding to the person edge image G5.

但し、人物エッジ画像生成部150で時間順次に生成される人物エッジ画像、すなわち同じアングルを捉えた時間的に前後する画像では、人物の移動に伴い、人物の肩が時間順次に出現/消滅する。すなわち撮影範囲に対して人物の肩が時間順次に入出する。そして、撮影範囲から第1の人物の肩が出て行く際に、撮影範囲に第2の人物の肩が存在する場合には、第1の人物に係る中心位置と第2の人物の中心位置とが誤ってグループ化される可能性がある。このような不具合を回避するために、中心位置グループ化部162では、例えば、n中心位置とn+1中心位置との距離Dが、予め設定された所定距離(例えば、10画素)以上離れている場合には、同じグループを形成しないようにしている。つまり、画像上から消滅した第1の人物に係る中心位置のグループは、過去のものとされ、当該グループに係る全情報が肩追跡情報TIから消去される。一方、画像上に存在する第2の人物に係る中心位置は他のグループを独自に形成する。   However, in a person edge image generated in time sequence by the person edge image generation unit 150, that is, an image that moves around in time capturing the same angle, the shoulder of the person appears / disappears in time sequence as the person moves. . That is, a person's shoulder enters and exits the shooting range in time sequence. Then, when the shoulder of the second person exists in the shooting range when the shoulder of the first person goes out of the shooting range, the center position of the first person and the center position of the second person May be grouped by mistake. In order to avoid such a problem, in the center position grouping unit 162, for example, when the distance D between the n center position and the n + 1 center position is a predetermined distance (for example, 10 pixels) or more. Do not form the same group. That is, the group at the center position related to the first person disappeared from the image is regarded as the past, and all information related to the group is deleted from the shoulder tracking information TI. On the other hand, the center position relating to the second person existing on the image forms another group uniquely.

このように、画像上である程度の大きさ(サイズ)を占める肩の場所を特定する中心位置の変化を追跡することで、人物の姿勢の変化を精度良く検知することができる。   Thus, by tracking the change in the center position that identifies the location of the shoulder that occupies a certain size (size) on the image, it is possible to accurately detect the change in the posture of the person.

なお、中心位置グループ化部162は、1フレーム分の人物エッジ画像の解析処理が終了する度に、当該解析処理が終了した旨の信号を処理切換部170に対して出力する。   The center position grouping unit 162 outputs a signal indicating that the analysis process has been completed to the process switching unit 170 every time the analysis process of the person edge image for one frame is completed.

図18は、人物が転倒する際における中心位置の経時的変化を例示する図である。図18では、縦軸が画像における中心位置の高さ(Y座標)を示し、横軸が時刻を示しており、折れ線が中心位置の高さ(Y座標)の経時的変化を示している。図18に示すように、人物が転倒する際には、まず、倒れていく過程で中心位置の高さが大きく変化し(時刻t1〜t2)、その後、倒れた状態では、中心位置の高さがほとんど変化しない(時刻t2〜t3)。そこで、本実施形態に係る倒れ検知装置10では、倒れ途中検出部180によって倒れ途中状態を検出し、その後、倒れ状態検出部190によって倒れ状態(ほぼ静止した状態)を検出する倒れ検知処理を行うことで、例えば、ある人物が第1のカメラC1の前を走って通り過ぎるような場合であっても、誤って人物が転倒したと検知しないようにすることができ、結果として、人物の転倒を精度良く検知することができる。なお、図18では、参考の為に、倒れ状態から起き上がる過程における中心位置の高さの経時的変化も示されている(時刻t3〜t4)。   FIG. 18 is a diagram illustrating the change over time of the center position when the person falls. In FIG. 18, the vertical axis indicates the height (Y coordinate) of the center position in the image, the horizontal axis indicates time, and the broken line indicates the change over time of the height (Y coordinate) of the center position. As shown in FIG. 18, when a person falls, first, the height of the center position changes greatly in the process of falling (time t1 to t2), and then the height of the center position in the fallen state. Hardly changes (time t2 to t3). Therefore, in the fall detection device 10 according to the present embodiment, a fall detection process is performed in which a fall-down state is detected by the fall-down detection unit 180, and then a fall-down state (substantially stationary state) is detected by the fall-down detection unit 190. Thus, for example, even when a person runs in front of the first camera C1, it can be prevented that the person has accidentally fallen, and as a result, It can be detected with high accuracy. For reference, FIG. 18 also shows the change over time in the height of the center position in the process of getting up from the collapsed state (time t3 to t4).

○倒れ途中検出部180:
図7に示すように、倒れ途中検出部180は、機能構成として、主に垂直移動量算出部181、垂直移動量評価部182、及びフェイズ切換決定部183を備えている。
○ Falling detection unit 180:
As shown in FIG. 7, the in-fall detection unit 180 mainly includes a vertical movement amount calculation unit 181, a vertical movement amount evaluation unit 182, and a phase switching determination unit 183 as functional configurations.

垂直移動量算出部181は、肩追跡情報TIを参照することで、各グループ毎に、中心位置の垂直方向への移動量を算出する。垂直移動量算出部181では、各フレーム間における中心位置のY座標の差分(以下「中心位置垂直差分」とも称する)を算出し、当該中心位置垂直差分の算出に用いた中心位置の情報と関連付けて肩追跡情報TIに記憶する。このとき肩追跡情報TIが更新される。   The vertical movement amount calculation unit 181 calculates the movement amount in the vertical direction of the center position for each group by referring to the shoulder tracking information TI. The vertical movement amount calculation unit 181 calculates a difference in the Y coordinate of the center position between the frames (hereinafter also referred to as “center position vertical difference”), and associates it with the information on the center position used for the calculation of the center position vertical difference. And stored in the shoulder tracking information TI. At this time, the shoulder tracking information TI is updated.

垂直移動量評価部182は、肩追跡情報TIを参照することで、所定期間(例えば、1/3秒間)における人物の肩の移動量を評価する。具体的には、例えば、肩追跡情報TIを参照することで、所定数のフレーム(例えば、最新フレーム及び直近4フレームからなる合計5フレーム)について、各フレーム間における中心位置垂直差分を2乗して累積し、比較数(例えば4)で割った値を中心位置の経時的な垂直方向への変化に係る評価値(以下「垂直変化評価値」とも称する)として算出する。そして、当該垂直変化評価値が所定値(例えば20)を超える場合には、中心位置の変化が比較的大きいため、人物が倒れている途中の状態(倒れ途中状態)であると評価する。つまり、倒れ途中状態を検出する。なお、ここでは、垂直変化評価値として、所定数のフレームについて中心位置垂直差分を2乗して累積し、比較数で割った値を採用したが、これに限られず、例えば、所定数のフレームについて、各フレーム間における中心位置垂直差分を単に合計した値など、中心位置の垂直変化を評価することができる値であれば良い。   The vertical movement amount evaluation unit 182 evaluates the movement amount of the person's shoulder during a predetermined period (for example, 1/3 second) by referring to the shoulder tracking information TI. Specifically, for example, by referring to the shoulder tracking information TI, the center position vertical difference between each frame is squared for a predetermined number of frames (for example, a total of 5 frames including the latest frame and the latest 4 frames). Then, the value divided by the comparison number (for example, 4) is calculated as an evaluation value (hereinafter also referred to as “vertical change evaluation value”) related to the vertical change in the center position over time. And when the said vertical change evaluation value exceeds predetermined value (for example, 20), since the change of a center position is comparatively large, it is evaluated that it is the state in the middle of a person falling (the state in the middle of a fall). That is, a state in the middle of falling is detected. Here, as the vertical change evaluation value, a value obtained by squaring and accumulating the center position vertical difference for a predetermined number of frames and dividing by the comparison number is adopted, but the present invention is not limited to this, and for example, a predetermined number of frames Any value may be used as long as the vertical change of the center position can be evaluated, such as a value obtained by simply summing the vertical differences of the center positions between the frames.

フェイズ切換決定部183は、人物(すなわち中心位置のグループ)毎に、垂直移動量評価部182によって倒れ途中状態であると評価されたことに応答して、倒れ途中状態を検出する倒れ途中状態検出処理を行うフェイズ(フェイズ1)から倒れ状態を検出する倒れ状態検出処理を行うフェイズ(フェイズ2)に切り換えることを決定し、その旨を示す信号を処理切換部170に対して出力する。   The phase switching determination unit 183 detects the half-falling state detection in response to the fact that the vertical movement amount evaluation unit 182 evaluates the half-falling state for each person (that is, the group at the center position). It is determined to switch from the phase in which processing is performed (phase 1) to the phase in which the falling state detection processing for detecting a falling state (phase 2) is performed, and a signal indicating that is output to the processing switching unit 170.

○倒れ状態検出部190:
図8に示すように、倒れ状態検出部190は、機能構成として、主に移動量算出部191、及び分散量評価部192を備えている。
○ Falling state detection unit 190:
As shown in FIG. 8, the falling state detection unit 190 mainly includes a movement amount calculation unit 191 and a dispersion amount evaluation unit 192 as functional configurations.

移動量算出部191は、肩追跡情報TIを参照することで、各グループ毎に中心位置の移動量を算出する。移動量算出部191では、各フレーム間における中心位置のXY座標のそれぞれの差分、すなわち水平及び垂直方向それぞれにおける差分(以下「中心位置水平垂直差分」とも称する)を算出し、当該中心位置水平垂直差分の算出に用いた中心位置の情報と関連付けて肩追跡情報TIに記憶する。このとき肩追跡情報TIが更新される。   The movement amount calculation unit 191 calculates the movement amount of the center position for each group by referring to the shoulder tracking information TI. The movement amount calculation unit 191 calculates the difference between the XY coordinates of the center position between the frames, that is, the difference in the horizontal and vertical directions (hereinafter also referred to as “center position horizontal / vertical difference”), and the center position horizontal / vertical. The shoulder tracking information TI is stored in association with the information on the center position used for the difference calculation. At this time, the shoulder tracking information TI is updated.

分散量評価部192は、肩追跡情報TIを参照することで、所定期間(例えば、1/3秒間)における中心位置の分散量(すなわち、人物の肩の動き量)を評価する。具体的には、例えば、肩追跡情報TIを参照することで、所定数のフレーム(例えば、最新フレーム及び直近4フレームからなる合計5フレーム)について、各フレーム間における中心位置水平垂直差分を2乗して累積し、比較数(例えば4)で割った値を中心位置の経時的な移動量に係る評価値(以下「移動評価値」とも称する)として算出する。そして、当該移動評価値が所定値(例えば5)未満である場合、すなわち所定の値域範囲内(例えば0以上4以下)である場合には、中心位置の経時的な変化が著しく小さいため、人物が倒れて状態(倒れ状態)に至ったと評価(検出)し、人物が転倒したことを検知する。なお、ここでは、移動評価値として、所定数のフレームについて中心位置水平垂直差分を2乗して累積し、比較数で割った値を採用したが、これに限られず、例えば、所定数のフレームについて、各フレーム間における中心位置水平垂直差分を単に合計した値など、中心位置の移動を評価することができる値であれば良い。   The dispersion amount evaluation unit 192 evaluates the dispersion amount of the center position (that is, the amount of movement of the person's shoulder) in a predetermined period (for example, 1/3 second) by referring to the shoulder tracking information TI. Specifically, for example, referring to the shoulder tracking information TI, the center position horizontal / vertical difference between each frame is squared for a predetermined number of frames (for example, a total of 5 frames including the latest frame and the latest 4 frames). Then, a value obtained by accumulating and dividing by the number of comparisons (for example, 4) is calculated as an evaluation value (hereinafter also referred to as “movement evaluation value”) related to the amount of movement of the center position over time. When the movement evaluation value is less than a predetermined value (for example, 5), that is, within a predetermined value range (for example, 0 or more and 4 or less), the temporal change in the center position is extremely small. It is evaluated (detected) that the person has fallen to a state (falling state) and detects that the person has fallen. Here, as the movement evaluation value, a value obtained by squaring and accumulating the center position horizontal / vertical difference for a predetermined number of frames and dividing by the comparison number is adopted, but is not limited to this, for example, a predetermined number of frames Any value that can evaluate the movement of the center position, such as a value obtained by simply summing the center position horizontal and vertical differences between the frames, may be used.

なお、例えば、エスカレータ100の乗り口102において人物Hが転倒する際には、エスカレータ100によって人物Hが転倒した状態で搬送されるような場面も想定されるが、そのような場面においても、中心位置の経時的な変化量は比較的小さな値となるため、上記倒れ状態検出処理によって倒れ状態を精度良く検出することができる。   For example, when the person H falls down at the entrance 102 of the escalator 100, a scene in which the person H is transported in a fallen state by the escalator 100 is also assumed. Since the amount of change in position over time is a relatively small value, the fall state can be accurately detected by the fall state detection process.

また、分散量評価部192は、人物が転倒したことを検知すると、その旨を示す信号を警告画面生成部200に出力する。   Further, when the variance amount evaluation unit 192 detects that the person has fallen, the variance amount evaluation unit 192 outputs a signal indicating that to the warning screen generation unit 200.

なお、上述した倒れ途中検出部180による倒れ途中状態検出処理、及び倒れ状態検出部190による倒れ状態検出処理を行うタイミングは制限されても良い。例えば、画像上の所定の領域(例えば、図19に示すように、画像領域ARのうちの斜線を付した下から10ライン目から80ライン目にかけた領域)に中心位置が存在している場合にのみ、倒れ途中状態検出処理や倒れ状態検出処理が行われるようにしても良い。また、一般に倒れ途中状態から倒れ状態に至るまでの時間は、比較的短いと予測されるため、倒れ状態検出処理が行われる期間を予め設定された所定期間(例えば、0.5秒間や1秒間)に制限して、当該所定期間の経過に応答して、倒れ途中状態検出処理を行うフェイズ1に強制的に戻るようにしても良い。   Note that the timing of performing the above-described falling state detection process by the falling state detection unit 180 and the falling state detection process by the falling state detection unit 190 may be limited. For example, when the center position exists in a predetermined area on the image (for example, as shown in FIG. 19, the area from the 10th line to the 80th line from the bottom of the shaded area in the image area AR). Only in the middle, the fall state detection process or the fall state detection process may be performed. In general, it is predicted that the time from the fall-down state to the fall-down state is relatively short. Therefore, a period during which the fall-down state detection process is performed is set to a predetermined period (for example, 0.5 seconds or 1 second). ) And forcibly returning to phase 1 in which the state detection process during the fall is performed in response to the passage of the predetermined period.

<倒れ検知処理に係る動作>
図20は、倒れ検知システム1における倒れ検知処理に係る動作フローを示すフローチャートである。本動作フローは、倒れ検知装置10においてユーザが操作部14を種々操作すること等により、プログラムPGが制御部12で読み込まれて実行されることで開始され、実現される。なお、ここでは、説明を簡略化するために、第1のカメラC1で撮影された動画を構成する各フレームの画像データが順次入力される場合に着目して説明する。
<Operation related to fall detection processing>
FIG. 20 is a flowchart showing an operation flow related to the fall detection process in the fall detection system 1. This operation flow is started and realized when the program PG is read and executed by the control unit 12 when the user operates the operation unit 14 in the fall detection device 10 in various ways. Here, in order to simplify the description, the description will be focused on the case where image data of each frame constituting a moving image shot by the first camera C1 is sequentially input.

ステップST1では、第1のカメラC1から1フレーム分の画像データがI/F11を介して輝度画像生成部120に入力される。   In step ST1, image data for one frame is input from the first camera C1 to the luminance image generation unit 120 via the I / F 11.

ステップST2では、輝度画像生成部120によってステップST1で入力された画像データから輝度画像が生成される。   In step ST2, a luminance image is generated from the image data input in step ST1 by the luminance image generation unit 120.

ステップST3では、画素間引き部130によってステップST2で生成された輝度画像について縦及び横ラインともに1ラインおきにライン間引き(すなわち画素間引き)が行われることで、縮小画像が生成される。   In step ST3, a reduced image is generated by performing line thinning (that is, pixel thinning) on every other vertical and horizontal lines for the luminance image generated in step ST2 by the pixel thinning unit 130.

ステップST4では、フレーム間引き部140によってステップST3で生成された縮小画像が偶数番目のフレームに係る縮小画像か否か判定される。ここで、偶数番目のフレームに係る縮小画像でないと判定されれば、当該縮小画像は採用されずにステップST1に戻り、偶数番目のフレームに係る縮小画像と判定されれば、当該縮小画像が採用されて、ステップST5に進む。つまり、フレーム間引き処理が行われる。なお、ここでは、偶数番目のフレームに係る縮小画像を採用するものとして説明したが、奇数番目のフレームに係る縮小画像を採用しても良い。   In step ST4, it is determined whether or not the reduced image generated in step ST3 by the frame thinning unit 140 is a reduced image related to an even-numbered frame. If it is determined that the image is not a reduced image related to the even-numbered frame, the reduced image is not adopted, and the process returns to step ST1. If it is determined that the image is a reduced image related to the even-numbered frame, the reduced image is adopted. Then, the process proceeds to step ST5. That is, frame thinning processing is performed. In addition, although it demonstrated as what employ | adopts the reduced image which concerns on an even-numbered frame here, you may employ | adopt the reduced image which concerns on an odd-numbered frame.

ステップST5では、人物エッジ画像生成部150によって縮小画像から人物エッジ画像が生成される。   In step ST5, the person edge image generation unit 150 generates a person edge image from the reduced image.

ステップST6では、肩位置検出/追跡部160によってステップST5で生成された人物エッジ画像から中心位置が検出される。   In step ST6, the center position is detected by the shoulder position detection / tracking unit 160 from the person edge image generated in step ST5.

ステップST7では、肩位置検出/追跡部160によってステップST6で検出された中心位置について、人物毎に中心位置がグループ分けされる。ステップST7の処理が1回目の場合には、各人物の中心位置は1点ずつしか検出されていないため、各々1点ずつの中心位置が各グループを形成するが、ステップST7の処理が2回目以降となると、経時的に変化する中心位置が人物毎にグループ分けされ、人物毎に中心位置を追跡した肩追跡情報TIが生成されてメモリ12bに記憶される。   In step ST7, the center positions of the center positions detected in step ST6 by the shoulder position detection / tracking unit 160 are grouped for each person. In the case where the process of step ST7 is the first time, only one point is detected for each person's center position, so that each center position forms each group, but the process of step ST7 is the second time. Thereafter, the center positions that change over time are grouped for each person, and shoulder tracking information TI that tracks the center position for each person is generated and stored in the memory 12b.

ステップST8では、中心位置のグループがメモリ12bに記憶されているか否か、すなわち肩追跡情報TIがメモリ12bに記憶されているか否か判定される。ここで、肩追跡情報TIがメモリ12bに記憶されていなければ、ステップST1に戻る。一方、肩追跡情報TIがメモリ12bに記憶されていれば、ステップST9に進む。なお、第1のカメラC1で人物が捉えられていない場合には、肩追跡情報TIがメモリ12bに記憶されていない状態となる。   In step ST8, it is determined whether or not the group at the center position is stored in the memory 12b, that is, whether or not the shoulder tracking information TI is stored in the memory 12b. If the shoulder tracking information TI is not stored in the memory 12b, the process returns to step ST1. On the other hand, if the shoulder tracking information TI is stored in the memory 12b, the process proceeds to step ST9. When no person is captured by the first camera C1, the shoulder tracking information TI is not stored in the memory 12b.

ステップST9では、肩追跡情報TIに含まれる中心位置に係るグループのうちの評価対象となる中心位置に係るグループを特定するためのカウントA(Aは自然数)が初期値である1に設定される。   In step ST9, a count A (A is a natural number) for specifying a group related to the center position to be evaluated among groups related to the center position included in the shoulder tracking information TI is set to 1 which is an initial value. .

ステップST10では、A人目の中心位置に係るグループが評価対象として指定される。   In step ST10, a group related to the center position of the Ath person is designated as an evaluation target.

ステップST11では、処理切換部170によってステップST10で指定された評価対象についてフェイズ2にあるか否か判定される。ここで、フェイズ2になければステップST12に進み、フェイズ2にあればステップST15に進む。   In step ST11, it is determined by the process switching unit 170 whether or not the evaluation target specified in step ST10 is in phase 2. Here, if it is not in phase 2, the process proceeds to step ST12, and if it is in phase 2, the process proceeds to step ST15.

ステップST12では、ステップST10で評価対象として指定されたA人目の中心位置のグループについて倒れ途中検出部180による倒れ途中状態検出処理が行われる。   In step ST12, a fall-in-progress state detection process by the fall-in-progress detection unit 180 is performed for the group at the center position of the Ath person designated as the evaluation target in step ST10.

ステップST13では、ステップST12における処理結果に応じて倒れ途中状態であるか否か判定される。ここで、倒れ途中状態であれば、ステップST14に進み、当該ステップST14で評価対象であるA人目についてはフェイズ切換決定部183によりフェイズ2に切り換えられる。一方、倒れ途中状態でなければ、ステップST18に進む。   In step ST13, it is determined whether or not it is in the middle of a fall depending on the processing result in step ST12. Here, if it is in the state of falling down, the process proceeds to step ST14, and the A person who is the object of evaluation in step ST14 is switched to phase 2 by the phase switching determination unit 183. On the other hand, if it is not in the middle of falling, the process proceeds to step ST18.

ステップST15では、ステップST10で評価対象として指定されたA人目の中心位置のグループについて倒れ状態検出部190による倒れ状態検出処理が行われる。   In step ST15, the fall state detection process by the fall state detection unit 190 is performed for the group at the center position of the Ath person designated as the evaluation target in step ST10.

ステップST16では、ステップST15における処理結果に応じて倒れ状態であるか否か判定される。ここで、倒れ状態であれば、ステップST17に進み、当該ステップST17で警告画面生成部200によって警告画面の画像データが生成され、表示部15において当該警告画面が可視的に出力される。なお、警告画面とともに警告音声が出力されても良い。このとき、例えば、セキュリティーセンターの表示部15において警備員が現在第1のカメラC1で撮影されている画像を確認して、緊急の措置が必要か否か判断することができる。一方、ステップST16において倒れ状態でなければ、ステップST18に進む。   In step ST16, it is determined whether or not it is in a fallen state according to the processing result in step ST15. Here, if it is in the fall state, the process proceeds to step ST17, where the warning screen image data is generated by the warning screen generation unit 200 in step ST17, and the warning screen is visually output on the display unit 15. A warning sound may be output together with the warning screen. At this time, for example, a security guard can confirm an image currently captured by the first camera C1 on the display unit 15 of the security center, and determine whether or not an emergency measure is necessary. On the other hand, if not in the fall state in step ST16, the process proceeds to step ST18.

ステップST18では、肩追跡情報TIに含まれる中心位置に係る全グループが評価対象として指定されたか否か判定される。ここで、全グループが評価対象として指定されていなければ、ステップST19でカウントAが1だけ増加されて、ステップST10に進む。一方、全グループが評価対象として指定されていれば、ステップST1に戻る。つまり、全グループが評価対象として指定されるまで、ステップST10〜ST19の処理が適宜繰り返して実行される。   In step ST18, it is determined whether or not all groups related to the center position included in the shoulder tracking information TI are designated as evaluation targets. If all groups are not designated as evaluation targets, the count A is incremented by 1 in step ST19, and the process proceeds to step ST10. On the other hand, if all groups are designated as evaluation targets, the process returns to step ST1. That is, the processes of steps ST10 to ST19 are repeated as appropriate until all groups are designated as evaluation targets.

そして、第1のカメラC1から1フレーム分の画像データがI/F11を介して輝度画像生成部120に入力される度に、上記ステップST1〜ST19の処理が行われる。   Then, each time image data for one frame is input from the first camera C1 to the luminance image generation unit 120 via the I / F 11, the processes of steps ST1 to ST19 are performed.

以上のように、本発明の実施形態に係る倒れ検知システム1では、倒れ検知装置10において、第1〜第NのカメラC1〜CNで撮影された動画を構成する各フレームの画像データについて、画像に含まれる輪郭の近似曲線である上に凸の半円の中心位置を検出する。そして、中心位置の垂直方向への経時的な変化を評価するための垂直変化評価値を算出して、少なくとも当該垂直変化評価値に基づいて人物の転倒を検知する。このような構成を採用すると、例えば、限られた空間に複数の人物が混在して画像上で複数人が重なり合うような状況や照明の違いなどといった各種環境的要因に拘わらず、人物のある程度の大きさの領域を占める肩に係る基準位置(ここでは中心位置)は比較的精度良く検出できるため、人物の倒れ検知を精度良く行うことができる。   As described above, in the fall detection system 1 according to the embodiment of the present invention, in the fall detection apparatus 10, the image data of each frame constituting the moving image shot by the first to Nth cameras C <b> 1 to CN is imaged. The center position of an upwardly convex semicircle that is an approximate curve of the contour included in is detected. Then, a vertical change evaluation value for evaluating the temporal change of the center position in the vertical direction is calculated, and a person's fall is detected based on at least the vertical change evaluation value. Adopting such a configuration, for example, a certain amount of people regardless of various environmental factors such as a situation in which a plurality of people are mixed in a limited space and a plurality of people are overlapped on an image, a difference in lighting, etc. Since the reference position (here, the center position) related to the shoulder occupying the size area can be detected with relatively high accuracy, it is possible to accurately detect the person's fall.

また、中心位置の垂直方向への変化に係る垂直変化評価値が所定値を超えた状態を検出する倒れ途中状態検出処理を用いて人物の転倒を検知する。このような肩の場所を大凡特定する中心位置を用いた倒れ途中状態検出処理によれば、人物が倒れていく状態を精度良く検出することができるため、人物の倒れ検知を精度良く行うことができる。   Further, the fall of a person is detected using a fall-in-progress state detection process that detects a state in which the vertical change evaluation value related to the change in the center position in the vertical direction exceeds a predetermined value. According to the fall-in-progress state detection process using the center position that roughly specifies the location of the shoulder, it is possible to accurately detect the state in which the person is falling down, so that the fall of the person can be accurately detected. it can.

また、中心位置の垂直方向への変化に係る垂直変化評価値が所定値を超えた後に、中心位置の移動に係る移動評価値が所定範囲内となった場合(ここでは、倒れ状態検出処理によって倒れ状態が検出された場合)に、人物が転倒したと検知する。このような構成を採用することで、人物が倒れていく状態(倒れ途中状態)とその後の転倒状態(倒れ状態)とを精度良く検出することができる。このため、人物の倒れ検知を精度良く行うことができる。   Further, when the movement evaluation value related to the movement of the center position falls within the predetermined range after the vertical change evaluation value related to the vertical change of the center position exceeds the predetermined value (here, by the fall state detection process) When a fall state is detected, it is detected that the person has fallen. By adopting such a configuration, it is possible to accurately detect a state in which a person falls (a state in the middle of a fall) and a subsequent fall state (a fall state). For this reason, it is possible to accurately detect the fall of the person.

また、人物搬送装置(ここでは、エスカレータ100)によって人物Hが搬送される方向に対して撮影方向が略平行に設定された第1〜第NのカメラC1〜CNにより異なるタイミングでそれぞれ撮影された複数の撮影画像から人物の転倒を検知する。このような人物搬送装置で搬送される人物Hが正面方向又は背面方向から撮影されるといったエスカレータ等に係る監視カメラの一般的な配置に即した構成を採用した場合であっても、肩の輪郭の近似曲線と所定の関係を維持する中心位置(すなわち基準位置)を精度良く検出することができる。したがって、人物の倒れ検知を精度良く行うことができる。   In addition, the images were taken at different timings by the first to Nth cameras C1 to CN in which the photographing direction was set substantially parallel to the direction in which the person H was conveyed by the person conveying device (here, the escalator 100). A person's fall is detected from a plurality of photographed images. Even when a configuration conforming to the general arrangement of a surveillance camera related to an escalator or the like in which a person H conveyed by such a person conveying apparatus is photographed from the front direction or the back direction is adopted, the contour of the shoulder The center position (that is, the reference position) that maintains a predetermined relationship with the approximate curve can be accurately detected. Accordingly, it is possible to accurately detect the fall of the person.

特に、人物搬送装置に含まれるエスカレータ100に倒れ検知システム1を適用することで、人物が転倒し易いエスカレータ100などにおいて、人物の倒れを精度良く検知することができる。   In particular, by applying the fall detection system 1 to the escalator 100 included in the person conveyance device, the fall of the person can be accurately detected in the escalator 100 or the like where the person is likely to fall.

<変形例>
以上、この発明の実施形態について説明したが、この発明は上記説明した内容のものに限定されるものではない。
<Modification>
As mentioned above, although embodiment of this invention was described, this invention is not limited to the thing of the content demonstrated above.

◎例えば、上記実施形態では、倒れ検知装置10が表示部15を含んで構成されたが、これに限られず、例えば、倒れ検知装置10から表示部15を除いた構成を倒れ検知装置とし、当該倒れ検知装置に対して各種画像を表示するディスプレイ装置を接続することで、倒れ検知システムを構成するようにしても良い。   For example, in the above embodiment, the fall detection device 10 is configured to include the display unit 15. However, the present invention is not limited to this. For example, a configuration in which the display unit 15 is excluded from the fall detection device 10 is referred to as a fall detection device. A fall detection system may be configured by connecting a display device that displays various images to the fall detection device.

◎また、上記実施形態では、人物の肩の移動を追尾して評価するために、人物の肩が存在する大凡の場所を示す基準位置として、人物の肩の輪郭の近似曲線である半円の中心位置を検出したが、これに限られない。例えば、半円の弧の一端や中心点など、半円との関係で一義的に決まる、すなわち半円と所定の関係を維持する位置を基準位置として検出しても良い。更に、上記実施形態では、人物の肩の輪郭の近似曲線を半円としたが、これに限られず、例えば、円の1/3の弧や楕円の一部の弧などとしても良い。したがって、人物の肩の移動を追尾して評価するために、撮影画像に含まれる輪郭の近似曲線であって、上に凸かつ所定の値域範囲の曲率半径を有するカーブに対し、各フレームによらずに当該カーブと所定の関係を維持する基準位置を、各フレームの撮影画像から検出するようにすれば良い。   Also, in the above embodiment, in order to track and evaluate the movement of the person's shoulder, the semi-circle that is an approximate curve of the outline of the person's shoulder is used as a reference position indicating the approximate location where the person's shoulder exists. Although the center position is detected, the present invention is not limited to this. For example, a position that is uniquely determined by the relationship with the semicircle, such as one end of the arc of the semicircle or the center point, that is, a position that maintains a predetermined relationship with the semicircle may be detected as the reference position. Furthermore, in the above embodiment, the approximate curve of the contour of the person's shoulder is a semicircle, but the present invention is not limited to this, and may be, for example, an arc of 1/3 of a circle or a partial arc of an ellipse. Therefore, in order to track and evaluate the movement of a person's shoulder, an approximate curve of the contour included in the photographed image, which is convex upward and has a curvature radius in a predetermined range, is determined by each frame. Instead, a reference position that maintains a predetermined relationship with the curve may be detected from the captured image of each frame.

◎また、上記実施形態では、1フレームの画像の解析が次のフレームの画像が入力されるまでに完了するものとして説明したが、これに限られず、例えば、1フレームの画像の解析が次のフレームの画像が入力されるまでに完了しない場合には、1フレームの画像の解析を行っている途中で次のフレームの画像の解析を開始するようにしても良い。   In the above embodiment, the analysis of one frame image has been described as being completed before the next frame image is input. However, the present invention is not limited to this. For example, the analysis of one frame image is performed as follows. If it is not completed before the image of the frame is input, the analysis of the image of the next frame may be started during the analysis of the image of one frame.

◎また、上記実施形態では、中心位置の垂直変化評価値が所定値を超える倒れ途中状態を検出した後に、中心位置の移動評価値が所定の値域範囲に含まれる倒れ状態を検出することで、人物が倒れたことを検知したが、これに限られず、例えば、中心位置の垂直変化評価値が所定値を超える倒れ途中状態を検出しただけで人物が倒れたことを検知するようにしても良い。但し、中心位置の垂直変化評価値が所定値を超える倒れ途中状態を検出しただけで人物の倒れを検知するような構成を採用すると、例えば、人物Hがエスカレータ100を走って通過する際等に、誤って人物が倒れたと検知する不具合が生じる虞がある。したがって、誤検知を抑制して人物の倒れ検知の高精度化を図る観点から言えば、中心位置の垂直変化評価値が所定値を超える倒れ途中状態を検出した後に、中心位置の移動評価値が所定の値域範囲に含まれる倒れ状態を検出することで、人物が倒れたことを検知することが好ましい。   In addition, in the above embodiment, after detecting a fall-in-progress state in which the vertical change evaluation value of the center position exceeds a predetermined value, by detecting a fall-down state in which the movement evaluation value of the center position is included in a predetermined range, Although it is detected that the person has fallen, the present invention is not limited to this. For example, it may be detected that the person has fallen only by detecting a fall-in-progress state in which the vertical change evaluation value of the center position exceeds a predetermined value. . However, when a configuration in which a person's fall is detected simply by detecting a fall-in-progress state in which the vertical change evaluation value of the center position exceeds a predetermined value, for example, when the person H runs through the escalator 100, etc. There is a possibility that a problem of detecting that a person has fallen by mistake occurs. Therefore, from the viewpoint of improving the accuracy of human fall detection by suppressing erroneous detection, the movement evaluation value of the center position is detected after detecting a fall-in-progress state in which the vertical change evaluation value of the center position exceeds a predetermined value. It is preferable to detect that the person has fallen by detecting a fall state included in the predetermined range.

◎また、上記実施形態では、人物毎に中心位置を追尾して、人物毎にフェイズに応じて倒れ途中状態検出処理と倒れ状態検出処理とを選択的に実施したが、これに限られず、例えば、1人の人物について倒れ途中状態が検出されると、単純に全ての人物について一律に倒れ状態検出処理を実施するフェイズ2に切り換えるようにしても良い。なお、このような構成を採用する場合には、倒れ状態検出処理が行われる期間を適宜制限することで、倒れ途中状態検出処理を行うフェイズ1に戻すようにすれば良い。倒れ状態検出処理が行われる期間を適宜制限する手法としては、例えば、画像上の所定の領域(例えば、図19で斜線を付した領域)から中心位置が外れた場合にフェイズ1に戻す手法や、倒れ状態検出処理が行われる期間を予め設定された所定期間(例えば、0.5秒間や1秒間)に制限して、所定期間の経過後にフェイズ1に戻す手法などが考えられる。   In the above embodiment, the center position is tracked for each person, and the fall state detection process and the fall state detection process are selectively performed according to the phase for each person. When a state in the middle of a fall for one person is detected, it may be switched to Phase 2 where the fall state detection process is simply performed for all the persons. When such a configuration is employed, the period during which the fall state detection process is performed may be appropriately limited to return to Phase 1 in which the fall state detection process is performed. As a method of appropriately limiting the period during which the fall state detection process is performed, for example, a method of returning to phase 1 when the center position deviates from a predetermined region on the image (for example, a hatched region in FIG. 19), A method of limiting the period during which the fall state detection process is performed to a predetermined period set in advance (for example, 0.5 seconds or 1 second) and returning to Phase 1 after the predetermined period elapses may be considered.

◎また、上記実施形態では、倒れ途中状態検出処理においては、中心位置の垂直方向(すなわち1次元方向)への変化に基づいて倒れ途中状態が検出され、倒れ状態検出処理においては、中心位置の2次元(XY方向)における移動に基づいて倒れ途中状態が検出されたが、これに限られず、例えば、倒れ状態検出処理においても中心位置の垂直方向(すなわち1次元方向)への変化(移動)に基づいて倒れ状態を検出するようにしても良い。但し、人物がエスカレータから走って降りて横方向に走り抜けて行くような場面等における誤検知を抑制する観点からすれば、倒れ状態検出処理においては、中心位置の2次元平面内における移動に基づいて倒れ途中状態を検出した方が好ましい。   In the above-described embodiment, in the fall-in-progress state detection process, a fall-in-progress state is detected based on the change of the center position in the vertical direction (that is, the one-dimensional direction). Although a fall-in-progress state is detected based on movement in two dimensions (XY directions), the present invention is not limited to this. For example, even in the fall-down state detection process, the center position changes (moves) in the vertical direction (that is, one-dimensional direction). The fall state may be detected based on the above. However, from the viewpoint of suppressing false detection in a scene where a person runs from the escalator and then goes down in the horizontal direction, the fall state detection process is based on the movement of the center position in the two-dimensional plane. It is preferable to detect the state of falling down.

◎なお、上記実施形態では、制御部12で実現される各機能構成が、ハードウェア構成とソフトウェアとの協働によって実現されるものとして説明したが、これに限られず、例えば、制御部12に含まれる機能構成のうちの一部又は全部がハードウェア構成によって実現されるものであっても良い。   In the above embodiment, each functional configuration realized by the control unit 12 has been described as being realized by cooperation of a hardware configuration and software. However, the present invention is not limited to this. A part or all of the included functional configuration may be realized by a hardware configuration.

本発明の実施形態に係る倒れ検知システムの概略構成を例示する図である。It is a figure which illustrates schematic structure of the fall detection system which concerns on embodiment of this invention. 本発明の実施形態に係るカメラの配置の一例を示す図である。It is a figure which shows an example of arrangement | positioning of the camera which concerns on embodiment of this invention. 倒れ検知装置の物理的構成を主に示すブロック図である。It is a block diagram which mainly shows the physical structure of a fall detection apparatus. 倒れ検知機能に係る機能構成を概念的に示す機能ブロック図である。It is a functional block diagram which shows notionally the function structure which concerns on a fall detection function. 人物エッジ画像生成部の機能構成を例示するブロック図である。It is a block diagram which illustrates the functional composition of a person edge image generation part. 肩位置検出/追跡部の機能構成を例示するブロック図である。It is a block diagram which illustrates the functional composition of a shoulder position detection / tracking part. 倒れ途中検出部の機能構成を例示するブロック図である。It is a block diagram which illustrates the functional composition of a fall way detecting part. 倒れ状態検出部の機能構成を例示するブロック図である。It is a block diagram which illustrates the functional composition of a fall state detection part. 背景画像のイメージ図である。It is an image figure of a background image. 縮小画像のイメージ図である。It is an image figure of a reduction image. 縮小画像と背景画像との差分にあたる差分画像のイメージ図である。It is an image figure of the difference image which corresponds to the difference of a reduction image and a background image. エッジ画像のイメージ図である。It is an image figure of an edge image. ソーベルフィルタのフィルタ特性を例示する図である。It is a figure which illustrates the filter characteristic of a Sobel filter. 人物エッジ画像のイメージ図である。It is an image figure of a person edge image. スコア算出の動作フローを例示するフローチャートである。It is a flowchart which illustrates the operation | movement flow of score calculation. 画像上での肩の輪郭を示す略半円とその中心の位置を例示する図である。It is a figure which illustrates the approximate semicircle which shows the outline of the shoulder on an image, and the position of the center. 画像上において中心位置が変化していく様子を例示する図である。It is a figure which illustrates a mode that a center position changes on an image. 中心位置の変化を例示する図である。It is a figure which illustrates the change of a center position. 画像上において中心位置を追尾する領域を例示する図である。It is a figure which illustrates the field which tracks a center position on an image. 倒れ検知処理の動作フローを例示するフローチャートである。It is a flowchart which illustrates the operation | movement flow of a fall detection process.

符号の説明Explanation of symbols

1 倒れ検知システム
10 倒れ検知装置
12 制御部
100 エスカレータ
150 人物エッジ画像生成部
160 肩位置検出/追跡部
170 処理切換部
180 倒れ途中検出部
190 倒れ状態検出部
C1〜CN 第1〜第Nのカメラ
PG プログラム
TI 肩追跡情報
DESCRIPTION OF SYMBOLS 1 Fall detection system 10 Fall detection apparatus 12 Control part 100 Escalator 150 Human edge image generation part 160 Shoulder position detection / tracking part 170 Process switching part 180 Falling-down detection part 190 Falling state detection part C1-CN 1st-Nth camera PG program TI shoulder tracking information

Claims (14)

複数フレームの撮影画像を時間順次に受け付ける画像受付手段と、
撮影画像に含まれる輪郭の近似曲線であって、上に凸かつ所定の値域範囲の曲率半径を有するカーブに対し、各フレームによらずに前記カーブと所定の関係を維持する基準位置を、前記画像受付手段によって受け付けられる複数フレームの撮影画像を構成する各フレームの撮影画像から検出する位置検出手段と、
前記位置検出手段によって複数フレームの撮影画像からそれぞれ検出される複数の基準位置に基づいて少なくとも基準位置の垂直方向への変化に係る垂直変化評価値を算出する評価値算出手段と、
少なくとも前記垂直変化評価値に基づいて人の転倒を検知する転倒検知処理を行う転倒検知手段と、
を備えることを特徴とする転倒検知装置。
Image accepting means for accepting captured images of a plurality of frames in time sequence;
A reference position that is an approximate curve of an outline included in a captured image and has a predetermined relationship with the curve regardless of each frame, with respect to a curve having an upwardly convex curvature radius within a predetermined range. Position detecting means for detecting from the captured image of each frame constituting the captured image of a plurality of frames received by the image receiving means;
Evaluation value calculation means for calculating a vertical change evaluation value related to a change in the vertical direction of at least the reference position based on a plurality of reference positions respectively detected from a plurality of frames of captured images by the position detection means;
A fall detection means for performing a fall detection process for detecting a fall of a person based on at least the vertical change evaluation value;
A fall detection device comprising:
請求項1に記載の転倒検知装置であって、
前記転倒検知処理が、
前記垂直変化評価値が所定値を超えた状態を検出する処理を含むことを特徴とする転倒検知装置。
The fall detection device according to claim 1,
The fall detection process
A fall detection device comprising a process of detecting a state in which the vertical change evaluation value exceeds a predetermined value.
請求項2に記載の転倒検知装置であって、
前記評価値算出手段が、
前記位置検出手段によって複数フレームの撮影画像からそれぞれ検出される複数の基準位置に基づいて基準位置の移動に係る移動評価値を算出する手段、を有し、
前記転倒検知処理が、
前記垂直変化評価値が所定値を超えた状態を検出した後に、前記移動評価値が予め設定された値域範囲に含まれる状態を検出する処理を含むことを特徴とする転倒検知装置。
The fall detection device according to claim 2,
The evaluation value calculating means is
Means for calculating a movement evaluation value related to movement of a reference position based on a plurality of reference positions respectively detected from a plurality of frames of captured images by the position detection means;
The fall detection process
A fall detection device comprising a process of detecting a state in which the movement evaluation value is included in a preset value range after detecting a state in which the vertical change evaluation value exceeds a predetermined value.
請求項1から請求項3のいずれかに記載の転倒検知装置であって、
前記複数フレームの撮影画像が、
人物搬送装置における人物の搬送経路に対して撮影方向が略平行に設定された撮像装置によって異なるタイミングでそれぞれ撮影された画像であることを特徴とする転倒検知装置。
The fall detection device according to any one of claims 1 to 3,
The captured images of the plurality of frames are
A fall detection device, characterized in that it is an image taken at a different timing by an imaging device whose photographing direction is set substantially parallel to a person conveyance path in the person conveyance device.
請求項4に記載の転倒検知装置であって、
前記人物搬送装置が、
エスカレータを含むことを特徴とする転倒検知装置。
The fall detection device according to claim 4,
The person conveying device is
A fall detection device including an escalator.
転倒検知装置に含まれるコンピュータによって実行されることにより、前記転倒検知装置を、請求項1から請求項5のいずれかに記載の転倒検知装置として機能させるプログラム。   The program which makes the said fall detection apparatus function as a fall detection apparatus in any one of Claims 1-5 by being performed by the computer contained in a fall detection apparatus. (a)撮影画像に含まれる輪郭の近似曲線であって、上に凸かつ所定の値域範囲の曲率半径を有するカーブに対し、各フレームによらずに前記カーブと所定の関係を維持する基準位置を、撮影タイミングが互いに前後する複数フレームの撮影画像を構成する各フレームの撮影画像から検出するステップと、
(b)前記ステップ(a)で複数フレームの撮影画像からそれぞれ検出される複数の基準位置に基づいて少なくとも基準位置の垂直方向への変化に係る垂直変化評価値を算出するステップと、
(c)少なくとも前記垂直変化評価値に基づいて人の転倒を検知する転倒検知処理を行うステップと、
を備えることを特徴とする転倒検知方法。
(a) A reference position that is an approximate curve of an outline included in a photographed image and has a predetermined relationship with the curve regardless of each frame with respect to a curve that is convex upward and has a curvature radius in a predetermined range Detecting from a captured image of each frame constituting a captured image of a plurality of frames whose shooting timings are before and after each other,
(b) calculating a vertical change evaluation value related to a change in the vertical direction of at least the reference position based on the plurality of reference positions respectively detected from the captured images of the plurality of frames in the step (a);
(c) performing a fall detection process for detecting a person's fall based at least on the vertical change evaluation value;
A fall detection method comprising:
請求項7に記載の転倒検知方法であって、
前記転倒検知処理が、
前記垂直変化評価値が所定値を超えた状態を検出する処理を含むことを特徴とする転倒検知方法。
The fall detection method according to claim 7,
The fall detection process
A fall detection method comprising a process of detecting a state in which the vertical change evaluation value exceeds a predetermined value.
請求項8に記載の転倒検知方法であって、
前記ステップ(b)が、
前記ステップ(a)で複数フレームの撮影画像からそれぞれ検出される複数の基準位置に基づいて基準位置の移動に係る移動評価値を算出するステップを有し、
前記転倒検知処理が、
前記垂直変化評価値が所定値を超えた状態を検出した後に、前記移動評価値が予め設定された値域範囲に含まれる状態を検出する処理を含むことを特徴とする転倒検知方法。
The fall detection method according to claim 8,
Step (b)
Calculating a movement evaluation value related to movement of the reference position based on a plurality of reference positions respectively detected from the captured images of the plurality of frames in the step (a),
The fall detection process
A fall detection method, comprising: detecting a state in which the movement evaluation value is included in a preset value range after detecting a state in which the vertical change evaluation value exceeds a predetermined value.
請求項7から請求項9のいずれかに記載の転倒検知方法であって、
前記複数フレームの撮影画像が、
人物搬送装置における人物の搬送経路に対して撮影方向が略平行に設定された撮像装置によって異なるタイミングでそれぞれ撮影された画像であることを特徴とする転倒検知方法。
A fall detection method according to any one of claims 7 to 9,
The captured images of the plurality of frames are
A fall detection method, characterized in that the images are taken at different timings by an imaging device in which the photographing direction is set substantially parallel to a person conveyance route in the person conveyance device.
請求項10に記載の転倒検知方法であって、
前記人物搬送装置が、
エスカレータを含むことを特徴とする転倒検知方法。
The fall detection method according to claim 10,
The person conveying device is
A fall detection method comprising an escalator.
異なるタイミングで複数フレームの撮影画像を取得する撮像装置と、
請求項1から請求項3のいずれかに記載の転倒検知装置と、
を備えることを特徴とする転倒検知システム。
An imaging device that acquires captured images of a plurality of frames at different timings;
The fall detection device according to any one of claims 1 to 3,
A fall detection system characterized by comprising:
請求項12に記載の転倒検知システムであって、
前記撮像装置の撮影方向が、
人物搬送装置における人物の搬送経路に対して略平行に設定されていることを特徴とする転倒検知システム。
The fall detection system according to claim 12,
The imaging direction of the imaging device is
A fall detection system, characterized in that the fall detection system is set substantially parallel to a conveyance path of a person in a person conveyance device.
請求項13に記載の転倒検知システムであって、
前記人物搬送装置が、
エスカレータを含むことを特徴とする転倒検知システム。
The fall detection system according to claim 13,
The person conveying device is
A fall detection system characterized by including an escalator.
JP2006176516A 2006-06-27 2006-06-27 Fall detection device, program, fall detection method, and fall detection system Expired - Fee Related JP5110246B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006176516A JP5110246B2 (en) 2006-06-27 2006-06-27 Fall detection device, program, fall detection method, and fall detection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006176516A JP5110246B2 (en) 2006-06-27 2006-06-27 Fall detection device, program, fall detection method, and fall detection system

Publications (2)

Publication Number Publication Date
JP2008009498A true JP2008009498A (en) 2008-01-17
JP5110246B2 JP5110246B2 (en) 2012-12-26

Family

ID=39067690

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006176516A Expired - Fee Related JP5110246B2 (en) 2006-06-27 2006-06-27 Fall detection device, program, fall detection method, and fall detection system

Country Status (1)

Country Link
JP (1) JP5110246B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009294983A (en) * 2008-06-06 2009-12-17 Sony Corp Tracking point detection device and method, program, and recording medium
WO2014010203A1 (en) * 2012-07-13 2014-01-16 日本電気株式会社 Fall detection device, fall detection method, fall detection camera, and computer program
CN103961108A (en) * 2013-02-06 2014-08-06 由田新技股份有限公司 Tumbling detecting method
KR101515597B1 (en) 2013-07-18 2015-04-27 주식회사 에스원 Method and apparatus for surveillance by using 3-dimension image data

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05319762A (en) * 1992-05-13 1993-12-03 Mitsubishi Electric Corp Passenger abnormality detecting device for man conveyor
JP2000253382A (en) * 1999-02-25 2000-09-14 Matsushita Electric Works Ltd Falling detector
JP2000285223A (en) * 1999-03-30 2000-10-13 Matsushita Electric Works Ltd Fall detector
JP2001175868A (en) * 1999-12-22 2001-06-29 Nec Corp Method and device for human detection
JP2003344017A (en) * 2002-03-19 2003-12-03 Mercury Force:Kk Inspection apparatus for corrugated fiberboard box and imaging device for inspection object
JP2005149145A (en) * 2003-11-14 2005-06-09 Konica Minolta Holdings Inc Object detecting device and method, and computer program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05319762A (en) * 1992-05-13 1993-12-03 Mitsubishi Electric Corp Passenger abnormality detecting device for man conveyor
JP2000253382A (en) * 1999-02-25 2000-09-14 Matsushita Electric Works Ltd Falling detector
JP2000285223A (en) * 1999-03-30 2000-10-13 Matsushita Electric Works Ltd Fall detector
JP2001175868A (en) * 1999-12-22 2001-06-29 Nec Corp Method and device for human detection
JP2003344017A (en) * 2002-03-19 2003-12-03 Mercury Force:Kk Inspection apparatus for corrugated fiberboard box and imaging device for inspection object
JP2005149145A (en) * 2003-11-14 2005-06-09 Konica Minolta Holdings Inc Object detecting device and method, and computer program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009294983A (en) * 2008-06-06 2009-12-17 Sony Corp Tracking point detection device and method, program, and recording medium
JP4507129B2 (en) * 2008-06-06 2010-07-21 ソニー株式会社 Tracking point detection apparatus and method, program, and recording medium
WO2014010203A1 (en) * 2012-07-13 2014-01-16 日本電気株式会社 Fall detection device, fall detection method, fall detection camera, and computer program
JPWO2014010203A1 (en) * 2012-07-13 2016-06-20 日本電気株式会社 Fall detection device, fall detection method, fall detection camera, and computer program
CN103961108A (en) * 2013-02-06 2014-08-06 由田新技股份有限公司 Tumbling detecting method
CN103961108B (en) * 2013-02-06 2015-12-23 由田新技股份有限公司 To fall method for detecting
KR101515597B1 (en) 2013-07-18 2015-04-27 주식회사 에스원 Method and apparatus for surveillance by using 3-dimension image data

Also Published As

Publication number Publication date
JP5110246B2 (en) 2012-12-26

Similar Documents

Publication Publication Date Title
CN111144247B (en) Escalator passenger reverse detection method based on deep learning
US10176384B2 (en) Method and system for automated sequencing of vehicles in side-by-side drive-thru configurations via appearance-based classification
JP7003628B2 (en) Object tracking program, object tracking device, and object tracking method
JP5102410B2 (en) Moving body detection apparatus and moving body detection method
US9639759B2 (en) Video processing apparatus and video processing method
US20070041614A1 (en) Road marking recognition apparatus and method
JP4874150B2 (en) Moving object tracking device
JP4373840B2 (en) Moving object tracking method, moving object tracking program and recording medium thereof, and moving object tracking apparatus
JP5106302B2 (en) Moving object tracking device
US9104909B2 (en) Image processing apparatus and method of processing image
JP4969291B2 (en) Moving object tracking device
JP2004227160A (en) Intruding object detector
US20200145623A1 (en) Method and System for Initiating a Video Stream
JP5110246B2 (en) Fall detection device, program, fall detection method, and fall detection system
CN110713082B (en) Elevator control method, system, device and storage medium
JP4963297B2 (en) Person counting device and person counting method
JP2007219603A (en) Person tracking device, person tracking method and person tracking program
JP6708368B2 (en) Method and system for partial concealment processing in vehicle tracking using deformable partial model
KR101542206B1 (en) Method and system for tracking with extraction object using coarse to fine techniques
JP6798609B2 (en) Video analysis device, video analysis method and program
JP2021080106A (en) Boarding detection system and boarding detection method
JP2004228770A (en) Image processing system
JP2021028807A (en) Image processing device and image processing method
JP6616093B2 (en) Method and system for automatic ranking of vehicles in adjacent drive-through structures by appearance-based classification
JP6874796B2 (en) Elevator door control device and control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090302

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20090302

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20090302

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110906

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111104

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120522

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120726

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20120802

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120904

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120925

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151019

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5110246

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees