JP2008146583A - Attitude detector and behavior detector - Google Patents

Attitude detector and behavior detector Download PDF

Info

Publication number
JP2008146583A
JP2008146583A JP2006336063A JP2006336063A JP2008146583A JP 2008146583 A JP2008146583 A JP 2008146583A JP 2006336063 A JP2006336063 A JP 2006336063A JP 2006336063 A JP2006336063 A JP 2006336063A JP 2008146583 A JP2008146583 A JP 2008146583A
Authority
JP
Japan
Prior art keywords
person
behavior
dimensional
person area
area information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2006336063A
Other languages
Japanese (ja)
Inventor
Yoshitaro Yamanaka
義太郎 山中
Atsushi Oda
淳志 小田
Naoto Tojo
直人 東條
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2006336063A priority Critical patent/JP2008146583A/en
Publication of JP2008146583A publication Critical patent/JP2008146583A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an attitude detector capable of highly accurately detecting an attitude of a person to be observed. <P>SOLUTION: The attitude detector is provided with: a human body area information extraction means for extracting three-dimensional human body area information on the basis of a photographed image of the person to be observed; a calculation means for calculating the height, width and depth information of a three-dimensional human body area from the three-dimensional human body area information; and a decision means for deciding the attitude of the person to be observed on the basis of the ratio of the width to the height of the three-dimensional human body area and the ratio of the depth to the height of the three-dimensional human body area. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

この発明は、被観察者の姿勢を検知する姿勢検知装置および被観察者の転倒等の挙動を検知する挙動検知装置に関する。   The present invention relates to a posture detection device that detects the posture of a person to be observed and a behavior detection device that detects a behavior of the person to be observed such as a fall.

被観察者の転倒を検知する装置として、被観察者をカメラで撮影し、撮影画像から被観察者の動作ベクトルを検出し、検出した動作ベクトルと予め記憶している被観察者の転倒ベクトルとを比較することにより、被観察者が転倒したか否かを判別するものが既に開発されている(特開2002−232870号公報参照)。   As a device for detecting the fall of the person to be observed, the person to be observed is photographed with a camera, the motion vector of the person to be observed is detected from the photographed image, and the motion vector thus detected and the fall vector of the person to be observed stored in advance Has already been developed to determine whether or not the person to be observed has fallen (see Japanese Patent Laid-Open No. 2002-232870).

また、被観察者の転倒を検知する装置として、被観察者をカメラで撮影し、撮影画像と被観察者が存在しないときに撮影された参照画像との差分領域を抽出し、差分領域の面積に基づいて被観察者が転倒したか否かを判別するものが既に開発されている(特開2000−207664号公報参照)。   In addition, as a device for detecting the fall of the person to be observed, the person to be observed is photographed with a camera, the difference area between the photographed image and the reference image photographed when there is no person to be observed is extracted, and the area of the difference area Based on the above, what has been developed to determine whether or not the subject has fallen has been developed (see Japanese Patent Application Laid-Open No. 2000-207664).

また、観察者が移動状態であるか静止状態を判定する装置として、被観察者をカメラで撮影し、撮影画像から人物領域を抽出し、抽出した人物領域から頭頂部の画像座標を抽出し、被観察者の身長データを用いて頭頂部の画像座標を実世界座標に変換し、得られた頭頂部の実世界座標と所定時間過去の頭頂部の実世界座標との距離を算出し、得られた距離と所定の閾値とを比較することにより、観察者が移動状態であるか静止状態であるかを判定するものが既に開発されている(特開2002−197463号公報参照)。
特開2002−232870号公報 特開2000−207664号公報 特開2002−197463号公報
In addition, as a device for determining whether the observer is in a moving state or a stationary state, the observer is photographed with a camera, a person area is extracted from the photographed image, and the image coordinates of the top of the head are extracted from the extracted person area, Using the height data of the person to be observed, the image coordinates of the top of the head are converted into real world coordinates, and the distance between the real world coordinates of the top of the obtained head and the real world coordinates of the top of the head for a predetermined time is calculated and obtained. A device that determines whether the observer is in a moving state or a stationary state by comparing the obtained distance with a predetermined threshold has been developed (see Japanese Patent Application Laid-Open No. 2002-197463).
JP 2002-232870 A JP 2000-207664 A JP 2002-197463 A

この発明は、被観察者の姿勢を高精度で検知することができる姿勢検知装置を提供することを目的とする。   An object of this invention is to provide the attitude | position detection apparatus which can detect an observer's attitude | position with high precision.

また、この発明は、被観察者の転倒等の挙動の発生を高精度で検知することができる挙動検知装置を提供することを目的とする。   Another object of the present invention is to provide a behavior detection device that can detect the occurrence of a behavior such as a fall of the person to be observed with high accuracy.

請求項1に記載の発明は、姿勢検知装置において、被観察者の撮影画像に基づいて、3次元人物領域情報を抽出する人物領域情報抽出手段、3次元人物領域情報から3次元人物領域の高さ、幅および奥行き情報を算出する算出手段、ならびに3次元人物領域の高さに対する幅の比および3次元人物領域の高さに対する奥行きの比に基づいて、被観察者の姿勢を判定する判定手段を備えていることを特徴とする。   According to the first aspect of the present invention, in the posture detection device, the person area information extracting means for extracting the three-dimensional person area information based on the photographed image of the observer, the height of the three-dimensional person area from the three-dimensional person area information. Calculating means for calculating width, depth information, and determining means for determining the posture of the person to be observed based on the ratio of the width to the height of the three-dimensional person area and the ratio of the depth to the height of the three-dimensional person area It is characterized by having.

請求項2に記載の発明は、姿勢検知装置において、被観察者の撮影画像に基づいて、3次元人物領域情報を抽出する人物領域情報抽出手段、3次元人物領域情報から被観察者の背筋の向きを算出する算出手段、ならびに被観察者の背筋の向きに基づいて、被観察者の姿勢を判定する判定手段を備えていることを特徴とする。   According to a second aspect of the present invention, in the posture detection device, the person area information extracting means for extracting the three-dimensional person area information based on the photographed image of the person to be observed, the back muscle of the person to be observed from the three-dimensional person area information. It is characterized by comprising a calculating means for calculating the orientation and a judging means for determining the posture of the subject based on the orientation of the back muscle of the subject.

請求項3に記載の発明は、請求項2に記載の姿勢検知装置において、算出手段は、3次元人物領域の高さ方向をY軸とし、幅方向をX軸とし、奥行き方向をZ軸として、3次元人物領域情報を、X−Y平面に射影することにより第1の射影画像を生成するとともに、3次元人物領域情報を、Y−Z平面に射影することにより第2の射影画像を生成する手段、各射影画像毎に、重心を算出し、各射影画像の全座標値を、重心を原点とする座標値に修正する手段、座標値修正後の第1の射影画像から主成分分析を用いて第1主成分の傾きを表す第1のベクトルを算出するとともに、座標値修正後の第2の射影画像から主成分分析を用いて第1主成分の傾きを表す第2のベクトルを算出する手段、ならびに第1のベクトルおよび第2のベクトルを合成することにより、被観察者の背筋の向きを示すベクトルを求め、求めたベクトルから被観察者の背筋の向きを求める手段を備えていることを特徴とする。   According to a third aspect of the present invention, in the posture detection apparatus according to the second aspect, the calculation means uses the height direction of the three-dimensional person region as the Y axis, the width direction as the X axis, and the depth direction as the Z axis. A first projection image is generated by projecting 3D human area information onto the XY plane, and a second projected image is generated by projecting 3D human area information onto the YZ plane. A means for calculating a center of gravity for each projection image, a means for correcting all coordinate values of each projection image to a coordinate value having the center of gravity as the origin, and a principal component analysis from the first projection image after the coordinate value correction. To calculate a first vector representing the slope of the first principal component, and to compute a second vector representing the slope of the first principal component from the second projected image after the coordinate value correction using principal component analysis. And means for combining the first vector and the second vector It makes obtains a vector indicating the direction of the spine of the observed person, characterized in that from the obtained vector is provided with means for determining the orientation of the back muscles of the observer.

請求項4に記載の発明は、請求項2に記載の姿勢検知装置において、算出手段は、3次元人物領域の高さ方向をY軸とし、幅方向をX軸とし、奥行き方向をZ軸として、3次元人物領域情報を、X−Y平面に射影することにより第1の射影画像を生成するとともに、3次元人物領域情報を、Y−Z平面に射影することにより第2の射影画像を生成する手段、各射影画像毎に、重心を算出し、各射影画像の全座標値を、重心を原点とする座標値に修正する手段、座標値修正後の第1の射影画像から、原点を通りかつ両端が人物領域の輪郭までのびた線分のうち、その長さが最大となる第1の線分の傾きを求めるとともに、座標値修正後の第2の射影画像から、原点を通りかつ両端が人物領域の輪郭までのびた線分のうち、その長さが最大となる第2の線分の傾きを求める手段、ならびに第1の線分の傾きおよび第2の線分の傾きに基づいて、被観察者の背筋の向きを求める手段を備えていることを特徴とする。   According to a fourth aspect of the present invention, in the posture detection apparatus according to the second aspect, the calculation means uses the height direction of the three-dimensional person region as the Y axis, the width direction as the X axis, and the depth direction as the Z axis. A first projection image is generated by projecting 3D human area information onto the XY plane, and a second projected image is generated by projecting 3D human area information onto the YZ plane. Means for calculating the center of gravity for each projected image, means for correcting all coordinate values of each projected image to coordinate values having the center of gravity as the origin, and passing through the origin from the first projected image after the coordinate value correction. In addition, the inclination of the first line segment having the maximum length among the line segments extending to the outline of the person region is obtained, and the second projection image after the coordinate value correction is passed through the origin and the both ends are The length of the line segment extending to the outline of the person area is the maximum. It means determining the slope of the second line, and on the basis of the inclination of the first line segment of slope and a second segment, characterized in that it comprises a means for determining the orientation of the spine of the observed person.

請求項5に記載の発明は、挙動検知装置において、被観察者の撮影画像に基づいて、3次元人物領域情報を抽出する人物領域情報抽出手段、3次元人物領域情報に基づいて被観察者の姿勢を判定する姿勢判定手段、3次元人物領域情報から検知対象の挙動を判定するための挙動判定用データを生成する挙動判定用データ生成手段、姿勢判定手段の判定結果に基づいて、検知対象の挙動が発生した可能性がある期間において、挙動判定用データを蓄積していく蓄積手段、ならびに蓄積手段によって蓄積された挙動判定用データから得られた時系列データと、検知対象の挙動に対応した学習用データから予め作成されているモデルとを比較することにより、検知対象の挙動が発生したか否かを判定する判定手段を備えていることを特徴とする。   According to a fifth aspect of the present invention, in the behavior detection apparatus, the person area information extracting means for extracting the three-dimensional person area information based on the photographed image of the person to be observed, based on the three-dimensional person area information. Attitude determination means for determining attitude Based on the determination result of the attitude determination means, behavior determination data generation means for generating behavior determination data for determining the behavior of the detection target from the three-dimensional human region information, Corresponding to the storage means that accumulates the data for behavior determination during the period when the behavior may have occurred, the time series data obtained from the data for behavior determination accumulated by the storage means, and the behavior of the detection target It is characterized by comprising determination means for determining whether or not the behavior of the detection target has occurred by comparing with a model created in advance from learning data.

請求項6に記載の発明は、請求項5に記載の挙動検知装置において、挙動判定用データ生成手段は、3次元人物領域情報から3次元人物領域の高さ、幅および奥行きからなる挙動判定用データを生成するものであり、上記時系列データが、蓄積手段によって蓄積された3次元人物領域の高さ、幅および奥行きの時系列データであり、上記モデルがHMMモデルであることを特徴とする。   According to a sixth aspect of the present invention, in the behavior detection apparatus according to the fifth aspect, the behavior determination data generation means is for behavior determination including the height, width, and depth of the three-dimensional human region from the three-dimensional human region information. Generating data, wherein the time-series data is time-series data of height, width and depth of the three-dimensional person area accumulated by the accumulation means, and the model is an HMM model. .

請求項7に記載の発明は、請求項5に記載の挙動検知装置において、挙動判定用データ生成手段は、3次元人物領域情報から3次元人物領域の高さ、幅および奥行きからなる挙動判定用データを生成するものであり、上記時系列データが、蓄積手段によって蓄積された3次元人物領域の高さ、幅および奥行きから算出された、被観察者の動き量の大きさをシンボル化したデータの時系列データであり、モデルがDPマッチング用のモデルであることを特徴とする。   According to a seventh aspect of the present invention, in the behavior detection apparatus according to the fifth aspect, the behavior determination data generation means is for behavior determination including the height, width, and depth of the three-dimensional human region from the three-dimensional human region information. Data for generating data, wherein the time-series data is calculated from the height, width, and depth of the three-dimensional person area accumulated by the accumulation means, and is a symbolized amount of movement of the observer And the model is a DP matching model.

この発明によれば、被観察者の姿勢を高精度で検知することができるようになる。また、この発明によれば、被観察者の転倒等の挙動の発生を高精度で検知することができるようになる。   According to the present invention, the posture of the person to be observed can be detected with high accuracy. Moreover, according to this invention, generation | occurrence | production of behavior, such as a to-be-observed person's fall, can be detected now with high precision.

以下、図面を参照して、この発明を転倒を検知するための転倒検知装置に適用した場合の実施例について説明する。   Hereinafter, with reference to the drawings, an embodiment when the present invention is applied to a fall detection device for detecting a fall will be described.

〔1〕転倒検知システムの全体的な構成 [1] Overall configuration of the fall detection system

図1は、転倒検知システムの全体的な構成を示している。
転倒検知システムは、被観察者の居室内を撮影するステレオカメラ11、12を備えた転倒検知装置10、転倒検知装置10にネットワーク40を介して接続された監視装置20および転倒検知装置10にネットワーク40を介して接続された移動通信端末30を備えている。
FIG. 1 shows the overall configuration of the fall detection system.
The fall detection system includes a fall detection device 10 including stereo cameras 11 and 12 that captures the room of the person to be observed, a monitoring device 20 connected to the fall detection device 10 via the network 40, and a network to the fall detection device 10. The mobile communication terminal 30 connected through the terminal 40 is provided.

転倒検知システムは、被観察者の居室50内を撮像するステレオカメラ11、12を備えた転倒検知装置10、転倒検知装置10にネットワーク40を介して接続された監視装置20および転倒検知装置10にネットワーク40を介して接続された移動通信端末30を備えている。   The fall detection system includes a fall detection device 10 including stereo cameras 11 and 12 that capture an image of the room 50 of the person to be observed, a monitoring device 20 connected to the fall detection device 10 via the network 40, and the fall detection device 10. A mobile communication terminal 30 connected via a network 40 is provided.

転倒検知装置10は、被観察者の転倒の発生を検知する。ネットワーク40には、複数の被観察者の居室50に対応して設けられた複数の転倒検知装置10が接続されている。監視装置20は監視者が詰めている監視センタに設置されている。監視装置20および移動通信端末30では、各被観察者の居室50を識別可能に表す居室画面が表示されており、転倒検知装置10によって転倒が検知された場合には、そのことが監視装置20および移動通信端末30に通知され、監視装置20および移動通信端末30はアラームなどを発生させるとともに、居室画面上においてどの居室で転倒が検知されたかを表示する。監視者は、この表示を見て、転倒が検知された居室表示を選択すると、監視装置20および移動通信端末30は、転倒を検知した上記転倒検知装置10から当該居室の現在の画像を受信して監視装置20および移動通信端末30に表示する。   The fall detection device 10 detects the occurrence of a fall of the person to be observed. Connected to the network 40 are a plurality of fall detection devices 10 provided corresponding to the rooms 50 of the plurality of persons to be observed. The monitoring device 20 is installed in a monitoring center packed with a monitor. In the monitoring device 20 and the mobile communication terminal 30, a room screen is displayed that can identify the room 50 of each person to be observed. When the fall detection device 10 detects a fall, this is the case. The monitoring device 20 and the mobile communication terminal 30 notify the mobile communication terminal 30 and generate an alarm, and also display in which room the fall is detected on the room screen. When the monitor sees this display and selects the room display in which the fall is detected, the monitoring device 20 and the mobile communication terminal 30 receive the current image of the room from the fall detection device 10 that has detected the fall. Displayed on the monitoring device 20 and the mobile communication terminal 30.

〔2〕転倒検知処理手順 [2] Fall detection processing procedure

図2は、転倒検知装置10によって実行される転倒検知処理の手順を示している。
初期設定において、転倒判定用データ蓄積期間であることを記憶するフラグFはリセット(F=0)されているものとする。
FIG. 2 shows the procedure of the fall detection process executed by the fall detection device 10.
In the initial setting, it is assumed that the flag F that stores the data accumulation period for falling determination is reset (F = 0).

まず、ステレオカメラ11、12から画像(左右画像)を取り込む(ステップS11)。画像を取り込む時間間隔は、ステップS11に戻るタイミングによって異なるが、約200msec程度となる。取得した左右画像に基づいて、3次元の人物領域抽出処理を行なう(ステップS12)。これにより、カメラ座標系での3次元人物領域情報(3次元空間での人物領域プロット群)が得られる。次に、得られた3次元人物領域情報に基づいて、姿勢推定処理を行なう(ステップS13)。つまり、被観察者の現在の姿勢(立位、座位、臥位)を推定する。   First, images (left and right images) are captured from the stereo cameras 11 and 12 (step S11). The time interval for capturing an image differs depending on the timing of returning to step S11, but is about 200 msec. Based on the acquired left and right images, a three-dimensional human region extraction process is performed (step S12). Thereby, three-dimensional human region information (a human region plot group in a three-dimensional space) in the camera coordinate system is obtained. Next, posture estimation processing is performed based on the obtained three-dimensional person area information (step S13). That is, the current posture (standing position, sitting position, and lying position) of the person to be observed is estimated.

この後、今回読み込んだフレームに関するデータ群を第1バッファに保存する(ステップS14)。データ群は、時刻情報、入力画像データ、3次元人物領域情報、姿勢推定処理で得られる被観察者の幅、高さ、奥行き情報および姿勢推定結果からなる。第1バッファは、数フレーム分のデータ群を記憶するためのバッファであり、所定フレーム分のデータ群が蓄積されている場合には、1フレーム分の最も古いデータ群が消去されて、新たな1フレーム分のデータ群が蓄積される。   Thereafter, the data group relating to the frame read this time is stored in the first buffer (step S14). The data group includes time information, input image data, three-dimensional human region information, the width, height, depth information, and posture estimation result of the subject obtained by posture estimation processing. The first buffer is a buffer for storing a data group for several frames. When a data group for a predetermined frame is accumulated, the oldest data group for one frame is erased and a new data group is created. A data group for one frame is accumulated.

次に、フラグFがセットされているか否かを判別する(ステップS15)。フラグFがセットされていないときには、姿勢推定結果の履歴データ等に基づいて転倒判定用データ蓄積期間の開始点であるか否かを判別する(ステップS16)。この判別処理の詳細については、後述する。転倒判定用データ蓄積期間の開始点ではないと判別した場合には、ステップS11に戻る。   Next, it is determined whether or not the flag F is set (step S15). When the flag F is not set, it is determined whether or not it is the start point of the fall determination data accumulation period based on the history data of the posture estimation result (step S16). Details of this determination processing will be described later. If it is determined that it is not the start point of the fall determination data accumulation period, the process returns to step S11.

上記ステップS16において、転倒判定用データ蓄積期間の開始点であると判別した場合には、フラグFをセットした後(ステップS17)、今回取得したフレームに関するデータ群を第2バッファに蓄積する(ステップS18)。この場合には、データ群として、開始点からの経過時間情報(開始点からのフレーム数で表される)が追加される。そして、転倒判定用データ蓄積期間の終了点であるか否かを判別する(ステップS19)。この判別処理の詳細については、後述する。転倒判定用データ蓄積期間の終了点ではないと判別した場合には、ステップS11に戻る。   If it is determined in step S16 that it is the start point of the fall determination data accumulation period, after setting the flag F (step S17), the data group relating to the currently acquired frame is accumulated in the second buffer (step S16). S18). In this case, elapsed time information from the start point (expressed by the number of frames from the start point) is added as a data group. And it is discriminate | determined whether it is the end point of the data accumulation period for fall determination (step S19). Details of this determination processing will be described later. If it is determined that it is not the end point of the fall determination data storage period, the process returns to step S11.

ステップS19からS11に戻った場合には、次のステップS15では、F=1となっているので、ステップS15からステップS18に移行し、第1バッファだけでなく、第2バッファにもデータ群が蓄積される。   When the process returns from step S19 to S11, since F = 1 in the next step S15, the process proceeds from step S15 to step S18, and the data group is not only in the first buffer but also in the second buffer. Accumulated.

上記ステップS19において、転倒判定用データ蓄積期間の終了点であると判別した場合には、フラグFをリセットした後(ステップS20)、第2バッファに蓄積されたデータ群に基づいて、転倒判定処理を行なう(ステップS21)。転倒判定処理の結果、転倒ではないと判定された場合には(ステップS22)、ステップS11に戻る。転倒判定処理の結果、転倒であると判定された場合には(ステップS22)、転倒が発生したことを監視装置20等に通知する(ステップS23)。そして、ステップS11に戻る   If it is determined in step S19 that the end point of the fall determination data storage period is reached, after the flag F is reset (step S20), the fall determination process is performed based on the data group stored in the second buffer. Is performed (step S21). As a result of the fall determination process, when it is determined that it is not a fall (step S22), the process returns to step S11. As a result of the fall determination process, when it is determined that a fall has occurred (step S22), the monitoring device 20 is notified that a fall has occurred (step S23). And it returns to step S11

〔3〕図2のステップS12の3次元の人物領域抽出処理 [3] Three-dimensional human region extraction process in step S12 of FIG.

図3は、図2のステップS12の3次元人物領域抽出処理の詳細な手順を示している。   FIG. 3 shows a detailed procedure of the three-dimensional person region extraction process in step S12 of FIG.

事前処理として、居室50に被観察者が存在していない状態で、ステレオカメラ11、12のうちの一方のカメラ11によって居室内を撮影した画像を取得し、取得した画像をグレースケール化する。そして、得られた画像を背景画像として、転倒検知装置10の記憶装置に記憶しておく。   As a pre-process, an image obtained by photographing the room with one of the stereo cameras 11 and 12 is acquired in a state where no observer is present in the room 50, and the acquired image is converted into a gray scale. The obtained image is stored in the storage device of the fall detection device 10 as a background image.

3次元の人物領域抽出処理では、ステレオカメラ11、12から取得した左右画像のうち、背景画像を撮影したカメラ11から今回取得した画像と、背景画像とを用いて、背景差分法により、2次元人物領域を抽出する。また、ステレオカメラ11、12から取得した2枚の画像から、3次元測量手法により、ピクセル毎に奥行き情報を算出し、3次元空間にプロットできる座標情報(3次元位置情報)を取得する。そして、2次元人物領域情報と3次元位置情報とを重ね合わせることで、3次元空間内での人物領域に相当するデータ(3次元の人物領域情報)を抽出する。   In the three-dimensional human region extraction process, the left-and-right images acquired from the stereo cameras 11 and 12 are two-dimensionally obtained by using the background difference method using the image acquired this time from the camera 11 that captured the background image and the background image. Extract the person area. Further, depth information is calculated for each pixel from two images acquired from the stereo cameras 11 and 12 by a three-dimensional surveying method, and coordinate information (three-dimensional position information) that can be plotted in a three-dimensional space is acquired. Then, by superimposing the two-dimensional person area information and the three-dimensional position information, data corresponding to the person area in the three-dimensional space (three-dimensional person area information) is extracted.

具体的には、背景画像を撮影したカメラ11から今回取得した画像を、グレイスケール化する(ステップS31)。   Specifically, the image acquired this time from the camera 11 that captured the background image is converted to a gray scale (step S31).

ステップS31で得られた画像と予め記憶されている背景画像の対応する画素毎に、画素値の差の絶対値を算出することにより、両画像の差分画像を作成する(ステップS32)。得られた差分画像を2値化することにより、2次元人物領域情報を抽出する(ステップS33)。   By calculating the absolute value of the difference between the pixel values for each corresponding pixel of the image obtained in step S31 and the background image stored in advance, a difference image between the two images is created (step S32). Two-dimensional person area information is extracted by binarizing the obtained difference image (step S33).

一方、ステレオカメラ11、12から今回取得した左右画像から、周知のステレオ法を用いて、3次元位置情報を算出する(ステップS34)。上記ステップS33で抽出した2次元人物領域情報と、上記ステップS34で算出した3次元位置情報とに基づいて、3次元人物領域情報を抽出する(ステップS35)。   On the other hand, three-dimensional position information is calculated from the left and right images acquired this time from the stereo cameras 11 and 12 using a known stereo method (step S34). Based on the two-dimensional person area information extracted in step S33 and the three-dimensional position information calculated in step S34, three-dimensional person area information is extracted (step S35).

図4は、3次元人物領域情報によって表される3次元の人物領域画像の一例を示している。図4において、直方体101は、X−Y平面、Y−Z平面およびZ−X平面それぞれに平行な面を有しかつ3次元の人物領域に外接する直方体である。直方体101の上側の図(符号102)は、直方体101の上から3次元の人物領域を見た平面図であり、直方体101の右側の図(符号103)は、直方体101の右から3次元の人物領域を見た側面図である。   FIG. 4 shows an example of a three-dimensional person area image represented by the three-dimensional person area information. In FIG. 4, a rectangular parallelepiped 101 is a rectangular parallelepiped having a plane parallel to each of the XY plane, the YZ plane, and the ZX plane and circumscribing a three-dimensional person region. The upper drawing (reference numeral 102) of the rectangular parallelepiped 101 is a plan view of the three-dimensional human region viewed from above the rectangular parallelepiped 101, and the right figure (reference numeral 103) of the rectangular parallelepiped 101 is a three-dimensional view from the right of the rectangular parallelepiped 101. It is the side view which looked at the person area.

〔4〕図2のステップS13の姿勢推定処理 [4] Posture estimation processing in step S13 of FIG.

図5は、図2のステップS13の姿勢推定処理の詳細な手順を示している。   FIG. 5 shows a detailed procedure of the posture estimation process in step S13 of FIG.

3次元人物領域抽出処理によって得られた3次元人物領域情報に基づいて、図4に示すように、X−Y平面、Y−Z平面およびZ−X平面それぞれに平行な面を有しかつ3次元の人物領域に外接する直方体101の幅lx 、高さlyおよび奥行きlz(被観察者の幅、高さおよび奥行き)を算出する(ステップS41)。lx は3次元の人物領域のx座標の最大値と最小値との差の絶対値を算出することにより、lyは3次元の人物領域のy座標の最大値と最小値との差の絶対値を算出することにより、lzは3次元の人物領域のz座標の最大値と最小値との差の絶対値を算出することにより、それぞれ求められる。   Based on the three-dimensional human region information obtained by the three-dimensional human region extraction process, as shown in FIG. 4, the surface has parallel surfaces to the XY plane, the YZ plane, and the ZX plane, and 3 The width lx, height ly, and depth lz (the width, height, and depth of the person to be observed) of the rectangular parallelepiped 101 circumscribing the three-dimensional person region are calculated (step S41). lx is the absolute value of the difference between the maximum value and the minimum value of the x coordinate of the three-dimensional person area, and ly is the absolute value of the difference between the maximum value and the minimum value of the y coordinate of the three-dimensional person area Lz can be obtained by calculating the absolute value of the difference between the maximum value and the minimum value of the z coordinate of the three-dimensional human region.

次に、アトペクト比lx /lyおよびlz/lyを算出する(ステップS42)。そして、算出したアトペクト比lx /lyおよびlz/lyと、予め定められた規則とに基づいて、被観察者の姿勢を推定する(ステップS43)。   Next, the aspect ratios lx / ly and lz / ly are calculated (step S42). Then, based on the calculated aspect ratios lx / ly and lz / ly and a predetermined rule, the posture of the person to be observed is estimated (step S43).

具体的には、次のような規則に基づいて、被観察者の姿勢を推定する。
(a) lx /ly<0.4またはlz/ly<0.4であれば、観察者の姿勢を「立位」と推定する。
(b) lx /ly>1.5またはlz/ly>1.5であれば、観察者の姿勢を「臥位」と推定する。
(c)それ以外であれば、観察者の姿勢を「座位」と推定する。
Specifically, the posture of the person to be observed is estimated based on the following rules.
(A) If lx / ly <0.4 or lz / ly <0.4, the posture of the observer is estimated as “standing”.
(B) If lx / ly> 1.5 or lz / ly> 1.5, the observer's posture is estimated to be “recumbent”.
(C) Otherwise, the observer's posture is estimated as “sitting”.

〔5〕図2のステップS16およびステップS19の開始点または終了点判別処理 [5] Start point or end point determination processing in step S16 and step S19 in FIG.

図2のステップS16の開始点判別処理においては、『アスペクト比lx /lyおよびlz/lyのうちの少なくとも一方が0.7以上である状態が1秒(約5フレームに相当)以上継続していること』という開始点条件を満たしているか否かを判別し、開始点条件を満たしている場合には今回取り込まれたフレームが転倒判定用データ蓄積期間の開始点であると判別する。   In the start point determination process in step S16 in FIG. 2, “a state where at least one of the aspect ratios lx / ly and lz / ly is 0.7 or more continues for 1 second (corresponding to about 5 frames) or more. It is determined whether or not the start point condition “is present” is satisfied. If the start point condition is satisfied, it is determined that the currently captured frame is the start point of the fall determination data storage period.

図2のステップS19の終了点判別処理においては、『「アスペクト比lx /lyおよびlz/lyのうちの少なくとも一方が0.7以下である状態が1.4秒(約7フレームに相当)以上継続していること」または「第2バッファに蓄積されているデータ群が所定フレーム数分以上となっていること」または「開始点からの経過時間が、所定時間以上に達していること」』という終了点条件を満たしているか否かを判別し、終了点条件を満たしている場合には今回取り込まれたフレームが転倒判定用データ蓄積期間の終了点であると判別する。   In the end point determination process in step S19 of FIG. 2, ““ at least one of the aspect ratios lx / ly and lz / ly is 0.7 or less is 1.4 seconds (corresponding to about 7 frames) or more. "Continuing" or "The data group stored in the second buffer is equal to or greater than the predetermined number of frames" or "Elapsed time from the start point has reached the predetermined time or more" It is determined whether or not the end point condition is satisfied. If the end point condition is satisfied, it is determined that the frame captured this time is the end point of the fall determination data storage period.

〔6〕図2のステップS21の転倒判定処理 [6] Falling determination process in step S21 of FIG.

各種の挙動毎に、事前にモデルを用意しておく。挙動の種類には、この例では、「前向きの転倒」、「しりもち」、「寝転び」および「座る」がある。ここでは、モデルとしては、隠れマルコフモデル(HMM)が用いられている。各挙動毎のモデルは、その挙動に対応した学習データに基づいて作成される。例えば、「前向きの転倒」は、「前向きの転倒」動作の学習データに基づいて作成される。なお、学習データとしては、経過時間情報(開始点からのフレーム数で表される)および被観察者の幅、高さ、奥行き情報(lx,ly,lz)からなる時系列データが用いられる。「前向きの転倒」、「しりもち」、「寝転び」および「座る」の挙動のうち、「前向きの転倒」および「しりもち」が転倒動作に該当する。   Prepare models in advance for each type of behavior. In this example, the types of behavior include “forward-falling”, “shiri-mochi”, “lie down”, and “sit down”. Here, a hidden Markov model (HMM) is used as the model. A model for each behavior is created based on learning data corresponding to the behavior. For example, “forward fall” is created based on the learning data of the “forward fall” operation. As the learning data, time-series data including elapsed time information (expressed by the number of frames from the start point) and the width, height, and depth information (lx, ly, lz) of the observer is used. Among the behaviors of “forward falling”, “shirimochi”, “lie down” and “sit”, “forward falling” and “shirimochi” correspond to the overturning motion.

第2バッファに蓄積されているデータ群のうち、経過時間情報(開始点からのフレーム数で表される)および被観察者の幅、高さ、奥行き情報(lx,ly,lz)を時系列データとし、上記時系列データが再現できる確率(尤度)を、各モデル毎に計算する。そして、最も尤度が高いモデルを求める。最も尤度が高いモデルに対応する挙動が、観察者の挙動となる。この実施例では、転倒を検知したいので、最も尤度が高いモデルが「前向きの転倒」または「しりもち」のモデルである場合には、被観察者が転倒したと判定する。   Of the data group stored in the second buffer, the elapsed time information (expressed by the number of frames from the start point) and the width, height, and depth information (lx, ly, lz) of the observer are time-series. The probability (likelihood) that the time series data can be reproduced as data is calculated for each model. Then, the model with the highest likelihood is obtained. The behavior corresponding to the model with the highest likelihood is the behavior of the observer. In this embodiment, since it is desired to detect a fall, if the model with the highest likelihood is a “forward fall” or “shirimochi” model, it is determined that the person to be observed has fallen.

〔7〕姿勢推定処理の変形例 [7] Modification of posture estimation processing

上記実施例では、被観察者の幅、高さおよび奥行きから求められたアスペクト比lx /lyおよびlz/lyに基づいて、被観察者の姿勢を推定しているが、被観察者の背筋の向きに相当するベクトル(人物主軸)の向きに基づいて、被観察者の姿勢を推定するようにしてもよい。   In the above embodiment, the posture of the observer is estimated based on the aspect ratios lx / ly and lz / ly obtained from the width, height, and depth of the observer. The posture of the person to be observed may be estimated based on the direction of a vector (person main axis) corresponding to the direction.

つまり、図6に示すように、人物主軸QのX−Z平面となす角γ(人物主軸の向き)を求め、次のような規則に基づいて、被観察者の姿勢を推定する。   That is, as shown in FIG. 6, the angle γ (the direction of the person main axis) formed by the XZ plane of the person main axis Q is obtained, and the posture of the person to be observed is estimated based on the following rules.

(a)γ>π/2×0.6であれば、観察者の姿勢を「立位」と推定する。
(b)γ<π/2×0.3であれば、観察者の姿勢を「臥位」と推定する。
(c)それ以外であれば、観察者の姿勢を「座位」と推定する。
(A) If γ> π / 2 × 0.6, the observer's posture is estimated as “standing”.
(B) If γ <π / 2 × 0.3, the observer's posture is estimated to be “prone”.
(C) Otherwise, the observer's posture is estimated as “sitting”.

図7は、人物主軸Qの向きと姿勢推定結果の例を示し、図7(a)は「立位」と推定される例を、図7(b)は「座位」と推定される例を、図7(c)は「臥位」と推定される例を、それぞれ示している。   FIG. 7 shows an example of the orientation of the person main axis Q and the posture estimation result, FIG. 7A shows an example in which “standing” is estimated, and FIG. 7B shows an example in which “sitting” is estimated. FIG. 7C shows an example in which it is estimated that the user is in the “recumbent position”.

以下、人物主軸の向きの求め方について説明する。人物主軸の向きの求め方には第1方法と第2方法とがある。   Hereinafter, a method for obtaining the orientation of the person principal axis will be described. There are a first method and a second method for obtaining the orientation of the person main axis.

まず、第1方法について説明する。第1方法は、主成分分析を用いて、人物主軸の向きを求める方法である。   First, the first method will be described. The first method is a method for obtaining the orientation of the person principal axis using principal component analysis.

図8は、人物主軸の向きの算出方法(第1方法)の手順を示している。   FIG. 8 shows the procedure of the method of calculating the orientation of the person principal axis (first method).

3次元人物領域情報(人物領域の3次元空間でのプロット群)を、X−Y平面に射影することにより、X軸をU軸、Y軸をV軸とするUV座標系の第1の射影画像を得るとともに、3次元人物領域情報を、Y−Z平面に射影することにより、Z軸をU軸、Y軸をV軸とするUV座標系の第2の射影画像を得る(ステップS51)。次に、各射影画像毎に、重心を算出する(ステップS52)。そして、各射影画像の全座標値を、重心を原点とする座標値に修正する(ステップS53)。   The first projection of the UV coordinate system in which the X axis is the U axis and the Y axis is the V axis by projecting the 3D human area information (a plot group of the human area in the 3D space) onto the XY plane. An image is obtained, and the 3D human region information is projected onto the YZ plane, thereby obtaining a second projected image in the UV coordinate system having the Z axis as the U axis and the Y axis as the V axis (step S51). . Next, the center of gravity is calculated for each projected image (step S52). Then, all coordinate values of each projected image are corrected to coordinate values having the center of gravity as the origin (step S53).

次に、座標値修正後の第1の射影画像から主成分分析を用いて固有ベクトル(第1主成分の傾きを表すベクトル)を算出するとともに、座標値修正後の第2の射影画像から主成分分析を用いて固有ベクトル(第1主成分の傾きを表すベクトル)を算出する(ステップS54)。そして、ステップS54で算出された2つの固有ベクトルを合成することにより、人物主軸の向きを示すベクトルを求める(ステップS55)。そして、人物主軸の向きを示すベクトルから人物主軸の向きγを求める(ステップS56)。   Next, an eigenvector (a vector representing the inclination of the first principal component) is calculated from the first projection image after the coordinate value correction using the principal component analysis, and the principal component is calculated from the second projection image after the coordinate value correction. An eigenvector (a vector representing the inclination of the first principal component) is calculated using analysis (step S54). Then, a vector indicating the direction of the person principal axis is obtained by combining the two eigenvectors calculated in step S54 (step S55). Then, the orientation γ of the person principal axis is obtained from the vector indicating the orientation of the person principal axis (step S56).

固有ベクトルの算出方法について説明する。各固有ベクトルの算出方法は同様であるので、第1の固有ベクトルの算出方法について説明する。まず、座標値修正後の第1の射影画像に基づいて、変量uの分散su 、変量vの分散sv および変量u,vの共分散suvを算出する。そして、分散su 、sv および共分散suvを用いて、固有値λを算出する。分散su 、sv および共分散suvを用いて固有値λを算出する方法は、主成分分析において良く知られているのでその詳細を省略する。次に、固有値λを用いて固有ベクトルを算出する。固有値λを用いて固有ベクトルを算出する方法は、主成分分析において良く知られているのでその詳細を省略する。 A method for calculating the eigenvector will be described. Since the calculation method of each eigenvector is the same, the calculation method of the first eigenvector will be described. First, based on the first projected image after the coordinate value correction, the variance u of the variable u , the variance s v of the variable v, and the covariance s uv of the variables u and v are calculated. Then, the eigenvalue λ is calculated using the variances s u and s v and the covariance s uv . Since the method for calculating the eigenvalue λ using the variances s u and s v and the covariance s uv is well known in principal component analysis, its details are omitted. Next, an eigenvector is calculated using the eigenvalue λ. Since the method for calculating the eigenvector using the eigenvalue λ is well known in the principal component analysis, its details are omitted.

図9は、人物主軸の向きの算出方法(第2方法)の手順を示している。   FIG. 9 shows the procedure of the method for calculating the orientation of the person main axis (second method).

3次元人物領域情報(人物領域の3次元空間でのプロット群)をX−Y平面に射影することにより、第1の射影画像を得るとともに、3次元人物領域情報をY−Z平面に射影することにより、第2の射影画像を得る(ステップS61)。次に、各射影画像毎に、重心を算出する(ステップS62)。そして、各射影画像の全座標値を、重心を原点とする座標値に修正する(ステップS63)。   By projecting the three-dimensional human region information (a plot group of the human region in the three-dimensional space) onto the XY plane, a first projected image is obtained and the three-dimensional human region information is projected onto the YZ plane. Thus, a second projected image is obtained (step S61). Next, the center of gravity is calculated for each projected image (step S62). Then, all coordinate values of each projected image are corrected to coordinate values having the center of gravity as the origin (step S63).

次に、座標値修正後の第1の射影画像から、原点を通りかつ両端が人物領域の輪郭までのびた線分のうち、その長さが最大となる第1の線分の傾きを求めるとともに、座標値修正後の第2の射影画像から、原点を通りかつ両端が人物領域の輪郭までのびた線分のうち、その長さが最大となる第2の線分の傾きを求める(ステップS64)。そして、ステップS64で求められた2つの線分の傾きに基づいて、人物主軸の向きγを求める(ステップS65)。   Next, from the first projected image after the coordinate value correction, among the line segments extending through the origin and extending to the contour of the person area, the inclination of the first line segment having the maximum length is obtained, From the second projected image after the coordinate value correction, the inclination of the second line segment having the maximum length among the line segments passing through the origin and extending to the contour of the person area is obtained (step S64). Then, based on the inclinations of the two line segments obtained in step S64, the orientation γ of the person principal axis is obtained (step S65).

図10に示すように、第1の射影画像から得られた第1の線分の傾きをα、第2の射影画像から得られた第2の線分の傾きをβとすると、各線分の向きを示す単位ベクトルv1、v2は、次式(1)で表される。   As shown in FIG. 10, when the slope of the first line segment obtained from the first projection image is α and the slope of the second line segment obtained from the second projection image is β, each line segment is The unit vectors v1 and v2 indicating the direction are expressed by the following equation (1).

v1=(cosα,sinα)
v2=(cosβ,sinβ) …(1)
v1 = (cos α, sin α)
v2 = (cosβ, sinβ) (1)

次式(2)に基づいて、v1、v2を合成すると、人物主軸の向きを示すベクトルVが得られる。   Based on the following equation (2), when v1 and v2 are combined, a vector V indicating the orientation of the person principal axis is obtained.

V=(cosα,sinα+sinβ,cosβ) …(2)   V = (cos α, sin α + sin β, cos β) (2)

人物主軸の向きγは、次式(3)に基づいて、求められる。   The orientation γ of the person principal axis is obtained based on the following equation (3).

tanγ=(sinα+sinβ)/(cosα2 +cosβ2 1/2 …(3) tan γ = (sin α + sin β) / (cos α 2 + cos β 2 ) 1/2 (3)

第1の線分および第2の線分の求め方について説明する。各線分の求め方は同様であるので、第1の線分の求め方について説明する。   A method for obtaining the first line segment and the second line segment will be described. Since the method for obtaining each line segment is the same, the method for obtaining the first line segment will be described.

図11は、第1の線分の求め方を示している。   FIG. 11 shows how to obtain the first line segment.

まず、ステップS3で得られた第1の射影画像を、図12に示すように、一定間隔を有するY軸に平行な複数の分割線により、射影画像をX軸方向に複数の領域に分割する(ステップS71)。各分割領域毎に人物領域のy座標の最大値と最小値に対応する点を輪郭点Piとして特定する(ステップS72)。   First, as shown in FIG. 12, the projected image is divided into a plurality of regions in the X-axis direction by dividing the first projected image obtained in step S3 by a plurality of dividing lines parallel to the Y-axis having a predetermined interval. (Step S71). A point corresponding to the maximum value and the minimum value of the y coordinate of the person area is specified as the contour point Pi for each divided area (step S72).

輪郭点のうちx座標が最も大きくかつy座標が0に最も近い輪郭点を点Aとし、点Aを含む分割領域を注目領域とする(ステップS73)。図12の例では、点P1が点Aとして特定される。点A以外の輪郭点のうち、点Aと原点を結ぶ直線に最も近い輪郭点を求め、点Bとする(ステップS74)。図12の例では、点Aが点P1である場合には、点P7が点Bとされる。点Aと点Bを結ぶ線分の距離(A−B間距離)を算出して保持する(ステップS75)。   Of the contour points, the contour point having the largest x coordinate and the y coordinate closest to 0 is defined as a point A, and a divided region including the point A is defined as a region of interest (step S73). In the example of FIG. 12, the point P1 is specified as the point A. Among contour points other than point A, a contour point closest to the straight line connecting point A and the origin is obtained and set as point B (step S74). In the example of FIG. 12, when the point A is the point P1, the point P7 is the point B. The distance between the line connecting point A and point B (distance between A and B) is calculated and held (step S75).

次に、注目領域が、輪郭点のうちx座標が最も小さい輪郭点を含む分割領域(最終処理領域)であるか否かを判別する(ステップS76)。現在の注目領域が最終処理領域でなければ、注目領域を、現在の注目領域に対してx座標が小さくなる方向に隣接する分割領域に更新する(ステップS77)。そして、更新された注目領域内において、y座標が最も大きい輪郭点を点Aとする(ステップS78)。そして、ステップS74に戻り、ステップS74以降の処理を再度行なう。   Next, it is determined whether or not the attention area is a divided area (final processing area) including an outline point having the smallest x coordinate among the outline points (step S76). If the current attention area is not the final processing area, the attention area is updated to a divided area adjacent to the current attention area in the direction in which the x-coordinate becomes smaller (step S77). Then, in the updated attention area, the contour point having the largest y coordinate is set as a point A (step S78). And it returns to step S74 and performs the process after step S74 again.

上記ステップS76において、現在の注目領域が最終処理領域であると判別された場合には、A−B間の距離が最大である線分を第1の線分として特定する(ステップS79)。図12の例では、点P3と点P9とを結ぶ線分が第1の線分として特定される。   If it is determined in step S76 that the current region of interest is the final processing region, the line segment having the maximum distance between A and B is specified as the first line segment (step S79). In the example of FIG. 12, the line segment connecting the point P3 and the point P9 is specified as the first line segment.

〔8〕図2のステップS21の転倒判定処理の変形例 [8] Modification of the fall determination process in step S21 of FIG.

各種の挙動毎に、事前に学習モデルを用意しておく。挙動の種類には、この例では、「前向きの転倒」、「しりもち」、「寝転び」および「座る」がある。各挙動毎の学習モデルは、その挙動に対応した学習データに基づいて作成される。例えば、「前向きの転倒」は、「前向きの転倒」動作の学習データに基づいて作成される。なお、学習データとしては、時刻情報および被観察者の幅、高さ、奥行き情報(lx,ly,lz)からなる時系列データが用いられる。学習データに基づいて、複数時点での被観察者の動き量の程度(多、中、少)からなる学習モデルが作成される。「前向きの転倒」、「しりもち」、「寝転び」および「座る」の挙動のうち、「前向きの転倒」および「しりもち」が転倒動作に該当する。   A learning model is prepared in advance for each type of behavior. In this example, the types of behavior include “forward-falling”, “shiri-mochi”, “lie down”, and “sit down”. A learning model for each behavior is created based on learning data corresponding to the behavior. For example, “forward fall” is created based on the learning data of the “forward fall” operation. As the learning data, time series data including time information and the width, height, and depth information (lx, ly, lz) of the observer is used. Based on the learning data, a learning model is created that includes the degree of movement (many, medium, and small) of the observer at a plurality of points in time. Among the behaviors of “forward falling”, “shirimochi”, “lie down” and “sit”, “forward falling” and “shirimochi” correspond to the overturning motion.

図13は、転倒判定処理の手順を示している。図14は、転倒判定処理の手順を模式図で表している。   FIG. 13 shows the procedure of the fall determination process. FIG. 14 is a schematic diagram showing the procedure of the fall determination process.

まず、第2バッファに保存されている複数フレーム分の被観察者の幅、高さ、奥行き情報(lx,ly,lz)および時刻情報(図14に時系列データ201で示す)に基づいて、複数時点での単位時間当たりの動き量データ(dlx/dt,dly/dt,dlz/dt)を求める(ステップS111)。   First, based on the width, height, depth information (lx, ly, lz) and time information (shown as time-series data 201 in FIG. 14) of a plurality of frames stored in the second buffer, Motion amount data (dlx / dt, dly / dt, dlz / dt) per unit time at a plurality of time points is obtained (step S111).

時系列データ201における各隣合うフレーム間のlx,ly,lzの差分dlx、dly、dlzを、それらのフレーム間の時間差で除算することにより、複数時点での単位時間当たりの動き量データが得られる。   By dividing the differences dlx, lyy, and dlz of lx, ly, and lz between adjacent frames in the time series data 201 by the time difference between the frames, motion amount data per unit time at a plurality of time points is obtained. It is done.

次に、各時点での3種類の動き量データのうちの最大値と、予め設定した2つの閾値に基づいて、各時点での動き量を3種類(多、中、少)にシンボル化する(ステップS112)。これにより、図14に示すような複数時点でのシンボル化データからなるパターン202が得られる。   Next, based on the maximum value of the three types of motion amount data at each time point and two preset threshold values, the motion amount at each time point is symbolized into three types (many, medium, and small). (Step S112). As a result, a pattern 202 composed of symbolized data at a plurality of time points as shown in FIG. 14 is obtained.

得られたパターン202と各挙動毎の学習モデル(図14に211〜214で示す)との距離(類似度)をDPマッチングにより算出する(ステップS113)。そして、両パターン間の距離が最も短い学習モデルに対応する挙動を、被観察者の挙動として判定する(ステップS114)。この実施例では、転倒を検知したいので、両パターン間の距離が最も短い学習モデルが「前向きの転倒」または「しりもち」の学習モデルである場合には、被観察者が転倒したと判定する。   The distance (similarity) between the obtained pattern 202 and the learning model for each behavior (shown as 211 to 214 in FIG. 14) is calculated by DP matching (step S113). Then, the behavior corresponding to the learning model having the shortest distance between both patterns is determined as the behavior of the observer (step S114). In this embodiment, since it is desired to detect a fall, if the learning model with the shortest distance between the two patterns is a “forward-facing fall” or “Sirimochi” learning model, it is determined that the subject has fallen. .

〔9〕検知履歴の活用等 [9] Utilization of detection history

監視装置20(図1参照)は、被観察者毎に、現在までの転倒検知回数、転倒検知の発生間隔等から被観察者毎に転倒リスクを評価し、ランキングするようにしてもよい。このランキングは、監視者が自由に設定できるようにしてもよい。また、転倒リスクの高さに応じて、転倒が検知された場合に出力するアラームの種類を変更するようにしてもよい。また、同時に複数の被観察者の転倒が検知された場合には、リスクの高い被観察者の方を優先してその様子を確認できるようにするために、監視装置20において転倒の発生と被観察者の転倒リスクとの両方を表示することが好ましい。   The monitoring device 20 (see FIG. 1) may evaluate and rank the fall risk for each person to be observed from the number of fall detections to date, the occurrence interval of the fall detection, and the like. This ranking may be set freely by the supervisor. Further, the type of alarm output when a fall is detected may be changed according to the height of the fall risk. In addition, in the case where a plurality of observers are detected to fall at the same time, the monitoring device 20 can detect the occurrence of a fall and the subject to be able to check the situation with priority given to a high-risk observer. It is preferable to display both the observer's fall risk.

上記実施例では、転倒等の挙動検知に関する処理を各転倒検知装置10で行なっているが、監視装置20側で一括して行なうようにしてもよい。ただし、このようにすると、監視装置20に処理負荷が集中し、監視装置20がダウンする可能性がある。このような観点から、転倒等の挙動検知に関する処理を各転倒検知装置10で行うことが好ましい。なお、停電等の発生に備えて、各居室の入り口に転倒検知時に転倒するランプやアラームを設置するとともに、各転倒検知装置10にバッテリーを内蔵させておくことが好ましい。また、遠隔の家族等にも、監視装置20を介さず、挙動検知装置10から直接、通知ができるようにしておくことが好ましい。   In the above embodiment, each fall detection device 10 performs processing related to behavior detection such as a fall, but it may be performed collectively on the monitoring device 20 side. However, if it does in this way, processing load may concentrate on the monitoring apparatus 20, and the monitoring apparatus 20 may go down. From this point of view, it is preferable that each fall detection device 10 performs processing related to behavior detection such as fall. In preparation for the occurrence of a power failure or the like, it is preferable to install a lamp or an alarm that falls at the entrance of each room when a fall is detected, and to have a battery built in each fall detection device 10. Further, it is preferable that a remote family member or the like can be notified directly from the behavior detection device 10 without using the monitoring device 20.

上記実施例では、転倒検知装置10は3次元人物領域情報を抽出するためにステレオカメラ等の撮像装置を備えているが、これに限定されることなく、転倒検知装置10は、3次元人物領域情報を抽出するために、例えば単眼の撮像装置とレーザレンジファインダーとの組合せ、単眼の撮像装置と複数の超音波センサの組合せ等のように、撮像装置を含んだセンサの組合せを備えていてもよい。   In the above-described embodiment, the fall detection device 10 includes an imaging device such as a stereo camera in order to extract 3D human region information. However, the fall detection device 10 is not limited to this, and the fall detection device 10 has a 3D human region. In order to extract information, for example, a combination of a sensor including an imaging device such as a combination of a monocular imaging device and a laser range finder, a combination of a monocular imaging device and a plurality of ultrasonic sensors may be provided. Good.

転倒検知システムの全体的な構成を示すブロック図である。It is a block diagram which shows the whole structure of a fall detection system. 転倒検知装置10によって実行される転倒検知処理の手順を示すフローチャートである。4 is a flowchart illustrating a procedure of a fall detection process executed by the fall detection device 10. 図2のステップS12の3次元の人物領域抽出処理の詳細な手順を示すフローチャートである。It is a flowchart which shows the detailed procedure of the three-dimensional person area extraction process of step S12 of FIG. 3次元の人物領域情報に対応する3次元の人物領域画像の一例を示す模式図である。It is a schematic diagram which shows an example of the three-dimensional person area image corresponding to three-dimensional person area information. 図2のステップS13の姿勢推定処理の詳細な手順を示すフローチャートである。It is a flowchart which shows the detailed procedure of the attitude | position estimation process of step S13 of FIG. 人物主軸Qおよび人物主軸QのX−Z平面となす角γを示す模式図である。It is a schematic diagram which shows angle | corner (γ) which makes the person main axis Q and the XZ plane of the person main axis Q. 人物主軸Qの向きと姿勢推定結果の例を示す模式図である。It is a schematic diagram which shows the direction of the person main axis | shaft Q and the example of an attitude | position estimation result. 人物主軸の算出方法(第1方法)の手順を示すフローチャートである。It is a flowchart which shows the procedure of the calculation method (1st method) of a person principal axis. 人物主軸の算出方法(第2方法)の手順を示すフローチャートである。It is a flowchart which shows the procedure of the calculation method (2nd method) of a person principal axis. 第1の射影画像から得られた第1の線分の傾きαと、第2の射影画像から得られた第2の線分の傾きβとを示す模式図である。It is a schematic diagram which shows the inclination (alpha) of the 1st line segment obtained from the 1st projection image, and the inclination (beta) of the 2nd line segment obtained from the 2nd projection image. 第1の線分の求め方を示すフローチャートである。It is a flowchart which shows how to obtain | require a 1st line segment. 第1の線分の求め方を説明するための模式図である。It is a schematic diagram for demonstrating how to obtain | require a 1st line segment. 図3のステップS21の転倒判定処理の手順の変形例を示すフローチャートである。It is a flowchart which shows the modification of the procedure of the fall determination process of step S21 of FIG. 図13の転倒判定処理の手順を説明するための模式図である。It is a schematic diagram for demonstrating the procedure of the fall determination process of FIG.

符号の説明Explanation of symbols

10 転倒検知装置
11、12 ステレオカメラ
20 監視装置
30 移動通信端末
40 ネットワーク
10 fall detection device 11, 12 stereo camera 20 monitoring device 30 mobile communication terminal 40 network

Claims (7)

被観察者の撮影画像に基づいて、3次元人物領域情報を抽出する人物領域情報抽出手段、
3次元人物領域情報から3次元人物領域の高さ、幅および奥行き情報を算出する算出手段、ならびに
3次元人物領域の高さに対する幅の比および3次元人物領域の高さに対する奥行きの比に基づいて、被観察者の姿勢を判定する判定手段、
を備えていることを特徴とする姿勢検知装置。
Person area information extracting means for extracting three-dimensional person area information based on a photographed image of the person to be observed;
Based on the calculation means for calculating the height, width and depth information of the 3D person area from the 3D person area information, and the ratio of the width to the height of the 3D person area and the ratio of the depth to the height of the 3D person area Determining means for determining the posture of the person to be observed;
An attitude detection device comprising:
被観察者の撮影画像に基づいて、3次元人物領域情報を抽出する人物領域情報抽出手段、
3次元人物領域情報から被観察者の背筋の向きを算出する算出手段、ならびに
被観察者の背筋の向きに基づいて、被観察者の姿勢を判定する判定手段、
を備えていることを特徴とする姿勢検知装置。
Person area information extracting means for extracting three-dimensional person area information based on a photographed image of the person to be observed;
Calculating means for calculating the orientation of the back muscle of the subject from the three-dimensional person area information, and determination means for determining the posture of the subject based on the orientation of the back muscle of the observer,
An attitude detection device comprising:
算出手段は、
3次元人物領域の高さ方向をY軸とし、幅方向をX軸とし、奥行き方向をZ軸として、3次元人物領域情報を、X−Y平面に射影することにより第1の射影画像を生成するとともに、3次元人物領域情報を、Y−Z平面に投影することにより第2の射影画像を生成する手段、
各射影画像毎に、重心を算出し、各射影画像の全座標値を、重心を原点とする座標値に修正する手段、
座標値修正後の第1の射影画像から主成分分析を用いて第1主成分の傾きを表す第1のベクトルを算出するとともに、座標値修正後の第2の射影画像から主成分分析を用いて第1主成分の傾きを表す第2のベクトルを算出する手段、ならびに
第1のベクトルおよび第2のベクトルを合成することにより、被観察者の背筋の向きを示すベクトルを求め、求めたベクトルから被観察者の背筋の向きを求める手段、
を備えていることを特徴とする請求項2に記載の姿勢検知装置。
The calculation means is
The first projected image is generated by projecting the 3D human area information onto the XY plane with the Y axis as the height direction of the 3D human area, the X axis as the width direction, and the Z axis as the depth direction. And means for generating a second projected image by projecting the three-dimensional human region information onto the YZ plane,
Means for calculating the center of gravity for each projected image, and correcting all coordinate values of each projected image to coordinate values having the center of gravity as the origin;
A first vector representing the inclination of the first principal component is calculated from the first projection image after the coordinate value correction using the principal component analysis, and the principal component analysis is used from the second projection image after the coordinate value correction. Means for calculating a second vector representing the inclination of the first principal component, and by combining the first vector and the second vector, a vector indicating the orientation of the back muscle of the observer is obtained, and the obtained vector From which the direction of the back muscle of the person to be observed is determined,
The posture detection apparatus according to claim 2, comprising:
算出手段は、
3次元人物領域の高さ方向をY軸とし、幅方向をX軸とし、奥行き方向をZ軸として、3次元人物領域情報を、X−Y平面に射影することにより第1の射影画像を生成するとともに、3次元人物領域情報を、Y−Z平面に投影することにより第2の射影画像を生成する手段、
各射影画像毎に、重心を算出し、各射影画像の全座標値を、重心を原点とする座標値に修正する手段、
座標値修正後の第1の射影画像から、原点を通りかつ両端が人物領域の輪郭までのびた線分のうち、その長さが最大となる第1の線分の傾きを求めるとともに、座標値修正後の第2の射影画像から、原点を通りかつ両端が人物領域の輪郭までのびた線分のうち、その長さが最大となる第2の線分の傾きを求める手段、ならびに
第1の線分の傾きおよび第2の線分の傾きに基づいて、被観察者の背筋の向きを求める手段、
を備えていることを特徴とする請求項2に記載の姿勢検知装置。
The calculation means is
The first projected image is generated by projecting the 3D human area information onto the XY plane with the Y axis as the height direction of the 3D human area, the X axis as the width direction, and the Z axis as the depth direction. And means for generating a second projected image by projecting the three-dimensional human region information onto the YZ plane,
Means for calculating the center of gravity for each projected image, and correcting all coordinate values of each projected image to coordinate values having the center of gravity as the origin;
From the first projected image after the coordinate value correction, the inclination of the first line segment having the maximum length among the line segments passing through the origin and extending to the contour of the person area is obtained, and the coordinate value correction is performed. Means for obtaining the slope of the second line segment having the maximum length among the line segments that pass through the origin and extend to the contour of the person area from the second projected image later; and the first line segment Means for determining the direction of the spine of the person to be observed based on the inclination of the second line segment and the inclination of the second line segment;
The posture detection apparatus according to claim 2, comprising:
被観察者の撮影画像に基づいて、3次元人物領域情報を抽出する人物領域情報抽出手段、
3次元人物領域情報に基づいて被観察者の姿勢を判定する姿勢判定手段、
3次元人物領域情報から検知対象の挙動を判定するための挙動判定用データを生成する挙動判定用データ生成手段、
姿勢判定手段の判定結果に基づいて、検知対象の挙動が発生した可能性がある期間において、挙動判定用データを蓄積していく蓄積手段、ならびに
蓄積手段によって蓄積された挙動判定用データから得られた時系列データと、検知対象の挙動に対応した学習用データから予め作成されているモデルとを比較することにより、検知対象の挙動が発生したか否かを判定する判定手段、
を備えていることを特徴とする挙動検知装置。
Person area information extracting means for extracting three-dimensional person area information based on a photographed image of the person to be observed;
Posture determination means for determining the posture of the person to be observed based on the three-dimensional person area information;
Behavior determination data generating means for generating behavior determination data for determining the behavior of the detection target from the three-dimensional person area information;
Based on the determination result of the posture determination means, it is obtained from the storage means for accumulating behavior determination data during the period when the behavior of the detection target may have occurred, and the behavior determination data accumulated by the storage means. Determining means for determining whether or not the behavior of the detection target has occurred by comparing the time series data and a model created in advance from learning data corresponding to the behavior of the detection target,
A behavior detection device comprising:
挙動判定用データ生成手段は、3次元人物領域情報から3次元人物領域の高さ、幅および奥行きからなる挙動判定用データを生成するものであり、上記時系列データが、蓄積手段によって蓄積された3次元人物領域の高さ、幅および奥行きの時系列データであり、上記モデルがHMMモデルであることを特徴とする請求項5に記載の挙動検知装置。 The behavior determination data generation means generates behavior determination data including the height, width, and depth of the three-dimensional person area from the three-dimensional person area information. The time-series data is stored by the storage means. 6. The behavior detection apparatus according to claim 5, wherein the behavior detection apparatus is time series data of height, width, and depth of a three-dimensional person region, and the model is an HMM model. 挙動判定用データ生成手段は、3次元人物領域情報から3次元人物領域の高さ、幅および奥行きからなる挙動判定用データを生成するものであり、上記時系列データが、蓄積手段によって蓄積された3次元人物領域の高さ、幅および奥行きから算出された、被観察者の動き量の大きさをシンボル化したデータの時系列データであり、モデルがDPマッチング用のモデルであることを特徴とする請求項5に記載の挙動検知装置。。 The behavior determination data generation means generates behavior determination data including the height, width, and depth of the three-dimensional person area from the three-dimensional person area information. The time-series data is stored by the storage means. Time-series data of data obtained by symbolizing the magnitude of the amount of movement of the observer calculated from the height, width, and depth of the three-dimensional person region, and the model is a model for DP matching The behavior detection apparatus according to claim 5. .
JP2006336063A 2006-12-13 2006-12-13 Attitude detector and behavior detector Withdrawn JP2008146583A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006336063A JP2008146583A (en) 2006-12-13 2006-12-13 Attitude detector and behavior detector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006336063A JP2008146583A (en) 2006-12-13 2006-12-13 Attitude detector and behavior detector

Publications (1)

Publication Number Publication Date
JP2008146583A true JP2008146583A (en) 2008-06-26

Family

ID=39606655

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006336063A Withdrawn JP2008146583A (en) 2006-12-13 2006-12-13 Attitude detector and behavior detector

Country Status (1)

Country Link
JP (1) JP2008146583A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010113550A (en) * 2008-11-06 2010-05-20 Honda Motor Co Ltd Environment recognition apparatus
JP2011175347A (en) * 2010-02-23 2011-09-08 Nec System Technologies Ltd Information processing apparatus and method
JP2013206069A (en) * 2012-03-28 2013-10-07 Kitasato Institute Object watch system
JP2014016742A (en) * 2012-07-06 2014-01-30 Nippon Signal Co Ltd:The Fall detection system
CN103810717A (en) * 2012-11-09 2014-05-21 浙江大华技术股份有限公司 Human behavior detection method and device
JP2016123588A (en) * 2014-12-26 2016-07-11 オムロン株式会社 Apparatus and method for acquiring body information
JP2016123586A (en) * 2014-12-26 2016-07-11 オムロン株式会社 Apparatus and method for acquiring body information
JP2017097877A (en) * 2015-11-20 2017-06-01 株式会社日立製作所 Method and system configured to dynamically display monitoring feed
CN113271848A (en) * 2019-02-05 2021-08-17 株式会社日立制作所 Body health state image analysis device, method and system

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010113550A (en) * 2008-11-06 2010-05-20 Honda Motor Co Ltd Environment recognition apparatus
JP2011175347A (en) * 2010-02-23 2011-09-08 Nec System Technologies Ltd Information processing apparatus and method
JP2013206069A (en) * 2012-03-28 2013-10-07 Kitasato Institute Object watch system
JP2014016742A (en) * 2012-07-06 2014-01-30 Nippon Signal Co Ltd:The Fall detection system
CN103810717A (en) * 2012-11-09 2014-05-21 浙江大华技术股份有限公司 Human behavior detection method and device
CN103810717B (en) * 2012-11-09 2016-08-24 浙江大华技术股份有限公司 A kind of human body behavioral value method and device
JP2016123588A (en) * 2014-12-26 2016-07-11 オムロン株式会社 Apparatus and method for acquiring body information
JP2016123586A (en) * 2014-12-26 2016-07-11 オムロン株式会社 Apparatus and method for acquiring body information
JP2017097877A (en) * 2015-11-20 2017-06-01 株式会社日立製作所 Method and system configured to dynamically display monitoring feed
CN113271848A (en) * 2019-02-05 2021-08-17 株式会社日立制作所 Body health state image analysis device, method and system
CN113271848B (en) * 2019-02-05 2024-01-02 株式会社日立制作所 Body health state image analysis device, method and system

Similar Documents

Publication Publication Date Title
JP2008146583A (en) Attitude detector and behavior detector
CN105283129B (en) Information processor, information processing method
US10297076B2 (en) Apparatus and method for generating 3D face model using mobile device
JP6534499B1 (en) MONITORING DEVICE, MONITORING SYSTEM, AND MONITORING METHOD
JP6793151B2 (en) Object tracking device, object tracking method and object tracking program
US20110249117A1 (en) Imaging device, distance measuring method, and non-transitory computer-readable recording medium storing a program
JP2009009413A (en) Operation detector and operation detection program, and operation basic model generator and operation basic model generation program
JP2008148237A (en) Posture detecting device
US8599278B2 (en) Method for estimating a plane in a range image and range image camera
JP2007304801A (en) Solidity authenticating method, solidity authenticating apparatus, and solidity authenticating program
JP2017038777A (en) Motion recognition apparatus
KR101636171B1 (en) Skeleton tracking method and keleton tracking system using the method
JP4914870B2 (en) Congestion degree measuring device, congestion degree measuring method, congestion degree measuring program, and recording medium recording the program
JP2008152717A (en) Apparatus for detecting fall-down state
JP2009301242A (en) Head candidate extraction method, head candidate extraction device, head candidate extraction program and recording medium recording the program
US20220395193A1 (en) Height estimation apparatus, height estimation method, and non-transitory computer readable medium storing program
US20200226787A1 (en) Information processing apparatus, information processing method, and program
WO2020261404A1 (en) Person state detecting device, person state detecting method, and non-transient computer-readable medium containing program
JP2007109126A (en) Moving body distribution estimation device, moving body distribution estimation method, and moving body distribution estimation program
KR20150028623A (en) Method and apparatus for processing images
JP2018180894A (en) Information processing device, information processing method, and program
KR20230113371A (en) Identify the 3D position of an object within an image or video
JP6565468B2 (en) Respiration detection device, respiration detection method, and respiration detection program
WO2022210005A1 (en) Attitude estimation system
JP7323234B2 (en) Guide method

Legal Events

Date Code Title Description
A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20090127