JP2017038777A - Motion recognition apparatus - Google Patents

Motion recognition apparatus Download PDF

Info

Publication number
JP2017038777A
JP2017038777A JP2015162173A JP2015162173A JP2017038777A JP 2017038777 A JP2017038777 A JP 2017038777A JP 2015162173 A JP2015162173 A JP 2015162173A JP 2015162173 A JP2015162173 A JP 2015162173A JP 2017038777 A JP2017038777 A JP 2017038777A
Authority
JP
Japan
Prior art keywords
bed
head
motion
unit
center
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015162173A
Other languages
Japanese (ja)
Inventor
憲一 小川
Kenichi Ogawa
憲一 小川
藤吉 弘亘
Hironobu Fujiyoshi
弘亘 藤吉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aiphone Co Ltd
Chubu University
Original Assignee
Aiphone Co Ltd
Chubu University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aiphone Co Ltd, Chubu University filed Critical Aiphone Co Ltd
Priority to JP2015162173A priority Critical patent/JP2017038777A/en
Publication of JP2017038777A publication Critical patent/JP2017038777A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Emergency Alarm Devices (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a motion recognition apparatus capable of determining a condition of a person with a high degree of precision even by a CPU which is relatively low in calculation capability.SOLUTION: A motion recognition apparatus includes: a three-dimensional data input unit 21 for creating a gray scale image and a distance image from three-dimensional information acquired from a camera 1; a bed area grasping unit 22 for grasping a bed area based on position data on four corners of a bed; a head detection/head direction estimation unit 23 for detecting centers of the head and two shoulders of a person on the bed from the distance image and the gray scale image, and estimating a head direction viewed from the center of the two shoulders; a coordinate conversion unit 24 for converting the six points of the acquired center of the head, center of the two shoulders, and four corners of the bed to a world coordinate system; a motion determination unit 25 for determining that the motion is in a specific motion state to be notified of if relationships between the position and direction of the head, and the position of the bed satisfies a specific condition based on the data converted to the world coordinate system, and the direction of the head; and a result output unit 26 for notifying that the motion is in a specific motion state.SELECTED DRAWING: Figure 1

Description

本発明は、ベッド上の人物を見守るためにカメラで撮像し、その撮像画像から人物の起き上がりや離床を検出する動作認識装置に関する。   The present invention relates to a motion recognition apparatus that captures an image with a camera in order to watch a person on a bed and detects a person's rising and getting out of the bed from the captured image.

ベッド上の人物がベッドから転落したり、徘徊による事故を防止するために各種センサを用いて人物を見守り、異常発生を検知したら関係者に通知するシステムが開発されている。そのようなシステムの中で、非接触で見守り対象者に関する3次元データを入手し、このデータを基に人物の離床等の発生を防止する技術が提案されている。
例えば特許文献1では、赤外線レーザーセンサを使用してベッド上の被介護者の動作を把握して、起き上がりや離床を検出する構成が開示されている。また特許文献2では、画素値に撮像対象の患者までの距離データを有する画像を生成する距離画像センサを用い、合わせて検出したベッド位置と比較して患者の動作を判別する技術が記載されている。
In order to prevent a person on the bed from falling off the bed or accidents caused by dredging, a system has been developed to watch the person using various sensors and notify the parties concerned when an abnormality is detected. In such a system, a technique has been proposed in which three-dimensional data relating to a person to be watched is obtained in a non-contact manner and the occurrence of a person leaving the bed is prevented based on this data.
For example, Patent Document 1 discloses a configuration in which an infrared laser sensor is used to grasp the operation of a cared person on a bed to detect rising or getting out of bed. Patent Document 2 describes a technique that uses a distance image sensor that generates an image having distance data to a patient to be imaged as a pixel value and discriminates a patient's movement in comparison with a bed position detected together. Yes.

特開2014−149731号公報JP 2014-149731 A 特開2012−30042号公報JP 2012-30042 A

見守り対象者に関する3次元データを入手して、人物の動作を判別する上記特許文献の技術は、それまでの2次元データから判断する技術に比べて高い精度で判別することが可能となった。しかしながら、何れの技術も3次元データを取得するセンサ装置がベッドの斜め上方に設置されている。このような構成の場合、センサ装置から見守り対象者を精度良く把握するためには、センサ装置から得られた距離画像をワールド座標系に配置し直したポイントクラウド等のデータに一度変換する必要があるため、演算量が多くCPUの負担が大きかった。また、その後の認識処理を行う際も、ポイントクラウド等のデータを用いた処理となるため演算量が多く、高い性能のCPUが必要であった。   The technique of the above-mentioned patent document that obtains the three-dimensional data related to the person to be watched and discriminates the movement of the person can be discriminated with higher accuracy than the technique that judges from the two-dimensional data so far. However, in any technique, a sensor device that acquires three-dimensional data is installed obliquely above the bed. In such a configuration, in order to accurately grasp the person to be watched from the sensor device, it is necessary to convert the distance image obtained from the sensor device into data such as a point cloud that has been rearranged in the world coordinate system. For this reason, the calculation amount is large and the burden on the CPU is large. Further, when performing subsequent recognition processing, since processing using data such as a point cloud is performed, the amount of calculation is large and a high performance CPU is required.

そこで、本発明はこのような問題点に鑑み、ワールド座標系に変換するデータ量自体を削減することで、演算能力の比較的低いCPUでも高い精度で人物の状態を判断できる動作認識装置を提供することを目的としている。   Therefore, in view of such problems, the present invention provides a motion recognition device that can determine the state of a person with high accuracy even with a CPU having a relatively low calculation capability by reducing the data amount itself to be converted into the world coordinate system. The purpose is to do.

上記課題を解決する為に、請求項1の発明は、ベッド全体を上方から撮像して画像情報と距離情報を得る情報取得手段と、取得した情報からベッド上の人物の動作を判定する動作認識手段とを有する動作認識装置であって、動作認識手段は、入手した情報から画像データ及び距離データを生成する3次元データ入力部と、画像データのベッド4隅の位置データを基にベッドエリアを把握するベッドエリア把握部と、画像データ及び距離データから、ベッド上の人物の頭部と両肩の中心を検出し、更に検出した両肩の中心から見た頭部方向を推定する頭部検出・頭部方向推定部と、求めた頭部の中心、両肩の中心、及びベッド4隅の6点をワールド座標系に変換する座標変換部と、ワールド座標系に変換されたデータと推定した頭部方向とを基に、頭部の位置及び方向とベッド位置との関係が特定の条件を満たしたら特定動作検出信号を出力する動作判定部と、特定動作検出信号を受けて報知動作する結果出力部とを有することを特徴とする。
この構成によれば、画像データと距離データを基に、ベッド上の人物の動作を判断するため、起き上がり動作や離床動作を高い精度で判断することが可能となる。一方で、ワールド座標系に変換するデータ量は6点と僅かで済むため、演算量を少なくでき高速で検出できる。
In order to solve the above-mentioned problem, the invention of claim 1 is characterized in that information acquisition means for capturing image information and distance information by imaging the entire bed from above, and motion recognition for determining the motion of a person on the bed from the acquired information. A motion recognition device comprising: a three-dimensional data input unit for generating image data and distance data from the acquired information; and a bed area based on position data at the four corners of the image data bed. Head detection that detects the center of the head and both shoulders of the person on the bed from the bed area grasping unit to grasp and the image data and distance data, and further estimates the head direction seen from the center of both detected shoulders -Estimated head direction estimation unit, coordinate conversion unit that converts the obtained head center, both shoulder centers, and the four corners of the bed to the world coordinate system, and data converted to the world coordinate system Based on head direction And an operation determining unit that outputs a specific operation detection signal when the relationship between the position and direction of the head and the bed position satisfies a specific condition, and a result output unit that performs a notification operation upon receiving the specific operation detection signal. Features.
According to this configuration, since the motion of the person on the bed is determined based on the image data and the distance data, it is possible to determine the rising motion and the leaving motion with high accuracy. On the other hand, since the data amount to be converted into the world coordinate system is as small as 6 points, the calculation amount can be reduced and detection can be performed at high speed.

請求項2の発明は、請求項1に記載の構成において、動作判定部は、推定された頭部方向が上向きであり、且つ頭部の位置が所定の高さを超えたら、ベッド上の人物が起き上がったと判断することを特徴とする。
この構成によれば、患者の頭部の向きと頭部の高さとから起き上がりを判定するため、高い精度で起き上がりを判定できる。
According to a second aspect of the present invention, in the configuration according to the first aspect, when the estimated head direction is upward and the position of the head exceeds a predetermined height, the motion determination unit It is characterized in that it is determined that has risen.
According to this configuration, since the rising is determined from the orientation of the patient's head and the height of the head, the rising can be determined with high accuracy.

請求項3に発明は、請求項1又は2に記載の構成において、動作判定部は、推定された頭部方向がベッドエリアから外を向き、且つ頭部中心がベッドエリアから横方向に一定距離離れたら、離床発生と判断することを特徴とする。
この構成によれば、患者の頭部の向きとベッドエリアからの距離とから離床を判定するため、高い精度で離床を判定できる。
According to a third aspect of the present invention, in the configuration according to the first or second aspect, the motion determination unit is configured such that the estimated head direction faces outward from the bed area and the head center is a constant distance from the bed area in the lateral direction. It is characterized that it is determined that the bed has left when it leaves.
According to this configuration, since getting out is determined from the orientation of the patient's head and the distance from the bed area, it is possible to determine getting out with high accuracy.

本発明によれば、距離画像と画像情報の双方のデータを基に、ベッド上の人物の動作を判断するため、起き上がり動作や離床動作を高い精度で判断することが可能となる。一方で、ワールド座標系に変換するデータ量は6点と僅かで済むため、演算量を少なくでき高速で検出できる。   According to the present invention, since the movement of the person on the bed is determined based on the data of both the distance image and the image information, it is possible to determine the rising motion and the leaving motion with high accuracy. On the other hand, since the data amount to be converted into the world coordinate system is as small as 6 points, the calculation amount can be reduced and detection can be performed at high speed.

本発明に係る動作認識装置の一例を示す機能説明図である。It is function explanatory drawing which shows an example of the action recognition apparatus which concerns on this invention. 情報取得手段の設置位置を示す説明図である。It is explanatory drawing which shows the installation position of an information acquisition means. グレースケール画像の説明図である。It is explanatory drawing of a gray scale image. 距離画像の説明図である。It is explanatory drawing of a distance image. 認識したベッドエリアを距離画像上に表示した説明図である。It is explanatory drawing which displayed the recognized bed area on the distance image. 図5の画像に、両肩の中心点及び頭部の中心点を加えた説明図である。It is explanatory drawing which added the center point of both shoulders and the center point of the head to the image of FIG. 6点をワールド座標系に変換する説明図である。It is explanatory drawing which converts 6 points into a world coordinate system. 起き上がり判定の説明図であり、(a)はベッドに伏した状態、(b)は起き上がりの判定の状態をそれぞれ示している。It is explanatory drawing of rising determination, (a) is the state which fell down on the bed, (b) has each shown the state of determination of rising. 離床判定の説明図であり、(a)は離床動作直前の状態、(b)は離床と判定する状態をそれぞれ示している。It is explanatory drawing of a bed leaving determination, (a) has shown the state immediately before a bed leaving operation | movement, (b) has each shown the state determined to be a bed leaving. 離床判定の他の説明図であり。(a)は離床動作直前の状態、(b)は離床と判定する状態をそれぞれ示している。It is another explanatory drawing of bed leaving determination. (A) has shown the state just before a bed leaving operation | movement, (b) has each shown the state determined to be a bed leaving.

以下、本発明を具体化した実施の形態を、図面を参照して詳細に説明する。図1は本発明に係る動作認識装置の一例を示す機能説明図であり、1は見守り対象を撮像して画像情報と距離情報を得る情報取得手段としてのカメラ、2は見守り対象の動作を判定する動作認識手段である。
カメラ1は、例えばステレオカメラ、TOF(Time of Flight)カメラ、或いはRGB−Dカメラ(カラー画像に加えて距離画像を取得できるカメラ)等が使用できる。動作認識手段2は、3次元データ入力部21、ベッドエリア把握部22、頭部検出・頭部方向推定部23、データ変換部24、動作判定部25、結果出力部26を備えている。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments embodying the present invention will be described below in detail with reference to the drawings. FIG. 1 is a functional explanatory diagram showing an example of a motion recognition apparatus according to the present invention. 1 is a camera as an information acquisition means for capturing an image of a watching target and obtaining image information and distance information, and 2 is determining the operation of the watching target. Motion recognition means.
As the camera 1, for example, a stereo camera, a TOF (Time of Flight) camera, or an RGB-D camera (a camera that can acquire a distance image in addition to a color image) can be used. The motion recognition unit 2 includes a three-dimensional data input unit 21, a bed area grasping unit 22, a head detection / head direction estimation unit 23, a data conversion unit 24, a motion determination unit 25, and a result output unit 26.

図2はカメラ1の設置位置説明図であり、図2に示すようにベッドBを上方から撮像するよう、且つベッドに伏した患者Kの頭部上方に設置され、例えば病室天井に設置される。このように、ここでは動作認識装置を病院に設置して入院患者を見守る場合を説明する。   FIG. 2 is an explanatory view of the installation position of the camera 1. As shown in FIG. 2, the bed B is imaged from above and is installed above the head of the patient K lying on the bed. . As described above, the case where the motion recognition device is installed in the hospital and the inpatient is watched is described here.

3次元データ入力部21は、カメラ1から取得した3次元画像情報を基に、画像データとしてのグレースケール画像と、距離データとしての距離画像を生成して出力する。   The three-dimensional data input unit 21 generates and outputs a grayscale image as image data and a distance image as distance data based on the three-dimensional image information acquired from the camera 1.

ベッドエリア把握部22は、ベッドの4隅の位置を取得してベッドエリアを把握する。ベッド4隅の位置は、取得されたグレースケール画像と距離画像からテンプレートマッチング等の画像認識技術で取得できるが、予めベッド4隅にマーカーを取り付けて検出する簡易な手法を用いて取得しても良い。
尚、ベッド4隅の把握は、ユーザーに入力してもらっても良く、例えばグレースケール画像をモニタに表示して、ベッドの4隅をタッチ操作等で座標入力して把握しても良い。
The bed area grasping unit 22 grasps the bed area by acquiring the positions of the four corners of the bed. The positions of the four corners of the bed can be acquired from the acquired gray scale image and the distance image by image recognition technology such as template matching. good.
The four corners of the bed may be input by the user. For example, a grayscale image may be displayed on a monitor, and the four corners of the bed may be input by a coordinate operation or the like.

頭部検出・頭部方向推定部23は、3次元データ入力部21が出力するグレースケール画像と距離画像とから、まず頭部の中心(中心点)と両肩の中心(中寸点)を検出する。検出する手法としては、HOG(Histogram of Oriented Gradients)等の局所特徴量とRandom Forests等の学習とを組み合わせた手法等を用いても良いし、ディープラーニング等の手法を用いても良い。
こうして頭部の中心と両肩の中心とを検出したら、そのデータを基に両肩の中心から見た頭部中心の方向(頭部方向)を推定する。
The head detection / head direction estimation unit 23 first determines the center of the head (center point) and the center of both shoulders (medium size points) from the grayscale image and the distance image output from the three-dimensional data input unit 21. To detect. As a detection method, a method combining a local feature amount such as HOG (Histogram of Oriented Gradients) and learning such as Random Forests may be used, or a method such as deep learning may be used.
When the center of the head and the center of both shoulders are detected in this way, the direction of the head center (head direction) viewed from the center of both shoulders is estimated based on the data.

データ変換部24は、検出した頭部中心と両肩の中心、そしてベッドの4隅の点をワールド座標系に配置(変換)する。この変換により、3次元空間上にベッドと患者の頭部と両肩の中心が投影されるので、頭部検出・頭部方向推定部23が推定した頭部方向も同時に投影でき、見守り機能に必要な判定を行う3次元情報を得ることができる。   The data conversion unit 24 arranges (converts) the detected head center, the centers of both shoulders, and the four corner points of the bed in the world coordinate system. By this conversion, the center of the bed, the patient's head, and both shoulders is projected onto the three-dimensional space, so that the head direction estimated by the head detection / head direction estimation unit 23 can also be projected at the same time. Three-dimensional information for performing necessary determination can be obtained.

動作判定部25は、ワールド座標系に変換されたデータ及び推定した頭部方向の情報を基に患者の動作を判断し、特定の動作状態にあると判断したら信号を結果出力部26に出力する。例えば、頭部が横向きの状態から天井方向へ向きを変えてベッドから離れて高い位置へ移動したら、患者が起き上がったと判定する。また、頭部方向がベッドの外を向き、且つ頭部中心がベッドエリアから一定距離離れたら離床と判定する。   The motion determination unit 25 determines the patient's motion based on the data converted into the world coordinate system and the estimated head direction information, and outputs a signal to the result output unit 26 when determining that the patient is in a specific motion state. . For example, if the head changes its direction from the sideways direction to the ceiling direction and moves away from the bed to a higher position, it is determined that the patient has stood up. Further, if the head direction is outside the bed and the center of the head is away from the bed area by a certain distance, it is determined that the person is getting out of bed.

結果出力部26は、動作判定部25が出力する信号を受けて報知動作する。例えば、音声メッセージの報音や、ディスプレイへの表示で報知し、ナースステーションに常駐する看護師に異常発生を認識させる。
尚、ベッドエリア把握部22、頭部検出・頭部方向推定部23,データ変換部24、及び動作判定部25は、CPU或いはDSPに所定のプログラムを実行させることで実現できる。
The result output unit 26 receives the signal output from the operation determination unit 25 and performs a notification operation. For example, it is notified by a sound report of a voice message or a display on a display so that a nurse resident at a nurse station recognizes the occurrence of an abnormality.
The bed area grasping unit 22, the head detecting / head direction estimating unit 23, the data converting unit 24, and the operation determining unit 25 can be realized by causing a CPU or DSP to execute a predetermined program.

以下、画像図を参照して動作検出の流れを説明する。図3はカメラ1から取得した情報を基に3次元データ入力部21が出力するグレースケール画像、図4は同様に3次元データ入力部21が出力する距離画像である。
グレースケール画像からは、患者の状態やベッドエリアを判別することは可能であるが、3次元で各点の位置を把握することはできない。一方、図4の距離画像では、距離を画像の濃淡により表示している。具体的に、カメラ1に近いほど濃い色(黒)で表示し、遠いほど薄い色(白)で表示しており、相対的距離を把握できる。
Hereinafter, the flow of motion detection will be described with reference to an image diagram. 3 is a grayscale image output from the three-dimensional data input unit 21 based on information acquired from the camera 1, and FIG. 4 is a distance image similarly output from the three-dimensional data input unit 21.
From the gray scale image, it is possible to determine the patient's condition and bed area, but it is not possible to grasp the position of each point in three dimensions. On the other hand, in the distance image of FIG. 4, the distance is displayed by the density of the image. Specifically, the closer to the camera 1, the darker color (black) is displayed, and the farther away, the lighter color (white) is displayed, so that the relative distance can be grasped.

図5は、こうして取得した距離画像上に、ベッドエリア把握部22で取得したベッドエリアB1を表示した画像図であり、図6は頭部検出・頭部方向推定部23で検出した頭部中心M1及び両肩の中心M2を更に表示した画像図を示している。   FIG. 5 is an image diagram in which the bed area B1 acquired by the bed area grasping unit 22 is displayed on the distance image acquired in this way, and FIG. 6 shows the head center detected by the head detection / head direction estimation unit 23. The image figure which further displayed M1 and the center M2 of both shoulders is shown.

こうして求めたベッドの4隅と、頭部中心M1と両肩の中心M2が、データ変換部24においてワールド座標系に変換される。図7は、ベッドの4隅と頭部中心M1と両肩の中心M2の6点をワールド座標系に変換した状態を示す説明図である。
尚、図7では両肩の中心M2から見た頭部中心M1(図示せず)の方向を矢印P1で示している。この頭部方向は、頭部検出・頭部方向推定部23が推定した頭部方向と一致している。
The four corners of the bed, the head center M1, and the shoulder centers M2 thus obtained are converted into the world coordinate system by the data converter 24. FIG. 7 is an explanatory diagram showing a state where six points of the four corners of the bed, the head center M1, and the shoulder centers M2 are converted into the world coordinate system.
In FIG. 7, the direction of the head center M1 (not shown) viewed from the center M2 of both shoulders is indicated by an arrow P1. This head direction coincides with the head direction estimated by the head detection / head direction estimation unit 23.

図8〜10は患者の動作判定の説明図であり、座標変換したデータや頭部方向データによる動作判定をこの図を参照して具体的に説明する。図8は起き上がり判定の説明図であり、(a)はベッドに伏した状態、(b)は起き上がりの判定の状態をそれぞれ示し、真横から見た状態に変換して表示している。起き上がり等の動作判定は図8に示すように視点を変換することで容易に判定できる。
患者がベッドBに伏している状態では、図8(a)に示すように、頭部方向P1は横方向(正確には、ベッド内でベッド長手方向)を向いているが、起き上がると図8(b)に示すように、頭部方向P1が上方(例えば、角度A1が45°以上)を向いた状態となり、ベッドBの上方へ一定距離H1(例えば、50cm)離れる。この状態を検出したら起き上がり発生と判断して起き上がり検知信号(特定動作検出信号)を出力する。距離の判断は、例えば図8(a)に示すベッドBの長手方向の長さL1を約2メートルと仮定することで判断できる。
この起き上がり検知信号を受けた結果出力部26は、見守り対象の患者が起き上がったことを報知する。
8 to 10 are explanatory diagrams of patient motion determination, and motion determination based on coordinate-converted data and head direction data will be specifically described with reference to this figure. FIGS. 8A and 8B are explanatory diagrams of the determination of getting up. FIG. 8A shows the state of lying down on the bed, and FIG. 8B shows the state of determination of getting up, respectively. The operation determination such as getting up can be easily determined by changing the viewpoint as shown in FIG.
In a state where the patient is lying on the bed B, as shown in FIG. 8A, the head direction P1 is oriented in the horizontal direction (more precisely, the bed longitudinal direction in the bed). As shown in (b), the head direction P1 is directed upward (for example, the angle A1 is 45 ° or more), and the head B is separated from the bed B by a certain distance H1 (for example, 50 cm). When this state is detected, it is determined that the rising has occurred, and a rising detection signal (specific operation detection signal) is output. The determination of the distance can be made by assuming that the length L1 in the longitudinal direction of the bed B shown in FIG. 8A is about 2 meters, for example.
Upon receiving this rising detection signal, the result output unit 26 notifies that the patient to be watched has risen.

離床動作は、図9、10に示す動作から判断できる。何れも横方向から見た状態に変換しているが、図8と異なり枕側から見た横方向で表示している。図9(a)は離床動作直前の状態、図9(b)は離床と判定する状態をそれぞれ示し、図9に示すように頭部の位置がベッドBから一定距離L2(例えば80cm)以上離れたら離床と判断して、離床発生信号(特定動作検出信号)を出力する。
また図10(a)は離床動作直前の状態、図10(b)は離床と判定する状態をそれぞれ示し、図10に示すように頭部がベッドBの外に出て、且つ頭部方向P1の延長線PLがベッドBの領域外へ出た場合も離床と判断して離床発生信号を出力する。
そして、離床発生信号を受けた結果出力部26は、見守り対象の患者が離床したことを報知する。
The bed leaving operation can be determined from the operations shown in FIGS. Both are converted to the state seen from the horizontal direction, but unlike FIG. 8, they are displayed in the horizontal direction seen from the pillow side. 9A shows a state immediately before leaving the bed, and FIG. 9B shows a state in which it is determined that the user has left the bed. As shown in FIG. 9, the position of the head is separated from the bed B by a certain distance L2 (for example, 80 cm) or more. When it is determined that the user has left the bed, a bed generation signal (specific operation detection signal) is output.
FIG. 10A shows a state immediately before leaving the bed, and FIG. 10B shows a state in which it is determined that the user has left the bed. As shown in FIG. 10, the head is out of the bed B and the head direction P1 Even when the extension line PL of the line goes out of the area of the bed B, it is determined that the person has left the bed and outputs a bed generation signal.
And the result output part 26 which received the bed leaving generation signal alert | reports that the patient to watch over got out of bed.

このように、画像データと距離データを基に、ベッドB上の人物の動作を判断するため、起き上がり動作や離床動作を高い精度で判断することが可能となる。一方で、ワールド座標系に変換するデータ量は6点と僅かで済むため、演算量を少なくでき高速で検出できる。
そして、患者の頭部方向P1と頭部の高さとから起き上がりを判定するため、高い精度で起き上がりを判定できるし、患者の頭部の向きとベッドエリアB1からの距離L2とから離床を判定するため、高い精度で離床を判定できる。
As described above, since the movement of the person on the bed B is determined based on the image data and the distance data, it is possible to determine the rising movement and the leaving movement with high accuracy. On the other hand, since the data amount to be converted into the world coordinate system is as small as 6 points, the calculation amount can be reduced and detection can be performed at high speed.
Then, since the rising is determined from the patient's head direction P1 and the height of the head, the rising can be determined with high accuracy, and the bed leaving is determined from the orientation of the patient's head and the distance L2 from the bed area B1. Therefore, it is possible to determine bed leaving with high accuracy.

尚、上記実施形態では、起き上がり動作や離床の検出を説明したが、それ以外の動作、例えばベッドからの転落を検出することも可能でる。例えば、検出した頭部(頭部中心M1)がベッドエリアB1から外れ、且つベッドBより低い位置に留まったら転落発生と推定できる。
また、3次元データ入力部21において、カメラ1の撮像画像をグレースケール画像に変換しているが、カメラ1の撮像画像をカラー画像のままデジタルデータ(画像データ)に変換するだけで出力しても良く、その後の頭部検出等は可能である。
In the above-described embodiment, the rising operation and the detection of getting out of bed have been described. However, other operations such as falling from the bed can also be detected. For example, if the detected head (head center M1) deviates from the bed area B1 and stays at a position lower than the bed B, it can be estimated that a fall has occurred.
In the three-dimensional data input unit 21, the captured image of the camera 1 is converted into a grayscale image. However, the captured image of the camera 1 is output simply by converting it into digital data (image data) as a color image. It is possible to detect the head later.

上記実施形態では、病院に入院している患者を見守る場合について説明したが、本発明の動作認識装置は、介護施設において被介護者を見守る際に活用できるし、家庭において、認知症の家族を見守る場合に利用できる。   In the above embodiment, the case where the patient who is admitted to the hospital is watched is described. It can be used when watching.

1・・カメラ(情報取得手段)、2・・動作認識手段、21・・3次元データ入力部、22・・ベッドエリア把握部、23・・頭部検出・頭部方向推定部、24・・データ変換部(座標変換部)、25・・動作判定部、26・・結果出力部、P1・・頭部方向、B・・ベッド。   1 .. Camera (information acquisition means) 2 .. Motion recognition means 21.. 3D data input unit 22. Bed area grasping unit 23 23 Head detection / head direction estimation unit 24 Data conversion unit (coordinate conversion unit), 25 ... Motion determination unit, 26 ... Result output unit, P1, head direction, B ... bed.

Claims (3)

ベッド全体を上方から撮像して画像情報と距離情報を得る情報取得手段と、
取得した前記情報からベッド上の人物の動作を判定する動作認識手段とを有する動作認識装置であって、
前記動作認識手段は、入手した前記情報から画像データ及び距離データを生成する3次元データ入力部と、
前記画像データのベッド4隅の位置データを基にベッドエリアを把握するベッドエリア把握部と、
前記画像データ及び前記距離データから、ベッド上の人物の頭部と両肩の中心を検出し、更に検出した両肩の中心から見た頭部方向を推定する頭部検出・頭部方向推定部と、
求めた頭部の中心、両肩の中心、及び前記ベッド4隅の6点をワールド座標系に変換する座標変換部と、
ワールド座標系に変換されたデータと推定した前記頭部方向とを基に、頭部の位置及び方向とベッド位置との関係が特定の条件を満たしたら特定動作検出信号を出力する動作判定部と、
前記特定動作検出信号を受けて報知動作する結果出力部とを有することを特徴とする動作認識装置。
Information acquisition means for capturing image information and distance information by imaging the entire bed from above;
A motion recognition device comprising motion recognition means for determining the motion of a person on the bed from the acquired information,
The motion recognition means includes a three-dimensional data input unit that generates image data and distance data from the acquired information,
A bed area grasping unit for grasping a bed area based on position data of the four corners of the bed of the image data;
A head detection / head direction estimation unit that detects the center of the head and both shoulders of the person on the bed from the image data and the distance data, and further estimates the head direction viewed from the detected center of both shoulders When,
A coordinate conversion unit that converts the obtained center of the head, the center of both shoulders, and the six points of the four corners of the bed into a world coordinate system;
Based on the data converted into the world coordinate system and the estimated head direction, a motion determination unit that outputs a specific motion detection signal when the relationship between the head position and direction and the bed position satisfies a specific condition; ,
A motion recognition device comprising: a result output unit that performs a notification operation upon receiving the specific motion detection signal.
前記動作判定部は、推定された前記頭部方向が上向きであり、且つ頭部の位置が所定の高さを超えたら、ベッド上の人物が起き上がったと判断することを特徴とする請求項1記載の動作認識装置。   The operation determining unit determines that the person on the bed has risen when the estimated head direction is upward and the position of the head exceeds a predetermined height. Motion recognition device. 前記動作判定部は、推定された前記頭部方向が前記ベッドエリアから外を向き、且つ前記頭部中心が前記ベッドエリアから横方向に一定距離離れたら、離床発生と判断することを特徴とする請求項1又は2記載の動作認識装置。   The motion determination unit determines that the bed is out of position when the estimated head direction faces outward from the bed area and the head center is separated from the bed area by a certain distance in the lateral direction. The motion recognition apparatus according to claim 1 or 2.
JP2015162173A 2015-08-19 2015-08-19 Motion recognition apparatus Pending JP2017038777A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015162173A JP2017038777A (en) 2015-08-19 2015-08-19 Motion recognition apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015162173A JP2017038777A (en) 2015-08-19 2015-08-19 Motion recognition apparatus

Publications (1)

Publication Number Publication Date
JP2017038777A true JP2017038777A (en) 2017-02-23

Family

ID=58202710

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015162173A Pending JP2017038777A (en) 2015-08-19 2015-08-19 Motion recognition apparatus

Country Status (1)

Country Link
JP (1) JP2017038777A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018139388A (en) * 2017-02-24 2018-09-06 アイホン株式会社 Bed position determination device
JP2018143338A (en) * 2017-03-02 2018-09-20 オムロン株式会社 Watching support system and control method thereof
JP2018143333A (en) * 2017-03-02 2018-09-20 オムロン株式会社 Watching support system and control method thereof
CN109215083A (en) * 2017-07-06 2019-01-15 华为技术有限公司 The method and apparatus of the calibrating external parameters of onboard sensor
JP2019049849A (en) * 2017-09-08 2019-03-28 キング通信工業株式会社 Watching method
CN111523486A (en) * 2020-04-24 2020-08-11 重庆理工大学 Mechanical arm grabbing detection method based on improved CenterNet
CN112466089A (en) * 2019-09-09 2021-03-09 德尔格制造股份两合公司 System and method for monitoring positional stability

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09253057A (en) * 1996-03-18 1997-09-30 Kanebo Ltd In-sickroom patient monitoring device
JP2001243472A (en) * 2000-03-01 2001-09-07 Matsushita Electric Works Ltd Image processor
JP2014236896A (en) * 2013-06-10 2014-12-18 Nkワークス株式会社 Information processor, information processing method, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09253057A (en) * 1996-03-18 1997-09-30 Kanebo Ltd In-sickroom patient monitoring device
JP2001243472A (en) * 2000-03-01 2001-09-07 Matsushita Electric Works Ltd Image processor
JP2014236896A (en) * 2013-06-10 2014-12-18 Nkワークス株式会社 Information processor, information processing method, and program

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018139388A (en) * 2017-02-24 2018-09-06 アイホン株式会社 Bed position determination device
JP2018143338A (en) * 2017-03-02 2018-09-20 オムロン株式会社 Watching support system and control method thereof
JP2018143333A (en) * 2017-03-02 2018-09-20 オムロン株式会社 Watching support system and control method thereof
CN109963501A (en) * 2017-03-02 2019-07-02 欧姆龙株式会社 Nurse auxiliary system and its control method and program
US10853679B2 (en) 2017-03-02 2020-12-01 Omron Corporation Monitoring assistance system, control method thereof, and program
CN109215083A (en) * 2017-07-06 2019-01-15 华为技术有限公司 The method and apparatus of the calibrating external parameters of onboard sensor
US11670193B2 (en) 2017-07-06 2023-06-06 Huawei Technologies Co., Ltd. Extrinsic parameter of on-board sensor
JP2019049849A (en) * 2017-09-08 2019-03-28 キング通信工業株式会社 Watching method
CN112466089A (en) * 2019-09-09 2021-03-09 德尔格制造股份两合公司 System and method for monitoring positional stability
CN111523486A (en) * 2020-04-24 2020-08-11 重庆理工大学 Mechanical arm grabbing detection method based on improved CenterNet
CN111523486B (en) * 2020-04-24 2022-05-17 重庆理工大学 Mechanical arm grabbing detection method based on improved CenterNet

Similar Documents

Publication Publication Date Title
JP2017038777A (en) Motion recognition apparatus
JP6115335B2 (en) Information processing apparatus, information processing method, and program
JP6195915B2 (en) Image measuring device
US10068344B2 (en) Method and system for 3D capture based on structure from motion with simplified pose detection
JP5838355B2 (en) Spatial information detection device, human position detection device
JP2014127208A (en) Method and apparatus for detecting object
TWI474173B (en) Assistance system and assistance method
JP5951043B2 (en) Image measuring device
KR20110084028A (en) Apparatus and method for measuring distance using image data
JP2011198161A (en) Object recognition system, and monitoring system and watching system using the same
KR20120046973A (en) Method and apparatus for generating motion information
JP2012059030A (en) Human body identification method and human body identification apparatus using range image camera
JP6728865B2 (en) Hand lift detection device and hand lift detection program
JP2008146583A (en) Attitude detector and behavior detector
KR101454548B1 (en) Monitoring device using three dimension camera and driving method thereof
TWI590099B (en) Interaction system and motion detection method
JP2011209794A (en) Object recognition system, monitoring system using the same, and watching system
JP2004042777A (en) Obstacle detector
JP5785515B2 (en) Pedestrian detection device and method, and vehicle collision determination device
JP2009266155A (en) Apparatus and method for mobile object tracking
JP5679456B2 (en) Human detection device, human detection method, and human detection program
JP5230354B2 (en) POSITIONING DEVICE AND CHANGED BUILDING DETECTION DEVICE
KR101300166B1 (en) Apparatus and method for detecting iris
JPWO2017057426A1 (en) Projection device, content determination device, projection method, and program
JP2006215743A (en) Image processing apparatus and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180223

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181029

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181106

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190507