JP2017038777A - Motion recognition apparatus - Google Patents
Motion recognition apparatus Download PDFInfo
- Publication number
- JP2017038777A JP2017038777A JP2015162173A JP2015162173A JP2017038777A JP 2017038777 A JP2017038777 A JP 2017038777A JP 2015162173 A JP2015162173 A JP 2015162173A JP 2015162173 A JP2015162173 A JP 2015162173A JP 2017038777 A JP2017038777 A JP 2017038777A
- Authority
- JP
- Japan
- Prior art keywords
- bed
- head
- motion
- unit
- center
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Emergency Alarm Devices (AREA)
- Alarm Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、ベッド上の人物を見守るためにカメラで撮像し、その撮像画像から人物の起き上がりや離床を検出する動作認識装置に関する。 The present invention relates to a motion recognition apparatus that captures an image with a camera in order to watch a person on a bed and detects a person's rising and getting out of the bed from the captured image.
ベッド上の人物がベッドから転落したり、徘徊による事故を防止するために各種センサを用いて人物を見守り、異常発生を検知したら関係者に通知するシステムが開発されている。そのようなシステムの中で、非接触で見守り対象者に関する3次元データを入手し、このデータを基に人物の離床等の発生を防止する技術が提案されている。
例えば特許文献1では、赤外線レーザーセンサを使用してベッド上の被介護者の動作を把握して、起き上がりや離床を検出する構成が開示されている。また特許文献2では、画素値に撮像対象の患者までの距離データを有する画像を生成する距離画像センサを用い、合わせて検出したベッド位置と比較して患者の動作を判別する技術が記載されている。
In order to prevent a person on the bed from falling off the bed or accidents caused by dredging, a system has been developed to watch the person using various sensors and notify the parties concerned when an abnormality is detected. In such a system, a technique has been proposed in which three-dimensional data relating to a person to be watched is obtained in a non-contact manner and the occurrence of a person leaving the bed is prevented based on this data.
For example,
見守り対象者に関する3次元データを入手して、人物の動作を判別する上記特許文献の技術は、それまでの2次元データから判断する技術に比べて高い精度で判別することが可能となった。しかしながら、何れの技術も3次元データを取得するセンサ装置がベッドの斜め上方に設置されている。このような構成の場合、センサ装置から見守り対象者を精度良く把握するためには、センサ装置から得られた距離画像をワールド座標系に配置し直したポイントクラウド等のデータに一度変換する必要があるため、演算量が多くCPUの負担が大きかった。また、その後の認識処理を行う際も、ポイントクラウド等のデータを用いた処理となるため演算量が多く、高い性能のCPUが必要であった。 The technique of the above-mentioned patent document that obtains the three-dimensional data related to the person to be watched and discriminates the movement of the person can be discriminated with higher accuracy than the technique that judges from the two-dimensional data so far. However, in any technique, a sensor device that acquires three-dimensional data is installed obliquely above the bed. In such a configuration, in order to accurately grasp the person to be watched from the sensor device, it is necessary to convert the distance image obtained from the sensor device into data such as a point cloud that has been rearranged in the world coordinate system. For this reason, the calculation amount is large and the burden on the CPU is large. Further, when performing subsequent recognition processing, since processing using data such as a point cloud is performed, the amount of calculation is large and a high performance CPU is required.
そこで、本発明はこのような問題点に鑑み、ワールド座標系に変換するデータ量自体を削減することで、演算能力の比較的低いCPUでも高い精度で人物の状態を判断できる動作認識装置を提供することを目的としている。 Therefore, in view of such problems, the present invention provides a motion recognition device that can determine the state of a person with high accuracy even with a CPU having a relatively low calculation capability by reducing the data amount itself to be converted into the world coordinate system. The purpose is to do.
上記課題を解決する為に、請求項1の発明は、ベッド全体を上方から撮像して画像情報と距離情報を得る情報取得手段と、取得した情報からベッド上の人物の動作を判定する動作認識手段とを有する動作認識装置であって、動作認識手段は、入手した情報から画像データ及び距離データを生成する3次元データ入力部と、画像データのベッド4隅の位置データを基にベッドエリアを把握するベッドエリア把握部と、画像データ及び距離データから、ベッド上の人物の頭部と両肩の中心を検出し、更に検出した両肩の中心から見た頭部方向を推定する頭部検出・頭部方向推定部と、求めた頭部の中心、両肩の中心、及びベッド4隅の6点をワールド座標系に変換する座標変換部と、ワールド座標系に変換されたデータと推定した頭部方向とを基に、頭部の位置及び方向とベッド位置との関係が特定の条件を満たしたら特定動作検出信号を出力する動作判定部と、特定動作検出信号を受けて報知動作する結果出力部とを有することを特徴とする。
この構成によれば、画像データと距離データを基に、ベッド上の人物の動作を判断するため、起き上がり動作や離床動作を高い精度で判断することが可能となる。一方で、ワールド座標系に変換するデータ量は6点と僅かで済むため、演算量を少なくでき高速で検出できる。
In order to solve the above-mentioned problem, the invention of
According to this configuration, since the motion of the person on the bed is determined based on the image data and the distance data, it is possible to determine the rising motion and the leaving motion with high accuracy. On the other hand, since the data amount to be converted into the world coordinate system is as small as 6 points, the calculation amount can be reduced and detection can be performed at high speed.
請求項2の発明は、請求項1に記載の構成において、動作判定部は、推定された頭部方向が上向きであり、且つ頭部の位置が所定の高さを超えたら、ベッド上の人物が起き上がったと判断することを特徴とする。
この構成によれば、患者の頭部の向きと頭部の高さとから起き上がりを判定するため、高い精度で起き上がりを判定できる。
According to a second aspect of the present invention, in the configuration according to the first aspect, when the estimated head direction is upward and the position of the head exceeds a predetermined height, the motion determination unit It is characterized in that it is determined that has risen.
According to this configuration, since the rising is determined from the orientation of the patient's head and the height of the head, the rising can be determined with high accuracy.
請求項3に発明は、請求項1又は2に記載の構成において、動作判定部は、推定された頭部方向がベッドエリアから外を向き、且つ頭部中心がベッドエリアから横方向に一定距離離れたら、離床発生と判断することを特徴とする。
この構成によれば、患者の頭部の向きとベッドエリアからの距離とから離床を判定するため、高い精度で離床を判定できる。
According to a third aspect of the present invention, in the configuration according to the first or second aspect, the motion determination unit is configured such that the estimated head direction faces outward from the bed area and the head center is a constant distance from the bed area in the lateral direction. It is characterized that it is determined that the bed has left when it leaves.
According to this configuration, since getting out is determined from the orientation of the patient's head and the distance from the bed area, it is possible to determine getting out with high accuracy.
本発明によれば、距離画像と画像情報の双方のデータを基に、ベッド上の人物の動作を判断するため、起き上がり動作や離床動作を高い精度で判断することが可能となる。一方で、ワールド座標系に変換するデータ量は6点と僅かで済むため、演算量を少なくでき高速で検出できる。 According to the present invention, since the movement of the person on the bed is determined based on the data of both the distance image and the image information, it is possible to determine the rising motion and the leaving motion with high accuracy. On the other hand, since the data amount to be converted into the world coordinate system is as small as 6 points, the calculation amount can be reduced and detection can be performed at high speed.
以下、本発明を具体化した実施の形態を、図面を参照して詳細に説明する。図1は本発明に係る動作認識装置の一例を示す機能説明図であり、1は見守り対象を撮像して画像情報と距離情報を得る情報取得手段としてのカメラ、2は見守り対象の動作を判定する動作認識手段である。
カメラ1は、例えばステレオカメラ、TOF(Time of Flight)カメラ、或いはRGB−Dカメラ(カラー画像に加えて距離画像を取得できるカメラ)等が使用できる。動作認識手段2は、3次元データ入力部21、ベッドエリア把握部22、頭部検出・頭部方向推定部23、データ変換部24、動作判定部25、結果出力部26を備えている。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments embodying the present invention will be described below in detail with reference to the drawings. FIG. 1 is a functional explanatory diagram showing an example of a motion recognition apparatus according to the present invention. 1 is a camera as an information acquisition means for capturing an image of a watching target and obtaining image information and distance information, and 2 is determining the operation of the watching target. Motion recognition means.
As the
図2はカメラ1の設置位置説明図であり、図2に示すようにベッドBを上方から撮像するよう、且つベッドに伏した患者Kの頭部上方に設置され、例えば病室天井に設置される。このように、ここでは動作認識装置を病院に設置して入院患者を見守る場合を説明する。
FIG. 2 is an explanatory view of the installation position of the
3次元データ入力部21は、カメラ1から取得した3次元画像情報を基に、画像データとしてのグレースケール画像と、距離データとしての距離画像を生成して出力する。
The three-dimensional
ベッドエリア把握部22は、ベッドの4隅の位置を取得してベッドエリアを把握する。ベッド4隅の位置は、取得されたグレースケール画像と距離画像からテンプレートマッチング等の画像認識技術で取得できるが、予めベッド4隅にマーカーを取り付けて検出する簡易な手法を用いて取得しても良い。
尚、ベッド4隅の把握は、ユーザーに入力してもらっても良く、例えばグレースケール画像をモニタに表示して、ベッドの4隅をタッチ操作等で座標入力して把握しても良い。
The bed
The four corners of the bed may be input by the user. For example, a grayscale image may be displayed on a monitor, and the four corners of the bed may be input by a coordinate operation or the like.
頭部検出・頭部方向推定部23は、3次元データ入力部21が出力するグレースケール画像と距離画像とから、まず頭部の中心(中心点)と両肩の中心(中寸点)を検出する。検出する手法としては、HOG(Histogram of Oriented Gradients)等の局所特徴量とRandom Forests等の学習とを組み合わせた手法等を用いても良いし、ディープラーニング等の手法を用いても良い。
こうして頭部の中心と両肩の中心とを検出したら、そのデータを基に両肩の中心から見た頭部中心の方向(頭部方向)を推定する。
The head detection / head
When the center of the head and the center of both shoulders are detected in this way, the direction of the head center (head direction) viewed from the center of both shoulders is estimated based on the data.
データ変換部24は、検出した頭部中心と両肩の中心、そしてベッドの4隅の点をワールド座標系に配置(変換)する。この変換により、3次元空間上にベッドと患者の頭部と両肩の中心が投影されるので、頭部検出・頭部方向推定部23が推定した頭部方向も同時に投影でき、見守り機能に必要な判定を行う3次元情報を得ることができる。
The
動作判定部25は、ワールド座標系に変換されたデータ及び推定した頭部方向の情報を基に患者の動作を判断し、特定の動作状態にあると判断したら信号を結果出力部26に出力する。例えば、頭部が横向きの状態から天井方向へ向きを変えてベッドから離れて高い位置へ移動したら、患者が起き上がったと判定する。また、頭部方向がベッドの外を向き、且つ頭部中心がベッドエリアから一定距離離れたら離床と判定する。
The
結果出力部26は、動作判定部25が出力する信号を受けて報知動作する。例えば、音声メッセージの報音や、ディスプレイへの表示で報知し、ナースステーションに常駐する看護師に異常発生を認識させる。
尚、ベッドエリア把握部22、頭部検出・頭部方向推定部23,データ変換部24、及び動作判定部25は、CPU或いはDSPに所定のプログラムを実行させることで実現できる。
The
The bed
以下、画像図を参照して動作検出の流れを説明する。図3はカメラ1から取得した情報を基に3次元データ入力部21が出力するグレースケール画像、図4は同様に3次元データ入力部21が出力する距離画像である。
グレースケール画像からは、患者の状態やベッドエリアを判別することは可能であるが、3次元で各点の位置を把握することはできない。一方、図4の距離画像では、距離を画像の濃淡により表示している。具体的に、カメラ1に近いほど濃い色(黒)で表示し、遠いほど薄い色(白)で表示しており、相対的距離を把握できる。
Hereinafter, the flow of motion detection will be described with reference to an image diagram. 3 is a grayscale image output from the three-dimensional
From the gray scale image, it is possible to determine the patient's condition and bed area, but it is not possible to grasp the position of each point in three dimensions. On the other hand, in the distance image of FIG. 4, the distance is displayed by the density of the image. Specifically, the closer to the
図5は、こうして取得した距離画像上に、ベッドエリア把握部22で取得したベッドエリアB1を表示した画像図であり、図6は頭部検出・頭部方向推定部23で検出した頭部中心M1及び両肩の中心M2を更に表示した画像図を示している。
FIG. 5 is an image diagram in which the bed area B1 acquired by the bed
こうして求めたベッドの4隅と、頭部中心M1と両肩の中心M2が、データ変換部24においてワールド座標系に変換される。図7は、ベッドの4隅と頭部中心M1と両肩の中心M2の6点をワールド座標系に変換した状態を示す説明図である。
尚、図7では両肩の中心M2から見た頭部中心M1(図示せず)の方向を矢印P1で示している。この頭部方向は、頭部検出・頭部方向推定部23が推定した頭部方向と一致している。
The four corners of the bed, the head center M1, and the shoulder centers M2 thus obtained are converted into the world coordinate system by the
In FIG. 7, the direction of the head center M1 (not shown) viewed from the center M2 of both shoulders is indicated by an arrow P1. This head direction coincides with the head direction estimated by the head detection / head
図8〜10は患者の動作判定の説明図であり、座標変換したデータや頭部方向データによる動作判定をこの図を参照して具体的に説明する。図8は起き上がり判定の説明図であり、(a)はベッドに伏した状態、(b)は起き上がりの判定の状態をそれぞれ示し、真横から見た状態に変換して表示している。起き上がり等の動作判定は図8に示すように視点を変換することで容易に判定できる。
患者がベッドBに伏している状態では、図8(a)に示すように、頭部方向P1は横方向(正確には、ベッド内でベッド長手方向)を向いているが、起き上がると図8(b)に示すように、頭部方向P1が上方(例えば、角度A1が45°以上)を向いた状態となり、ベッドBの上方へ一定距離H1(例えば、50cm)離れる。この状態を検出したら起き上がり発生と判断して起き上がり検知信号(特定動作検出信号)を出力する。距離の判断は、例えば図8(a)に示すベッドBの長手方向の長さL1を約2メートルと仮定することで判断できる。
この起き上がり検知信号を受けた結果出力部26は、見守り対象の患者が起き上がったことを報知する。
8 to 10 are explanatory diagrams of patient motion determination, and motion determination based on coordinate-converted data and head direction data will be specifically described with reference to this figure. FIGS. 8A and 8B are explanatory diagrams of the determination of getting up. FIG. 8A shows the state of lying down on the bed, and FIG. 8B shows the state of determination of getting up, respectively. The operation determination such as getting up can be easily determined by changing the viewpoint as shown in FIG.
In a state where the patient is lying on the bed B, as shown in FIG. 8A, the head direction P1 is oriented in the horizontal direction (more precisely, the bed longitudinal direction in the bed). As shown in (b), the head direction P1 is directed upward (for example, the angle A1 is 45 ° or more), and the head B is separated from the bed B by a certain distance H1 (for example, 50 cm). When this state is detected, it is determined that the rising has occurred, and a rising detection signal (specific operation detection signal) is output. The determination of the distance can be made by assuming that the length L1 in the longitudinal direction of the bed B shown in FIG. 8A is about 2 meters, for example.
Upon receiving this rising detection signal, the
離床動作は、図9、10に示す動作から判断できる。何れも横方向から見た状態に変換しているが、図8と異なり枕側から見た横方向で表示している。図9(a)は離床動作直前の状態、図9(b)は離床と判定する状態をそれぞれ示し、図9に示すように頭部の位置がベッドBから一定距離L2(例えば80cm)以上離れたら離床と判断して、離床発生信号(特定動作検出信号)を出力する。
また図10(a)は離床動作直前の状態、図10(b)は離床と判定する状態をそれぞれ示し、図10に示すように頭部がベッドBの外に出て、且つ頭部方向P1の延長線PLがベッドBの領域外へ出た場合も離床と判断して離床発生信号を出力する。
そして、離床発生信号を受けた結果出力部26は、見守り対象の患者が離床したことを報知する。
The bed leaving operation can be determined from the operations shown in FIGS. Both are converted to the state seen from the horizontal direction, but unlike FIG. 8, they are displayed in the horizontal direction seen from the pillow side. 9A shows a state immediately before leaving the bed, and FIG. 9B shows a state in which it is determined that the user has left the bed. As shown in FIG. 9, the position of the head is separated from the bed B by a certain distance L2 (for example, 80 cm) or more. When it is determined that the user has left the bed, a bed generation signal (specific operation detection signal) is output.
FIG. 10A shows a state immediately before leaving the bed, and FIG. 10B shows a state in which it is determined that the user has left the bed. As shown in FIG. 10, the head is out of the bed B and the head direction P1 Even when the extension line PL of the line goes out of the area of the bed B, it is determined that the person has left the bed and outputs a bed generation signal.
And the
このように、画像データと距離データを基に、ベッドB上の人物の動作を判断するため、起き上がり動作や離床動作を高い精度で判断することが可能となる。一方で、ワールド座標系に変換するデータ量は6点と僅かで済むため、演算量を少なくでき高速で検出できる。
そして、患者の頭部方向P1と頭部の高さとから起き上がりを判定するため、高い精度で起き上がりを判定できるし、患者の頭部の向きとベッドエリアB1からの距離L2とから離床を判定するため、高い精度で離床を判定できる。
As described above, since the movement of the person on the bed B is determined based on the image data and the distance data, it is possible to determine the rising movement and the leaving movement with high accuracy. On the other hand, since the data amount to be converted into the world coordinate system is as small as 6 points, the calculation amount can be reduced and detection can be performed at high speed.
Then, since the rising is determined from the patient's head direction P1 and the height of the head, the rising can be determined with high accuracy, and the bed leaving is determined from the orientation of the patient's head and the distance L2 from the bed area B1. Therefore, it is possible to determine bed leaving with high accuracy.
尚、上記実施形態では、起き上がり動作や離床の検出を説明したが、それ以外の動作、例えばベッドからの転落を検出することも可能でる。例えば、検出した頭部(頭部中心M1)がベッドエリアB1から外れ、且つベッドBより低い位置に留まったら転落発生と推定できる。
また、3次元データ入力部21において、カメラ1の撮像画像をグレースケール画像に変換しているが、カメラ1の撮像画像をカラー画像のままデジタルデータ(画像データ)に変換するだけで出力しても良く、その後の頭部検出等は可能である。
In the above-described embodiment, the rising operation and the detection of getting out of bed have been described. However, other operations such as falling from the bed can also be detected. For example, if the detected head (head center M1) deviates from the bed area B1 and stays at a position lower than the bed B, it can be estimated that a fall has occurred.
In the three-dimensional
上記実施形態では、病院に入院している患者を見守る場合について説明したが、本発明の動作認識装置は、介護施設において被介護者を見守る際に活用できるし、家庭において、認知症の家族を見守る場合に利用できる。 In the above embodiment, the case where the patient who is admitted to the hospital is watched is described. It can be used when watching.
1・・カメラ(情報取得手段)、2・・動作認識手段、21・・3次元データ入力部、22・・ベッドエリア把握部、23・・頭部検出・頭部方向推定部、24・・データ変換部(座標変換部)、25・・動作判定部、26・・結果出力部、P1・・頭部方向、B・・ベッド。
1 .. Camera (information acquisition means) 2 .. Motion recognition means 21.. 3D
Claims (3)
取得した前記情報からベッド上の人物の動作を判定する動作認識手段とを有する動作認識装置であって、
前記動作認識手段は、入手した前記情報から画像データ及び距離データを生成する3次元データ入力部と、
前記画像データのベッド4隅の位置データを基にベッドエリアを把握するベッドエリア把握部と、
前記画像データ及び前記距離データから、ベッド上の人物の頭部と両肩の中心を検出し、更に検出した両肩の中心から見た頭部方向を推定する頭部検出・頭部方向推定部と、
求めた頭部の中心、両肩の中心、及び前記ベッド4隅の6点をワールド座標系に変換する座標変換部と、
ワールド座標系に変換されたデータと推定した前記頭部方向とを基に、頭部の位置及び方向とベッド位置との関係が特定の条件を満たしたら特定動作検出信号を出力する動作判定部と、
前記特定動作検出信号を受けて報知動作する結果出力部とを有することを特徴とする動作認識装置。 Information acquisition means for capturing image information and distance information by imaging the entire bed from above;
A motion recognition device comprising motion recognition means for determining the motion of a person on the bed from the acquired information,
The motion recognition means includes a three-dimensional data input unit that generates image data and distance data from the acquired information,
A bed area grasping unit for grasping a bed area based on position data of the four corners of the bed of the image data;
A head detection / head direction estimation unit that detects the center of the head and both shoulders of the person on the bed from the image data and the distance data, and further estimates the head direction viewed from the detected center of both shoulders When,
A coordinate conversion unit that converts the obtained center of the head, the center of both shoulders, and the six points of the four corners of the bed into a world coordinate system;
Based on the data converted into the world coordinate system and the estimated head direction, a motion determination unit that outputs a specific motion detection signal when the relationship between the head position and direction and the bed position satisfies a specific condition; ,
A motion recognition device comprising: a result output unit that performs a notification operation upon receiving the specific motion detection signal.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015162173A JP2017038777A (en) | 2015-08-19 | 2015-08-19 | Motion recognition apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015162173A JP2017038777A (en) | 2015-08-19 | 2015-08-19 | Motion recognition apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017038777A true JP2017038777A (en) | 2017-02-23 |
Family
ID=58202710
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015162173A Pending JP2017038777A (en) | 2015-08-19 | 2015-08-19 | Motion recognition apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017038777A (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018139388A (en) * | 2017-02-24 | 2018-09-06 | アイホン株式会社 | Bed position determination device |
JP2018143338A (en) * | 2017-03-02 | 2018-09-20 | オムロン株式会社 | Watching support system and control method thereof |
JP2018143333A (en) * | 2017-03-02 | 2018-09-20 | オムロン株式会社 | Watching support system and control method thereof |
CN109215083A (en) * | 2017-07-06 | 2019-01-15 | 华为技术有限公司 | The method and apparatus of the calibrating external parameters of onboard sensor |
JP2019049849A (en) * | 2017-09-08 | 2019-03-28 | キング通信工業株式会社 | Watching method |
CN111523486A (en) * | 2020-04-24 | 2020-08-11 | 重庆理工大学 | Mechanical arm grabbing detection method based on improved CenterNet |
CN112466089A (en) * | 2019-09-09 | 2021-03-09 | 德尔格制造股份两合公司 | System and method for monitoring positional stability |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09253057A (en) * | 1996-03-18 | 1997-09-30 | Kanebo Ltd | In-sickroom patient monitoring device |
JP2001243472A (en) * | 2000-03-01 | 2001-09-07 | Matsushita Electric Works Ltd | Image processor |
JP2014236896A (en) * | 2013-06-10 | 2014-12-18 | Nkワークス株式会社 | Information processor, information processing method, and program |
-
2015
- 2015-08-19 JP JP2015162173A patent/JP2017038777A/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09253057A (en) * | 1996-03-18 | 1997-09-30 | Kanebo Ltd | In-sickroom patient monitoring device |
JP2001243472A (en) * | 2000-03-01 | 2001-09-07 | Matsushita Electric Works Ltd | Image processor |
JP2014236896A (en) * | 2013-06-10 | 2014-12-18 | Nkワークス株式会社 | Information processor, information processing method, and program |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018139388A (en) * | 2017-02-24 | 2018-09-06 | アイホン株式会社 | Bed position determination device |
JP2018143338A (en) * | 2017-03-02 | 2018-09-20 | オムロン株式会社 | Watching support system and control method thereof |
JP2018143333A (en) * | 2017-03-02 | 2018-09-20 | オムロン株式会社 | Watching support system and control method thereof |
CN109963501A (en) * | 2017-03-02 | 2019-07-02 | 欧姆龙株式会社 | Nurse auxiliary system and its control method and program |
US10853679B2 (en) | 2017-03-02 | 2020-12-01 | Omron Corporation | Monitoring assistance system, control method thereof, and program |
CN109215083A (en) * | 2017-07-06 | 2019-01-15 | 华为技术有限公司 | The method and apparatus of the calibrating external parameters of onboard sensor |
US11670193B2 (en) | 2017-07-06 | 2023-06-06 | Huawei Technologies Co., Ltd. | Extrinsic parameter of on-board sensor |
JP2019049849A (en) * | 2017-09-08 | 2019-03-28 | キング通信工業株式会社 | Watching method |
CN112466089A (en) * | 2019-09-09 | 2021-03-09 | 德尔格制造股份两合公司 | System and method for monitoring positional stability |
CN111523486A (en) * | 2020-04-24 | 2020-08-11 | 重庆理工大学 | Mechanical arm grabbing detection method based on improved CenterNet |
CN111523486B (en) * | 2020-04-24 | 2022-05-17 | 重庆理工大学 | Mechanical arm grabbing detection method based on improved CenterNet |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2017038777A (en) | Motion recognition apparatus | |
JP6115335B2 (en) | Information processing apparatus, information processing method, and program | |
JP6195915B2 (en) | Image measuring device | |
US10068344B2 (en) | Method and system for 3D capture based on structure from motion with simplified pose detection | |
JP5838355B2 (en) | Spatial information detection device, human position detection device | |
JP2014127208A (en) | Method and apparatus for detecting object | |
TWI474173B (en) | Assistance system and assistance method | |
JP5951043B2 (en) | Image measuring device | |
KR20110084028A (en) | Apparatus and method for measuring distance using image data | |
JP2011198161A (en) | Object recognition system, and monitoring system and watching system using the same | |
KR20120046973A (en) | Method and apparatus for generating motion information | |
JP2012059030A (en) | Human body identification method and human body identification apparatus using range image camera | |
JP6728865B2 (en) | Hand lift detection device and hand lift detection program | |
JP2008146583A (en) | Attitude detector and behavior detector | |
KR101454548B1 (en) | Monitoring device using three dimension camera and driving method thereof | |
TWI590099B (en) | Interaction system and motion detection method | |
JP2011209794A (en) | Object recognition system, monitoring system using the same, and watching system | |
JP2004042777A (en) | Obstacle detector | |
JP5785515B2 (en) | Pedestrian detection device and method, and vehicle collision determination device | |
JP2009266155A (en) | Apparatus and method for mobile object tracking | |
JP5679456B2 (en) | Human detection device, human detection method, and human detection program | |
JP5230354B2 (en) | POSITIONING DEVICE AND CHANGED BUILDING DETECTION DEVICE | |
KR101300166B1 (en) | Apparatus and method for detecting iris | |
JPWO2017057426A1 (en) | Projection device, content determination device, projection method, and program | |
JP2006215743A (en) | Image processing apparatus and image processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180223 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181029 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181106 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20190507 |