JP2013153842A - Detector, detection method, and detection program - Google Patents

Detector, detection method, and detection program Download PDF

Info

Publication number
JP2013153842A
JP2013153842A JP2012015205A JP2012015205A JP2013153842A JP 2013153842 A JP2013153842 A JP 2013153842A JP 2012015205 A JP2012015205 A JP 2012015205A JP 2012015205 A JP2012015205 A JP 2012015205A JP 2013153842 A JP2013153842 A JP 2013153842A
Authority
JP
Japan
Prior art keywords
movement direction
feature point
subject
captured image
feature points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012015205A
Other languages
Japanese (ja)
Other versions
JP5982835B2 (en
Inventor
Hiromoto Ishii
裕元 石井
Ken Jo
▲ケン▼ 徐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Healthcare Co Ltd
Original Assignee
Omron Healthcare Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Healthcare Co Ltd filed Critical Omron Healthcare Co Ltd
Priority to JP2012015205A priority Critical patent/JP5982835B2/en
Publication of JP2013153842A publication Critical patent/JP2013153842A/en
Application granted granted Critical
Publication of JP5982835B2 publication Critical patent/JP5982835B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a detector capable of accurately detecting movements of a patient by simple processing.SOLUTION: A detector receives input of two or more photographed images obtained by continuously photographing a subject from a camera (#1), and extracts a feature point from each of a first photographed image and a second photographed image (#2). The feature point of the first photographed image and the feature point of the second photographed image that correspond are matched to detect a moving direction for each feature point, the moving directions are classified for each corresponding feature point, and the movement of the subject is detected on the basis of the number of feature points for each moving direction, that is obtained by subtracting the number of feature points in the moving direction which is a direction opposite to the moving direction from the number of feature points for each moving direction (#3). On the basis of the detected movement of the subject, whether or not to output information associated with the movement is determined (#4).

Description

この発明は検出装置、検出方法、および検出プログラムに関し、特に、患者の動作を検出する検出装置、検出方法、および検出プログラムに関する。   The present invention relates to a detection device, a detection method, and a detection program, and more particularly, to a detection device, a detection method, and a detection program for detecting a motion of a patient.

施設内の、たとえばベッド上の患者や廊下を歩行中の患者の転倒を検知する方法が様々提案されている。たとえば、特開2002−232870号公報(以下、特許文献1)には、被介護者の画像データから被介護者の転倒を検知する検知装置が開示されている。   Various methods have been proposed for detecting the fall of a patient in a facility, for example, a patient on a bed or walking in a corridor. For example, Japanese Patent Application Laid-Open No. 2002-232870 (hereinafter, Patent Document 1) discloses a detection device that detects the fall of a cared person from image data of the cared person.

特許文献1に開示されている検知装置は、被介護者を撮影して得られた画像データから被介護者の動作ベクトルを算出し、被介護者の転倒を示す所定のしきい値Tとを比較することで被介護者が転倒したか否かを判定するものである。そのため、被介護者の転倒を迅速に通報することができる。   The detection device disclosed in Patent Document 1 calculates a motion vector of a cared person from image data obtained by photographing the cared person, and uses a predetermined threshold T indicating the fall of the cared person. By comparing, it is determined whether or not the care recipient has fallen. Therefore, it is possible to quickly report the caregiver's fall.

特開2002−232870号公報JP 2002-232870 A

ところで、動作ベクトルは画像データのフレーム間の差分、つまり、オプティカルフローを計算することで得られる。そのため、被介護者を撮影した画像データが周囲の環境や明るさによるノイズの影響を受けると、患者の動きが正確に動作ベクトルで表わされなくなる。その結果、動作ベクトルを用いて患者の転倒などの動作を検出すると、検出精度が低下する、という問題がある。   By the way, the motion vector is obtained by calculating a difference between frames of image data, that is, an optical flow. For this reason, when the image data of the cared person is affected by noise due to the surrounding environment and brightness, the motion of the patient is not accurately represented by the motion vector. As a result, there is a problem in that the detection accuracy decreases when an operation such as a patient's falling is detected using the motion vector.

また、1つの動作のために患者の各部が様々な動きをする場合がある。たとえば、ベッドから起き上がる動作をする場合、肩は上方向に移動するものの、手はベッドから身体を離す動きを支持するために下方向に移動することがある。このように、1つの動作でも各部が様々な方向に移動する場合があるため、動作ベクトルは一定方向にだけではなく、様々な方向に検出されることになる。そのため、このような動作ベクトルを用いて患者の転倒などの動作を検出すると、検出精度が低下する、という問題がある。   Further, there are cases where various parts of the patient make various movements for one operation. For example, when moving up from the bed, the shoulder may move upward, but the hand may move downward to support the movement away from the bed. Thus, since each part may move in various directions even in one operation, the motion vector is detected not only in a fixed direction but also in various directions. For this reason, there is a problem that the detection accuracy decreases when an operation such as a patient's falling is detected using such an operation vector.

本発明はこのような問題に鑑みてなされたものであって、簡易な処理で精度よく患者の動作を検出することができる検出装置、検出方法、および検出プログラムを提供することを目的としている。   The present invention has been made in view of such problems, and an object of the present invention is to provide a detection device, a detection method, and a detection program that can accurately detect a patient's motion with simple processing.

上記目的を達成するために、本発明のある局面に従うと、検出装置は被写体の動作を検出する検出装置であって、被写体を連続して撮影することで得られた2以上の撮影画像を入力するための入力手段と、撮影画像を解析することで、被写体の動作を検出する処理を行なうための処理手段と、処理手段で検出された被写体の動作に関連した情報を出力するための出力手段と備える。処理手段は、連続して得られた第1の撮影画像と第2の撮影画像とのそれぞれから特徴点を抽出するための抽出手段と、対応した第1の撮影画像の特徴点と第2の撮影画像の特徴点とを比較することで対応した特徴点ごとの移動方向を検出し、対応した特徴点ごとに移動方向を分類して、移動方向ごとの特徴点の数から移動方向と反対方向とされる移動方向の特徴点の数を差し引くことで得られる移動方向ごとの特徴点の数に基づいて被写体の動作を検出するための検出手段と、出手段で検出された被写体の動作に基づいて、当該動作に関連した情報を出力するか否かを判定するための判定手段とをさらに含む。   In order to achieve the above object, according to one aspect of the present invention, the detection device is a detection device that detects a motion of a subject, and inputs two or more captured images obtained by continuously photographing the subject. Input means for processing, processing means for performing processing to detect the motion of the subject by analyzing the captured image, and output means for outputting information related to the motion of the subject detected by the processing means Prepare. The processing means includes extraction means for extracting feature points from each of the first photographed image and the second photographed image obtained in succession, the feature points of the corresponding first photographed image, and the second feature points. The movement direction for each corresponding feature point is detected by comparing the feature points of the captured image, the movement direction is classified for each corresponding feature point, and the direction opposite to the movement direction is determined from the number of feature points for each movement direction. Detection means for detecting the movement of the subject based on the number of feature points for each movement direction obtained by subtracting the number of feature points in the movement direction, and the movement of the subject detected by the output means And determining means for determining whether or not to output information related to the operation.

好ましくは、抽出手段は、第1の撮影画像と第2の撮影画像との対応する点のそれぞれの輝度を比較し、その差が予め記憶しているしきい値以上である点を特徴点として抽出する。   Preferably, the extracting means compares the brightness of the corresponding points of the first captured image and the second captured image, and uses the point where the difference is equal to or greater than a prestored threshold as a feature point. Extract.

好ましくは、検出手段は、対応した、第1の撮影画像から抽出された特徴点と、第2の撮影画像から抽出された特徴点との移動距離が予め記憶しているしきい値以上である特徴点について、当該特徴点の移動方向を、予め規定された移動方向の区分に分類する。   Preferably, in the detection unit, the movement distance between the corresponding feature point extracted from the first photographed image and the feature point extracted from the second photographed image is equal to or greater than a threshold value stored in advance. For the feature points, the movement direction of the feature points is classified into predetermined movement direction sections.

好ましくは、検出手段は、分類された移動方向ごとの特徴点の数の最も多い移動方向を、被写体の移動方向として検出する。   Preferably, the detection means detects the moving direction having the largest number of feature points for each classified moving direction as the moving direction of the subject.

好ましくは、検出手段は、分類された移動方向ごとの特徴点の数を、当該移動方向のベクトルの長さとして、移動方向ごとのベクトルの和を算出して、算出されたベクトルの和で表わされた方向を被写体の移動方向として検出する。   Preferably, the detection means calculates the sum of the vectors for each movement direction, using the number of feature points for each classified movement direction as the length of the vector for the movement direction, and represents the sum of the calculated vectors. The direction passed is detected as the moving direction of the subject.

好ましくは、検出手段は、第1の撮影画像および第2の撮影画像のそれぞれを予め規定された領域に分割し、領域ごとに移動方向ごとの特徴点の数から移動方向と反対方向とされる移動方向の特徴点の数を差し引くことで得られる移動方向ごとの特徴点の数に基づいて当該領域での移動方向を特定し、移動方向ごとの領域数に基づいて被写体の移動方向として検出する。   Preferably, the detection unit divides each of the first photographed image and the second photographed image into predetermined regions, and sets the direction opposite to the moving direction from the number of feature points in each moving direction for each region. Based on the number of feature points for each movement direction obtained by subtracting the number of feature points in the movement direction, the movement direction in the area is specified, and the movement direction of the subject is detected based on the number of areas for each movement direction. .

より好ましくは、検出手段は、分類された移動方向ごとの領域の数の最も多い移動方向を、被写体の移動方向として検出する。   More preferably, the detection means detects the movement direction having the largest number of regions for each classified movement direction as the movement direction of the subject.

本発明の他の局面に従うと、検出方法は検出装置で撮影画像から被写体の動作を検出する方法であって、被写体を連続して撮影することで得られた2以上の撮影画像を入力するステップと、連続して得られた第1の撮影画像と第2の撮影画像とのそれぞれから特徴点を抽出するステップと、対応した第1の撮影画像の特徴点と第2の撮影画像の特徴点とを比較することで対応した特徴点ごとの移動方向を検出するステップと、対応した特徴点ごとに移動方向を分類して、移動方向ごとの特徴点の数から移動方向と反対方向とされる移動方向の特徴点の数を差し引くことで得られる移動方向ごとの特徴点の数に基づいて被写体の動作を検出するステップとを備える。   According to another aspect of the present invention, the detection method is a method for detecting an operation of a subject from a photographed image by a detection device, and the step of inputting two or more photographed images obtained by continuously photographing the subject. Extracting a feature point from each of the first captured image and the second captured image obtained in succession, and a corresponding feature point of the first captured image and a feature point of the second captured image The movement direction for each corresponding feature point is detected by comparing with the above, and the movement direction is classified for each corresponding feature point, and the direction is opposite to the movement direction from the number of feature points for each movement direction. Detecting the motion of the subject based on the number of feature points in each movement direction obtained by subtracting the number of feature points in the movement direction.

本発明のさらに他の局面に従うと、検出プログラムは、検出装置に、撮影画像から被写体の動作を検出する処理を実行させるプログラムであって、被写体を連続して撮影することで得られた2以上の撮影画像を入力するステップと、連続して得られた第1の撮影画像と第2の撮影画像とのそれぞれから特徴点を抽出するステップと、対応した第1の撮影画像の特徴点と第2の撮影画像の特徴点とを比較することで対応した特徴点ごとの移動方向を検出するステップと、対応した特徴点ごとに移動方向を分類して、移動方向ごとの特徴点の数から移動方向と反対方向とされる移動方向の特徴点の数を差し引くことで得られる移動方向ごとの特徴点の数に基づいて被写体の動作を検出するステップとを検出装置に実行させる。   According to still another aspect of the present invention, the detection program is a program for causing the detection device to execute processing for detecting the motion of the subject from the captured image, and two or more obtained by continuously capturing the subject. A step of inputting the captured image, a step of extracting feature points from each of the first captured image and the second captured image obtained in succession, and a corresponding feature point of the first captured image Detecting the moving direction for each corresponding feature point by comparing the feature points of the two captured images, classifying the moving direction for each corresponding feature point, and moving from the number of feature points for each moving direction And detecting a motion of the subject based on the number of feature points in each movement direction obtained by subtracting the number of feature points in the movement direction that is opposite to the direction.

この発明によると、簡易な処理で精度よく患者の動作を検出することができる。   According to the present invention, it is possible to detect a patient's movement with high accuracy by simple processing.

実施の形態にかかる安全看護システムの構成の具体例を示す図である。It is a figure which shows the specific example of a structure of the safety nursing system concerning embodiment. 安全看護システムに含まれるカメラの取付け位置の一例を説明するための図である。It is a figure for demonstrating an example of the attachment position of the camera contained in a safety nursing system. 安全看護システムに含まれる検出装置の構成の具体例を示すブロック図である。It is a block diagram which shows the specific example of a structure of the detection apparatus contained in a safety nursing system. 検出装置での検出方法を表わした図である。It is a figure showing the detection method in a detection apparatus. 検出装置の機能構成の具体例を示すブロック図である。It is a block diagram which shows the specific example of a function structure of a detection apparatus. 検出装置での動作の流れを表わしたフローチャートである。It is a flowchart showing the flow of operation | movement in a detection apparatus. 発明者らの測定で得られた、移動点ごとの移動方向の分類結果と、移動方向の区分とを表わした図である。It is the figure showing the classification result of the moving direction for every moving point, and the division of the moving direction obtained by the inventors' measurement. 検出方法の変形例を説明するための図である。It is a figure for demonstrating the modification of a detection method.

以下に、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品および構成要素には同一の符号を付してある。それらの名称および機能も同じである。   Embodiments of the present invention will be described below with reference to the drawings. In the following description, the same parts and components are denoted by the same reference numerals. Their names and functions are also the same.

<システム構成>
図1は、本実施の形態にかかる安全看護システム1の構成の具体例を示す図である。
<System configuration>
FIG. 1 is a diagram showing a specific example of the configuration of the safety nursing system 1 according to the present embodiment.

図1を参照して、安全看護システム1は、カメラ151と、カメラ151に接続された検出装置100とを含む。   Referring to FIG. 1, safety nursing system 1 includes a camera 151 and a detection device 100 connected to camera 151.

図2は、カメラ151の取付け位置の一例を説明するための図である。図2を参照して安全看護システム1のカメラ151は、一例として、ベッド20の上の患者10を頭部方向から撮像可能な位置に配置される。   FIG. 2 is a diagram for explaining an example of the attachment position of the camera 151. With reference to FIG. 2, the camera 151 of the safety nursing system 1 is arrange | positioned in the position which can image the patient 10 on the bed 20 from a head direction as an example.

なお、カメラ151は、ベッド20の上面の側端23を含めて撮像可能な位置に配置されるのであれば、患者10の頭部方向から撮像可能な位置に限定されず、患者10の足部方向から撮像可能な位置に配置されてもよい。   In addition, as long as the camera 151 is arrange | positioned in the position which can image including the side edge 23 of the upper surface of the bed 20, it is not limited to the position which can image from the patient's 10 head direction, The foot part of the patient 10 You may arrange | position in the position which can image from a direction.

また、カメラ151は、ベッド20の上面の長手方向端24を含めて撮像可能な位置に配置されることが好ましい。   Further, the camera 151 is preferably arranged at a position where imaging is possible including the longitudinal end 24 on the upper surface of the bed 20.

また、患者10は、病院等で医師および看護師などの看護者に看護を受ける被看護者、および、介護施設等で介護者に介護を受ける被介護者などの他人によって見守りが必要な人を含む。   In addition, the patient 10 is a person who needs to be watched by others such as a nurse who receives nursing care from a nurse such as a doctor and a nurse at a hospital, and a care recipient who receives care from a caregiver at a care facility. Including.

<装置構成>
図3は、検出装置100の構成の具体例を示すブロック図である。
<Device configuration>
FIG. 3 is a block diagram illustrating a specific example of the configuration of the detection apparatus 100.

図3を参照して、検出装置100は、制御部110と、記憶部120と、操作部130と、表示部140と、画像入力部150と、音声出力部160と、通信部190とを含む。   Referring to FIG. 3, detection device 100 includes a control unit 110, a storage unit 120, an operation unit 130, a display unit 140, an image input unit 150, an audio output unit 160, and a communication unit 190. .

制御部110は、CPU(Central Processing Unit)およびその補助回路を含み、検出装置100の各部を制御する。すなわち、記憶部120に記憶されたプログラムおよびデータに従って所定の処理を実行することで、操作部130、画像入力部150、および、通信部190から入力されたデータを処理し、処理したデータを、記憶部120に記憶させたり、音声出力部160で音声として出力させたり、通信部190から出力させたりする。   The control unit 110 includes a CPU (Central Processing Unit) and its auxiliary circuit, and controls each unit of the detection apparatus 100. That is, by executing predetermined processing according to the program and data stored in the storage unit 120, the data input from the operation unit 130, the image input unit 150, and the communication unit 190 is processed, and the processed data is The data is stored in the storage unit 120, is output as audio by the audio output unit 160, or is output from the communication unit 190.

記憶部120は、制御部110でプログラムを実行するために必要な作業領域として用いられるRAM(Random Access Memory)と、制御部110で実行するための基本的なプログラムを記憶するためのROM(Read Only Memory)とを含む。また、記憶部120の記憶領域を補助するための補助記憶装置の記憶媒体として、磁気ディスク(HD(Hard Disk)、FD(Flexible Disk))、光ディスク(CD(Compact Disc)、DVD(Digital Versatile Disk)、BD(Blu-ray Disc))、光磁気ディスク(MO(Magneto-Optical disk))、または、半導体メモリ(メモリカード、SSD(Solid State Drive))などが用いられてもよい。   The storage unit 120 includes a RAM (Random Access Memory) used as a work area necessary for executing the program by the control unit 110 and a ROM (Read) for storing a basic program to be executed by the control unit 110. Only Memory). Further, as a storage medium of an auxiliary storage device for assisting the storage area of the storage unit 120, a magnetic disk (HD (Hard Disk), FD (Flexible Disk)), optical disk (CD (Compact Disc), DVD (Digital Versatile Disk) ), BD (Blu-ray Disc)), a magneto-optical disk (MO (Magneto-Optical disk)), or a semiconductor memory (memory card, SSD (Solid State Drive)) may be used.

操作部130は、キーボードおよびマウスで構成され、ユーザによる操作を示す操作信号を制御部110に送信する。また、操作部130は、キーボードおよびマウスに替えて、または、加えて、タッチパネルなどの他の操作デバイスで構成されるようにしてもよい。   The operation unit 130 includes a keyboard and a mouse, and transmits an operation signal indicating an operation by the user to the control unit 110. Further, the operation unit 130 may be configured by another operation device such as a touch panel instead of or in addition to the keyboard and the mouse.

表示部140は、ディスプレイ(たとえば、LCD(Liquid Crystal Display))およびを含む。表示部140は、制御部110によって制御されて、所定の映像をディスプレイに表示させる。   Display unit 140 includes a display (for example, LCD (Liquid Crystal Display)) and the like. The display unit 140 is controlled by the control unit 110 to display a predetermined image on the display.

音声出力部160は、スピーカを含む。音声出力部160は、制御部110によって制御されて、所定の音声をスピーカから出力させる。   The audio output unit 160 includes a speaker. The audio output unit 160 is controlled by the control unit 110 to output predetermined audio from the speaker.

画像入力部150は、カメラ151から入力された撮影画像を、制御部110に受け渡したり、制御部110によって制御されて、記憶部120に記憶させたり、表示部140に画像として表示させたりする。   The image input unit 150 transfers a captured image input from the camera 151 to the control unit 110, or controls the control unit 110 to store the captured image in the storage unit 120 or display the image on the display unit 140.

通信部190は、制御部110からの情報を他の装置に送信するとともに、他の装置から送信されてきた情報を受信して制御部110に受渡す。他の装置としては、たとえば、図示しない生体情報モニタやデータ蓄積用のサーバなどが該当する。   The communication unit 190 transmits information from the control unit 110 to another device, receives information transmitted from the other device, and passes the information to the control unit 110. Examples of other devices include a biological information monitor (not shown) and a data storage server.

なお、図3の例では、操作部130、表示部140、画像入力部150、および音声出力部160が、いずれも検出装置100の本体に直接接続されている例が示されているが、これらは遠隔に設置されて、通信部190を介して接続されるものであってもよい。   3 shows an example in which the operation unit 130, the display unit 140, the image input unit 150, and the audio output unit 160 are all directly connected to the main body of the detection apparatus 100. May be remotely installed and connected via the communication unit 190.

たとえば、検出装置100はカメラ151の近傍に設置され、すなわち、ベッド20の備えられた病室に設置され、操作部130、表示部140、画像入力部150、および音声出力部160がナースステーションに設置され、通信部190を介して通信する形態であってもよい。   For example, the detection device 100 is installed in the vicinity of the camera 151, that is, installed in a hospital room provided with the bed 20, and the operation unit 130, the display unit 140, the image input unit 150, and the audio output unit 160 are installed in the nurse station. The communication unit 190 may be used for communication.

また、他の形態として、カメラ151のみがベッド20の備えられた病室に設置され、操作部130、表示部140、画像入力部150、および音声出力部160を含んだ検出装置100本体がナースステーション等の病室と隔離した場所に設置されて、カメラ151からの画像情報が通信部190を介して検出装置100に入力される形態であってもよい。   As another form, only the camera 151 is installed in a hospital room provided with the bed 20, and the main body of the detection apparatus 100 including the operation unit 130, the display unit 140, the image input unit 150, and the audio output unit 160 is a nurse station. For example, the image information from the camera 151 may be input to the detection apparatus 100 via the communication unit 190.

<動作概要>
安全看護システム1は、被介護者である、ベッド上の患者を図2のようにして連続してカメラ151で撮影し、その撮影画像を検出装置100で解析することで、当該患者の検出対象の動作があったことを検出する。
<Overview of operation>
The safety nursing system 1 captures a patient on a bed, who is a care recipient, continuously with the camera 151 as shown in FIG. 2, and analyzes the captured image with the detection device 100, thereby detecting the detection target of the patient. Detect that there was an action.

図4は、検出装置100での検出方法を表わした図である。
図4を参照して、検出装置100は、カメラ151から、連続して撮影された複数の撮影画像の入力を受け付ける(#1)。
FIG. 4 is a diagram illustrating a detection method in the detection apparatus 100.
Referring to FIG. 4, detection apparatus 100 accepts input of a plurality of captured images that are continuously captured from camera 151 (# 1).

入力された撮影画像の、時系列に並んだ前の撮影画像を比較することで、前の撮影画像から動きのある点である特徴点を抽出する(#2)。具体的には、これら2つの撮影画像それぞれの輝度を比較し、その差が規定されたしきい値以上である点を特徴点として抽出する。   A feature point that is a moving point is extracted from the previous captured image by comparing the previous captured images of the input captured images arranged in time series (# 2). Specifically, the brightness of each of these two captured images is compared, and a point whose difference is equal to or greater than a prescribed threshold value is extracted as a feature point.

入力された撮影画像から抽出された特徴点と、時系列に並んだ前の撮影画像の特徴点とをマッチングすることで、特徴点ごとの移動方向を特定する(#3)。具体的には、2つの撮影画像中の対応する特徴点間の距離を算出して、その距離が規定されたしきい値以上である点を移動点として特定し、その移動方向を特定する。「移動点」とは、移動した部分を表わした撮影画像上の点、と言える。   By matching the feature points extracted from the input photographed image with the feature points of the previous photographed image arranged in time series, the moving direction for each feature point is specified (# 3). Specifically, a distance between corresponding feature points in two captured images is calculated, a point whose distance is equal to or greater than a prescribed threshold is specified as a moving point, and a moving direction thereof is specified. The “moving point” can be said to be a point on the photographed image representing the moved part.

特徴点ごとの移動方向に基づいて被介護者の動きを判定する(#4)。
検出装置100は、判定結果に応じて表示部140や音声出力部160などで警告を出力する。
The movement of the care recipient is determined based on the movement direction for each feature point (# 4).
The detection apparatus 100 outputs a warning using the display unit 140, the audio output unit 160, and the like according to the determination result.

<機能構成>
図5は、上述の動作を実現するための、検出装置100の機能構成の具体例を示すブロック図である。図5の各機能は、制御部110に含まれる図示しないCPUが記憶部120に記憶されたプログラムを読み出して実行することで主にCPUに形成されるものであるが、少なくとも一部が、図3に示された装置構成によって実現されてもよい。
<Functional configuration>
FIG. 5 is a block diagram illustrating a specific example of a functional configuration of the detection apparatus 100 for realizing the above-described operation. Each function of FIG. 5 is mainly formed in the CPU by reading and executing a program stored in the storage unit 120 by a CPU (not shown) included in the control unit 110. At least a part of the functions shown in FIG. 3 may be realized by the apparatus configuration shown in FIG.

図5を参照して、検出装置100は、画像入力部150からの撮影画像の入力を受け付けるための入力部101と、入力された撮影画像や、後述する処理途中のデータを一時的に記憶するための一時記憶部102と、入力された撮影画像とその直前に入力された撮影画像との対応する点のそれぞれの輝度を比較し、その差が予め記憶しているしきい値以上である入力された撮影画像上の点を特徴点として抽出するための第1抽出部103と、入力された撮影画像から抽出された特徴点とその直前に入力された撮影画像から抽出された特徴点とをマッチングし、その位置の差が予め記憶しているしきい値以上である入力された撮影画像上の特徴点を移動点として抽出するための第2抽出部104と、抽出された移動点ごとにその直前に入力された撮影画像から抽出された特徴点からの移動方向を特定し、予め記憶している移動方向の区分に分対するための分類部105と、移動方向が反対方向となる対の区分に分類された移動点の数を相殺することで、全体としての移動方向を検出するための検出部106と、検出された移動方向が予め記憶している警告対象の移動方向に相当するか否かを判定することで、被介護者が警告対象の動作を行なったか否かを判定するための判定部107と、その判定結果に応じてたとえば音声出力部160などから警告を出力する処理を行なうための出力部108とを含む。   Referring to FIG. 5, detection apparatus 100 temporarily stores input unit 101 for receiving input of a captured image from image input unit 150, the input captured image, and data that is being processed later. For comparing the brightness of each of the corresponding points between the temporary storage unit 102 for the input and the captured image input immediately before and the captured image input immediately before, and the difference is equal to or greater than a threshold value stored in advance A first extraction unit 103 for extracting a point on the captured image as a feature point, a feature point extracted from the input captured image, and a feature point extracted from the captured image input immediately before A second extraction unit 104 for matching and extracting a feature point on the input photographed image whose difference in position is equal to or greater than a pre-stored threshold value as a movement point; and for each extracted movement point Entered just before A classifying unit 105 for specifying the moving direction from the feature point extracted from the photographed image and sorting the moving direction segment stored in advance, and the moving classified into the paired segment whose moving direction is the opposite direction By canceling the number of points, the detection unit 106 for detecting the movement direction as a whole and determining whether or not the detected movement direction corresponds to the movement direction of the warning object stored in advance. Thus, the determination unit 107 for determining whether or not the care recipient has performed the warning target operation, and the output unit 108 for performing a process of outputting a warning from the voice output unit 160 or the like according to the determination result, for example. Including.

<動作フロー>
図6は、検出装置100での動作の流れを表わしたフローチャートである。図6のフローチャートに示される動作は、検出装置100の制御部110に含まれる、図示しないCPUが、記憶部120に記憶されているプログラムを読み出して実行し、図5に示される各部を機能させることで実現される。
<Operation flow>
FIG. 6 is a flowchart showing an operation flow in the detection apparatus 100. The operation shown in the flowchart of FIG. 6 is performed by a CPU (not shown) included in the control unit 110 of the detection apparatus 100 reading out and executing a program stored in the storage unit 120 and causing each unit shown in FIG. 5 to function. This is realized.

図6を参照して、ステップS101でCPUは、画像入力部150からの撮影画像の入力を受け付け、ステップS103でその画像から特徴点を抽出する。ステップS103では、上記ステップS101で入力された撮影画像(t)と、前回の処理で入力された撮影画像(t−1)との、対応する点のそれぞれの輝度の差分を算出する。そして、その差分と、予め記憶しているしきい値とを比較し、しきい値以上の差分が算出された撮影画像(t)上の点を、特徴点として抽出する。   Referring to FIG. 6, in step S101, the CPU accepts an input of a captured image from image input unit 150, and extracts a feature point from the image in step S103. In step S103, a difference in luminance between corresponding points between the captured image (t) input in step S101 and the captured image (t-1) input in the previous process is calculated. Then, the difference is compared with a threshold value stored in advance, and a point on the captured image (t) for which a difference equal to or greater than the threshold is calculated is extracted as a feature point.

次に、ステップS105でCPUは、上記ステップS103で抽出された撮影画像(t)から特徴点の中から移動点を抽出する。ステップS105では、上記ステップS103で撮影画像(t)から抽出された特徴点と、前回の処理で撮影画像(t−1)から抽出された特徴点とをマッチングする。そして、その位置の差と予め記憶しているしきい値とを比較し、しきい値以上の位置の差のある撮影画像(t)上の点を、移動点として抽出する。   Next, in step S105, the CPU extracts a movement point from the feature points from the captured image (t) extracted in step S103. In step S105, the feature point extracted from the photographed image (t) in step S103 is matched with the feature point extracted from the photographed image (t-1) in the previous process. Then, the position difference is compared with a threshold value stored in advance, and a point on the captured image (t) having a position difference equal to or greater than the threshold value is extracted as a moving point.

ステップS107でCPUは、上記ステップS107で撮影画像(t)から抽出された各移動点について、撮影画像(t−1)の特徴点からの移動方向に基づいて、移動方向を分類する。ここでは、たとえば、「上」、「下」、「右」、「左」の4方向、などの区分を予め設定しておき、各移動点の移動方向を各区分の方向の範囲と比較することで、これら区分のうちのいずれの区分に相当するかを分類する。   In step S107, the CPU classifies the movement direction of each movement point extracted from the captured image (t) in step S107 based on the movement direction from the feature point of the captured image (t-1). Here, for example, divisions such as “up”, “down”, “right”, and “left” are set in advance, and the movement direction of each movement point is compared with the range of the direction of each division. This classifies which of these categories corresponds to the category.

そして、ステップS109で、区分ごとの移動点の数に応じて、当該被介護者の全体としての移動方向を検出する。ここでは、上述の例では「上」と「下」、「右」と「左」、となる、移動方向が反対方向となる対の区分のそれぞれに分類された移動点の数を相殺する。つまり、「上」に分類された移動点の数と、「下」に分類された移動点の数とを相殺することで、「上」または「下」の移動方向を検出する。同様に、「右」に分類された移動点の数と、「左」に分類された移動点の数とを相殺することで、「右」または「左」の移動方向を検出する。   In step S109, the movement direction of the care receiver as a whole is detected according to the number of movement points for each category. Here, in the above-described example, the number of moving points classified into each of the paired sections in which the moving directions are opposite directions, which are “upper” and “lower”, “right” and “left”, is canceled. That is, the movement direction of “up” or “down” is detected by canceling out the number of movement points classified as “upper” and the number of movement points classified as “lower”. Similarly, the movement direction of “right” or “left” is detected by canceling out the number of movement points classified as “right” and the number of movement points classified as “left”.

CPUは、予め、警告対象の移動方向を記憶している。たとえば、被介護者がベッド上の患者である場合、警告対象の移動方向として、当該患者が起き上がる際の身体の移動方向を警告対象の移動方向として記憶しておくことで、当該患者の起き上がり動作を検出する。CPUは、上記ステップS109で検出された移動方向が、記憶している警告対象の移動方向に一致、または所定範囲内であるである場合に(ステップS111でYES)、ステップS113で警告を出力する。そして、一連の動作を終了する。   The CPU stores the moving direction of the warning target in advance. For example, when the cared person is a patient on a bed, the movement direction of the patient is stored as the movement direction of the warning object by storing the movement direction of the body when the patient is rising as the movement direction of the warning object. Is detected. The CPU outputs a warning in step S113 when the movement direction detected in step S109 matches the stored movement direction of the warning object or is within a predetermined range (YES in step S111). . And a series of operation | movement is complete | finished.

なお、カメラ151からの撮影画像は連続して入力されるものであるため、図6に示された一連の動作は、カメラ151からの撮影画像が入力されるたびに繰り返されることになる。   Since the captured images from the camera 151 are input continuously, the series of operations shown in FIG. 6 is repeated each time the captured image from the camera 151 is input.

<実施の形態の効果>
以上の動作が行なわれることで、被介護者の移動方向が、各部それぞれの移動方向を全体の移動方向に反映させて検出される。そのため、たとえば、ベッドから起き上がる動作をする場合、肩は上方向に移動するものの、手はベッドから身体を離す動きを支持するために下方向に移動する、などの、各部が様々な方向に移動する場合であっても、個々の移動方向から全体の移動方向をとらえるため、簡単な処理で高精度に被介護者の全体としての移動方向を検出することができる。
<Effect of Embodiment>
By performing the above operation, the moving direction of the care recipient is detected by reflecting the moving direction of each part in the entire moving direction. Therefore, for example, when moving up from the bed, the shoulders move upward, but the hand moves downward to support the movement away from the bed. Even in this case, since the entire movement direction is captured from each movement direction, the movement direction of the care receiver as a whole can be detected with high accuracy by simple processing.

さらに、検出装置100では、撮影画像の輝度に基づいて特徴点を抽出し、特徴点を比較することで移動方向を検出する。つまり、検出装置100は撮影画像そのものを検出結果として用いるものではないため、被介護者となる患者のプライバシーを損なうことなく移動方向を検出することができる。   Furthermore, the detection device 100 detects a moving direction by extracting feature points based on the brightness of the captured image and comparing the feature points. That is, since the detection apparatus 100 does not use the captured image itself as a detection result, the movement direction can be detected without impairing the privacy of the patient who is the care recipient.

このように、高精度で被介護者の移動方向を検出することで、たとえばベッドからの転落や廊下での転倒など、回避すべき動作の前兆となる動作の移動方向を警告対象の移動方向としておくことで、これら動作の前兆の動作を検出することができ、このような動作の発生を抑えることができる。すなわち、ベッドからの転倒に対しては、その前兆として、被介護者である患者がベッドから起き上がる動作の移動方向を警告対象の移動方向としておく。それによって、被介護者のベッドからの起き上がりを検出することができ、その段階で警告に応じて対処することで、それに続くベッドからの転倒を回避することが可能となる。   In this way, by detecting the moving direction of the care recipient with high accuracy, the moving direction of the motion that becomes a precursor of the motion to be avoided, such as falling from the bed or falling in the hallway, is set as the moving direction of the warning target. Therefore, it is possible to detect the precursor of these operations, and to suppress the occurrence of such operations. That is, for a fall from the bed, the movement direction of the movement of the patient, who is the care receiver, getting up from the bed is set as the warning object movement direction. As a result, it is possible to detect rising of the care receiver from the bed, and it is possible to avoid a subsequent fall from the bed by dealing with the warning at that stage.

<測定例>
なお、発明者らは、実際に安全看護システム1を用いて被介護者の移動方向を検出する測定を行なっている。
<Measurement example>
Note that the inventors have actually performed measurements to detect the direction of movement of the care recipient using the safety nursing system 1.

図7(A)は、発明者らの測定で得られた、移動点ごとの移動方向の分類結果を表わした図である。この測定では、ベッド上に伏臥した状態から起き上がる途上の被介護者の頭上から足に向かう方向に(被介護者の背中を撮影する方向に)カメラ151を設置して連続して撮影を行ない、撮影画像(t−1)と撮影画像(t)とを得た。   FIG. 7A is a diagram showing the classification result of the moving direction for each moving point obtained by the inventors' measurement. In this measurement, the camera 151 is installed in the direction from the head of the cared person to the foot while getting up from the prone state on the bed (in the direction of photographing the back of the cared person), and continuous shooting is performed. A captured image (t-1) and a captured image (t) were obtained.

撮影画像(t)から得られた移動点は261点あり、これらを、図7(B)に示される、「右」、「右下」、「左下」、「左」、「左上」、「右上」、の6区分に分類した。その結果、撮影画像(t)からは「右」に分類された移動点が全体の21.1%、「右上」に分類された移動点が全体の22.2%、および「左上」に分類された移動点が全体の21.1%、を占めた。その他、「左」に分類された移動点が全体の13.4%、「左下」に分類された移動点が全体の10.0%、および「右下」に分類された移動点が全体の12.3%であった。   There are 261 moving points obtained from the photographed image (t), and these are shown as “right”, “lower right”, “lower left”, “left”, “upper left”, “ "Upper right". As a result, from the captured image (t), the moving point classified as “right” is classified as 21.1% of the whole, the moving point classified as “upper right” is classified as 22.2% of the whole, and “upper left”. The transferred points accounted for 21.1% of the total. In addition, the moving point classified as “left” is 13.4% of the whole, the moving point classified as “lower left” is 10.0% of the whole, and the moving point classified as “lower right” is the whole. It was 12.3%.

従来の、撮影画像のフレーム間の差分を算出することで得られる動作ベクトルを用いて動作方向を検出する方法を用いるとすると、図7の例では、「右」、「右上」、および「左上」に分類された移動点が同割合程度で大きいことから、どの方向の移動が最も大きいのか不明となる。   If the conventional method of detecting the motion direction using the motion vector obtained by calculating the difference between frames of the captured image is used, in the example of FIG. 7, “right”, “upper right”, and “upper left” Since the moving points classified as "" are large at the same rate, it is unclear which direction the movement is the largest.

これに対して、検出装置100では、反対方向の移動方向の移動点の数を相殺することで、その方向の移動方向を検出する。すなわち、図7の例では、「右」と「左」との割合を相殺することで「右」が19.6%、「右上」と「左下」との割合を相殺することで「右上」が57.4%、および「左上」と「右下」との割合を相殺することで「左上」が22.8%となった。つまり、「右上」が最も割合が高いことが、簡単な処理によって検出された。これにより、図7の矢印で表わされたように、全体として右上方向に移動していることが検出された。   On the other hand, the detection apparatus 100 detects the movement direction in the opposite direction by canceling the number of movement points in the opposite movement direction. That is, in the example of FIG. 7, “Right” is 19.6% by canceling the ratio of “Right” and “Left”, and “Right” is canceled by canceling the ratio of “Upper right” and “Lower left”. Was 57.4%, and “upper left” was 22.8% by offsetting the ratio of “upper left” and “lower right”. In other words, it was detected by simple processing that the ratio of “upper right” was the highest. Thereby, as represented by the arrow in FIG. 7, it was detected that the whole moved in the upper right direction.

[変形例1]
上の例では、たとえば図7に示されたように、移動方向の区分ごとの移動点の数を、画像全体で反対方向の移動方向の移動点の数と相殺するものとしている。
[Modification 1]
In the above example, as shown in FIG. 7, for example, the number of moving points for each moving direction section is offset with the number of moving points in the opposite moving direction in the entire image.

しかしながら、たとえば図8に示されたように、入力された画像を予め規定された領域に区切り、区切られた小領域ごとに、その領域中の移動方向の区分ごとの移動点の数を反対方向の移動方向の移動点の数と相殺して当該領域での移動方向を特定し、次に、移動方向の区分ごとの移動点の数を画像全体で反対方向の移動方向の移動点の数と相殺するようにしてもよい。   However, for example, as shown in FIG. 8, the input image is divided into predetermined areas, and the number of movement points for each of the movement direction sections in the divided areas is set in the opposite direction. The direction of movement in the region is determined by canceling the number of movement points in the movement direction, and then the number of movement points in each movement direction section is determined as the number of movement points in the opposite direction in the entire image. You may make it cancel.

または、この場合、区切られた小領域ごとに、当該領域中で移動方向の区分ごとの移動点の数が最も大きい移動方向を当該領域の移動方向とし、次に、移動方向の区分ごとの小領域の数を画像全体で反対方向の移動方向の小領域の数と相殺するようにしてもよい。   Alternatively, in this case, for each divided small area, the movement direction having the largest number of movement points for each movement direction section in the area is set as the movement direction of the area, and then the small movement for each movement direction section is performed. You may make it cancel the number of area | regions with the number of the small areas of the moving direction of the opposite direction in the whole image.

このようにすることで、たとえば着衣のしわやシーツのしわやカーテンなど、被介護者以外の動きによる移動点で得られた移動方向が画像全体に与える影響を抑えることができ、より検出精度を高めることができる。   In this way, for example, the influence of the movement direction obtained at the movement point due to movements other than the care recipient, such as wrinkles on clothes, wrinkles on sheets, and curtains, can be suppressed and the detection accuracy can be improved. Can be increased.

[変形例2]
なお、上の例では、反対方向の移動方向の移動点の数と相殺した後、最も移動点の多い移動方向を全体の移動方向とするものとしている。図7の例では、「右上」に区分された移動点の割合が最も高いことから、全体として右上方向に移動している、と検出されている。
[Modification 2]
In the above example, after canceling out the number of movement points in the opposite movement direction, the movement direction with the largest number of movement points is assumed to be the overall movement direction. In the example of FIG. 7, since the ratio of the moving points divided into “upper right” is the highest, it is detected that the moving point is moving in the upper right direction as a whole.

他の例として、反対方向の移動方向の移動点の数と相殺した後の、区分ごとの移動点の数に応じて各区分の方向に対応したベクトルを特定し、これらベクトルの和で得られる方向を全体の移動方向としてもよい。図7の例の場合、たとえば、「右」ベクトルの長さを19.6、「右上」ベクトルの長さを57.4、および「左上」ベクトルの長さを22.8として、これら3方向のベクトルの和で得られるベクトルの方向を全体の移動方向としてもよい。   As another example, a vector corresponding to the direction of each section is specified according to the number of moving points for each section after canceling with the number of moving points in the opposite direction of movement, and the sum of these vectors is obtained. The direction may be the entire moving direction. In the example of FIG. 7, for example, the length of the “right” vector is 19.6, the length of the “upper right” vector is 57.4, and the length of the “upper left” vector is 22.8. The direction of the vector obtained by the sum of the vectors may be the overall movement direction.

このようにすることで、より全体の移動方向を高精度で検出することができる。
[変形例3]
上の例では、撮影間隔がある程度短い、または、被介護者の移動が撮影間隔に対して十分に遅いことが前提となっており、撮影画像(t−1)中に、撮影画像(t)中の対象部分に対応した部分が、概ね撮影画像(t)と同じような位置にあるとされている。
By doing in this way, the whole moving direction can be detected with high accuracy.
[Modification 3]
In the above example, it is assumed that the shooting interval is short to some extent, or the movement of the care recipient is sufficiently slow with respect to the shooting interval, and the shot image (t) is included in the shot image (t−1). It is assumed that the portion corresponding to the target portion in the center is at the same position as the captured image (t).

しかしながら、撮影間隔が長い、または被介護者の移動が撮影間隔に対して速いなどの場合、撮影画像(t)中の対象部分に対応した部分が撮影画像(t−1)中にない場合や、大きく位置が変化してとらえにくい場合もある。   However, when the shooting interval is long or the movement of the care recipient is faster than the shooting interval, the portion corresponding to the target portion in the shot image (t) is not in the shot image (t-1) or In some cases, the position is greatly changed and difficult to catch.

このような場合、検出装置100は、上記ステップS103を行なって撮影画像(t)中の特徴点を抽出した後、当該特徴点の撮影画像における分布範囲を算出する。そして、撮影画像(t−1)における分布範囲と比較することで、分布範囲の変化方向を被介護者の全体の移動方向として検出することができる。   In such a case, the detection apparatus 100 calculates the distribution range of the feature point in the photographed image after performing step S103 to extract the feature point in the photographed image (t). Then, by comparing with the distribution range in the photographed image (t-1), the change direction of the distribution range can be detected as the overall movement direction of the care receiver.

これは、たとえば、被介護者である患者がベッドから起き上がる動作を例にとると、その頭上に設置されたカメラ151による撮影画像において、まずは頭頂部が撮影された後に、頭部全体、頭部から肩まで、上半身、と、撮影画像において特徴点が下方から画像全体に広がる。その場合、特徴点の撮影画像における分布範囲は上方向に移動することが検出されるため、被介護者全体の移動方向として上方向を検出することができる。   For example, when the patient who is a care recipient gets up from the bed as an example, in the photographed image by the camera 151 installed on the head, first, after the top of the head is photographed, the entire head, From the shoulders to the shoulders, the upper body, and the feature points in the captured image spread from the bottom to the entire image. In that case, since it is detected that the distribution range of the feature point in the captured image moves upward, the upward direction can be detected as the movement direction of the entire care receiver.

このようにすることでも、全体の移動方向を簡単な処理で高精度に検出することができる。   In this way, the entire moving direction can be detected with high accuracy by a simple process.

さらに、上述の検出処理を検出装置100に実行させるためのプログラムとして提供することもできる。このようなプログラムは、コンピュータに付属するフレキシブルディスク、CD−ROM(Compact Disk-Read Only Memory)、ROM(Read Only Memory)、RAM(Random Access Memory)およびメモリカードなどのコンピュータ読取り可能な記録媒体にて記録させて、プログラム製品として提供することもできる。あるいは、コンピュータに内蔵するハードディスクなどの記録媒体にて記録させて、プログラムを提供することもできる。また、ネットワークを介したダウンロードによって、プログラムを提供することもできる。   Further, it can be provided as a program for causing the detection apparatus 100 to execute the above-described detection processing. Such a program is stored in a computer-readable recording medium such as a flexible disk attached to the computer, a CD-ROM (Compact Disk-Read Only Memory), a ROM (Read Only Memory), a RAM (Random Access Memory), and a memory card. And can be provided as a program product. Alternatively, the program can be provided by being recorded on a recording medium such as a hard disk built in the computer. A program can also be provided by downloading via a network.

なお、本発明にかかるプログラムは、コンピュータのオペレーティングシステム(OS)の一部として提供されるプログラムモジュールのうち、必要なモジュールを所定の配列で所定のタイミングで呼出して処理を実行させるものであってもよい。その場合、プログラム自体には上記モジュールが含まれずOSと協働して処理が実行される。このようなモジュールを含まないプログラムも、本発明にかかるプログラムに含まれ得る。   The program according to the present invention is a program module that is provided as a part of a computer operating system (OS) and calls necessary modules in a predetermined arrangement at a predetermined timing to execute processing. Also good. In that case, the program itself does not include the module, and the process is executed in cooperation with the OS. A program that does not include such a module can also be included in the program according to the present invention.

また、本発明にかかるプログラムは他のプログラムの一部に組込まれて提供されるものであってもよい。その場合にも、プログラム自体には上記他のプログラムに含まれるモジュールが含まれず、他のプログラムと協働して処理が実行される。このような他のプログラムに組込まれたプログラムも、本発明にかかるプログラムに含まれ得る。   The program according to the present invention may be provided by being incorporated in a part of another program. Even in this case, the program itself does not include the module included in the other program, and the process is executed in cooperation with the other program. Such a program incorporated in another program can also be included in the program according to the present invention.

提供されるプログラム製品は、ハードディスクなどのプログラム格納部にインストールされて実行される。なお、プログラム製品は、プログラム自体と、プログラムが記録された記録媒体とを含む。   The provided program product is installed in a program storage unit such as a hard disk and executed. The program product includes the program itself and a recording medium on which the program is recorded.

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

1 安全看護システム、10 患者、20 ベッド、23 側端、24 長手方向端、100 検出装置、101 入力部、102 一時記憶部、103 第1抽出部、104 第2抽出部、105 分類部、106 検出部、107 判定部、108 出力部、110 制御部、120 記憶部、130 操作部、140 表示部、150 画像入力部、151 カメラ、160 音声出力部、190 通信部。   DESCRIPTION OF SYMBOLS 1 Safety nursing system, 10 patients, 20 beds, 23 side edge, 24 longitudinal direction edge, 100 detection apparatus, 101 input part, 102 temporary storage part, 103 1st extraction part, 104 2nd extraction part, 105 classification part, 106 Detection unit, 107 determination unit, 108 output unit, 110 control unit, 120 storage unit, 130 operation unit, 140 display unit, 150 image input unit, 151 camera, 160 audio output unit, 190 communication unit.

Claims (9)

被写体の動作を検出する検出装置であって、
前記被写体を連続して撮影することで得られた2以上の撮影画像を入力するための入力手段と、
前記撮影画像を解析することで、前記被写体の動作を検出する処理を行なうための処理手段と、
前記処理手段で検出された前記被写体の動作に関連した情報を出力するための出力手段と備え、
前記処理手段は、
連続して得られた第1の撮影画像と第2の撮影画像とのそれぞれから特徴点を抽出するための抽出手段と、
対応した前記第1の撮影画像の特徴点と前記第2の撮影画像の特徴点とを比較することで前記対応した特徴点ごとの移動方向を検出し、前記対応した特徴点ごとに移動方向を分類して、前記移動方向ごとの特徴点の数から前記移動方向と反対方向とされる移動方向の特徴点の数を差し引くことで得られる前記移動方向ごとの特徴点の数に基づいて前記被写体の動作を検出するための検出手段と、
前記検出手段で検出された前記被写体の動作に基づいて、当該動作に関連した情報を出力するか否かを判定するための判定手段とをさらに含む、検出装置。
A detection device for detecting the movement of a subject,
An input means for inputting two or more captured images obtained by continuously capturing the subject;
Processing means for analyzing the captured image to detect a motion of the subject;
Output means for outputting information related to the motion of the subject detected by the processing means;
The processing means includes
Extraction means for extracting feature points from each of the first captured image and the second captured image obtained successively;
By comparing the corresponding feature point of the first photographed image with the feature point of the second photographed image, the movement direction for each corresponding feature point is detected, and the movement direction is determined for each corresponding feature point. The subject based on the number of feature points for each movement direction obtained by classifying and subtracting the number of feature points for the movement direction opposite to the movement direction from the number of feature points for each movement direction Detection means for detecting the operation of
A detection apparatus further comprising: a determination unit for determining whether to output information related to the operation based on the operation of the subject detected by the detection unit.
前記抽出手段は、前記第1の撮影画像と前記第2の撮影画像との対応する点のそれぞれの輝度を比較し、その差が予め記憶しているしきい値以上である点を前記特徴点として抽出する、請求項1に記載の検出装置。   The extraction means compares the brightness of each corresponding point between the first captured image and the second captured image, and the feature point is that the difference is equal to or greater than a prestored threshold value. The detection device according to claim 1, which is extracted as 前記検出手段は、対応した、前記第1の撮影画像から抽出された特徴点と、前記第2の撮影画像から抽出された特徴点との移動距離が予め記憶しているしきい値以上である特徴点について、当該特徴点の移動方向を、予め規定された移動方向の区分に分類する、請求項1または2に記載の検出装置。   In the detection means, the movement distance between the corresponding feature point extracted from the first photographed image and the feature point extracted from the second photographed image is equal to or greater than a threshold value stored in advance. The detection device according to claim 1, wherein the moving direction of the feature point is classified into predetermined moving direction sections for the feature point. 前記検出手段は、分類された移動方向ごとの特徴点の数の最も多い移動方向を、前記被写体の移動方向として検出する、請求項1〜3のいずれかに記載の検出装置。   The detection device according to claim 1, wherein the detection unit detects a movement direction having the largest number of feature points for each classified movement direction as the movement direction of the subject. 前記検出手段は、分類された移動方向ごとの特徴点の数を、当該移動方向のベクトルの長さとして、移動方向ごとのベクトルの和を算出して、算出されたベクトルの和で表わされた方向を前記被写体の移動方向として検出する、請求項1〜3のいずれかに記載の検出装置。   The detection means calculates the sum of the vectors for each movement direction, using the number of feature points for each classified movement direction as the length of the vector in the movement direction, and represents the sum of the calculated vectors. The detection apparatus according to claim 1, wherein the detected direction is detected as a moving direction of the subject. 前記検出手段は、前記第1の撮影画像および前記第2の撮影画像のそれぞれを予め規定された領域に分割し、前記領域ごとに前記移動方向ごとの特徴点の数から前記移動方向と反対方向とされる移動方向の特徴点の数を差し引くことで得られる前記移動方向ごとの特徴点の数に基づいて当該領域での移動方向を特定し、移動方向ごとの領域数に基づいて前記被写体の移動方向として検出する、請求項1〜5のいずれかに記載の検出装置。   The detection means divides each of the first photographed image and the second photographed image into predetermined areas, and in each area, the number of feature points for each movement direction is opposite to the movement direction. The movement direction in the region is specified based on the number of feature points in each movement direction obtained by subtracting the number of feature points in the movement direction, and the subject is determined based on the number of regions in each movement direction. The detection device according to claim 1, wherein the detection device is detected as a moving direction. 前記検出手段は、分類された移動方向ごとの前記領域の数の最も多い移動方向を、前記被写体の移動方向として検出する、請求項6に記載の検出装置。   The detection device according to claim 6, wherein the detection unit detects a movement direction having the largest number of the regions for each classified movement direction as a movement direction of the subject. 検出装置で撮影画像から被写体の動作を検出する方法であって、
前記被写体を連続して撮影することで得られた2以上の撮影画像を入力するステップと、
連続して得られた第1の撮影画像と第2の撮影画像とのそれぞれから特徴点を抽出するステップと、
対応した前記第1の撮影画像の特徴点と前記第2の撮影画像の特徴点とを比較することで前記対応した特徴点ごとの移動方向を検出するステップと、
前記対応した特徴点ごとに移動方向を分類して、前記移動方向ごとの特徴点の数から前記移動方向と反対方向とされる移動方向の特徴点の数を差し引くことで得られる前記移動方向ごとの特徴点の数に基づいて前記被写体の動作を検出するステップとを備える、検出方法。
A method for detecting a motion of a subject from a captured image by a detection device,
Inputting two or more captured images obtained by continuously capturing the subject;
Extracting feature points from each of the first captured image and the second captured image obtained successively;
Detecting a moving direction for each corresponding feature point by comparing the corresponding feature point of the first captured image with the feature point of the second captured image;
For each movement direction obtained by classifying the movement direction for each corresponding feature point and subtracting the number of feature points in the movement direction opposite to the movement direction from the number of feature points for each movement direction. Detecting the motion of the subject based on the number of feature points.
検出装置に、撮影画像から被写体の動作を検出する処理を実行させるプログラムであって、
前記被写体を連続して撮影することで得られた2以上の撮影画像を入力するステップと、
連続して得られた第1の撮影画像と第2の撮影画像とのそれぞれから特徴点を抽出するステップと、
対応した前記第1の撮影画像の特徴点と前記第2の撮影画像の特徴点とを比較することで前記対応した特徴点ごとの移動方向を検出するステップと、
前記対応した特徴点ごとに移動方向を分類して、前記移動方向ごとの特徴点の数から前記移動方向と反対方向とされる移動方向の特徴点の数を差し引くことで得られる前記移動方向ごとの特徴点の数に基づいて前記被写体の動作を検出するステップとを前記検出装置に実行させる、検出プログラム。
A program for causing a detection device to execute processing for detecting a motion of a subject from a captured image,
Inputting two or more captured images obtained by continuously capturing the subject;
Extracting feature points from each of the first captured image and the second captured image obtained successively;
Detecting a moving direction for each corresponding feature point by comparing the corresponding feature point of the first captured image with the feature point of the second captured image;
For each movement direction obtained by classifying the movement direction for each corresponding feature point and subtracting the number of feature points in the movement direction opposite to the movement direction from the number of feature points for each movement direction. And a step of detecting the motion of the subject based on the number of feature points.
JP2012015205A 2012-01-27 2012-01-27 Detection apparatus, detection method, and detection program Active JP5982835B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012015205A JP5982835B2 (en) 2012-01-27 2012-01-27 Detection apparatus, detection method, and detection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012015205A JP5982835B2 (en) 2012-01-27 2012-01-27 Detection apparatus, detection method, and detection program

Publications (2)

Publication Number Publication Date
JP2013153842A true JP2013153842A (en) 2013-08-15
JP5982835B2 JP5982835B2 (en) 2016-08-31

Family

ID=49049665

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012015205A Active JP5982835B2 (en) 2012-01-27 2012-01-27 Detection apparatus, detection method, and detection program

Country Status (1)

Country Link
JP (1) JP5982835B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003032672A (en) * 2001-07-17 2003-01-31 Sumitomo Osaka Cement Co Ltd Monitor
US20040082874A1 (en) * 2000-12-07 2004-04-29 Hirooki Aoki Monitor
JP2005246033A (en) * 2004-02-04 2005-09-15 Sumitomo Osaka Cement Co Ltd State analysis apparatus
WO2006043506A1 (en) * 2004-10-18 2006-04-27 Kabushiki Kaisha Toshiba Respiration monitoring apparatus, respiration monitoring system, medical treatment system, respiration monitoring method, respiration monitoring program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040082874A1 (en) * 2000-12-07 2004-04-29 Hirooki Aoki Monitor
JP2003032672A (en) * 2001-07-17 2003-01-31 Sumitomo Osaka Cement Co Ltd Monitor
JP2005246033A (en) * 2004-02-04 2005-09-15 Sumitomo Osaka Cement Co Ltd State analysis apparatus
WO2006043506A1 (en) * 2004-10-18 2006-04-27 Kabushiki Kaisha Toshiba Respiration monitoring apparatus, respiration monitoring system, medical treatment system, respiration monitoring method, respiration monitoring program

Also Published As

Publication number Publication date
JP5982835B2 (en) 2016-08-31

Similar Documents

Publication Publication Date Title
JP6171415B2 (en) Information processing apparatus, information processing method, and program
JP6167563B2 (en) Information processing apparatus, information processing method, and program
JP5782737B2 (en) Status detection device, status detection method, and status detection program
US20210049353A1 (en) Ai-based physical function assessment system
JP6666488B2 (en) Image extraction device
JP6588978B2 (en) Apparatus, system and method for automatic detection of human orientation and / or position
US9408562B2 (en) Pet medical checkup device, pet medical checkup method, and non-transitory computer readable recording medium storing program
JP6277736B2 (en) State recognition method and state recognition device
CN106793980A (en) Patient monitoring system and method
CN109697401B (en) Image detection method and image detection device for judging posture of user
JP2020086819A (en) Image processing program and image processing device
WO2019003859A1 (en) Monitoring system, control method therefor, and program
KR20200080987A (en) Method and system for analyzing baby behavior
WO2020145380A1 (en) Care recording device, care recording system, care recording program, and care recording method
JP5982835B2 (en) Detection apparatus, detection method, and detection program
US20220125338A1 (en) Abnormality determination apparatus, method, and computer-readable medium
JP2018082745A (en) Posture determination device and notification system
JP2022116277A (en) Terminal device, output method, and computer program
WO2018235628A1 (en) Monitoring assistance system, control method therefor, and program
Safarzadeh et al. Real-time fall detection and alert system using pose estimation
JP2014135683A (en) Imaging control apparatus, imaging control method, and imaging control program
JP2016162409A (en) Image processing device, image processing system, image processing method and program
JP7335046B2 (en) Gait analysis device, gait analysis method, and program
JP2016143071A (en) Specific motion detection system
Kröse et al. Video surveillance for behaviour monitoring in home health care

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151117

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160114

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160718

R150 Certificate of patent or registration of utility model

Ref document number: 5982835

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150