WO2016031313A1 - Physical condition-detecting apparatus, physical condition-detecting method, and physical condition-detecting program - Google Patents

Physical condition-detecting apparatus, physical condition-detecting method, and physical condition-detecting program Download PDF

Info

Publication number
WO2016031313A1
WO2016031313A1 PCT/JP2015/064255 JP2015064255W WO2016031313A1 WO 2016031313 A1 WO2016031313 A1 WO 2016031313A1 JP 2015064255 W JP2015064255 W JP 2015064255W WO 2016031313 A1 WO2016031313 A1 WO 2016031313A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
walking
physical condition
data
captured image
Prior art date
Application number
PCT/JP2015/064255
Other languages
French (fr)
Japanese (ja)
Inventor
安川 徹
石井 智之
Original Assignee
Nkワークス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nkワークス株式会社 filed Critical Nkワークス株式会社
Publication of WO2016031313A1 publication Critical patent/WO2016031313A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Dentistry (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Physiology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

Provided is a physical condition-detecting apparatus capable of being introduced relatively easily and, after completely extracting a user's walking characteristics, capable of detecting the physical condition of said user. The physical condition-detecting apparatus according to one aspect of the present invention is provided with: a storage unit for storing walking characteristic data representing a user's walking characteristics; an image-acquiring unit for acquiring filmed images that comprise depth data; a walking characteristic analysis unit for acquiring analysis data representing the walking characteristics of a user appearing in filmed images by extracting the region in the filmed images in which the user appears and analyzing the walking movement of the user appearing in said region in real space on the basis of the depth data; and a physical condition-specifying unit for assessing whether or not changes satisfying prescribed conditions have occurred in the user's walking characteristics by comparing the analysis data with walking characteristic data and specifying the user's physical condition on the basis of the results of said assessment.

Description

体調検出装置、体調検出方法及び体調検出プログラムPhysical condition detection device, physical condition detection method, and physical condition detection program
 本発明は、体調検出装置、体調検出方法及び体調検出プログラムに関する。 The present invention relates to a physical condition detection device, a physical condition detection method, and a physical condition detection program.
 特許文献1には、歩行ピッチの変化に基づいてユーザの体調を推定する体調検出装置が開示されている。具体的には、この体調検出装置は、振動センサ、マイクロフォン又は人体電位センサを用いてユーザの歩行ピッチの長時間平均と短時間平均とを測定し、測定した歩行ピッチの長時間平均と短時間平均とを比較することでユーザの体調を検出する。 Patent Document 1 discloses a physical condition detection device that estimates a user's physical condition based on a change in walking pitch. Specifically, this physical condition detection device measures a long-time average and a short-time average of a user's walking pitch using a vibration sensor, a microphone, or a human body potential sensor, and measures the long-time average and short-time average of the measured walking pitch. The user's physical condition is detected by comparing with the average.
 また、特許文献2には、使用者の日常動作を検出するセンサから得られるデータを用いて当該使用者の健康状態を推定する健康管理システムが開示されている。具体的には、この健康管理システムは、使用者の日常動作を検出するセンサとして床荷重センサ及び手摺荷重センサを利用して、使用者の位置を算出する。そして、当該健康管理システムは、使用者の位置変化から歩幅、歩隔等の歩容を求め、その歩容に基づいて使用者の健康状態を推定している。なお、特許文献2には、その他のセンサの例として、TVカメラ及び赤外線センサが挙げられている。 Patent Document 2 discloses a health management system that estimates the health status of a user using data obtained from a sensor that detects the user's daily motion. Specifically, this health management system calculates the position of the user by using a floor load sensor and a handrail load sensor as sensors for detecting the daily motion of the user. Then, the health management system obtains gaits such as a stride and a step from the position change of the user, and estimates the health state of the user based on the gait. Note that Patent Document 2 includes a TV camera and an infrared sensor as examples of other sensors.
特開2003-290175号公報JP 2003-290175 A 特開2007-037851号公報JP 2007-037851 A
 例えば、特許文献1では、体調検出装置は、振動センサ等の測定器具をユーザに所持させ、当該測定器具から得られるデータに基づき当該ユーザの歩行ピッチを推定する。そのため、測定器具を携行しないユーザの健康状態を測定することはできず、装置の利便性が低いという問題点があった。 For example, in Patent Document 1, the physical condition detection apparatus causes a user to have a measuring instrument such as a vibration sensor, and estimates the walking pitch of the user based on data obtained from the measuring instrument. For this reason, it is impossible to measure the health state of a user who does not carry the measuring instrument, and there is a problem that the convenience of the apparatus is low.
 一方、特許文献2に係る健康管理システムでは、ユーザの歩容を測定するために、住宅の床に設ける床荷重センサ及び手摺に設ける手摺荷重センサが用いられている。そのため、ユーザが測定器具等を携行しなくても、ユーザの健康状態を推定することができる。したがって、特許文献2係る健康管理システムによれば、ユーザの利便性を高めることができる。 On the other hand, in the health management system according to Patent Document 2, a floor load sensor provided on a floor of a house and a handrail load sensor provided on a handrail are used to measure a user's gait. Therefore, even if a user does not carry a measuring instrument etc., a user's health condition can be estimated. Therefore, according to the health management system according to Patent Document 2, the convenience for the user can be enhanced.
 しかしながら、ユーザの歩容を正確に把握するためには、床荷重センサ及び手摺荷重センサを把握する歩容に応じて適切に配置することが求められる。また、正確にデータを取得しようとセンサの数を増やすほど、当該システムの導入にかかるコストが高くなってしまう。そのため、当該システムの導入は困難であるという問題点があった。 However, in order to accurately grasp the user's gait, it is required to appropriately arrange the floor load sensor and the handrail load sensor according to the gait. In addition, as the number of sensors is increased in order to acquire data accurately, the cost for introducing the system increases. For this reason, there is a problem that it is difficult to introduce the system.
 これに対して、特許文献2に係る健康管理システムにおいて、ユーザの日常動作を検出するセンサとして、床荷重センサ及び手摺荷重センサを利用せず、比較的に導入の容易なTVカメラ又は赤外線センサを利用する方法が考えられる。 On the other hand, in the health management system according to Patent Document 2, a TV camera or an infrared sensor that is relatively easy to introduce without using a floor load sensor and a handrail load sensor as a sensor for detecting a daily operation of the user is used. A method to use is conceivable.
 しかしながら、TVカメラにより得られる画像は二次元画像であるため、この画像に基づいてユーザの歩行特性を解析できるか否かは、TVカメラに対するユーザの進行方向に依存してしまう。したがって、ユーザの進行方向によっては、ユーザの歩行特性を十分に抽出できない可能性があった。 However, since the image obtained by the TV camera is a two-dimensional image, whether or not the user's walking characteristics can be analyzed based on this image depends on the traveling direction of the user with respect to the TV camera. Therefore, there is a possibility that the user's walking characteristics cannot be sufficiently extracted depending on the traveling direction of the user.
 また、赤外線センサは、赤外線を投受光すること又は人体から放射される赤外線を受光し受光量の変化を検知すること、によってユーザの動作を検出する。そのため、このような赤外線センサでは、基本的には人体の存在の有無を検出することしかできず、当該赤外線センサによって得られる情報量は少ない。よって、この赤外線センサを用いた方法であっても、TVカメラと同様に、ユーザの歩行特性を十分に抽出できない可能性があった。 Also, the infrared sensor detects the user's action by projecting and receiving infrared rays or receiving infrared rays emitted from the human body and detecting changes in the amount of received light. For this reason, such an infrared sensor can basically only detect the presence or absence of a human body, and the amount of information obtained by the infrared sensor is small. Therefore, even with this method using an infrared sensor, there is a possibility that the user's walking characteristics cannot be extracted sufficiently, as with a TV camera.
 すなわち、TVカメラ又は赤外線センサを利用した方法は、比較的に導入は容易であるものの、ユーザの歩行特性を十分に抽出することができない可能性があった。そのため、この方法では、ユーザの健康状態を精度よく特定することができない可能性があるという問題点があった。 That is, although a method using a TV camera or an infrared sensor is relatively easy to introduce, there is a possibility that the user's walking characteristics cannot be extracted sufficiently. Therefore, this method has a problem that the user's health condition may not be specified with high accuracy.
 本発明は、一側面では、このような点を考慮してなされたものであり、比較的に容易に導入することができ、ユーザの歩行特性を十分に抽出した上で、当該ユーザの体調を検出可能にする技術を提供することを目的とする。 In one aspect, the present invention has been made in consideration of such points, and can be introduced relatively easily. After sufficiently extracting the user's walking characteristics, the physical condition of the user can be improved. An object is to provide a technique for enabling detection.
 本発明は、上述した課題を解決するために、以下の構成を採用する。 The present invention adopts the following configuration in order to solve the above-described problems.
 すなわち、本発明の一側面に係る体調検出装置は、ユーザの実空間における歩行特性を示す歩行特性データを記憶する記憶部と、前記ユーザの歩行動作を撮影するために設置された撮影装置によって撮影した撮影画像であって、当該撮影画像内の各画素の深度を示す深度データを含む撮影画像、を取得する画像取得部と、前記撮影画像内で前記ユーザの写る領域を抽出し、前記深度データにより示される前記撮影画像内の各画素の深度に基づいて、当該領域に写る前記ユーザの実空間における歩行動作を解析することで、前記撮影画像に写る前記ユーザの実空間における歩行特性を示す解析データを取得する歩行特性解析部と、前記歩行特性データの示す歩行特性及び取得した前記解析データの示す歩行特性を比較することによって、前記ユーザの歩行特性に所定条件を満たす変化が生じているか否かを判定し、当該判定の結果に基づいて、前記撮影画像に写るユーザの体調を特定する体調特定部と、を備える。 That is, the physical condition detection device according to one aspect of the present invention is photographed by a storage unit that stores walking characteristic data indicating walking characteristics in a user's real space and a photographing device installed to photograph the user's walking motion. An image acquisition unit that acquires a captured image including depth data indicating the depth of each pixel in the captured image; and an area in which the user is captured in the captured image, and the depth data Based on the depth of each pixel in the captured image indicated by, the analysis of the walking behavior in the real space of the user reflected in the captured image by analyzing the walking motion in the real space of the user captured in the region By comparing the walking characteristic indicated by the walking characteristic data and the walking characteristic indicated by the acquired analysis data by comparing the walking characteristic analysis unit that acquires data Determining whether a predetermined condition is satisfied change occurs in gait characteristic of over THE, based on the result of the determination, and a physical condition specifying section for specifying the physical condition of the user caught on the captured image.
 上記構成によれば、ユーザの歩行特性に基づいて、当該ユーザの体調を検出する。ここで、ユーザの歩行特性を解析するために取得される撮影画像には各画素の深度を示す深度データが含まれている。この各画素の深度は、撮影装置から被写体までの深さを表している。そのため、この深度を利用することで、撮影装置に対する被写体の移動方向とは無関係に、当該被写体の実空間(三次元空間)上の状態を解析することが可能である。したがって、上記構成によれば、撮影装置の設置場所に依存することなく、ユーザの実空間上の状態を解析可能であるため、比較的に容易に導入することができ、ユーザの歩行特性を十分に抽出した上で、当該ユーザの体調を検出することができる。 According to the above configuration, the physical condition of the user is detected based on the user's walking characteristics. Here, the captured image acquired in order to analyze the user's walking characteristics includes depth data indicating the depth of each pixel. The depth of each pixel represents the depth from the photographing apparatus to the subject. Therefore, by using this depth, it is possible to analyze the state of the subject in the real space (three-dimensional space) regardless of the moving direction of the subject with respect to the photographing apparatus. Therefore, according to the above configuration, since the state in the real space of the user can be analyzed without depending on the installation location of the photographing apparatus, it can be introduced relatively easily, and the walking characteristics of the user are sufficiently In addition, the physical condition of the user can be detected.
 なお、歩行特性とは、ユーザの歩行動作の有する性質であり、例えば、身長、歩幅、歩幅の左右比、歩隔、つま先の上がり方、つま先の上がり方の左右比、かかとの上がり方、かかとの上がり方の左右比、ケーデンス、身体の傾き、体幹の側方動揺、骨盤の側方傾斜、膝関節の曲がり角度、膝関節の曲がり角度の左右比、腕振り角度、腕振り角度の左右比、歩行補助器具の有無等の項目を含むことができる。 Note that the walking characteristics are the properties of the user's walking motion, such as height, stride, step-to-step ratio, step, toe-up, toe-up, left-to-right ratio, heel up, heel Left / right ratio, cadence, body tilt, trunk lateral swing, pelvic side tilt, knee joint bending angle, knee joint bending angle left / right ratio, arm swing angle, arm swing angle left / right Items such as ratio and presence / absence of walking aids.
 また、上記一側面に係る体調検出装置の別の形態として、前記体調特定部は、前記解析データが繰り返し取得されるのに応じて、取得される前記解析データと前記歩行特性データとを比較することで、前記ユーザの歩行特性に所定条件を満たす変化が生じているか否かを繰り返し判定してもよい。そして、前記体調特定部は、前記ユーザの歩行特性に所定条件を満たす変化が生じていないと判定している間には、前記繰り返し取得される解析データが、前記ユーザの歩行特性に所定条件を満たす変化が生じていると判定される方向に、変化しているか否かを更に判定してもよく、前記繰り返し取得される解析データが、前記ユーザの歩行特性に所定条件を満たす変化が生じていると判定される方向に、変化していると判定した場合に、前記ユーザの体調変化の予兆を検出してもよい。 As another form of the physical condition detection device according to the above aspect, the physical condition specifying unit compares the acquired analysis data and the walking characteristic data as the analysis data is repeatedly acquired. Thus, it may be repeatedly determined whether or not a change satisfying a predetermined condition has occurred in the walking characteristics of the user. Then, while the physical condition specifying unit determines that the change satisfying the predetermined condition has not occurred in the walking characteristic of the user, the analysis data repeatedly acquired satisfies the predetermined condition on the walking characteristic of the user. It may be further determined whether or not it is changed in a direction in which it is determined that a satisfying change has occurred, and the analysis data obtained repeatedly causes a change that satisfies a predetermined condition in the walking characteristics of the user. When it is determined that the user is changing in the direction in which the user is determined to be present, a sign of the physical condition change of the user may be detected.
 当該構成では、繰り返し取得される解析データを参照し、当該解析データの変化傾向を把握することで、ユーザの体調変化の予兆を検出する。これにより、ユーザの体調に変化が生じる事前にその予兆を把握することができる。すなわち、当該構成によれば、ユーザの体調の変化を段階的に把握することが可能になる。 In this configuration, a sign of a change in the physical condition of the user is detected by referring to repeatedly acquired analysis data and grasping the change tendency of the analysis data. Thereby, the sign can be grasped in advance before the change of the user's physical condition occurs. That is, according to the said structure, it becomes possible to grasp | ascertain the change of a user's physical condition in steps.
 また、上記一側面に係る体調検出装置の別の形態として、前記記憶部は、前記歩行特性データを個人毎に記憶してもよい。そして、上記体調検出装置は、前記各個人の歩行特性データの示す歩行特性と取得した前記解析データの示す歩行特性とを比較することによって、取得した前記解析データがいずれかの個人の前記歩行特性データに適合するか否かを判定し、当該いずれかの個人の前記歩行特性データに前記解析データが適合した場合には、前記撮影画像に写るユーザは当該適合した歩行特性データの示す人物であると特定するユーザ特定部を更に備えてもよい。 Further, as another form of the physical condition detection device according to the above aspect, the storage unit may store the walking characteristic data for each individual. Then, the physical condition detection device compares the walking characteristic indicated by the walking characteristic data of each individual with the walking characteristic indicated by the acquired analysis data, so that the acquired analysis data is the walking characteristic of any individual. It is determined whether or not the data fits the data, and if the analysis data matches the walking characteristic data of any one of the individuals, the user shown in the captured image is a person indicated by the adapted walking characteristic data. A user identifying unit that identifies
 当該構成によれば、ユーザの体調を検出する他に、ユーザの歩行特性に基づいて、当該ユーザを識別することができる。そのため、複数のユーザを対象とする場合に、ユーザを識別する手段を別途設けることなく、ユーザを識別した上で、当該ユーザの体調を検出することが可能になる。 According to this configuration, in addition to detecting the user's physical condition, the user can be identified based on the user's walking characteristics. Therefore, when targeting a plurality of users, it is possible to detect the physical condition of the user after identifying the user without separately providing a means for identifying the user.
 また、上記一側面に係る体調検出装置の別の形態として、前記記憶部に記憶される前記歩行特性データは前記ユーザの歩行特定の正常値と現在値とを含んでもよく、前記歩行特性解析部により取得される解析データは前記歩行特性の解析値を含んでもよい。そして、前記ユーザ特定部は、前記歩行特性データに含まれる現在値と前記解析データに含まれる解析値とを比較することで、前記撮影画像に写るユーザの特定を行ってもよい。更に、前記体調特定部は、前記歩行特性データに含まれる正常値と前記解析データに含まれる解析値とを比較することで、前記ユーザの体調の特定を行ってもよい。 As another form of the physical condition detection device according to the above aspect, the walking characteristic data stored in the storage unit may include a normal value and a current value of the user's walking specification, and the walking characteristic analysis unit The analysis data acquired by may include an analysis value of the walking characteristic. The user specifying unit may specify a user who appears in the captured image by comparing a current value included in the walking characteristic data with an analysis value included in the analysis data. Furthermore, the physical condition specifying unit may specify the physical condition of the user by comparing a normal value included in the walking characteristic data with an analysis value included in the analysis data.
 人間の歩行特性は、時間が経つにつれて変化しうる。ユーザの体調を検出する処理では、この変化が生じているか否かを判定することに基づいて、ユーザの体調の変化を特定している。一方、ユーザを識別する処理では、保持しているデータと解析結果との適合具合に基づいて、ユーザを特定している。そのため、同一のデータに基づいてそれぞれの処理を実行し続けると、いずれかの処理で不具合が生じてしまう可能性が高い。 The human walking characteristics can change over time. In the process of detecting the physical condition of the user, the change in the physical condition of the user is specified based on determining whether or not this change has occurred. On the other hand, in the process of identifying the user, the user is specified based on the degree of matching between the stored data and the analysis result. Therefore, if each process is continued to be executed based on the same data, there is a high possibility that a problem will occur in any of the processes.
 これに対して、当該構成では、歩行特性の属性値として、体調を検出するために利用する正常値及びユーザを識別するために利用する現在値の2種類の属性値が保持される。正常値は、ユーザの正常な歩行動作を示すものである。一方、現在値は、例えば、体調検出の処理を実行する直近で得られ、現時点でのユーザの歩行動作を示すものである。したがって、当該構成によれば、ユーザの識別処理に利用する属性値とユーザの体調検出処理に利用する属性値とを切り分けている。そのため、同一の値を両処理で併用し続けることを回避することができるため、上記処理の不具合が生じるのを防止することができる。 On the other hand, in this configuration, two types of attribute values are held as normal values used for detecting physical condition and current values used for identifying users as attribute values of walking characteristics. The normal value indicates the normal walking motion of the user. On the other hand, the current value is obtained, for example, immediately after executing the physical condition detection process, and indicates the user's walking motion at the present time. Therefore, according to the said structure, the attribute value utilized for a user's identification process and the attribute value utilized for a user's physical condition detection process are separated. For this reason, it is possible to prevent the same value from being used together in both processes, and thus it is possible to prevent the above process from occurring.
 また、上記一側面に係る体調検出装置の別の形態として、前記記憶部は、前記ユーザ特定部により特定したユーザの歩行特性データに含まれる歩行特性の現在値を前記解析データの解析値に置き換えることで、前記特定したユーザの歩行特性データに含まれる歩行特性の現在値を更新してもよい。 As another form of the physical condition detection device according to the one aspect, the storage unit replaces the current value of the walking characteristic included in the walking characteristic data of the user specified by the user specifying unit with the analysis value of the analysis data. Thus, the current value of the walking characteristic included in the identified walking characteristic data of the user may be updated.
 当該構成によれば、ユーザ識別が成功した解析データを利用して、歩行特性データの示す現在値を更新する。そのため、ユーザの歩行動作の現在値を取得する手段を別途設けることなく、時間経過に伴う歩行特性の変化に対応して、ユーザの識別に利用する現在値を得ることができる。 According to this configuration, the current value indicated by the walking characteristic data is updated using the analysis data that has been successfully identified by the user. Therefore, a current value used for user identification can be obtained in response to a change in walking characteristics over time without separately providing a means for acquiring the current value of the user's walking motion.
 また、上記一側面に係る体調検出装置の別の形態として、前記歩行特性は複数の項目で構成されてもよい。そして、前記ユーザ特定部は、前記歩行特性に含まれる複数の項目のうちの少なくともいずれかの項目において、取得した前記解析データと前記歩行特性データとを比較することで、前記撮影画像に写るユーザの特定を行ってもよい。更に、前記体調特定部は、前記ユーザ特定部の利用した項目とは異なる1つ以上の項目において、前記解析データと前記歩行特性データとを比較することで、前記ユーザの体調の特定を行ってもよい。 As another form of the physical condition detection device according to the above aspect, the walking characteristic may be composed of a plurality of items. The user specifying unit compares the acquired analysis data with the walking characteristic data in at least one of a plurality of items included in the walking characteristic, thereby allowing the user to appear in the captured image. May be specified. Further, the physical condition specifying unit specifies the physical condition of the user by comparing the analysis data and the walking characteristic data in one or more items different from the items used by the user specifying unit. Also good.
 上記のとおり、人間の歩行特性は、時間経過につれて変化し得る。そのため、同一の項目で同一の値を両処理で併用し続けると、いずれかの処理で不具合が生じ得る。これに対して、当該構成では、ユーザの識別処理に利用する歩行特性の項目とユーザの体調検出処理に利用する歩行特性の項目とを切り分けている。そのため、上記処理の不具合が生じるのを防止することができる。 As mentioned above, human walking characteristics can change over time. Therefore, if the same value for the same item continues to be used in both processes, a problem may occur in either process. On the other hand, in the said structure, the item of the walk characteristic utilized for a user's identification process and the item of the walk characteristic utilized for a user's physical condition detection process are separated. Therefore, it is possible to prevent the above processing from occurring.
 また、上記一側面に係る体調検出装置の別の形態として、前記歩行特性解析部は、前記撮影画像の背景として設定された背景画像と前記撮影画像との差分から前記撮影画像の前景領域を前記ユーザの写る領域として抽出してもよい。そして、前記歩行特性解析部は、前記深度データを参照することで当該前景領域内の各画素の深度を特定し、特定した当該前景領域内の各画素の深度に基づいて、当該前景領域に写る前記ユーザの実空間における歩行動作を解析してもよい。 Further, as another form of the physical condition detection device according to the above aspect, the walking characteristic analysis unit calculates the foreground region of the captured image from a difference between a background image set as a background of the captured image and the captured image. You may extract as an area | region where a user shows. Then, the walking characteristic analysis unit identifies the depth of each pixel in the foreground region by referring to the depth data, and is reflected in the foreground region based on the identified depth of each pixel in the foreground region. The walking motion of the user in real space may be analyzed.
 当該構成によれば、背景画像と撮影画像との差分を抽出することにより、撮影画像の前景領域が特定される。すなわち、この前景領域は、背景画像から変化の生じている領域である。そのため、ユーザが歩行動作を行っている場合には、この前景領域には、当該歩行動作を行うユーザが写っている。したがって、この前景領域を利用することで、ユーザの写る領域を特定することが可能である。ここで、当該前景領域を抽出する処理は、背景画像と撮影画像との差分算出に過ぎない。よって、当該構成によれば、簡易な処理でユーザの写る領域を絞り込むことができる。 According to this configuration, the foreground area of the photographed image is specified by extracting the difference between the background image and the photographed image. That is, this foreground area is an area where a change has occurred from the background image. Therefore, when the user is walking, the foreground area shows the user who performs the walking motion. Therefore, by using this foreground area, it is possible to specify the area in which the user appears. Here, the process of extracting the foreground region is merely a difference calculation between the background image and the captured image. Therefore, according to the said structure, the area | region where a user is imaged can be narrowed down by a simple process.
 なお、上記各形態に係る体調検出装置の別の形態として、以上の各構成を実現する情報処理システムであってもよいし、情報処理方法であってもよいし、プログラムであってもよいし、このようなプログラムを記録したコンピュータその他装置、機械等が読み取り可能な記憶媒体であってもよい。ここで、コンピュータ等が読み取り可能な記録媒体とは、プログラム等の情報を、電気的、磁気的、光学的、機械的、又は、化学的作用によって蓄積する媒体である。また、情報処理システムは、1又は複数の情報処理装置によって実現されてもよい。 In addition, as another form of the physical condition detection apparatus according to each of the above forms, an information processing system that realizes each of the above configurations, an information processing method, or a program may be used. It may be a storage medium that can be read by a computer, other devices, machines, or the like in which such a program is recorded. Here, the computer-readable recording medium is a medium that stores information such as programs by electrical, magnetic, optical, mechanical, or chemical action. The information processing system may be realized by one or a plurality of information processing devices.
 例えば、本発明の一側面に係る体調検出方法は、ユーザの実空間における歩行特性を示す歩行特性データを記憶する記憶部を備えるコンピュータが、前記ユーザの歩行動作を撮影するために設置された撮影装置によって撮影した撮影画像であって、当該撮影画像内の各画素の深度を示す深度データを含む撮影画像、を取得するステップと、前記撮影画像内で前記ユーザの写る領域を抽出するステップと、前記深度データにより示される前記撮影画像内の各画素の深度に基づいて、当該領域に写る前記ユーザの実空間における歩行動作を解析することで、前記撮影画像に写る前記ユーザの実空間における歩行特性を示す解析データを取得するステップと、前記歩行特性データの示す歩行特性及び取得した前記解析データの示す歩行特性を比較することによって、前記ユーザの歩行特性に所定条件を満たす変化が生じているか否かを判定するステップと、当該判定の結果に基づいて、前記撮影画像に写るユーザの体調を特定するステップと、を実行する情報処理方法である。 For example, in the physical condition detection method according to one aspect of the present invention, a computer provided with a storage unit that stores walking characteristic data indicating walking characteristics in a user's real space is set to capture the user's walking motion. A captured image captured by the apparatus, the captured image including depth data indicating the depth of each pixel in the captured image, and a step of extracting an area in which the user is captured in the captured image; Based on the depth of each pixel in the captured image indicated by the depth data, the walking characteristics of the user in the real space captured in the captured image are analyzed by analyzing the walking motion of the user in the real space captured in the region. The step of acquiring the analysis data indicating the gait characteristic indicated by the gait characteristic data and the gait characteristic indicated by the acquired analysis data are compared. Determining whether or not a change satisfying a predetermined condition has occurred in the walking characteristics of the user, and identifying the physical condition of the user in the captured image based on the result of the determination. This is an information processing method to be executed.
 また、例えば、本発明の一側面に係るプログラムは、ユーザの実空間における歩行特性を示す歩行特性データを記憶する記憶部を備えるコンピュータに、前記ユーザの歩行動作を撮影するために設置された撮影装置によって撮影した撮影画像であって、当該撮影画像内の各画素の深度を示す深度データを含む撮影画像、を取得するステップと、前記撮影画像内で前記ユーザの写る領域を抽出するステップと、前記深度データにより示される前記撮影画像内の各画素の深度に基づいて、当該領域に写る前記ユーザの実空間における歩行動作を解析することで、前記撮影画像に写る前記ユーザの実空間における歩行特性を示す解析データを取得するステップと、前記歩行特性データの示す歩行特性及び取得した前記解析データの示す歩行特性を比較することによって、前記ユーザの歩行特性に所定条件を満たす変化が生じているか否かを判定するステップと、当該判定の結果に基づいて、前記撮影画像に写るユーザの体調を特定するステップと、を実行させるための体調検出プログラムである。 In addition, for example, a program according to an aspect of the present invention is a shooting that is installed in a computer including a storage unit that stores walking characteristic data indicating walking characteristics in a user's real space so as to capture the user's walking motion. A captured image captured by the apparatus, the captured image including depth data indicating the depth of each pixel in the captured image, and a step of extracting an area in which the user is captured in the captured image; Based on the depth of each pixel in the captured image indicated by the depth data, the walking characteristics of the user in the real space captured in the captured image are analyzed by analyzing the walking motion of the user in the real space captured in the region. The analysis data indicating the gait characteristics indicated by the gait characteristics data and the gait characteristics indicated by the acquired analysis data Comparing the step of determining whether or not a change satisfying a predetermined condition has occurred in the walking characteristics of the user, and identifying the physical condition of the user in the captured image based on the result of the determination; It is a physical condition detection program for executing.
 本発明によれば、比較的に容易に導入することができ、ユーザの歩行特性を十分に抽出した上で、当該ユーザの体調を検出することができる。 According to the present invention, it can be introduced relatively easily, and the physical condition of the user can be detected after sufficiently extracting the user's walking characteristics.
図1は、本発明が適用される場面の一例を示す。FIG. 1 shows an example of a scene where the present invention is applied. 図2は、実施の形態に係る体調検出装置のハードウェア構成を例示する。FIG. 2 illustrates a hardware configuration of the physical condition detection device according to the embodiment. 図3は、実施の形態に係るカメラにより取得される深度と被写体との関係を例示する。FIG. 3 illustrates the relationship between the depth acquired by the camera according to the embodiment and the subject. 図4は、実施の形態に係る歩行特性データを例示する。FIG. 4 illustrates the walking characteristic data according to the embodiment. 図5は、実施の形態に係る体調検出装置の機能構成を例示する。FIG. 5 illustrates a functional configuration of the physical condition detection device according to the embodiment. 図6は、実施の形態に係る解析データを例示する。FIG. 6 illustrates analysis data according to the embodiment. 図7は、実施の形態に係る体調検出装置によるユーザの体調検出に関する処理手順を例示する。FIG. 7 illustrates a processing procedure related to the user's physical condition detection by the physical condition detection device according to the embodiment. 図8は、実施の形態に係るカメラにより取得される撮影画像を例示する。FIG. 8 illustrates a captured image acquired by the camera according to the embodiment.
 以下、本発明の一側面に係る実施の形態(以下、「本実施形態」とも表記する)を、図面に基づいて説明する。ただし、以下で説明する本実施形態は、あらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。つまり、本発明の実施にあたって、実施形態に応じた具体的構成が適宜採用されてもよい。なお、本実施形態において登場するデータを自然言語により説明しているが、より具体的には、コンピュータが認識可能な疑似言語、コマンド、パラメタ、マシン語等で指定される。 Hereinafter, an embodiment according to one aspect of the present invention (hereinafter also referred to as “this embodiment”) will be described with reference to the drawings. However, this embodiment described below is only an illustration of the present invention in all respects. It goes without saying that various improvements and modifications can be made without departing from the scope of the present invention. That is, in implementing the present invention, a specific configuration according to the embodiment may be adopted as appropriate. Although data appearing in the present embodiment is described in a natural language, more specifically, it is specified by a pseudo language, a command, a parameter, a machine language, or the like that can be recognized by a computer.
 §1 適用場面
 まず、図1を用いて、本発明が適用される場面について説明する。図1は、本実施形態に係る体調検出装置1が用いられる場面を例示する。本実施形態に係る体調検出装置1は、ユーザの歩行動作を撮影し、それにより得られた撮影画像3に写るユーザの歩行特性を解析することで、当該ユーザの体調を推定する。そのため、本実施形態に係る体調検出装置1は、ユーザの体調を検出する場面に広く利用可能である。
§1 Application scene First, the scene where the present invention is applied will be described with reference to FIG. FIG. 1 illustrates a scene in which the physical condition detection device 1 according to the present embodiment is used. The physical condition detection apparatus 1 according to the present embodiment estimates the physical condition of the user by photographing the walking motion of the user and analyzing the walking characteristics of the user shown in the captured image 3 obtained thereby. Therefore, the physical condition detection apparatus 1 according to the present embodiment can be widely used in scenes where the physical condition of the user is detected.
 具体的には、本実施形態に係る体調検出装置1は、歩行しているユーザをカメラ2により撮影する。カメラ2は、本発明の撮影装置に相当する。当該カメラ2は、ユーザの歩行動作を撮影するために設置される。そのため、カメラ2は、ユーザの歩行動作を測定可能であれば、いかなる場所に配置されてもよい。 Specifically, the physical condition detection device 1 according to the present embodiment photographs a walking user with the camera 2. The camera 2 corresponds to the photographing apparatus of the present invention. The camera 2 is installed to capture a user's walking motion. Therefore, the camera 2 may be disposed at any location as long as the user's walking motion can be measured.
 当該カメラ2は、撮影画像3内の各画素に対応する深度を取得可能に構成される。本実施形態では、カメラ2は、各画素の深度を取得可能なように、被写体の深度を測定する深度センサ(後述する深度センサ21)を含んでいる。ただし、カメラ2の構成は、深度を取得可能であれば、このような例に限定されず、実施の形態に応じて適宜選択可能である。 The camera 2 is configured to be able to acquire the depth corresponding to each pixel in the captured image 3. In the present embodiment, the camera 2 includes a depth sensor (a depth sensor 21 described later) that measures the depth of the subject so that the depth of each pixel can be acquired. However, the configuration of the camera 2 is not limited to such an example as long as the depth can be acquired, and can be appropriately selected according to the embodiment.
 例えば、カメラ2は、撮影範囲内の被写体の深度を特定することが可能なように、ステレオカメラであってもよい。ステレオカメラは、撮影範囲内の被写体を複数の異なる方向から撮影するため、当該被写体の深度を記録することができる。また、カメラ2は、撮影範囲内の被写体の深度を特定可能であれば、深度センサ単体に置き換わってもよい。 For example, the camera 2 may be a stereo camera so that the depth of the subject within the shooting range can be specified. Since the stereo camera shoots the subject within the shooting range from a plurality of different directions, the depth of the subject can be recorded. The camera 2 may be replaced with a single depth sensor as long as the depth of the subject within the shooting range can be specified.
 本実施形態に係る体調検出装置1は、情報処理装置として、このようなカメラ2により撮影された撮影画像3を取得する。この撮影画像3は、後述する図8に例示されるように、画素毎に得られる深度を示す深度データを含んでいる。撮影画像3は、撮影範囲内の被写体の深度を示すデータであればよく、例えば、撮影範囲内の被写体の深度が二次元状に分布したデータ(例えば、深度マップ)であってもよい。また、撮影画像3は、深度データとともに、RGB画像を含んでもよい。更に、撮影画像3は、動画像であってもよいし、静止画像であってもよい。 The physical condition detection apparatus 1 according to the present embodiment acquires a captured image 3 captured by such a camera 2 as an information processing apparatus. The captured image 3 includes depth data indicating the depth obtained for each pixel, as illustrated in FIG. 8 described later. The captured image 3 may be data indicating the depth of the subject within the imaging range, and may be data (for example, a depth map) in which the depth of the subject within the imaging range is distributed two-dimensionally. The captured image 3 may include an RGB image together with the depth data. Further, the captured image 3 may be a moving image or a still image.
 続いて、体調検出装置1は、取得した撮影画像3内においてユーザの写る領域を抽出し、抽出した領域に写るユーザの歩行特性を解析する。このとき、体調検出装置1は、深度データにより示される撮影画像3内の各画素の深度を利用して、当該ユーザの実空間上の状態を解析する。これにより、体調検出装置1は、撮影画像3に写るユーザの実空間における歩行特性を示す解析データ(後述する解析データ40)を取得する。 Subsequently, the physical condition detection device 1 extracts a region in which the user is captured in the acquired captured image 3 and analyzes the walking characteristics of the user in the extracted region. At this time, the physical condition detection device 1 analyzes the state of the user in the real space using the depth of each pixel in the captured image 3 indicated by the depth data. Thereby, the physical condition detection apparatus 1 acquires analysis data (analysis data 40 described later) indicating walking characteristics in the real space of the user shown in the captured image 3.
 更に、体調検出装置1は、予め登録されている歩行特性データ(後述する歩行特性データ121)と解析データとを比較することによって、ユーザの歩行特性に所定条件を満たす変化が生じているか否かを判定する。そして、体調検出装置1は、当該判定の結果に基づいて、撮影画像3に写るユーザの体調を特定する。 Furthermore, the physical condition detection device 1 compares the walking characteristic data registered in advance (walking characteristic data 121 described later) with the analysis data to determine whether or not a change satisfying a predetermined condition has occurred in the user's walking characteristic. Determine. Then, the physical condition detection device 1 identifies the physical condition of the user shown in the captured image 3 based on the determination result.
 このように、本実施形態によれば、体調検出装置1は、ユーザの歩行特性を解析するため、各画素の深度を示す深度データを撮影画像3と共に取得する。この深度データを利用すると、図1に例示されるように、撮影画像に写る被写体の実空間(三次元空間)上の位置を特定することができる。そのため、体調検出装置1は、この深度データを利用することにより、カメラ2に対するユーザの移動方向とは無関係に、当該ユーザの実空間上の状態を解析することができる。よって、本実施形態によれば、カメラ2の設置場所に依存することなく、ユーザの実空間上の状態を解析可能であるため、比較的に容易に導入することができ、ユーザの歩行特性を十分に抽出した上で、当該ユーザの体調を検出することができる。 Thus, according to the present embodiment, the physical condition detection device 1 acquires depth data indicating the depth of each pixel together with the captured image 3 in order to analyze the walking characteristics of the user. When this depth data is used, as illustrated in FIG. 1, the position of the subject in the captured image in the real space (three-dimensional space) can be specified. Therefore, the physical condition detection device 1 can analyze the state of the user in the real space regardless of the moving direction of the user with respect to the camera 2 by using the depth data. Therefore, according to the present embodiment, it is possible to analyze the state of the user in the real space without depending on the installation location of the camera 2, so that it can be introduced relatively easily, and the walking characteristics of the user can be improved. The user's physical condition can be detected after sufficiently extracting.
 なお、体調検出装置1の配置場所は、カメラ2から撮影画像3を取得可能であれば、実施の形態に応じて適宜決定可能である。例えば、体調検出装置1は、図1に例示されるように、カメラ2に近接するように配置されてもよい。また、体調検出装置1は、ネットワークを介してカメラ2と接続してもよく、当該カメラ2とは全く異なる場所に配置されてもよい。 In addition, if the arrangement | positioning location of the physical condition detection apparatus 1 can acquire the picked-up image 3 from the camera 2, it can be suitably determined according to embodiment. For example, the physical condition detection device 1 may be disposed so as to be close to the camera 2 as illustrated in FIG. Moreover, the physical condition detection apparatus 1 may be connected to the camera 2 via a network, and may be disposed at a place completely different from the camera 2.
 §2 構成例
 <ハードウェア構成>
 次に、図2を用いて、体調検出装置1のハードウェア構成を説明する。図2は、本実施形態に係る体調検出装置1のハードウェア構成を例示する。体調検出装置1は、図2に例示されるように、CPU、RAM(Random Access Memory)、ROM(Read Only Memory)等を含む制御部11、制御部11で実行するプログラム5等を記憶する記憶部12、画像の表示と入力を行うためのタッチパネルディスプレイ13、音声を出力するためのスピーカ14、外部装置と接続するための外部インタフェース15、ネットワークを介して通信を行うための通信インタフェース16、及び記憶媒体6に記憶されたプログラムを読み込むためのドライブ17が電気的に接続されたコンピュータである。図2では、通信インタフェース及び外部インタフェースは、それぞれ、「通信I/F」及び「外部I/F」と記載されている。
§2 Configuration example <Hardware configuration>
Next, the hardware configuration of the physical condition detection device 1 will be described with reference to FIG. FIG. 2 illustrates a hardware configuration of the physical condition detection device 1 according to the present embodiment. As illustrated in FIG. 2, the physical condition detection device 1 stores a control unit 11 including a CPU, a RAM (Random Access Memory), a ROM (Read Only Memory), and the like, a program 5 executed by the control unit 11, and the like. Unit 12, a touch panel display 13 for displaying and inputting images, a speaker 14 for outputting sound, an external interface 15 for connecting to an external device, a communication interface 16 for communicating via a network, and This is a computer to which a drive 17 for reading a program stored in the storage medium 6 is electrically connected. In FIG. 2, the communication interface and the external interface are described as “communication I / F” and “external I / F”, respectively.
 なお、体調検出装置1の具体的なハードウェア構成に関して、実施形態に応じて、適宜、構成要素の省略、置換、及び追加が可能である。例えば、制御部11は、複数のプロセッサを含んでもよい。また、例えば、タッチパネルディスプレイ13は、それぞれ別個独立に接続される入力装置及び表示装置に置き換えられてもよい。また、例えば、スピーカ14は省略されてもよい。また、例えば、スピーカ14は、体調検出装置1の内部装置としてではなく、外部装置として体調検出装置1に接続されてもよい。また、体調検出装置1はカメラ2を内蔵してもよい。 In addition, regarding the specific hardware configuration of the physical condition detection device 1, it is possible to omit, replace, and add components as appropriate according to the embodiment. For example, the control unit 11 may include a plurality of processors. In addition, for example, the touch panel display 13 may be replaced with an input device and a display device that are separately connected independently. For example, the speaker 14 may be omitted. Further, for example, the speaker 14 may be connected to the physical condition detection device 1 as an external device, not as an internal device of the physical condition detection device 1. Moreover, the physical condition detection apparatus 1 may incorporate the camera 2.
 体調検出装置1は、複数の外部インタフェース15を備えてもよく、複数の外部装置と接続してもよい。本実施形態では、体調検出装置1は、外部インタフェース15を介してカメラ2と接続している。本実施形態に係るカメラ2は、ユーザの歩行動作を撮影するために設置されている。このカメラ2は、被写体の深度を測定するための深度センサ21を備えている。この深度センサ21の種類及び測定方法は、実施の形態に応じて適宜選択されてよい。例えば、深度センサ21として、TOF(Time Of Flight)方式等のセンサを挙げることができる。 The physical condition detection device 1 may include a plurality of external interfaces 15 and may be connected to a plurality of external devices. In the present embodiment, the physical condition detection device 1 is connected to the camera 2 via the external interface 15. The camera 2 according to the present embodiment is installed to capture a user's walking motion. The camera 2 includes a depth sensor 21 for measuring the depth of the subject. The type and measurement method of the depth sensor 21 may be appropriately selected according to the embodiment. For example, the depth sensor 21 may be a sensor of TOF (TimeFOf Flight) method or the like.
 なお、ユーザを撮影する場所は暗い可能性がある。そこで、撮影場所の明るさに影響されずに深度を取得可能なように、赤外線の照射に基づいて深度を測定する赤外線深度センサを深度センサ21として利用してもよい。このような赤外線深度センサを含む比較的安価な撮影装置として、例えば、マイクロソフト社のKinect、ASUS社のXtion、PrimeSense社のCARMINEを挙げることができる。 Note that the place where the user is photographed may be dark. Therefore, an infrared depth sensor that measures the depth based on infrared irradiation may be used as the depth sensor 21 so that the depth can be acquired without being affected by the brightness of the shooting location. Examples of relatively inexpensive imaging apparatuses including such an infrared depth sensor include Kinect from Microsoft, Xtion from ASUS, and CARMINE from PrimeSense.
 ここで、図3を用いて、本実施形態に係る深度センサ21によって測定される深度を詳細に説明する。図3は、本実施形態に係る深度として扱うことが可能な距離の一例を示す。当該深度は、被写体の深さを表現する。図3で例示されるように、被写体の深さは、例えば、カメラ2と対象物との直線の距離Aで表現されてもよいし、カメラ2の被写体に対する水平軸から下ろした垂線の距離Bで表現されてもよい。 Here, the depth measured by the depth sensor 21 according to the present embodiment will be described in detail with reference to FIG. FIG. 3 shows an example of a distance that can be handled as the depth according to the present embodiment. The depth represents the depth of the subject. As exemplified in FIG. 3, the depth of the subject may be expressed by, for example, a straight line distance A between the camera 2 and the object, or a perpendicular distance B from the horizontal axis with respect to the subject of the camera 2. It may be expressed as
 すなわち、本実施形態に係る深度は、距離Aであってもよいし、距離Bであってもよい。本実施形態では、距離Bを深度として扱うことにする。ただし、距離Aと距離Bとは、例えば、三平方の定理等を用いることで、互いに変換可能である。そのため、距離Bを用いた以降の説明は、そのまま、距離Aに適用することが可能である。このような深度を利用することで、本実施形態に係る体調検出装置1は、ユーザの実空間における歩行特性を解析する。 That is, the depth according to the present embodiment may be the distance A or the distance B. In the present embodiment, the distance B is treated as the depth. However, the distance A and the distance B can be converted into each other by using, for example, the three-square theorem. Therefore, the following description using the distance B can be applied to the distance A as it is. By using such depth, the physical condition detection device 1 according to the present embodiment analyzes the walking characteristics of the user in real space.
 また、本実施形態に係る体調検出装置1は、記憶部12において、ユーザの実空間における歩行特性を示す歩行特性データ121を個人毎に記憶している。この歩行特性データ121について、図4を用いて説明する。 Moreover, the physical condition detection apparatus 1 according to the present embodiment stores the walking characteristic data 121 indicating the walking characteristics in the real space of the user for each individual in the storage unit 12. The walking characteristic data 121 will be described with reference to FIG.
 図4は、本実施形態に係る歩行特性データ121を例示する。歩行特性データ121は、ユーザの歩行特性を示すデータである。本実施形態では、1件の歩行特性データ121が1個人のデータに相当する。そのため、本実施形態では、体調の検出対象の人物の数に応じた件数の歩行特性データ121が保持される。 FIG. 4 illustrates walking characteristic data 121 according to the present embodiment. The walking characteristic data 121 is data indicating a user's walking characteristic. In this embodiment, one walking characteristic data 121 corresponds to one individual data. Therefore, in this embodiment, the number of walking characteristic data 121 corresponding to the number of persons whose physical condition is to be detected is retained.
 図4で例示されるように、本実施形態に係る歩行特性データ121は、データID、人物名及び歩行特性を示す情報を含んでいる。データIDは、各個人の歩行特性データ121を識別するための識別子である。人物名は、各歩行特性データ121が対象とする人物の名称を示す。 As illustrated in FIG. 4, the walking characteristic data 121 according to the present embodiment includes information indicating a data ID, a person name, and a walking characteristic. The data ID is an identifier for identifying the walking characteristic data 121 of each individual. The person name indicates the name of the person targeted by each walking characteristic data 121.
 また、歩行特性は、各歩行特性データ121が対象とする人物の歩行動作の有する性質を示す。本実施形態では、この歩行特性は、歩幅、歩幅の左右比、歩隔、つま先の上がり方、かかとの上がり方、身体の傾き、体幹の側方動揺、骨盤の側方傾斜、膝関節の曲がり角度、腕振り角度、歩行補助器具の有無等の項目を含んでいる。 Further, the walking characteristic indicates the property of the walking action of the person targeted by each walking characteristic data 121. In the present embodiment, the walking characteristics include stride, step-to-step ratio, step, toe rise, heel rise, body tilt, trunk lateral swing, pelvic side tilt, knee joint Items such as bending angle, arm swing angle, presence / absence of walking aids are included.
 歩幅は、一歩で進む距離を示す。この一歩は、一方の足のかかとが接地し、次に他方の足のかかとが接地するまでの動作を指す。歩幅の左右比は、右足を前に踏み出したときの歩幅と左足を前に踏み出したときの歩幅との比率を示す。歩隔は、両足間の左右の幅を示す。つま先の上がり方は、歩行動作中における右足又は/及び左足のつま先の上がり具合を示す。かかとの上がり方は、歩行動作中における右足又は/及び左足のかかとの上がり具合を示す。身体の傾きは、歩行動作中における身体軸の角度を示す。体幹の側方動揺は、歩行動作中における体幹の外側への動き具合を示す。骨盤の側方傾斜は、歩行動作中における骨盤の上下方向への傾き具合を示す。膝関節の曲がり角度は、歩行動作中における右膝又は/及び左膝の曲がり具合を示す。腕振り角度は、歩行動作中における右腕又は/及び左腕の曲がり具合を示す。歩行補助器具の有無は、対象の個人が歩行補助器具を利用しているか否かを示す。なお、歩行補助器具とは、歩行を安定させるための器具であり、例えば、杖、歩行器等である。 The stride indicates the distance traveled in one step. This one step refers to an operation until the heel of one foot is grounded and then the heel of the other foot is grounded. The left / right ratio of the stride indicates the ratio between the stride when the right foot is stepped forward and the stride when the left foot is stepped forward. The step length indicates the width between the left and right legs. The way of raising the toes indicates how the right or / and left toes are raised during the walking motion. The way of raising the heel indicates how the heel of the right foot and / or the left foot is raised during the walking motion. The inclination of the body indicates the angle of the body axis during the walking motion. The lateral shaking of the trunk indicates how the trunk moves outside during walking. The lateral inclination of the pelvis indicates the degree of inclination of the pelvis in the vertical direction during the walking motion. The bending angle of the knee joint indicates the degree of bending of the right knee and / or the left knee during the walking motion. The arm swing angle indicates the degree of bending of the right arm and / or the left arm during the walking motion. The presence / absence of a walking assist device indicates whether the target individual uses the walking assist device. Note that the walking assist device is a device for stabilizing walking, such as a walking stick, a walker, and the like.
 本実施形態では、歩行特性データ121は、歩行特性の各項目の属性値として、正常値及び現在値の2種類の属性値を含んでいる。正常値は、ユーザの正常な歩行動作を示すものである。一方、現在値は、例えば、体調検出の処理を実行する直近で得られ、現時点でのユーザの歩行動作を示すものである。このように、歩行特性データ121が歩行特性の項目毎に2種類の属性値を保持することで、後述するユーザ識別処理及び体調検出処理のいずれかで不具合が生じるのを防ぐことができる。なお、両処理のいずれかで不具合が生じる原因は、時間経過に伴うユーザの歩行特性の変化に基づくものである。そのため、初期設定では、正常値と現在値とは同一のデータとして取り扱われてもよい。すなわち、初期設定では、歩行特性データ121は、歩行特性の項目毎に1つの属性値を含んでいるに過ぎず、後述する処理の過程で2種類の属性値を含むように構成されてもよい。 In this embodiment, the walking characteristic data 121 includes two types of attribute values, a normal value and a current value, as attribute values of each item of the walking characteristic. The normal value indicates the normal walking motion of the user. On the other hand, the current value is obtained, for example, immediately after executing the physical condition detection process, and indicates the user's walking motion at the present time. As described above, since the walking characteristic data 121 holds two types of attribute values for each item of the walking characteristic, it is possible to prevent a problem from occurring in any of the user identification process and the physical condition detection process described later. In addition, the cause which a malfunction produces in either of both processes is based on the change of a user's walk characteristic with progress of time. Therefore, in the initial setting, the normal value and the current value may be handled as the same data. In other words, in the initial setting, the walking characteristic data 121 includes only one attribute value for each item of the walking characteristic, and may be configured to include two types of attribute values in the process described later. .
 各項目の各属性値は、後述する解析処理に適合するように与えられる。例えば、歩幅、歩幅の左右比、歩隔、身体の傾き、歩行補助器具の有無等の経時的な変化が比較的に生じ難い項目の属性値は、単一の数値で付与されてもよい。一方、つま先の上がり方、かかとの上がり方、体幹の側方動揺、骨盤の側方傾斜、膝関節の曲がり角度、腕振り角度等の属性値は、比較的に経時的な変化が生じやすく、例えば、歩行周期に合わせて波形パターンのように変化する。そのため、このような項目の属性値は、最大値(単一の数値)で付与されてもよいし、当該波形パターンを表す配列で付与されてもよいし、周期及び最大値の2つの数値で付与されてもよい。各項目の属性値の形式は、実施の形態に応じて適宜選択可能である。 Each attribute value of each item is given so as to be compatible with the analysis processing described later. For example, the attribute value of an item that is relatively less likely to change over time, such as the stride, the step-to-step ratio, the step, the body inclination, and the presence / absence of a walking aid, may be given as a single numerical value. On the other hand, attribute values such as how to raise the toes, how to raise the heel, lateral movement of the trunk, lateral inclination of the pelvis, bending angle of the knee joint, arm swing angle, etc. are relatively likely to change over time. For example, it changes like a waveform pattern according to the walking cycle. Therefore, the attribute value of such an item may be given as a maximum value (single numerical value), may be given as an array representing the waveform pattern, or may be given as two numerical values: a period and a maximum value. It may be granted. The format of the attribute value of each item can be appropriately selected according to the embodiment.
 なお、歩行特性の項目は、これらの例に限定されなくてもよく、実施の形態に応じて適宜選択可能である。例えば、歩行特性は、上述した項目の他、身長、つま先の上がり方の左右比、かかとの上がり方の左右比、ケーデンス、膝関節の曲がり角度の左右比、腕振り角度の左右比等の項目を含むことができる。なお、ケーデンスとは、歩行率とも称され、単位時間内の歩数を示す。 Note that the item of walking characteristics is not limited to these examples, and can be appropriately selected according to the embodiment. For example, in addition to the items described above, the walking characteristics include items such as height, left / right ratio of how to raise the toe, left / right ratio of how to raise the heel, cadence, left / right ratio of the knee joint bending angle, left / right ratio of the arm swing angle, etc. Can be included. The cadence is also called a walking rate and indicates the number of steps in a unit time.
 また、歩行特性の項目数についても、実施の形態に応じて適宜選択可能である。歩行特性の項目数は、単数であってもよいし、複数であってもよい。また、歩行特性データ121の示す歩行特性が複数の項目を含んでいる場合には、体調検出装置1は、当該歩行特性の複数の項目の中から体調検出に利用する項目の選択をユーザから受け付けてもよい。 Also, the number of items of walking characteristics can be appropriately selected according to the embodiment. The number of items of walking characteristics may be singular or plural. When the walking characteristic indicated by the walking characteristic data 121 includes a plurality of items, the physical condition detection device 1 accepts a selection of an item to be used for physical condition detection from the plurality of items of the walking characteristic from the user. May be.
 なお、歩行特性データ121のデータ形式は、各個人の歩行特性を記憶可能であれば、このような例に限定されなくてもよく、実施の形態に応じて適宜選択可能である。例えば、歩行特性データ121は、テーブル形式のデータベースの1レコードとして保持されてもよい。 Note that the data format of the walking characteristic data 121 is not limited to such an example as long as the walking characteristics of each individual can be stored, and can be appropriately selected according to the embodiment. For example, the walking characteristic data 121 may be held as one record of a table format database.
 また、歩行特性データ121の歩行特性に係る各属性値は、各個人の歩行動作を撮影した撮影画像を後述する歩行特性の解析処理によって解析することで、取得されてもよい。その他、各属性値は、ユーザによって直接入力されてもよいし、複数の候補から選択することで決定されてもよい。このような歩行特性データ121は、ネットワークを介して他の情報処理装置から取得されてもよい。 Further, each attribute value related to the walking characteristics of the walking characteristics data 121 may be acquired by analyzing a captured image obtained by capturing the walking motion of each individual by a walking characteristics analysis process described later. In addition, each attribute value may be directly input by the user, or may be determined by selecting from a plurality of candidates. Such walking characteristic data 121 may be acquired from another information processing apparatus via a network.
 なお、記憶部12に記憶されたプログラム5は、体調検出装置1に後述する体調検出に関する各処理を実行させるためのプログラムであり、本発明の「プログラム」に相当する。このプログラム5は記憶媒体6に記録されていてもよい。記憶媒体6は、コンピュータその他装置、機械等が記録されたプログラム等の情報を読み取り可能なように、当該プログラム等の情報を、電気的、磁気的、光学的、機械的又は化学的作用によって蓄積する媒体である。記憶媒体6は、本発明の「記憶媒体」に相当する。なお、図2は、記憶媒体6の一例として、CD(Compact Disk)、DVD(Digital Versatile Disk)等のディスク型の記憶媒体を例示している。しかしながら、記憶媒体6の種類は、ディスク型に限定される訳ではなく、ディスク型以外であってもよい。ディスク型以外の記憶媒体として、例えば、フラッシュメモリ等の半導体メモリを挙げることができる。 The program 5 stored in the storage unit 12 is a program for causing the physical condition detection device 1 to execute each process related to physical condition detection described later, and corresponds to the “program” of the present invention. The program 5 may be recorded on the storage medium 6. The storage medium 6 stores information such as a program by an electrical, magnetic, optical, mechanical, or chemical action so that information such as a program recorded by a computer or other device or machine can be read. It is a medium to do. The storage medium 6 corresponds to the “storage medium” of the present invention. 2 illustrates a disk-type storage medium such as a CD (Compact Disk) or a DVD (Digital Versatile Disk) as an example of the storage medium 6. However, the type of the storage medium 6 is not limited to the disk type and may be other than the disk type. Examples of the storage medium other than the disk type include a semiconductor memory such as a flash memory.
 また、体調検出装置1として、例えば、提供されるサービス専用に設計された装置の他、PC(Personal Computer)、タブレット端末等の汎用の装置が用いられてよい。更に、体調検出装置1は、1又は複数のコンピュータにより実装されてもよい。 Further, as the physical condition detection device 1, for example, a general-purpose device such as a PC (Personal Computer), a tablet terminal, etc. may be used in addition to a device designed exclusively for the provided service. Furthermore, the physical condition detection device 1 may be implemented by one or a plurality of computers.
 <機能構成例>
 次に、図5を用いて、体調検出装置1の機能構成を説明する。図5は、本実施形態に係る体調検出装置1の機能構成を例示する。本実施形態では、体調検出装置1の制御部11は、記憶部12に記憶されたプログラム5をRAMに展開する。そして、制御部11は、RAMに展開されたプログラム5をCPUにより解釈及び実行して、各構成要素を制御する。これにより、体調検出装置1は、画像取得部31、歩行特性解析部32、体調特定部33及びユーザ特定部34を備えるコンピュータとして機能する。
<Functional configuration example>
Next, the functional configuration of the physical condition detection device 1 will be described with reference to FIG. FIG. 5 illustrates a functional configuration of the physical condition detection device 1 according to the present embodiment. In this embodiment, the control part 11 of the physical condition detection apparatus 1 expand | deploys the program 5 memorize | stored in the memory | storage part 12 to RAM. And the control part 11 interprets and runs the program 5 expand | deployed by RAM by CPU, and controls each component. Thereby, the physical condition detection device 1 functions as a computer including the image acquisition unit 31, the walking characteristic analysis unit 32, the physical condition specifying unit 33, and the user specifying unit 34.
 画像取得部31は、カメラ2によって撮影された撮影画像3を取得する。上記のとおり、この撮影画像3には、各画素の深度を示す深度データが含まれている。そこで、歩行特性解析部32は、撮影画像3内でユーザの写る領域を抽出する。そして、深度データにより示される撮影画像3内の各画素の深度に基づいて、抽出した領域に写るユーザの実空間における歩行特性を解析する。これにより、歩行特性解析部32は、図6で例示される解析データ40を取得する。 The image acquisition unit 31 acquires a captured image 3 captured by the camera 2. As described above, the captured image 3 includes depth data indicating the depth of each pixel. Therefore, the walking characteristic analysis unit 32 extracts an area in which the user is captured in the captured image 3. And based on the depth of each pixel in the picked-up image 3 shown by depth data, the walk characteristic in the real space of the user reflected in the extracted area | region is analyzed. Thereby, the walking characteristic analysis part 32 acquires the analysis data 40 illustrated in FIG.
 図6は、本実施形態に係る解析データ40を例示する。解析データ40は、歩行特性解析部32による解析の結果に基づいて得られ、撮影画像3に写るユーザの実空間における歩行特性を示す。この解析データ40は、上記歩行特性データ121に含まれる歩行特性に対応して取得される。 FIG. 6 illustrates analysis data 40 according to this embodiment. The analysis data 40 is obtained based on the result of the analysis by the walking characteristic analysis unit 32, and indicates the walking characteristic in the real space of the user shown in the captured image 3. The analysis data 40 is acquired corresponding to the walking characteristics included in the walking characteristics data 121.
 すなわち、歩行特性解析部32は、上記歩行特性データ121に含まれる歩行特性の各項目に関して、撮影画像3に写るユーザの歩行動作を解析する。そのため、本実施形態に係る解析データ40には、撮影画像3に写るユーザの歩行特性として、歩幅、歩幅の左右比、歩隔、つま先の上がり方、かかとの上がり方、身体の傾き、体幹の側方動揺、骨盤の側方傾斜、膝関節の曲がり角度、腕振り角度、歩行補助器具の有無等の項目の解析値が含まれる。 That is, the walking characteristic analysis unit 32 analyzes the walking action of the user in the captured image 3 with respect to each item of the walking characteristic included in the walking characteristic data 121. Therefore, in the analysis data 40 according to the present embodiment, as the walking characteristics of the user shown in the captured image 3, the stride, the step-to-step ratio, the step, the toe rise, the heel rise, the body tilt, the trunk Analysis values of items such as lateral movement of the pelvis, lateral inclination of the pelvis, bending angle of the knee joint, arm swing angle, presence / absence of walking aids, and the like are included.
 ただし、歩行特性データ121の示す歩行特性と解析データ40の示す歩行特性とを比較可能であれば、歩行特性データ121に含まれる歩行特性の項目と解析データ40に含まれる歩行特性の項目とは完全には一致していなくてもよい。すなわち、歩行特性データ121及び解析データ40は互いに共通する歩行特性の項目を含んでいればよく、一方のデータには含まれていない歩行特性の項目が他方のデータに含まれていてもよい。 However, if the walking characteristics indicated by the walking characteristics data 121 and the walking characteristics indicated by the analysis data 40 can be compared, the items of the walking characteristics included in the walking characteristics data 121 and the items of the walking characteristics included in the analysis data 40 It does not have to match completely. That is, the walking characteristic data 121 and the analysis data 40 only need to include a common walking characteristic item, and a walking characteristic item that is not included in one data may be included in the other data.
 体調特定部33は、このように取得される解析データ40と記憶部12に保持されている歩行特性データ121とを比較することで、ユーザの歩行特性に所定条件を満たす変化が生じているか否かを判定する。そして、体調特定部33は、当該判定の結果に基づいて撮影画像3に写るユーザの体調を特定する。 The physical condition specifying unit 33 compares the analysis data 40 acquired in this way with the walking characteristic data 121 held in the storage unit 12 to determine whether or not a change satisfying a predetermined condition occurs in the user's walking characteristic. Determine whether. Then, the physical condition specifying unit 33 specifies the physical condition of the user shown in the captured image 3 based on the result of the determination.
 ここで、複数のユーザを体調検出の処理対象にする場合には、撮影画像3に写るユーザの特定を行った後に、当該体調特定部33による各ユーザの体調検出の処理が実行可能となる。そこで、本実施形態に係る体調検出装置1は、撮影画像3に写るユーザの特定を行うために、ユーザ特定部34を更に備えている。 Here, in the case where a plurality of users are to be subjected to physical condition detection, after the user shown in the captured image 3 is specified, the physical condition detection process of each user by the physical condition specifying unit 33 can be executed. Therefore, the physical condition detection device 1 according to the present embodiment further includes a user specifying unit 34 in order to specify the user shown in the captured image 3.
 このユーザ特定部34は、解析データ40と歩行特性データ121とを照合する。換言すると、ユーザ特定部34は、歩行特性データ121の示す歩行特性と取得した解析データ40の示す歩行特性とを比較することによって、取得した解析データ40が歩行特性データ121に適合するか否かを判定する。そして、ユーザ特定部34は、当該判定の結果に基づいて、撮影画像3に写るユーザを特定する。ただし、ユーザを特定する方法は、このようなユーザの歩行特性に基づいた方法に限定されなくてもよく、実施の形態に応じて適宜選択されてもよい。例えば、顔認証によってユーザを特定してもよい。 The user specifying unit 34 collates the analysis data 40 with the walking characteristic data 121. In other words, the user specifying unit 34 compares the walking characteristic indicated by the walking characteristic data 121 with the walking characteristic indicated by the acquired analysis data 40 to determine whether the acquired analysis data 40 matches the walking characteristic data 121. Determine. And the user specific | specification part 34 specifies the user who appears in the picked-up image 3 based on the result of the said determination. However, the method for specifying the user may not be limited to the method based on the walking characteristics of the user, and may be appropriately selected according to the embodiment. For example, the user may be specified by face authentication.
 なお、本実施形態では、これらの機能がいずれも汎用のCPUによって実現される例を説明している。しかしながら、これらの機能の一部又は全部が、1又は複数の専用のプロセッサにより実現されてもよい。また、体調検出装置1の機能構成に関して、実施形態に応じて、適宜、機能の省略、置換、及び追加が行われてもよい。例えば、ユーザを識別しなくてもよい場合には、ユーザ特定部34は省略されても良い。各機能に関しては後述する動作例で詳細に説明する。 In the present embodiment, an example is described in which all of these functions are realized by a general-purpose CPU. However, some or all of these functions may be realized by one or more dedicated processors. In addition, regarding the functional configuration of the physical condition detection device 1, the omission, replacement, and addition of functions may be appropriately performed according to the embodiment. For example, when the user need not be identified, the user specifying unit 34 may be omitted. Each function will be described in detail in an operation example described later.
 §3 動作例
 次に、図7を用いて、体調検出装置1の動作例を説明する。図7は、体調検出装置1の体調検出に関する処理手順を例示する。なお、以下で説明する体調検出に関する処理手順は一例にすぎず、各処理は可能な限り変更されてもよい。また、以下で説明する処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。
§3 Example of Operation Next, an example of the operation of the physical condition detection device 1 will be described with reference to FIG. FIG. 7 illustrates a processing procedure related to the physical condition detection of the physical condition detection device 1. In addition, the process procedure regarding the physical condition detection demonstrated below is only an example, and each process may be changed as much as possible. Further, in the processing procedure described below, steps can be omitted, replaced, and added as appropriate according to the embodiment.
 (ステップS101)
 ステップS101では、制御部11は、画像取得部31として機能し、カメラ2により撮影された撮影画像3を取得する。その後、制御部11は、次のステップS102に処理を進める。ここで、本実施形態では、カメラ2は、深度センサ21を備えている。そのため、本ステップS101において取得される撮影画像3には、各画素の深度を示す深度データが含まれる。制御部11は、この深度データを含む撮影画像3として、例えば、図8で例示される撮影画像3を取得する。
(Step S101)
In step S <b> 101, the control unit 11 functions as the image acquisition unit 31 and acquires the captured image 3 captured by the camera 2. Then, the control part 11 advances a process to following step S102. Here, in the present embodiment, the camera 2 includes a depth sensor 21. Therefore, the captured image 3 acquired in step S101 includes depth data indicating the depth of each pixel. For example, the control unit 11 acquires the captured image 3 illustrated in FIG. 8 as the captured image 3 including the depth data.
 図8は、深度データを含む撮影画像3の一例を示す。図8で例示される撮影画像3は、各画素の濃淡値が当該各画素の深度に応じて定められた画像である。黒色の画素ほど、カメラ2に近いことを示す。一方、白色の画素ほど、カメラ2から遠いことを示す。制御部11は、この深度データに基づいて、各画素の写る対象の実空間での位置を特定することができる。すなわち、制御部11は、撮影画像3内の各画素の座標(二次元情報)と深度とから、当該各画素内に写る被写体の三次元空間(実空間)での位置を特定することができる。 FIG. 8 shows an example of a photographed image 3 including depth data. The captured image 3 illustrated in FIG. 8 is an image in which the gray value of each pixel is determined according to the depth of each pixel. A black pixel is closer to the camera 2. On the other hand, a white pixel is farther from the camera 2. Based on the depth data, the control unit 11 can specify the position of each pixel in the real space. That is, the control unit 11 can specify the position in the three-dimensional space (real space) of the subject captured in each pixel from the coordinates (two-dimensional information) and the depth of each pixel in the captured image 3. .
 なお、図8は、床面に対して水平方向に向けられたカメラ2で取得された深度データを例示している。しかしながら、カメラ2の向きは、このような例に限定される訳ではなく、実施の形態に応じて適宜設定可能である。カメラ2が床面に対して傾いている場合には、カメラ2のロール角、ピッチ角及びヨー角を用いた射影変換を行うことによって、撮影画像3に写る被写体の実空間における三次元分布を得ることができる。 Note that FIG. 8 illustrates depth data acquired by the camera 2 oriented in the horizontal direction with respect to the floor surface. However, the orientation of the camera 2 is not limited to such an example, and can be set as appropriate according to the embodiment. When the camera 2 is inclined with respect to the floor surface, a three-dimensional distribution in the real space of the subject shown in the captured image 3 is obtained by performing projective transformation using the roll angle, pitch angle, and yaw angle of the camera 2. Obtainable.
 また、制御部11は、リアルタイムにユーザの体調検出を行うため、カメラ2のビデオ信号に同期させて撮影画像3を取得してもよい。そして、1又は複数枚の撮影画像3を取得した段階で、制御部11は、後述するステップS102~S107までの処理を取得した1又は複数枚の撮影画像3に対して即座に実行してもよい。体調検出装置1は、このような動作を絶え間なく連続して実行することにより、リアルタイム画像処理を実現し、カメラ2の撮影範囲に存在するユーザの体調検出をリアルタイムに行うことができる。 Further, the control unit 11 may acquire the captured image 3 in synchronization with the video signal of the camera 2 in order to detect the physical condition of the user in real time. Then, at the stage where one or a plurality of photographed images 3 are acquired, the control unit 11 may immediately execute the processing of steps S102 to S107 described later on the one or a plurality of photographed images 3 obtained. Good. The physical condition detection apparatus 1 can perform real-time image processing by continuously executing such an operation continuously, and can detect the physical condition of the user existing in the imaging range of the camera 2 in real time.
 (ステップS102)
 図7に戻り、次のステップS102では、制御部11は、歩行特性解析部32として機能し、ステップS101で取得した撮影画像3内でユーザの写る領域を抽出する。その後、制御部11は、次のステップS103に処理を進める。なお、以下では、説明の便宜のため、撮影画像3内でユーザの写る領域を「人物領域」とも称する。
(Step S102)
Returning to FIG. 7, in the next step S <b> 102, the control unit 11 functions as the walking characteristic analysis unit 32 and extracts a region in which the user is captured in the captured image 3 acquired in step S <b> 101. Then, the control part 11 advances a process to following step S103. Hereinafter, for convenience of explanation, an area in which the user is captured in the captured image 3 is also referred to as a “person area”.
 人物領域を抽出する方法は、実施の形態に応じて適宜選択可能である。例えば、制御部11は、人物の形状に基づいて、パターン検出、図形要素検出等の画像解析を行うことによって、撮影画像3内でユーザの写る人物領域を抽出してもよい。なお、撮影画像3に複数のユーザが写っている場合には、制御部11はユーザ毎に人物領域を抽出する。 The method for extracting the person area can be appropriately selected according to the embodiment. For example, the control unit 11 may extract a person region in which the user is photographed in the captured image 3 by performing image analysis such as pattern detection and graphic element detection based on the shape of the person. When a plurality of users are shown in the captured image 3, the control unit 11 extracts a person area for each user.
 (ステップS103)
 次のステップS103では、制御部11は、歩行特性解析部32として機能し、深度データにより示される撮影画像3内の各画素の深度に基づいて、ステップS102で抽出した領域に写るユーザの実空間における歩行特性を解析する。
(Step S103)
In the next step S103, the control unit 11 functions as the walking characteristic analysis unit 32, and based on the depth of each pixel in the captured image 3 indicated by the depth data, the real space of the user shown in the region extracted in step S102 Analyze walking characteristics in
 具体的には、制御部11は、上記のとおり、深度データを利用することにより、被写体の三次元分布を認識することができる。そこで、制御部11は、ステップS102で抽出した人物領域の深度を参照することにより、当該人物領域に写るユーザの各身体部位の実空間における位置関係を特定してもよい。 Specifically, as described above, the control unit 11 can recognize the three-dimensional distribution of the subject by using the depth data. Therefore, the control unit 11 may specify the positional relationship in the real space of each body part of the user shown in the person area by referring to the depth of the person area extracted in step S102.
 そして、制御部11は、各身体部位の実空間における位置関係から、当該ユーザの歩行特性の各項目に係る属性値(解析値)を算出してもよい。これにより、制御部11は、撮影画像3に写るユーザの実空間における歩行特性を示す解析データ40を取得することができ、次のステップS104に処理を進めることができる。 And the control part 11 may calculate the attribute value (analysis value) which concerns on each item of the said user's walk characteristic from the positional relationship in the real space of each body part. Thereby, the control part 11 can acquire the analysis data 40 which shows the walk characteristic in the user's real space reflected in the picked-up image 3, and can advance a process to following step S104.
 なお、人物領域において各身体部位の領域を特定する方法は、実施の形態に応じて適宜選択可能である。例えば、人物領域の抽出と同様に、各身体部位の形状に基づいて、パターン検出、図形要素検出等の画像解析を行うことによって、人物領域において各身体部位の領域を特定することができる。 It should be noted that the method for specifying the region of each body part in the person region can be appropriately selected according to the embodiment. For example, similarly to the extraction of a person region, the region of each body part can be specified in the person region by performing image analysis such as pattern detection and graphic element detection based on the shape of each body part.
 また、歩行特性の各項目の解析方法は、実施の形態に応じて適宜選択可能である。例えば、以下のようにして、撮影画像3に写るユーザの歩行特性を解析し、各項目の解析値を算出することができる。 Also, the analysis method for each item of walking characteristics can be selected as appropriate according to the embodiment. For example, it is possible to analyze the walking characteristics of the user shown in the captured image 3 and calculate the analysis value of each item as follows.
 例えば、制御部11は、地面(かかと又はつま先)から頭までの距離を測定することで、ユーザの身長(解析値)を算出してもよい。また、例えば、制御部11は、一方の足のかかとから他方の足のつま先までの距離を測定することで、ユーザの歩幅(解析値)を算出してもよい。また、例えば、制御部11は、左右の足首間の水平方向の距離を測定することで、ユーザの歩隔(解析値)を算出してもよい。 For example, the control unit 11 may calculate the height (analysis value) of the user by measuring the distance from the ground (heel or toe) to the head. Further, for example, the control unit 11 may calculate the user's stride (analysis value) by measuring the distance from the heel of one foot to the toe of the other foot. For example, the control unit 11 may calculate the user's step (analysis value) by measuring a horizontal distance between the left and right ankles.
 また、例えば、制御部11は、少なくとも一方の足のつま先から地面までの距離を継続的に測定することで、つま先の上がり方に係る解析値を算出してもよい。また、例えば、制御部11は、少なくとも一方の足のかかとから地面までの距離を継続的に測定することで、かかとの上がり方に係る解析値を算出してもよい。また、例えば、制御部11は、単位時間当たりの歩数を測定することで、ケーデンス(解析値)を算出してもよい。 Further, for example, the control unit 11 may calculate an analysis value related to how to raise the toes by continuously measuring the distance from the toes of at least one foot to the ground. Further, for example, the control unit 11 may calculate an analysis value related to how the heel rises by continuously measuring the distance from the heel of at least one foot to the ground. For example, the control unit 11 may calculate the cadence (analysis value) by measuring the number of steps per unit time.
 また、例えば、制御部11は、地面に垂直な直線に対する上半身の傾きを測定することで、身体の傾き(解析値)を算出してもよい。また、例えば、制御部11は、地面に垂直な直線に対する身体の左右方向の傾きを継続的に測定することで、体躯の側方動揺に係る解析値を算出してもよい。また、例えば、制御部11は、地面に垂直な直線に対する骨盤の左右方向の傾きを測定することで、骨盤の側方傾斜に係る解析値を算出してもよい。 For example, the control unit 11 may calculate the body inclination (analysis value) by measuring the inclination of the upper body with respect to a straight line perpendicular to the ground. Further, for example, the control unit 11 may calculate an analysis value related to the lateral movement of the body by continuously measuring the inclination of the body in the left-right direction with respect to a straight line perpendicular to the ground. Further, for example, the control unit 11 may calculate the analysis value related to the lateral inclination of the pelvis by measuring the horizontal inclination of the pelvis with respect to a straight line perpendicular to the ground.
 また、例えば、制御部11は、少なくとも一方の足における大腿部と下腿部との間にできる膝を頂点とした角度を測定することで、膝関節の曲がり角度(解析値)を算出してもよい。また、例えば、制御部11は、地面に垂直な直線に対する腕の角度を測定することで、腕振り角度(解析値)を算出してもよい。 In addition, for example, the control unit 11 calculates a knee joint bending angle (analyzed value) by measuring an angle with the knee formed between the thigh and the lower leg in at least one foot. May be. For example, the control unit 11 may calculate the arm swing angle (analysis value) by measuring the angle of the arm with respect to a straight line perpendicular to the ground.
 また、例えば、制御部11は、各歩行補助器具の形状に基づいて、パターン検出、図形要素検出等の画像解析を人物領域において行うことで、歩行補助器具の検知を行ってもよい。歩行補助器具を検知できた場合には、制御部11は、歩行補助器具を有することを示すように、解析データ40の歩行補助器具の有無に係る解析値を設定する。一方、歩行補助器具を検知できなかった場合には、制御部11は、歩行補助器具を有さないことを示すように、解析データ40の歩行補助器具の有無に係る解析値を設定する。また、制御部11は、右側と左側とに分けて各解析値を算出し、算出した各解析値の比を求めることで、各左右比の解析値を取得してもよい。 Further, for example, the control unit 11 may detect the walking aid by performing image analysis such as pattern detection and graphic element detection in the person area based on the shape of each walking aid. When the walking assist device can be detected, the control unit 11 sets an analysis value related to the presence or absence of the walking assist device in the analysis data 40 so as to indicate that the walking assist device is included. On the other hand, when a walking aid is not detected, the control unit 11 sets an analysis value related to the presence or absence of the walking aid in the analysis data 40 so as to indicate that the walking aid is not provided. In addition, the control unit 11 may acquire the analysis values of the respective left-right ratios by calculating each analysis value separately for the right side and the left side and obtaining the ratio of the calculated analysis values.
 なお、歩行特性の解析に利用する身体部位が撮影画像3に写らず、対象の項目に係る解析値を算出できない場合がある。この場合、制御部11は、当該解析値の算出できなかった歩行特性の項目を、解析不能として取り扱い、以下のステップS104及びS106で比較する対象から除外する。また、ステップS102において、複数人のユーザが抽出されている場合には、本ステップS103では、制御部11は、ユーザ毎に歩行特性の解析を行う。そして、制御部11は、ユーザ毎に解析データ40を取得する。 Note that there are cases where the body part used for the analysis of the walking characteristics is not shown in the captured image 3 and the analysis value relating to the target item cannot be calculated. In this case, the control unit 11 treats the item of the walking characteristic for which the analysis value cannot be calculated as being incapable of analysis, and excludes it from the objects to be compared in the following steps S104 and S106. In step S102, when a plurality of users are extracted, in step S103, the control unit 11 analyzes walking characteristics for each user. And the control part 11 acquires the analysis data 40 for every user.
 (ステップS104)
 図7に戻り、次のステップS104では、制御部11は、ユーザ特定部34として機能し、ステップS103で取得した解析データ40を、記憶部12に記憶されている歩行特性データ121と照合する。具体的には、制御部11は、解析データ40の示す歩行特性の解析値と歩行特性データ121の示す歩行特性の現在値とを項目毎に比較し、解析データ40がいずれかの個人の歩行特性データ121に適合するか否かを判定する。
(Step S104)
Returning to FIG. 7, in the next step S <b> 104, the control unit 11 functions as the user specifying unit 34 and collates the analysis data 40 acquired in step S <b> 103 with the walking characteristic data 121 stored in the storage unit 12. Specifically, the control unit 11 compares the analysis value of the walking characteristic indicated by the analysis data 40 with the current value of the walking characteristic indicated by the walking characteristic data 121 for each item, and the analysis data 40 indicates that any individual's walking It is determined whether or not the characteristic data 121 is met.
 この比較において、一致すると評価可能な項目が所定数以上存在する場合には、制御部11は、ステップS103で取得した解析データ40は記憶部12に記憶されている歩行特性データ121に適合すると判定する。そして、制御部11は、ステップS102で抽出したユーザは当該適合する歩行特性データ121の示す人物であると特定して、次のステップS105に処理を進める。 In this comparison, when there are a predetermined number or more of items that can be evaluated as matching, the control unit 11 determines that the analysis data 40 acquired in step S103 matches the walking characteristic data 121 stored in the storage unit 12. To do. Then, the control unit 11 specifies that the user extracted in step S102 is the person indicated by the appropriate walking characteristic data 121, and proceeds to the next step S105.
 一方、歩行特性の比較において、一致すると評価可能な項目が所定数以上存在しない場合には、制御部11は、解析データ40は歩行特性データ121に適合しないと判定する。そして、制御部11は、ステップS102で抽出したユーザを特定不能として取り扱い、次のステップS105に処理を進める。 On the other hand, in the comparison of walking characteristics, when there are no more than a predetermined number of items that can be evaluated if they match, the control unit 11 determines that the analysis data 40 does not match the walking characteristics data 121. Then, the control unit 11 treats the user extracted in step S102 as unidentifiable, and proceeds to the next step S105.
 ここで、各項目の比較に関して、解析値と現在値とを比較する方法は、実施の形態に応じて適宜選択可能である。例えば、各値が単一の数値で表されている場合には、解析データ40の示す解析値と歩行特性データ121の示す現在値との差(絶対値)が閾値以内であるときに、制御部11は、解析データ40及び歩行特性データ121において対象項目における解析値と現在値とが一致すると評価可能である。 Here, regarding the comparison of each item, the method of comparing the analysis value and the current value can be appropriately selected according to the embodiment. For example, when each value is represented by a single numerical value, the control is performed when the difference (absolute value) between the analysis value indicated by the analysis data 40 and the current value indicated by the walking characteristic data 121 is within a threshold value. The unit 11 can evaluate that the analysis value and the current value in the target item match in the analysis data 40 and the walking characteristic data 121.
 他方、解析データ40の示す解析値と歩行特性データ121の示す現在値との差が閾値を超えているときには、制御部11は、解析データ40及び歩行特性データ121において対象項目における解析値と現在値とは一致しないと評価可能である。各値が配列で表現されている場合及び各値が周期及び最大値(極大値)の2つの数値で表現されている場合についても、制御部11は、各値が単一の数値で表されている場合とほぼ同様に処理することが可能である。 On the other hand, when the difference between the analysis value indicated by the analysis data 40 and the current value indicated by the walking characteristic data 121 exceeds the threshold, the control unit 11 determines whether the analysis value of the target item in the analysis data 40 and the walking characteristic data 121 is the current value. It can be evaluated that it does not match the value. Even when each value is represented by an array and when each value is represented by two numerical values of a period and a maximum value (maximum value), the control unit 11 represents each value by a single numerical value. It is possible to process in substantially the same manner as in the case of.
 なお、記憶部12には、複数件の歩行特性データ121が記憶されている場合がある。この場合、制御部11は、記憶部12に記憶されている複数件の歩行特性データ121を順に解析データ40と照合し、解析データ40に適合する歩行特性データ121を特定する。解析データ40に適合する歩行特性データ121が複数件存在する場合には、制御部11は、最も適合する歩行特性データ121を解析データ40に適合するデータとして採用する。一方、全ての歩行特性データ121が解析データ40と適合しない場合には、制御部11は、ステップS102で抽出したユーザを特定不能として取り扱い、次のステップS105に処理を進める。 Note that the storage unit 12 may store a plurality of walking characteristic data 121. In this case, the control unit 11 collates the plurality of walking characteristic data 121 stored in the storage unit 12 with the analysis data 40 in order, and specifies the walking characteristic data 121 that matches the analysis data 40. When there are a plurality of walking characteristic data 121 that match the analysis data 40, the control unit 11 employs the most suitable walking characteristic data 121 as data that matches the analysis data 40. On the other hand, if all the walking characteristic data 121 do not match the analysis data 40, the control unit 11 treats the user extracted in step S102 as unidentifiable, and proceeds to the next step S105.
 また、ステップS102において複数人のユーザが抽出されている場合には、本ステップS104において、制御部11は、解析データ40と歩行特性データ121との照合をユーザ毎に行う。これにより、制御部11は、ステップS102で抽出したユーザ毎に人物の特定を行う。 In addition, when a plurality of users are extracted in step S102, in step S104, the control unit 11 collates the analysis data 40 with the walking characteristic data 121 for each user. Thereby, the control part 11 specifies a person for every user extracted by step S102.
 (ステップS105)
 ステップS105では、制御部11は、ステップS104においてユーザを特定することができたか否か、換言すると、解析データ40に適合する歩行特性データ121が存在したか否かを判定する。ステップS104においてユーザを特定することができた場合には、制御部11は、次のステップS106に処理を進める。一方、ステップS104においてユーザを特定できなかった場合には、制御部11は、ステップS106及びS107の処理を省略して、本動作例に係る処理を終了する。
(Step S105)
In step S <b> 105, the control unit 11 determines whether or not the user can be specified in step S <b> 104, in other words, whether or not the walking characteristic data 121 that matches the analysis data 40 exists. If the user can be specified in step S104, the control unit 11 advances the process to the next step S106. On the other hand, when the user cannot be specified in step S104, the control unit 11 omits the processes in steps S106 and S107 and ends the process according to this operation example.
 なお、ステップS102においてユーザが複数人抽出された場合には、抽出されたユーザ全てについて人物を特定できなかったときに限り、制御部11は、ユーザを特定不能として、本動作例に係る処理を終了する。一方、少なくとも一部のユーザについて人物を特定できた場合には、制御部11は、人物を特定できたユーザについて、次のステップS106に処理を進める。 When a plurality of users are extracted in step S102, the control unit 11 sets the user to be unidentifiable and performs the process according to this operation example only when a person cannot be specified for all the extracted users. finish. On the other hand, when a person can be specified for at least some users, the control unit 11 proceeds to the next step S106 for the user who can specify a person.
 (ステップS106)
 ステップS106では、制御部11は、体調特定部33として機能し、ステップS103で取得した解析データ40と、ステップS104で特定したユーザの歩行特性データ121と、を比較する。具体的には、制御部11は、解析データ40の示す歩行特性の解析値と歩行特性データ121の示す歩行特性の正常値とを項目毎に比較し、ユーザの歩行特性に所定条件を満たす変化が生じているか否かを判定する。そして、制御部11は、当該判定の結果に基づいて、撮影画像3に写るユーザの体調を特定し、次のステップS107に処理を進める。
(Step S106)
In step S106, the control unit 11 functions as the physical condition specifying unit 33, and compares the analysis data 40 acquired in step S103 with the user's walking characteristic data 121 specified in step S104. Specifically, the control unit 11 compares the analysis value of the walking characteristic indicated by the analysis data 40 with the normal value of the walking characteristic indicated by the walking characteristic data 121 for each item, and changes the user's walking characteristic satisfying a predetermined condition. Whether or not has occurred. Then, the control unit 11 specifies the physical condition of the user shown in the captured image 3 based on the determination result, and proceeds to the next step S107.
 なお、歩行特性の変化とユーザの体調との関係は、実施の形態に応じて適宜設定することができる。例えば、以下(a)~(f)のようにユーザの体調変化を検出することができる。 Note that the relationship between the change in walking characteristics and the physical condition of the user can be set as appropriate according to the embodiment. For example, changes in the physical condition of the user can be detected as shown in (a) to (f) below.
 (a)歩隔に基づく体調変化の検出
 例えば、小脳性若しくは内耳性の疾患による平衡障害又は感覚障害をきたす糖尿病性等の末梢神経障害が原因で歩隔が大きくなることが知られている。これに対応して、歩隔の増加量に関して所定条件が設定されても良い。
(A) Detection of physical condition change based on step distance For example, it is known that the step length is increased due to peripheral neuropathy such as diabetes that causes balance disorder or sensory disorder due to cerebellar or inner ear diseases. Correspondingly, a predetermined condition may be set for the increment of the step.
 この場合、例えば、制御部11は、解析データ40に含まれる歩隔の解析値が歩行特性データ121に含まれる歩隔の正常値よりも閾値以上に大きいときに、ユーザの歩行特性に所定条件を満たす変化が生じていると判定する。そして、これに応じて、制御部11は、上記各障害による健康状態の悪化を検出し、これらの要因によって、ユーザの体調は悪い状態であると特定する。 In this case, for example, when the analysis value of the step included in the analysis data 40 is larger than the normal value of the step included in the walking characteristic data 121, the control unit 11 determines that the user's walking characteristic has a predetermined condition. It is determined that there is a change that satisfies And according to this, the control part 11 detects the deterioration of the health state by said each disorder | damage | failure, and specifies that a user's physical condition is a bad state by these factors.
 一方、そうでないときには、制御部11は、ユーザの歩行特性に所定条件を満たす変化は生じていないと判定する。そして、これに応じて、制御部11は、健康状態の良好(正常)を検出し、ユーザの体調は良い状態であると特定する。 On the other hand, when that is not right, the control part 11 determines with the change which satisfy | fills a predetermined condition not having arisen in the user's walking characteristic. And according to this, the control part 11 detects the favorable (normal) health condition, and specifies that a user's physical condition is a favorable state.
 (b)歩幅に基づく体調変化の検出
 また、例えば、加齢、疲労、疼痛、疾患等が原因で歩幅が小さくなることが知られている。これに対応して、例えば、歩幅の低下量に関して所定条件が設定されてもよい。
(B) Detection of physical condition change based on stride It is also known that stride is reduced due to, for example, aging, fatigue, pain, disease, and the like. In response to this, for example, a predetermined condition may be set regarding the amount of decrease in the stride.
 この場合、例えば、制御部11は、解析データ40に含まれる歩幅の解析値が歩行特性データ121に含まれる歩幅の正常値よりも閾値以上に小さいときに、ユーザの歩行特性に所定条件を満たす変化が生じていると判定する。そして、これに応じて、制御部11は、加齢、疲労、疼痛、疾患等の健康状態の悪化を検出し、これらの要因によって、ユーザの体調は悪い状態であると特定する。 In this case, for example, when the analysis value of the stride included in the analysis data 40 is smaller than the threshold value than the normal value of the stride included in the walking characteristic data 121, the control unit 11 satisfies a predetermined condition for the walking characteristic of the user. It is determined that a change has occurred. And according to this, control part 11 detects deterioration of health conditions, such as aging, fatigue, pain, and a disease, and specifies that a user's physical condition is in a bad state by these factors.
 一方、そうでないときには、制御部11は、ユーザの歩行特性に所定条件を満たす変化は生じていないと判定する。そして、これに応じて、制御部11は、健康状態の良好(正常)を検出し、ユーザの体調は良い状態であると特定する。 On the other hand, when that is not right, the control part 11 determines with the change which satisfy | fills a predetermined condition not having arisen in the user's walking characteristic. And according to this, the control part 11 detects the favorable (normal) health condition, and specifies that a user's physical condition is a favorable state.
 (c)歩幅の左右比に基づく体調変化の検出
 また、例えば、一方の下肢に疼痛がある場合に、できるだけ疼痛から逃れようとして、疼痛のある下肢と疼痛のない下肢とで歩行の距離が相違し、歩行のリズムが変化することが知られている。これに対応して、例えば、歩幅の左右比の変化量に関して所定条件が設定されても良い。
(C) Detection of physical condition change based on left / right ratio of stride Also, for example, when there is pain in one of the lower limbs, the walking distance is different between painful and painless lower limbs as much as possible to escape from pain It is known that the rhythm of walking changes. Corresponding to this, for example, a predetermined condition may be set regarding the amount of change in the left-right ratio of the stride.
 この場合、例えば、制御部11は、解析データ40に含まれる歩幅の左右比の解析値が歩行特性データ121に含まれる歩幅の左右比の正常値よりも閾値以上にずれているときに、ユーザの歩行特性に所定条件を満たす変化が生じていると判定する。そして、これに応じて、制御部11は、一方の下肢(歩幅の小さい方の下肢)に疼痛が生じていることを検出し、これらの要因によって、ユーザの体調は悪い状態であると特定する。 In this case, for example, when the analysis value of the step ratio included in the analysis data 40 is shifted from the normal value of the step ratio included in the walking characteristic data 121 by more than a threshold, It is determined that a change satisfying a predetermined condition has occurred in the walking characteristics. And according to this, the control part 11 detects that the pain has arisen in one leg (lower leg with a smaller stride), and specifies that a user's physical condition is in a bad state by these factors. .
 一方、そうでないときには、制御部11は、ユーザの歩行特性に所定条件を満たす変化は生じていないと判定する。そして、これに応じて、制御部11は、健康状態の良好(正常)を検出し、ユーザの体調は良い状態であると特定する。 On the other hand, when that is not right, the control part 11 determines with the change which satisfy | fills a predetermined condition not having arisen in the user's walking characteristic. And according to this, the control part 11 detects the favorable (normal) health condition, and specifies that a user's physical condition is a favorable state.
 (d)膝関節の曲がり角度に基づく体調変化の検出
 また、例えば、腰帯筋等の障害により動揺性歩行が生じている場合には、膝の伸展が制限されることが知られている。これに対応して、例えば、膝関節の曲がり角度の変化量に関して所定条件が設定されても良い。
(D) Detection of physical condition change based on knee joint bending angle Further, it is known that knee extension is restricted when, for example, a swaying gait occurs due to a disorder such as a lumbar muscle. In response to this, for example, a predetermined condition may be set regarding the amount of change in the bending angle of the knee joint.
 この場合、例えば、制御部11は、解析データ40に含まれる膝関節の曲がり角度の解析値が歩行特性データ121に含まれる膝関節の曲がり角度の正常値よりも閾値以上に小さいときに、ユーザの歩王特性に所定条件を満たす変化が生じていると判定する。そして、これに応じて、制御部11は、腰帯筋等の障害による健康状態の悪化を検出し、これらの要因によって、ユーザの体調は悪い状態であると特定する。 In this case, for example, when the analysis value of the knee joint bending angle included in the analysis data 40 is smaller than the threshold value than the normal value of the knee joint bending angle included in the walking characteristic data 121, the control unit 11 It is determined that a change satisfying a predetermined condition has occurred in the gait characteristics. And according to this, the control part 11 detects the deterioration of the health state by obstacles, such as a pelvic muscle, and specifies that a user's physical condition is a bad state by these factors.
 一方、そうでないときには、制御部11は、ユーザの歩行特性に所定条件を満たす変化は生じていないと判定する。そして、これに応じて、制御部11は、健康状態の良好(正常)を検出し、ユーザの体調は良い状態であると特定する。 On the other hand, when that is not right, the control part 11 determines with the change which satisfy | fills a predetermined condition not having arisen in the user's walking characteristic. And according to this, the control part 11 detects the favorable (normal) health condition, and specifies that a user's physical condition is a favorable state.
 (e)つま先の上がり方に基づく体調変化の検出
 また、例えば、疲労、筋力の低下等が原因でつま先の上がりが小さくなることが知られている。これに対応して、例えば、つま先の上がり方の変化量に関して所定条件が設定されてもよい。
(E) Detection of physical condition change based on how toe rises Further, for example, it is known that the rise of the toes becomes small due to fatigue, a decrease in muscle strength, or the like. Corresponding to this, for example, a predetermined condition may be set regarding the amount of change in how the toes rise.
 この場合、例えば、制御部11は、解析データ40に含まれるつま先の上がり方の解析値が歩行特性データ121に含まれるつま先の上がり方の正常値よりも閾値以上に小さいときに、ユーザの歩行特性に所定条件を満たす変化が生じていると判定する。そして、これに応じて、制御部11は、疲労、筋力の低下等の健康状態の悪化を検出し、これらの要因によって、ユーザの体調は悪い状態であると特定する。 In this case, for example, when the analysis value 40 of the toe included in the analysis data 40 is smaller than the normal value of the method of rising the toe included in the walking characteristic data 121, the control unit 11 walks the user. It is determined that a change that satisfies a predetermined condition has occurred in the characteristics. And according to this, the control part 11 detects the deterioration of health conditions, such as fatigue and a fall of muscular strength, and specifies that a user's physical condition is a bad state by these factors.
 一方、そうでないときには、制御部11は、ユーザの歩行特性に所定条件を満たす変化は生じていないと判定する。そして、これに応じて、制御部11は、健康状態の良好(正常)を検出し、ユーザの体調は良い状態であると特定する。 On the other hand, when that is not right, the control part 11 determines with the change which satisfy | fills a predetermined condition not having arisen in the user's walking characteristic. And according to this, the control part 11 detects the favorable (normal) health condition, and specifies that a user's physical condition is a favorable state.
 (f)身体の傾き等に基づく体調変化の検出
 また、例えば、パーキンソン病等の多系統委縮症の疑いがある場合には、前傾姿勢になる、小刻みに身体が震える、歩行時の腕の振りが少なくなる、すくみ足歩行になる、加速歩行になる等の症状が現れることが知られている。これに対応して、例えば、身体の傾きの変化量に関して所定条件が設定されてもよい。
(F) Detection of changes in physical condition based on body tilt etc. For example, if there is a suspicion of multiple system atrophy such as Parkinson's disease, the body is tilted forward, the body trembles in small steps, the arm during walking It is known that symptoms such as less swing, walking with a slack leg, and accelerated walking appear. Corresponding to this, for example, a predetermined condition may be set regarding the amount of change in the tilt of the body.
 この場合、例えば、制御部11は、解析データ40に含まれる身体の傾きの解析値が歩行特性データ121に含まれる身体の傾きの正常値よりも閾値以上に傾いているときに、ユーザの歩行特性に所定条件を満たす変化が生じていると判定する。そして、これに応じて、制御部11は、パーキンソン病等の多系統委縮症の疑いを検出し、これらの要因によって、ユーザの体調は悪い状態であると特定する。 In this case, for example, when the analysis value of the body inclination included in the analysis data 40 is inclined more than a threshold value than the normal value of the body inclination included in the walking characteristic data 121, the control unit 11 walks the user. It is determined that a change that satisfies a predetermined condition has occurred in the characteristics. And according to this, the control part 11 detects the suspicion of multiple system atrophy such as Parkinson's disease, and specifies that the user's physical condition is in a bad state based on these factors.
 一方、そうでないときには、制御部11は、ユーザの歩行特性に所定条件を満たす変化は生じていないと判定する。そして、これに応じて、制御部11は、健康状態の良好(正常)を検出し、ユーザの体調は良い状態であると特定する。なお、そのほかの症状に関しては、そのほかの項目を利用することで判定することができる。例えば、体幹の側方動揺に基づいて身体が小刻みに震えているか否かを判定することができる。 On the other hand, when that is not right, the control part 11 determines with the change which satisfy | fills a predetermined condition not having arisen in the user's walking characteristic. And according to this, the control part 11 detects the favorable (normal) health condition, and specifies that a user's physical condition is a favorable state. Other symptoms can be determined by using other items. For example, it can be determined whether or not the body is trembling in small increments based on the lateral fluctuation of the trunk.
 (g)その他
 本実施形態では、制御部11は、上記の(a)~(f)の少なくともいずれかの方法を採用することで、ユーザの歩行特性に所定条件を満たす変化が生じているか否かを判定し、その判定結果に基づいて、ユーザの体調を特定する。ただし、歩行特性の変化を判定する方法は、上記の(a)~(f)に記載の方法に限定される訳ではなく、実施の形態に応じて適宜選択可能である。また、上記の(a)~(f)では、体調の悪化を検出するための条件が設定されているが、設定可能な条件は、このような例に限定されず、体調の回復を検出するためのものであってもよい。なお、上記の(a)~(f)の条件における閾値は適宜設定することが可能である。
(G) Others In the present embodiment, the control unit 11 employs at least one of the methods (a) to (f) described above to determine whether or not a change satisfying a predetermined condition occurs in the user's walking characteristics. The physical condition of the user is specified based on the determination result. However, the method for determining a change in walking characteristics is not limited to the methods described in (a) to (f) above, and can be selected as appropriate according to the embodiment. Further, in the above (a) to (f), conditions for detecting deterioration of physical condition are set, but the conditions that can be set are not limited to such an example, and recovery of physical condition is detected. May be for. Note that the threshold value in the above conditions (a) to (f) can be set as appropriate.
 なお、制御部11は、ユーザの体調の悪化を検出した場合に、通知部として機能し、撮影画像3に写るユーザの体調の悪化を検出したことに応じて、当該ユーザの体調の悪化を知らせるための報知を行ってもよい。なお、制御部11が当該報知を行う手段は、実施の形態に応じて適宜選択可能である。 In addition, when the deterioration of the user's physical condition is detected, the control unit 11 functions as a notification unit when the deterioration of the user's physical condition in the captured image 3 is detected. Notification may be performed. Note that the means for the control unit 11 to perform the notification can be appropriately selected according to the embodiment.
 例えば、体調検出装置1が病院等の施設で利用される場合、当該体調検出装置1は、外部インタフェース15を介して、ナースコールシステム等の設備と接続することができる。この場合、制御部11は、当該ナースコールシステム等の設備と連携して、ユーザの体調の悪化を検出したことを知らせるための報知を行ってもよい。すなわち、制御部11は、外部インタフェース15を介して、当該ナースコールシステムを制御してもよい。そして、制御部11は、ユーザの体調の悪化を知らせるための報知として、当該ナースコールシステムによる呼び出しを行ってもよい。ユーザの体調が悪化したことを当該ユーザの見守りを行う看護師等に適切に知らせることができる。 For example, when the physical condition detection device 1 is used in a facility such as a hospital, the physical condition detection device 1 can be connected to equipment such as a nurse call system via the external interface 15. In this case, the control unit 11 may perform notification for notifying that the deterioration of the physical condition of the user has been detected in cooperation with equipment such as the nurse call system. That is, the control unit 11 may control the nurse call system via the external interface 15. And the control part 11 may perform the call by the said nurse call system as alert | reporting for notifying deterioration of a user's physical condition. It is possible to appropriately notify a nurse or the like who watches over the user that his / her physical condition has deteriorated.
 また、例えば、制御部11は、体調検出装置1に接続されるスピーカ14から所定の音声を出力することにより、ユーザの体調の悪化を検出したことを知らせるための報知を行ってもよい。このスピーカ14がカメラ2の周辺に配置されている場合、このような報知をスピーカ14で行うことにより、撮影範囲に居るユーザに対して、当該ユーザ自身の体調の悪化を検出したことを知らせることができる。 Further, for example, the control unit 11 may perform notification to notify that the deterioration of the user's physical condition is detected by outputting a predetermined sound from the speaker 14 connected to the physical condition detection device 1. When this speaker 14 is arranged around the camera 2, such notification is given by the speaker 14 to notify the user in the shooting range that the deterioration of his / her physical condition has been detected. Can do.
 また、例えば、制御部11は、タッチパネルディスプレイ13上に、ユーザの体調の悪化を検出したことを知らせるための画面を表示させてもよい。また、例えば、制御部11は、電子メール、ショートメッセージサービス、プッシュ通知等を利用して、このような報知を行ってもよい。このような報知を行う場合には、通知先となるユーザ端末の電子メールアドレス、電話番号等は記憶部12に予め登録されていてもよく、制御部11は、この予め登録されている電子メールアドレス、電話番号等を利用して、当該ユーザ自身の体調の悪化を検出したことを知らせるための報知を行ってもよい。 For example, the control unit 11 may display a screen on the touch panel display 13 for notifying that the deterioration of the user's physical condition has been detected. In addition, for example, the control unit 11 may perform such notification using an e-mail, a short message service, a push notification, or the like. When performing such notification, the e-mail address, telephone number, etc. of the user terminal as the notification destination may be registered in advance in the storage unit 12, and the control unit 11 Notification may be made to notify that the deterioration of the physical condition of the user himself / herself has been detected using an address, a telephone number, or the like.
 (ステップS107)
 ステップS107では、制御部11は、歩行特性データ121の現在値の更新処理を実行する。具体的には、制御部11は、ステップS104で特定したユーザの歩行特性データ121に含まれる歩行特性の各項目の現在値を、ステップS103で取得した解析データ40に含まれる歩行特性の各項目の解析値に置き換える。これによって、記憶部12は、ステップS104で特定したユーザの歩行特性データ121を更新する。
(Step S107)
In step S <b> 107, the control unit 11 performs a process for updating the current value of the walking characteristic data 121. Specifically, the control unit 11 determines the current value of each item of the walking characteristic included in the user's walking characteristic data 121 specified in step S104, and each item of the walking characteristic included in the analysis data 40 acquired in step S103. Replace with the analysis value. Thereby, the memory | storage part 12 updates the user's walking characteristic data 121 specified by step S104.
 本ステップS107の処理が完了すると、制御部11は、本動作例に係る処理を終了する。体調検出に係る処理を繰り返す場合には、制御部11は、再度ステップS101から処理を実行する。なお、ステップS103において解析不能であった項目については、制御部11は、現在値の更新を行わず、元の歩行特性データ121に含まれる現在値を維持する。 When the processing in step S107 is completed, the control unit 11 ends the processing according to this operation example. When the process related to the physical condition detection is repeated, the control unit 11 executes the process from step S101 again. In addition, about the item which cannot be analyzed in step S103, the control part 11 does not update a present value, but maintains the present value contained in the original walking characteristic data 121. FIG.
 なお、本ステップS107において歩行特性データ121を更新する際に、所定条件を満たす変化の生じた項目を歩行特性データ121に記録してもよい。ステップS101~ステップS107の一連の処理を繰り返し実行し、継続的にユーザの体調を検出する場合、近接する処理の範囲では、同じような結果が得られる可能性が高い。そのため、ステップS106で所定条件を満たす変化が生じたと判定された項目は、次回以降の処理でも、所定条件を満たす変化が生じていると判定される可能性が高い。そのため、所定条件を満たす変化の生じた項目を歩行特性データ121に記録しておき、次回以降のステップS106における比較処理を省略してもよい。 It should be noted that when the walking characteristic data 121 is updated in this step S107, an item having a change that satisfies a predetermined condition may be recorded in the walking characteristic data 121. When a series of processes in steps S101 to S107 are repeatedly executed to continuously detect the user's physical condition, a similar result is likely to be obtained in the range of adjacent processes. Therefore, it is highly likely that the item determined to have changed in the predetermined condition in step S106 is determined to have changed in the predetermined condition even in the subsequent processing. Therefore, an item that has changed according to the predetermined condition may be recorded in the walking characteristic data 121, and the comparison process in step S106 from the next time onward may be omitted.
 (作用・効果)
 以上のように、本実施形態に係る体調検出装置1は、ユーザの歩行特性を解析するために、各画素の深度を示す深度データを撮影画像3と共に取得する。そして、この深度データを利用することにより、体調検出装置1は、カメラ2に対するユーザの移動方向とは無関係に、当該ユーザの実空間上の状態を解析することができる。よって、本実施形態によれば、カメラ2の設置場所に依存することなく、ユーザの実空間上の状態を解析可能であるため、比較的に容易に導入することができ、ユーザの歩行特性を十分に抽出した上で、当該ユーザの体調を検出することができる。
(Action / Effect)
As described above, the physical condition detection device 1 according to the present embodiment acquires depth data indicating the depth of each pixel together with the captured image 3 in order to analyze the user's walking characteristics. By using this depth data, the physical condition detection device 1 can analyze the state of the user in the real space regardless of the direction of movement of the user with respect to the camera 2. Therefore, according to the present embodiment, it is possible to analyze the state of the user in the real space without depending on the installation location of the camera 2, so that it can be introduced relatively easily, and the walking characteristics of the user can be improved. The user's physical condition can be detected after sufficiently extracting.
 より詳細には、二次元画像において撮影方向の奥行きを特定するのは困難である。そのため、二次元画像を用いてユーザの歩行特性を解析する場合に、例えば、ユーザを側面から撮影したときには、ユーザの歩隔を解析するのは困難である。しかしながら、本実施形態によれば、撮影画像3と共に、各画素の深度を示す深度データが取得される。そのため、ユーザを側面から撮影しても、被写体の奥行きを特定可能であり、ユーザの歩隔を解析することができる。したがって、本実施形態によれば、カメラ2の撮影方向によらず、撮影画像3に写るユーザの実空間における歩行特性を安定して解析することができ、これによって、当該ユーザの体調を検出することができる。 More specifically, it is difficult to specify the depth in the shooting direction in a two-dimensional image. Therefore, when analyzing a user's walking characteristics using a two-dimensional image, for example, when the user is photographed from the side, it is difficult to analyze the user's step. However, according to the present embodiment, depth data indicating the depth of each pixel is acquired together with the captured image 3. Therefore, even if the user is photographed from the side, the depth of the subject can be specified, and the user's step can be analyzed. Therefore, according to the present embodiment, it is possible to stably analyze the walking characteristics of the user in the real space shown in the captured image 3 regardless of the shooting direction of the camera 2, thereby detecting the physical condition of the user. be able to.
 また、本実施形態では、ユーザの体調を検出する他に、ユーザの歩行特性に基づいて、撮影画像3に写るユーザの特定が行われている。そのため、複数のユーザを体調検出の処理対象とする場合に、ユーザの体調検出の処理に付随して、当該ユーザを識別する処理を行うことができる。すなわち、本実施形態によれば、顔認証等のユーザを識別するための手段を別途設けることなく、体調検出の処理対象となるユーザを識別することができる。 Further, in the present embodiment, in addition to detecting the user's physical condition, the user shown in the captured image 3 is specified based on the user's walking characteristics. Therefore, when a plurality of users are subject to physical condition detection, a process for identifying the user can be performed in association with the physical condition detection process of the user. That is, according to the present embodiment, it is possible to identify a user who is subject to physical condition detection without providing a means for identifying the user such as face authentication.
 また、人間の歩行特性は時間経過に伴って変化し得る。そのため、ユーザ識別処理と体調検出処理とを同一のデータ(値)を用いて実行し続けた場合には、いずれかの処理で不具合が生じる可能性が高い。 Also, human walking characteristics can change over time. Therefore, when the user identification process and the physical condition detection process are continuously executed using the same data (value), there is a high possibility that a problem will occur in either process.
 すなわち、歩行特性データ121をユーザの識別処理に適合させた場合には、当該ユーザの歩行特性の変化に対応するように、歩行特性データ121に含まれる各項目の属性値を変化させることになる。そのため、この場合には、ユーザの健康状態の基準となる情報を得ることができず、ユーザの体調を検出することができなくなってしまう。 That is, when the walking characteristic data 121 is adapted to the user identification process, the attribute value of each item included in the walking characteristic data 121 is changed so as to correspond to the change in the walking characteristic of the user. . Therefore, in this case, information serving as a reference for the user's health condition cannot be obtained, and the user's physical condition cannot be detected.
 一方、歩行特性データ121をユーザの体調検出処理に適合させた場合には、ユーザの健康状態の基準を示すように、歩行特性データ121に含まれる各項目の属性値を変更せずに維持し続けることになる。そのため、この場合には、時間経過に伴うユーザの歩行特性の変化に対応することができず、ユーザの識別ができなくなってしまう。 On the other hand, when the walking characteristic data 121 is adapted to the user's physical condition detection process, the attribute value of each item included in the walking characteristic data 121 is maintained without being changed so as to indicate the user's health condition standard. Will continue. Therefore, in this case, it is not possible to cope with a change in the walking characteristics of the user with time, and the user cannot be identified.
 これに対して、本実施形態では、歩行特性データ121は、歩行特性の各項目の属性値として、体調の検出に利用する正常値とユーザの識別に利用する現在値との2種類の属性値を含んでいる。そのため、本実施形態によれば、ユーザの識別処理に利用する属性値とユーザの体調検出処理に利用する属性値とを切り分けており、同一の値を両処理で併用し続けることを回避することができるため、上記処理の不具合が生じるのを防止することができる。 On the other hand, in this embodiment, the walking characteristic data 121 includes two types of attribute values, a normal value used for physical condition detection and a current value used for user identification, as attribute values of each item of walking characteristics. Is included. Therefore, according to the present embodiment, the attribute value used for the user identification process is separated from the attribute value used for the user physical condition detection process, and it is avoided that the same value is continuously used in both processes. Therefore, it is possible to prevent the above processing from occurring.
 また、本実施形態では、ステップS104でユーザの識別が成功したときの解析データ40を利用して、歩行特性データ121に含まれる現在値を更新する。そのため、歩行特性の各項目の現在値を取得するための手段を別途設けることなく、時間経過に伴う歩行特性の変化に対応するように、ユーザの識別に利用する現在値を更新することができる。 In the present embodiment, the current value included in the walking characteristic data 121 is updated using the analysis data 40 obtained when the user is successfully identified in step S104. Therefore, the current value used for the user identification can be updated so as to correspond to the change of the walking characteristic with the passage of time without separately providing a means for acquiring the current value of each item of the walking characteristic. .
 なお、本実施形態に係る体調検出装置1は、カメラ2により得られる撮影画像3を利用してユーザの体調を検出する。そのため、カメラ2を設置可能な場所であれば、どのような場所でも、ユーザの体調を検出する対象範囲にすることができる。例えば、カメラ2を施設のエントランス、部屋、廊下等に設置することで、これらの場所をユーザの体調検出を行う場所にすることができる。 In addition, the physical condition detection apparatus 1 according to the present embodiment detects the physical condition of the user using the captured image 3 obtained by the camera 2. Therefore, any place where the camera 2 can be installed can be a target range for detecting the user's physical condition. For example, by installing the camera 2 at an entrance, a room, a hallway, or the like of a facility, these places can be used as places where the user's physical condition is detected.
 すなわち、情報処理装置(体調検出装置1)とカメラ2とで構成される本実施形態に係る体調検出システムを導入する作業は、このカメラ2を設置する作業に他ならない。ここで、カメラ2は、深度センサ21を含んでおり、三次元の情報を取得可能であるため、カメラ2の設置場所及び撮影方向を厳密に決定しなくてもよい。そのため、本実施形態に係る体調検出システムは、非常に容易に導入することができる。 That is, the work of introducing the physical condition detection system according to the present embodiment configured by the information processing apparatus (physical condition detection apparatus 1) and the camera 2 is nothing other than the work of installing the camera 2. Here, since the camera 2 includes the depth sensor 21 and can acquire three-dimensional information, the installation location and shooting direction of the camera 2 do not have to be determined strictly. Therefore, the physical condition detection system according to the present embodiment can be introduced very easily.
 §4 変形例
 以上、本発明の実施の形態を詳細に説明してきたが、前述までの説明はあらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。
§4 Modifications Embodiments of the present invention have been described in detail above, but the above description is merely an illustration of the present invention in all respects. It goes without saying that various improvements and modifications can be made without departing from the scope of the present invention.
 (1)体調変化の予兆を検出
 上記実施形態では、ステップS106において、制御部11は、解析データ40の示す歩行特性の解析値と歩行特性データ121の示す歩行特性の正常値との間に所定条件を満たす差が存在する場合に、対象のユーザの体調の変化を検出している。そのため、解析値と正常値との間に所定条件を満たす差が存在しない場合には、制御部11は、対象のユーザの体調の変化を検出せず、対象のユーザの体調は良好であると特定する。
(1) Detection of sign of physical condition change In the above embodiment, in step S106, the control unit 11 determines a predetermined value between the analysis value of the walking characteristic indicated by the analysis data 40 and the normal value of the walking characteristic indicated by the walking characteristic data 121. When there is a difference that satisfies the condition, a change in the physical condition of the target user is detected. Therefore, when there is no difference that satisfies the predetermined condition between the analysis value and the normal value, the control unit 11 does not detect a change in the physical condition of the target user, and the physical condition of the target user is good. Identify.
 しかしながら、ユーザの体調の変化は、段階的に起きる場合がある。これに対応するため、制御部11は、ステップS106の体調変化の検出処理と共に、対象変化の予兆があるか否かを判定してもよい。これは、ステップS101~S107の一連の処理を繰り返すことで実現できる。 However, changes in the user's physical condition may occur in stages. In order to cope with this, the control unit 11 may determine whether or not there is a sign of a change in the subject, together with the physical condition change detection process in step S106. This can be realized by repeating a series of processes in steps S101 to S107.
 すなわち、制御部11は、ステップS101~S107の一連の処理を繰り返すことで、ユーザの体調検出の処理を継続的に繰り返し実行する。そうすると、制御部11は、ステップS103で解析データ40が繰り返し取得されるのに応じて、解析データ40と歩行特性データ121とを比較することで、ユーザの歩行特性に所定条件を満たす変化が生じているか否かを判定するステップS106の処理を繰り返し実行することになる。 That is, the control unit 11 continuously and repeatedly executes the process of detecting the user's physical condition by repeating a series of processes of steps S101 to S107. Then, the control unit 11 compares the analysis data 40 with the walking characteristic data 121 in accordance with the repeated acquisition of the analysis data 40 in step S103, thereby causing a change that satisfies a predetermined condition in the user's walking characteristics. That is, the process of step S106 for determining whether or not it is repeated is executed.
 ここで、上記のように、ユーザの歩行特性に所定条件を満たす変化が生じていると判定した場合には、ユーザの体調の変化を検出することができる。一方、ユーザの歩行特性に所定条件を満たす変化が生じていないと判定している間には、制御部11は、繰り返し取得される解析データ40が、ユーザの歩行特性の所定条件を満たす変化が生じていると判定される方向に、変化しているか否かを更に判定する。そして、制御部11は、繰り返し取得される解析データ40が、ユーザの歩行特性に所定条件を満たす変化が生じていると判定される方向に、変化していると判定した場合には、当該ユーザの体調変化の予兆を検出することができる。 Here, as described above, when it is determined that a change that satisfies the predetermined condition has occurred in the walking characteristics of the user, a change in the physical condition of the user can be detected. On the other hand, while it is determined that the change satisfying the predetermined condition has not occurred in the walking characteristic of the user, the control unit 11 determines that the analysis data 40 repeatedly acquired satisfies the predetermined condition of the walking characteristic of the user. It is further determined whether or not it has changed in the direction in which it is determined that it has occurred. When the control unit 11 determines that the analysis data 40 that is repeatedly acquired has changed in a direction in which it is determined that a change that satisfies the predetermined condition has occurred in the walking characteristics of the user, the user Can detect signs of physical condition changes.
 例えば、上記(a)の例では、解析データ40に含まれる歩幅の解析値が歩行特性データ121に含まれる歩幅の正常値よりも閾値以上小さいことで、制御部11は、ユーザの体調の変化を検出する。そのため、この場合、制御部11は、繰り返し取得される各解析データ40に含まれる歩幅の解析値が歩行特性データ121に含まれる歩幅の正常値よりも閾値以上小さくはなっていないときに、当該解析値が徐々に小さくなっているか否かを判定する。そして、制御部11は、繰り返し取得される各解析データ40に含まれる歩幅の解析値が徐々に小さくなっているとき、換言すると、歩幅の正常値よりも閾値以上小さくなるように歩幅の解析値が変動しているときに、当該ユーザの体調変化の予兆を検出する。一方、取得される歩幅の解析値がこのような傾向にない場合には、制御部11は、当該ユーザに体調変化の予兆はないと判定する。 For example, in the example of (a), the control unit 11 changes the physical condition of the user because the analysis value of the stride included in the analysis data 40 is smaller than the normal value of the stride included in the walking characteristic data 121 by a threshold value or more. Is detected. Therefore, in this case, when the analysis value of the stride included in each analysis data 40 repeatedly acquired is not smaller than the normal value of the stride included in the walking characteristic data 121, the control unit 11 It is determined whether or not the analysis value is gradually reduced. Then, when the analysis value of the stride included in each analysis data 40 repeatedly acquired is gradually reduced, in other words, the control unit 11 analyzes the analysis value of the stride so that it is smaller than the normal value of the stride by a threshold value or more. Is detected, a sign of a change in the physical condition of the user is detected. On the other hand, when the analysis value of the acquired stride does not have such a tendency, the control unit 11 determines that the user has no sign of physical condition change.
 本変形例によれば、制御部11は、繰り返し実行されるユーザの体調検出処理において、解析データの変更傾向を把握し、ユーザの体調変化の予兆を検出する。これによって、ユーザの体調に変化が生じる事前にその予兆を把握することができる。すなわち、本変形例によれば、ユーザの体調の変化を段階的に把握することができる。 According to the present modification, the control unit 11 grasps the change tendency of the analysis data in the repeated user physical condition detection process, and detects a sign of the user physical condition change. Thereby, it is possible to grasp the sign of the change in the physical condition of the user in advance. That is, according to the present modification, changes in the user's physical condition can be grasped step by step.
 (2)異なる項目の利用
 また、上記実施形態では、ユーザの識別処理に利用する歩行特性の項目と体調検出に利用する歩行特性の項目とは共通である。しかしながら、ユーザの識別処理に利用する歩行特性の項目と体調検出に利用する歩行特性の項目とは共通でなくてもよく、その一部又は全部が異なっていてもよい。例えば、上記実施形態では、歩行特性に含まれる複数の項目のうち、歩幅、歩隔等の項目を体調検出に利用している。そこで、このような体調検出に利用している項目を除き、体調検出に利用しない項目に基づいて、ユーザの識別を行ってもよい。
(2) Use of different items In the above-described embodiment, the item of walking characteristics used for user identification processing and the item of walking characteristics used for physical condition detection are common. However, the item of the walking characteristic used for the user identification process and the item of the walking characteristic used for the physical condition detection may not be common, and some or all of them may be different. For example, in the above-described embodiment, items such as the stride and the step are used for physical condition detection among a plurality of items included in the walking characteristics. Therefore, users may be identified based on items that are not used for physical condition detection, except for items that are used for physical condition detection.
 すなわち、制御部11は、ステップS104において、歩行特性データ121に含まれる複数の項目のうち少なくともいずれかの項目に関して、解析データ40と歩行特性データ121とを比較することで、撮影画像3に写るユーザの識別を行ってもよい。そして、制御部11は、ステップS106では、ステップS104で利用した項目とは異なる1つ以上の項目に関して、解析データ40と歩行特性データ121とを比較することで、撮影画像3に写るユーザの体調を検出してもよい。 In other words, in step S104, the control unit 11 compares the analysis data 40 and the walking characteristic data 121 with respect to at least one of the plurality of items included in the walking characteristic data 121, and is captured in the captured image 3. User identification may be performed. Then, in step S106, the control unit 11 compares the analysis data 40 and the walking characteristic data 121 with respect to one or more items different from the items used in step S104, so that the physical condition of the user shown in the captured image 3 is obtained. May be detected.
 なお、この場合、共通の項目を利用しないため、歩行特性データ121は、正常値及び現在値の2種類の属性値を含まなくてもよい。また、制御部11は、ステップS107の更新処理を省略してもよいし、ステップS107の更新処理の対象をユーザの識別に利用する項目に限定してもよい。ただし、ステップS107の更新処理を省略する場合、比較的に変化の生じにくい項目をユーザの識別に利用する項目に採用するのが好ましい。 In this case, since the common item is not used, the walking characteristic data 121 may not include two types of attribute values, that is, a normal value and a current value. Moreover, the control part 11 may abbreviate | omit the update process of step S107, and may limit the object of the update process of step S107 to the item utilized for a user's identification. However, when the update process of step S107 is omitted, it is preferable to adopt an item that is relatively difficult to change as an item used for user identification.
 上記のとおり、人間の歩行特性は、時間経過につれて変化し得る。そのため、同一の項目で同一の値を両処理に併用し続けると、ユーザの識別処理及び体調検出処理のいずれかの処理で不具合が生じる可能性が高い。これに対して、本変形例では、ユーザの識別処理に利用する歩行特性の項目とユーザの体調検出処理に利用する歩行特性の項目とを切り分けている。したがって、同一の項目で同一の値を両処理に併用し続けることで生じる不具合を回避することができる。 As mentioned above, human walking characteristics can change over time. Therefore, if the same value for the same item is continuously used in both processes, there is a high possibility that a problem will occur in either the user identification process or the physical condition detection process. On the other hand, in this modification, the item of the walk characteristic used for a user's identification process and the item of the walk characteristic used for a user's physical condition detection process are separated. Therefore, it is possible to avoid problems caused by continuing to use the same value for both processes in the same item.
 (3)前景領域の利用
 また、上記実施形態では、制御部11(歩行特性解析部32)は、ステップS102において、パターン検出等の画像処理によって撮影画像3からユーザの写る人物領域を抽出している。ただし、撮影画像3から人物領域を抽出する方法は、このような例に限定されなくてもよく、実施の形態に応じて適宜選択可能である。例えば、制御部11は、前景領域を利用して、人物領域を検索する範囲を絞ってもよい。
(3) Use of Foreground Area In the above embodiment, the control unit 11 (walking characteristic analysis unit 32) extracts a person area in which the user is photographed from the photographed image 3 by image processing such as pattern detection in step S102. Yes. However, the method of extracting the person region from the captured image 3 is not limited to such an example, and can be appropriately selected according to the embodiment. For example, the control unit 11 may use the foreground area to narrow the range for searching for the person area.
 この場合、制御部11は、上記ステップS102において、ステップS101で取得した撮影画像3の背景として設定された背景画像と撮影画像3との差分から、撮影画像3の前景領域を抽出する。ここで、背景画像は、前景領域を抽出するために利用されるデータであり、背景となる対象の深度を含んで設定される。背景画像を作成する方法は、実施の形態に応じて、適宜、設定されてよい。例えば、制御部11は、カメラ2による撮影を開始したときに得られる数フレーム分の撮影画像の平均を算出することで、背景画像を作成してもよい。このとき、深度データも含んで撮影画像の平均が算出されることで、深度データを含む背景画像を作成することができる。 In this case, in step S102, the control unit 11 extracts the foreground region of the captured image 3 from the difference between the background image set as the background of the captured image 3 acquired in step S101 and the captured image 3. Here, the background image is data used for extracting the foreground region, and is set including the depth of the target as the background. The method for creating the background image may be set as appropriate according to the embodiment. For example, the control unit 11 may create the background image by calculating the average of the captured images for several frames obtained when the camera 2 starts shooting. At this time, a background image including the depth data can be created by calculating the average of the captured images including the depth data.
 このように抽出される前景領域は、背景画像から変化の生じている領域を示す。そのため、撮影画像3に歩行動作を行っている人物(ユーザ)が写っている場合には、当該ユーザの写る領域が前景領域として抽出される。そこで、制御部11は、ステップS102において、パターン検出、図形要素検出等の画像解析を前景領域内で実行することによって、ユーザの写る領域を抽出してもよい。 The foreground area extracted in this way indicates an area where a change has occurred from the background image. Therefore, when a person (user) who is performing a walking motion is shown in the captured image 3, an area where the user is shown is extracted as a foreground area. Therefore, in step S102, the control unit 11 may extract an area in which the user is captured by executing image analysis such as pattern detection and graphic element detection in the foreground area.
 これにより、ユーザを検出する撮影画像3内の領域を限定することができる。すなわち、パターンマッチング等の画像解析の対象となる領域を、撮影画像3内全域とするのではなく、前景領域内に制限することができる。ここで、前景領域を抽出するための処理は、撮影画像3と背景画像との差分を計算する処理に過ぎない。そのため、本実施形態によれば、制御部11(体調検出装置1)は、高度な画像処理を利用せずに、ユーザを検出する範囲を絞ることができる。よって、当該変形例によれば、ステップS102における処理の負荷を低減することができる。 Thereby, it is possible to limit the area in the captured image 3 where the user is detected. That is, the area to be subjected to image analysis such as pattern matching can be limited to the foreground area instead of the entire area within the captured image 3. Here, the process for extracting the foreground region is merely a process for calculating the difference between the captured image 3 and the background image. Therefore, according to this embodiment, the control part 11 (physical condition detection apparatus 1) can narrow down the range which detects a user, without utilizing an advanced image process. Therefore, according to the modification, the processing load in step S102 can be reduced.
 なお、制御部11が前景領域を抽出する方法は、上記のような方法に限定されなくてもよく、例えば、背景差分法を用いて背景と前景とを分離してもよい。背景差分法として、例えば、上記のような背景画像と入力画像(撮影画像3)との差分から背景と前景とを分離する方法、異なる3枚の画像を用いて背景と前景とを分離する方法、及び統計的モデルを適用することで背景と前景とを分離する方法を挙げることができる。前景領域を抽出する方法は、特に限定されなくてよく、実施の形態に応じて、適宜、選択されてよい。 Note that the method by which the control unit 11 extracts the foreground region is not limited to the above-described method. For example, the background and the foreground may be separated using a background subtraction method. As the background difference method, for example, a method of separating the background and the foreground from the difference between the background image and the input image (captured image 3) as described above, and a method of separating the background and the foreground using three different images And a method of separating the background and the foreground by applying a statistical model. The method for extracting the foreground region is not particularly limited, and may be appropriately selected according to the embodiment.
 1…体調検出装置、
 2…カメラ、21…深度センサ、
 3…撮影画像、5…プログラム、6…記憶媒体、
11…制御部、12…記憶部、13…タッチパネルディスプレイ、
14…スピーカ、15…外部インタフェース、16…通信インタフェース、
17…ドライブ、
31…画像取得部、32…歩行特性解析部、33…体調特定部、34…ユーザ特定部、
40…解析データ、121…歩行特性データ
1 ... Physical condition detection device,
2 ... Camera, 21 ... Depth sensor,
3 ... shot image, 5 ... program, 6 ... storage medium,
11 ... Control unit, 12 ... Storage unit, 13 ... Touch panel display,
14 ... Speaker, 15 ... External interface, 16 ... Communication interface,
17 ... drive,
31 ... Image acquisition unit, 32 ... Walking characteristic analysis unit, 33 ... Physical condition specifying unit, 34 ... User specifying unit,
40: Analysis data, 121: Walking characteristic data

Claims (9)

  1.  ユーザの実空間における歩行特性を示す歩行特性データを記憶する記憶部と、
     前記ユーザの歩行動作を撮影するために設置された撮影装置によって撮影した撮影画像であって、当該撮影画像内の各画素の深度を示す深度データを含む撮影画像を取得する画像取得部と、
     前記撮影画像内で前記ユーザの写る領域を抽出し、前記深度データにより示される前記撮影画像内の各画素の深度に基づいて、当該領域に写る前記ユーザの実空間における歩行動作を解析することで、前記撮影画像に写る前記ユーザの実空間における歩行特性を示す解析データを取得する歩行特性解析部と、
     前記歩行特性データの示す歩行特性及び取得した前記解析データの示す歩行特性を比較することによって、前記ユーザの歩行特性に所定条件を満たす変化が生じているか否かを判定し、当該判定の結果に基づいて、前記撮影画像に写るユーザの体調を特定する体調特定部と、
    を備える、
    体調検出装置。
    A storage unit for storing walking characteristic data indicating walking characteristics in the real space of the user;
    An image acquisition unit that acquires a captured image that is captured by a capturing device installed to capture the user's walking motion and includes depth data indicating the depth of each pixel in the captured image;
    By extracting a region in which the user is captured in the captured image, and analyzing a walking motion in the real space of the user that is captured in the region based on the depth of each pixel in the captured image indicated by the depth data. A walking characteristic analysis unit that acquires analysis data indicating the walking characteristic in the real space of the user that is reflected in the captured image;
    By comparing the walking characteristic indicated by the walking characteristic data and the walking characteristic indicated by the acquired analysis data, it is determined whether or not a change satisfying a predetermined condition has occurred in the walking characteristic of the user. Based on the physical condition specifying unit for specifying the physical condition of the user in the captured image,
    Comprising
    Physical condition detection device.
  2.  前記体調特定部は、
      前記解析データが繰り返し取得されるのに応じて、取得される前記解析データと前記歩行特性データとを比較することで、前記ユーザの歩行特性に所定条件を満たす変化が生じているか否かを繰り返し判定し、
      前記ユーザの歩行特性に所定条件を満たす変化が生じていないと判定している間には、前記繰り返し取得される解析データが、前記ユーザの歩行特性に所定条件を満たす変化が生じていると判定される方向に、変化しているか否かを更に判定し、前記繰り返し取得される解析データが、前記ユーザの歩行特性に所定条件を満たす変化が生じていると判定される方向に、変化していると判定した場合に、前記ユーザの体調変化の予兆を検出する、
    請求項1に記載の体調検出装置。
    The physical condition specifying unit is
    As the analysis data is repeatedly acquired, by comparing the acquired analysis data with the walking characteristic data, it is repeatedly determined whether or not a change satisfying a predetermined condition occurs in the user's walking characteristic. Judgment,
    While it is determined that a change satisfying a predetermined condition has not occurred in the user's walking characteristics, the analysis data repeatedly acquired determines that a change satisfying the predetermined condition has occurred in the user's walking characteristics Whether or not the direction is changed, and the analysis data repeatedly acquired is changed to a direction in which it is determined that a change satisfying a predetermined condition occurs in the walking characteristics of the user. When it is determined that there is a sign of a change in the physical condition of the user,
    The physical condition detection apparatus according to claim 1.
  3.  前記記憶部は、前記歩行特性データを個人毎に記憶し、
     前記各個人の歩行特性データの示す歩行特性と取得した前記解析データの示す歩行特性とを比較することによって、取得した前記解析データがいずれかの個人の前記歩行特性データに適合するか否かを判定し、当該いずれかの個人の前記歩行特性データに前記解析データが適合した場合には、前記撮影画像に写るユーザは当該適合した歩行特性データの示す人物であると特定するユーザ特定部を更に備える、
    請求項1又は2に記載の体調検出装置。
    The storage unit stores the walking characteristic data for each individual,
    By comparing the walking characteristics indicated by the walking characteristics data of each individual and the walking characteristics indicated by the acquired analysis data, it is determined whether or not the acquired analysis data matches the walking characteristics data of any individual. If the analysis data matches the walking characteristic data of any one of the individuals, a user specifying unit that specifies that the user shown in the captured image is a person indicated by the adapted walking characteristic data Prepare
    The physical condition detection device according to claim 1 or 2.
  4.  前記記憶部に記憶される前記歩行特性データは前記ユーザの歩行特定の正常値と現在値とを含み、
     前記歩行特性解析部により取得される解析データは前記歩行特性の解析値を含み、
     前記ユーザ特定部は、前記歩行特性データに含まれる現在値と前記解析データに含まれる解析値とを比較することで、前記撮影画像に写るユーザの特定を行い、
     前記体調特定部は、前記歩行特性データに含まれる正常値と前記解析データに含まれる解析値とを比較することで、前記ユーザの体調の特定を行う、
    請求項3に記載の体調検出装置。
    The walking characteristic data stored in the storage unit includes a normal value and a current value of the user's walking specification,
    The analysis data acquired by the walking characteristic analysis unit includes an analysis value of the walking characteristic,
    The user specifying unit specifies a user who appears in the captured image by comparing a current value included in the walking characteristic data and an analysis value included in the analysis data,
    The physical condition specifying unit specifies the physical condition of the user by comparing a normal value included in the walking characteristic data and an analysis value included in the analysis data.
    The physical condition detection apparatus of Claim 3.
  5.  前記記憶部は、前記ユーザ特定部により特定したユーザの歩行特性データに含まれる歩行特性の現在値を前記解析データの解析値に置き換えることで、前記特定したユーザの歩行特性データに含まれる歩行特性の現在値を更新する、
    請求項4に記載の体調検出装置。
    The storage unit replaces the current value of the walking characteristic included in the user's walking characteristic data specified by the user specifying unit with the analysis value of the analysis data, thereby including the walking characteristic included in the specified user's walking characteristic data. Update the current value of,
    The physical condition detection device according to claim 4.
  6.  前記歩行特性は複数の項目で構成され、
     前記ユーザ特定部は、前記歩行特性に含まれる複数の項目のうちの少なくともいずれかの項目において、取得した前記解析データと前記歩行特性データとを比較することで、前記撮影画像に写るユーザの特定を行い、
     前記体調特定部は、前記ユーザ特定部の利用した項目とは異なる1つ以上の項目において、前記解析データと前記歩行特性データとを比較することで、前記ユーザの体調の特定を行う、
    請求項3に記載の体調検出装置。
    The walking characteristic is composed of a plurality of items,
    The user specifying unit specifies a user in the captured image by comparing the acquired analysis data with the walking characteristic data in at least one of a plurality of items included in the walking characteristic. And
    The physical condition specifying unit specifies the physical condition of the user by comparing the analysis data and the walking characteristic data in one or more items different from the items used by the user specifying unit.
    The physical condition detection apparatus of Claim 3.
  7.  前記歩行特性解析部は、前記撮影画像の背景として設定された背景画像と前記撮影画像との差分から前記撮影画像の前景領域を前記ユーザの写る領域として抽出し、前記深度データを参照することで当該前景領域内の各画素の深度を特定し、特定した当該前景領域内の各画素の深度に基づいて、当該前景領域に写る前記ユーザの実空間における歩行動作を解析する、
    請求項1から6のいずれか1項に記載の体調検出装置。
    The walking characteristic analysis unit extracts a foreground region of the photographed image as a region in which the user is captured from a difference between a background image set as a background of the photographed image and the photographed image, and refers to the depth data. Identifying the depth of each pixel in the foreground area, and analyzing the walking motion of the user in the foreground area in the foreground area based on the depth of each pixel in the specified foreground area,
    The physical condition detection apparatus of any one of Claim 1 to 6.
  8.  ユーザの実空間における歩行特性を示す歩行特性データを記憶する記憶部を備えるコンピュータが、
     前記ユーザの歩行動作を撮影するために設置された撮影装置によって撮影した撮影画像であって、当該撮影画像内の各画素の深度を示す深度データを含む撮影画像を取得するステップと、
     前記撮影画像内で前記ユーザの写る領域を抽出するステップと、
     前記深度データにより示される前記撮影画像内の各画素の深度に基づいて、当該領域に写る前記ユーザの実空間における歩行動作を解析することで、前記撮影画像に写る前記ユーザの実空間における歩行特性を示す解析データを取得するステップと、
     前記歩行特性データの示す歩行特性及び取得した前記解析データの示す歩行特性を比較することによって、前記ユーザの歩行特性に所定条件を満たす変化が生じているか否かを判定するステップと、
     当該判定の結果に基づいて、前記撮影画像に写るユーザの体調を特定するステップと、
    を実行する体調検出方法。
    A computer including a storage unit that stores walking characteristic data indicating walking characteristics in a user's real space,
    A captured image captured by a capturing device installed to capture the user's walking motion, the captured image including depth data indicating the depth of each pixel in the captured image;
    Extracting an area in which the user appears in the captured image;
    Based on the depth of each pixel in the captured image indicated by the depth data, the walking characteristics of the user in the real space captured in the captured image are analyzed by analyzing the walking motion of the user in the real space captured in the region. Obtaining analysis data indicating
    Determining whether or not a change satisfying a predetermined condition occurs in the walking characteristics of the user by comparing the walking characteristics indicated by the walking characteristics data and the walking characteristics indicated by the acquired analysis data;
    Identifying the physical condition of the user in the captured image based on the result of the determination;
    The physical condition detection method to execute.
  9.  ユーザの実空間における歩行特性を示す歩行特性データを記憶する記憶部を備えるコンピュータに、
     前記ユーザの歩行動作を撮影するために設置された撮影装置によって撮影した撮影画像であって、当該撮影画像内の各画素の深度を示す深度データを含む撮影画像を取得するステップと、
     前記撮影画像内で前記ユーザの写る領域を抽出するステップと、
     前記深度データにより示される前記撮影画像内の各画素の深度に基づいて、当該領域に写る前記ユーザの実空間における歩行動作を解析することで、前記撮影画像に写る前記ユーザの実空間における歩行特性を示す解析データを取得するステップと、
     前記歩行特性データの示す歩行特性及び取得した前記解析データの示す歩行特性を比較することによって、前記ユーザの歩行特性に所定条件を満たす変化が生じているか否かを判定するステップと、
     当該判定の結果に基づいて、前記撮影画像に写るユーザの体調を特定するステップと、
    を実行させるための体調検出プログラム。
    A computer having a storage unit that stores walking characteristic data indicating walking characteristics in the user's real space,
    A captured image captured by a capturing device installed to capture the user's walking motion, the captured image including depth data indicating the depth of each pixel in the captured image;
    Extracting an area in which the user appears in the captured image;
    Based on the depth of each pixel in the captured image indicated by the depth data, the walking characteristics of the user in the real space captured in the captured image are analyzed by analyzing the walking motion of the user in the real space captured in the region. Obtaining analysis data indicating
    Determining whether or not a change satisfying a predetermined condition occurs in the walking characteristics of the user by comparing the walking characteristics indicated by the walking characteristics data and the walking characteristics indicated by the acquired analysis data;
    Identifying the physical condition of the user in the captured image based on the result of the determination;
    Physical condition detection program for running.
PCT/JP2015/064255 2014-08-25 2015-05-19 Physical condition-detecting apparatus, physical condition-detecting method, and physical condition-detecting program WO2016031313A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-170789 2014-08-25
JP2014170789A JP2017205134A (en) 2014-08-25 2014-08-25 Body condition detection device, body condition detection method, and body condition detection program

Publications (1)

Publication Number Publication Date
WO2016031313A1 true WO2016031313A1 (en) 2016-03-03

Family

ID=55399219

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/064255 WO2016031313A1 (en) 2014-08-25 2015-05-19 Physical condition-detecting apparatus, physical condition-detecting method, and physical condition-detecting program

Country Status (2)

Country Link
JP (1) JP2017205134A (en)
WO (1) WO2016031313A1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017170832A1 (en) * 2016-03-31 2017-10-05 Necソリューションイノベータ株式会社 Gait analyzing device, gait analyzing method, and computer-readable recording medium
JP2019063335A (en) * 2017-10-03 2019-04-25 マツダ株式会社 Activity estimation device
EP3438601A4 (en) * 2016-03-28 2019-11-20 NEC Solution Innovators, Ltd. Measurement device, measurement method, and computer readable recording medium
WO2020170299A1 (en) * 2019-02-18 2020-08-27 三菱電機株式会社 Fatigue determination device, fatigue determination method, and fatigue determination program
CN113271848A (en) * 2019-02-05 2021-08-17 株式会社日立制作所 Body health state image analysis device, method and system

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7059663B2 (en) * 2018-02-06 2022-04-26 日本電気株式会社 Information processing equipment
EP4223230A1 (en) * 2020-09-29 2023-08-09 Mitsubishi Tanabe Pharma Corporation Neuromuscular disease evaluation system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003290175A (en) * 2002-03-29 2003-10-14 Sony Corp Physical condition detector and program
JP2006136430A (en) * 2004-11-10 2006-06-01 Kyushu Institute Of Technology Evaluation function generation method, individual identification system and individual identification method
JP2010026235A (en) * 2008-07-18 2010-02-04 Panasonic Electric Works Co Ltd Camera angle controller
JP2010239992A (en) * 2009-03-31 2010-10-28 Sogo Keibi Hosho Co Ltd Person identification device, person identification method, and person identification program
JP2013255786A (en) * 2012-05-18 2013-12-26 Kao Corp Evaluation method for senile disorder risk

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003290175A (en) * 2002-03-29 2003-10-14 Sony Corp Physical condition detector and program
JP2006136430A (en) * 2004-11-10 2006-06-01 Kyushu Institute Of Technology Evaluation function generation method, individual identification system and individual identification method
JP2010026235A (en) * 2008-07-18 2010-02-04 Panasonic Electric Works Co Ltd Camera angle controller
JP2010239992A (en) * 2009-03-31 2010-10-28 Sogo Keibi Hosho Co Ltd Person identification device, person identification method, and person identification program
JP2013255786A (en) * 2012-05-18 2013-12-26 Kao Corp Evaluation method for senile disorder risk

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3438601A4 (en) * 2016-03-28 2019-11-20 NEC Solution Innovators, Ltd. Measurement device, measurement method, and computer readable recording medium
US10796449B2 (en) 2016-03-28 2020-10-06 Nec Solution Innovators, Ltd. Measurement device, measurement method, and computer readable recording medium
CN108778123B (en) * 2016-03-31 2021-04-06 日本电气方案创新株式会社 Gait analysis device, gait analysis method, and computer-readable recording medium
CN108778123A (en) * 2016-03-31 2018-11-09 日本电气方案创新株式会社 Gait analysis device, gait analysis method and computer readable recording medium storing program for performing
WO2017170832A1 (en) * 2016-03-31 2017-10-05 Necソリューションイノベータ株式会社 Gait analyzing device, gait analyzing method, and computer-readable recording medium
US11089977B2 (en) 2016-03-31 2021-08-17 Nec Solution Innovators, Ltd. Gait analyzing device, gait analyzing method, and computer-readable recording medium
JP2019063335A (en) * 2017-10-03 2019-04-25 マツダ株式会社 Activity estimation device
JP7041869B2 (en) 2017-10-03 2022-03-25 マツダ株式会社 Activity estimation device
CN113271848A (en) * 2019-02-05 2021-08-17 株式会社日立制作所 Body health state image analysis device, method and system
EP3922176A4 (en) * 2019-02-05 2022-10-26 Hitachi, Ltd. Physical health condition image analysis device, method, and system
CN113271848B (en) * 2019-02-05 2024-01-02 株式会社日立制作所 Body health state image analysis device, method and system
WO2020170299A1 (en) * 2019-02-18 2020-08-27 三菱電機株式会社 Fatigue determination device, fatigue determination method, and fatigue determination program
JPWO2020170299A1 (en) * 2019-02-18 2021-04-08 三菱電機株式会社 Fatigue judgment device, fatigue judgment method, and fatigue judgment program
GB2597378A (en) * 2019-02-18 2022-01-26 Mitsubishi Electric Corp Fatigue determination device, fatigue determination method, and fatigue determination program
GB2597378B (en) * 2019-02-18 2023-03-01 Mitsubishi Electric Corp Fatigue determination device, fatigue determination method, and fatigue determination program

Also Published As

Publication number Publication date
JP2017205134A (en) 2017-11-24

Similar Documents

Publication Publication Date Title
WO2016031313A1 (en) Physical condition-detecting apparatus, physical condition-detecting method, and physical condition-detecting program
Connor et al. Biometric recognition by gait: A survey of modalities and features
JP6534499B1 (en) MONITORING DEVICE, MONITORING SYSTEM, AND MONITORING METHOD
Mastorakis et al. Fall detection system using Kinect’s infrared sensor
JP5898199B2 (en) Posture estimation apparatus, posture estimation method, and posture estimation program
KR101118654B1 (en) rehabilitation device using motion analysis based on motion capture and method thereof
JP6334925B2 (en) Motion information processing apparatus and method
Dikovski et al. Evaluation of different feature sets for gait recognition using skeletal data from Kinect
EP3437557B1 (en) Gait analyzing device, gait analyzing method, and computer-readable recording medium
Wang et al. Home monitoring musculo-skeletal disorders with a single 3d sensor
KR102291039B1 (en) personalized sports service providing method and apparatus thereof
WO2016031314A1 (en) Individual identification device, individual identification method, and individual identification program
JP6737261B2 (en) Vital sign measuring device, vital sign measuring method, and vital sign measuring program
JP2019514102A (en) Behavior pattern analysis system and method using depth image
JP6638723B2 (en) Image analysis device, image analysis method, and image analysis program
JP2009211122A (en) Image processor and object estimation program
KR20160035497A (en) Body analysis system based on motion analysis using skeleton information
JP2009301242A (en) Head candidate extraction method, head candidate extraction device, head candidate extraction program and recording medium recording the program
JP6737262B2 (en) Abnormal state detection device, abnormal state detection method, and abnormal state detection program
JP2018161258A (en) Cognitive function evaluation support device, cognitive function evaluation support method, and program
US10796449B2 (en) Measurement device, measurement method, and computer readable recording medium
JP2009189671A (en) Walking cycle detection method, walking cycle detection apparatus, and walking cycle detection program
JP6565468B2 (en) Respiration detection device, respiration detection method, and respiration detection program
CN111435535A (en) Method and device for acquiring joint point information
Oluwadare Gait analysis on a smart floor for health monitoring

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15835981

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15835981

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP