JP2005258830A - Understanding system on person and action - Google Patents

Understanding system on person and action Download PDF

Info

Publication number
JP2005258830A
JP2005258830A JP2004069800A JP2004069800A JP2005258830A JP 2005258830 A JP2005258830 A JP 2005258830A JP 2004069800 A JP2004069800 A JP 2004069800A JP 2004069800 A JP2004069800 A JP 2004069800A JP 2005258830 A JP2005258830 A JP 2005258830A
Authority
JP
Japan
Prior art keywords
region
behavior
data
detection unit
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004069800A
Other languages
Japanese (ja)
Other versions
JP3767898B2 (en
Inventor
Yoshihiko Hamamoto
義彦 浜本
Takashi Ebisawa
敬 海老澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaguchi University NUC
Original Assignee
Yamaguchi University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaguchi University NUC filed Critical Yamaguchi University NUC
Priority to JP2004069800A priority Critical patent/JP3767898B2/en
Publication of JP2005258830A publication Critical patent/JP2005258830A/en
Application granted granted Critical
Publication of JP3767898B2 publication Critical patent/JP3767898B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide understanding system on a person and action that can be inexpensively constructed in a simple configuration, extracts data on the part region of a human body and a specific region, grasps the action features of the person, and further understands the action of the person with the action feature as a database. <P>SOLUTION: The understanding system on the person and his action comprises an imaging section 2 for detecting an imaging region including a subject person, a part detector 5 for extracting a part region, an action feature detector 6 for detecting the feature of action according to the amount of change in the data at the part region, and an action understanding section 7 for determining the action of the person by combining the features of action detected by the action feature detection section 6. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、人物をテレビカメラ等のような撮像装置で監視しながら、その人物の行動を理解するためのシステムに係り、特に撮像データから人物の部位領域データと特定領域データを抽出する処理部、そしてそのデータを用いて人物の行動特徴を検出する処理部、さらにその行動特徴からその人物の行動を理解する処理部といった階層化された処理構造を備える人物行動理解システムに関する。   The present invention relates to a system for understanding a person's behavior while monitoring the person with an imaging device such as a television camera, and in particular, a processing unit for extracting person's part area data and specific area data from imaging data. In addition, the present invention relates to a human behavior understanding system having a hierarchical processing structure such as a processing unit for detecting a human behavior feature using the data, and a processing unit for understanding the behavior of the person from the behavior feature.

近年、わが国の人口に占める高齢者の割合が漸増しており、今後この傾向は益々顕著になることが確実視されている。また、晩婚化、非婚化も相まって、少子高齢化社会を迎えつつある。このような社会の変化に伴い独居高齢者あるいは障害者などが安心して健康的な自立生活を営むための安全な住環境の整備が急務の課題となっている。
一方、IT(情報技術)の進歩はめざましく、インターネット網の構築によって様々な情報が瞬時のうちに容易に手に入るようになってきている。
このような環境下、独居高齢者を含む高齢世帯や障害者など特に要介護者に関する異常兆候をいち早く介護者や家族に知らせる異常通報システムに対する需要が高まりつつある。このようなニーズは、家庭のみならず病院や介護施設、老人ホームなどの医療機関、福祉機関などでも大きく、安価で高精度、さらに取扱いが容易なシステムが求められている。
このようなシステムとしては、例えば、特許文献1では「行動監視装置及びその方法」として監視対象となる人物が利用する空間に設けられた撮像手段と、この画像手段による撮像された撮像信号を取り込み、この画像信号中から監視対象となる人物部分を抽象化する抽象化処理手段と、この抽象化処理手段により監視対象となる人物部分が抽象化された画像信号を圧縮して保存する画像手段と、圧縮された画像信号を外部に向けて伝統する通信手段とを備えた技術が開示されている。
また、この特許文献1に開示された発明では、抽象化する部分にモザイク処理を施したり、画像の時間差分処理を施したりする技術も開示されている。
この特許文献1に開示された技術によれば、画像信号により人物の行動を遠隔監視し、人物画像をモザイク処理や時間的差分処理により抽象化することによってプライバシーを保護しつつ監視し、その行動を支援することができる。
In recent years, the proportion of elderly people in Japan's population has gradually increased, and it is certain that this trend will become more prominent in the future. In addition, due to late marriage and unmarried marriage, the society is declining and aging. Along with such changes in society, there is an urgent need to develop a safe living environment for elderly people living alone or persons with disabilities to live a healthy and independent life with peace of mind.
On the other hand, progress in IT (information technology) is remarkable, and various information can be easily obtained instantly by construction of the Internet network.
Under such circumstances, there is an increasing demand for an abnormality notification system that promptly notifies a caregiver or family of an abnormal sign regarding an elderly household including a single living alone or a disabled person such as a disabled person. Such needs are great not only in homes, but also in hospitals, nursing homes, nursing homes and other medical institutions, welfare institutions, etc., and a system that is inexpensive, highly accurate, and easy to handle is required.
As such a system, for example, in Patent Document 1, as “behavior monitoring apparatus and method thereof”, an imaging unit provided in a space used by a person to be monitored and an imaging signal captured by the imaging unit are captured. Abstraction processing means for abstracting a person portion to be monitored from the image signal; and image means for compressing and storing an image signal in which the person portion to be monitored is abstracted by the abstraction processing means; A technique including a communication means that traditionally directs a compressed image signal to the outside is disclosed.
The invention disclosed in Patent Document 1 also discloses a technique for performing mosaic processing on an abstracted portion or performing time difference processing of an image.
According to the technique disclosed in Patent Document 1, a person's action is remotely monitored by an image signal, and the person image is monitored while protecting privacy by abstracting the person image by mosaic processing or temporal difference processing. Can help.

また、特許文献2では「侵入物体追尾画像処理システム」として、侵入物体の検出に使用する画像信号を出力する広域視野の撮像レンズを備えたテレビジョンカメラと、電動雲台に搭載され侵入物体を追跡し拡大された画像監視に使用する画像信号を出力するズーミング可能な撮像レンズを備えたテレビジョンカメラと、広域視野の撮像レンズを備えたテレビジョンから入力された画像信号を処理し演算して電動雲台を所要量回動させるための回動制御信号とズーミング可能な撮像レンズを所要量ズーミングさせるためのズーミング制御信号とを出力する画像処理装置とを有し、所要の監視箇所に侵入した侵入物体を自動追尾し自動ズーミングして撮像するシステムが開示されている。
このシステムにおいては、侵入物体の自動検出を行うとともに、検出し演算したデータにより上下方向、左右方向へ回動する雲台を制御して侵入物体の自動追尾、ズーミング可能な撮像レンズを制御して侵入物体の拡大を行い、ビデオモニタの画面上で監視者に侵入物体の確認が容易となるという効果を発揮する。
In Patent Document 2, as an “intruding object tracking image processing system”, a television camera equipped with a wide-field imaging lens that outputs an image signal used to detect an intruding object, and an intruding object mounted on an electric head are used. Process and compute image signals input from a television camera with a zoomable imaging lens that outputs an image signal for use in tracking and enlarging image monitoring, and a television with an imaging lens with a wide field of view. An image processing device that outputs a rotation control signal for rotating the electric head by a required amount and a zooming control signal for zooming the zoomable imaging lens by a required amount; A system for automatically tracking and automatically zooming in on an intruding object is disclosed.
In this system, an intruding object is automatically detected, and an imaging lens capable of automatically tracking and zooming in an intruding object is controlled by controlling a head that rotates in the vertical and horizontal directions based on the detected and calculated data. The intruding object is enlarged, and the effect of facilitating the observer to confirm the intruding object on the video monitor screen is exhibited.

さらに、特許文献3では「ドライバの顔画像処理装置」として、自動車のドライバの顔を撮像するカメラと、このカメラより得られた顔画像を処理する画像処理装置にて構成され、装置の起動時においてこのカメラにより得られた該ドライバの正面顔を基にしてドライバの様々な顔の向きに対応した顔モデル群を生成し、この生成を完了した以降は、該ドライバの顔画像を循環的に入力し、顔モデル群内の最もよく一致する顔モデルを選択することによりドライバの顔の向きを検出するようにしたものである。
このような装置では、自動車のドライバの顔の向きを検出可能であり、ドライバの脇見等の行動監視が可能となる。
Further, in Patent Document 3, a “driver's face image processing device” includes a camera that captures the face of a driver of an automobile and an image processing device that processes a face image obtained from the camera. A face model group corresponding to the various face orientations of the driver is generated based on the driver's front face obtained by the camera in Step 1. After completing this generation, the driver's face image is cyclically generated. The driver's face orientation is detected by inputting and selecting the best matching face model in the face model group.
Such an apparatus can detect the orientation of the face of the driver of the automobile, and can monitor the behavior of the driver such as looking aside.

特開2000−216号公報JP 2000-216 A 特開平11−69342号公報Japanese Patent Laid-Open No. 11-69342 特開2003−308533号公報JP 2003-308533 A

しかしながら、上述の特許文献1及び2に開示された発明においては、人物や侵入物体の行動等を監視することができるが、その行動等の内容を判断するのは、もっぱら人間であり、必ず監視者がその内容を把握しなければならないという課題があった。すなわち、例えば無人で監視することはできず、最終的には人間の判断を必要とするという課題を有していた。
また、特許文献3に開示された発明においては、自動車のドライバの顔の向きを検出して、顔モデル群を生成しておき、カメラから得られた顔画像がこの顔モデル群のいずれに最も一致するかを判定し、1の顔モデルを選択することから、その選択には人間の判断を要しないものである点で、特許文献1や2に開示された発明とは異なる。
しかしながら、撮像された顔画像と顔モデル群との比較によって顔が正面を向いているか否かという単純な判断のみが可能であり、顔が正面を向いている際の行動内容や横を向いている際の行動内容など、判定された顔の向きを用いてさらにその顔あるいはドライバ自身の行動内容に関する判断ができないという課題があった。
However, in the inventions disclosed in Patent Documents 1 and 2 described above, it is possible to monitor the behavior of a person or an intruding object, but it is only human beings who judge the content of the behavior and the like. There was a problem that the person had to grasp the contents. That is, for example, it cannot be monitored unattended, and has a problem that it ultimately requires human judgment.
In the invention disclosed in Patent Document 3, the face direction of a driver of a car is detected to generate a face model group, and the face image obtained from the camera is the most in any of the face model groups. It is different from the inventions disclosed in Patent Documents 1 and 2 in that it is determined whether they match and one face model is selected, so that the selection does not require human judgment.
However, it is only possible to make a simple determination as to whether or not the face is facing the front by comparing the captured face image and the face model group. There is a problem that it is not possible to further determine the action content of the face or the driver himself using the determined face orientation such as the action content when the driver is present.

本発明はかかる従来の事情に対処してなされたものであり、簡素な構成で安価に構築できると共に、人体の部位領域や特定領域のデータを抽出しながら、その人物の行動特徴を把握し、さらに、その行動特徴をベースにしてその人物の行動を理解することができる人物行動理解システムを提供することを目的とする。   The present invention has been made in response to such a conventional situation, can be constructed at a low cost with a simple configuration, while grasping the behavior characteristics of the person while extracting the data of the region of the human body and the specific region, It is another object of the present invention to provide a human behavior understanding system that can understand the behavior of the person based on the behavior characteristics.

本発明の請求項1に記載の人物行動理解システムは、上述の課題を解決するために、被写対象の人物を含む撮像領域の検出を行う撮像部と、この撮像部によって撮像される人物領域に含まれる部位領域データを抽出する部位検出部と、部位検出部によって抽出された部位領域のデータの変化量によって行動の特徴を検出する行動特徴検出部と、行動特徴検出部によって検出された行動の特徴を組み合わせることによって人物の行動を判断する行動理解部と、を有する人物行動理解システムであって、部位検出部は、撮像部によって撮像された人物領域に含まれる部位領域候補の部位領域候補データを抽出する手段と、この抽出された部位領域候補データと予め設定される部位領域のテンプレートデータとを照合して部位領域データを抽出する手段とを備え、行動特徴検出部は、部位検出部によって検出された部位領域データの変化量を演算する手段と、部位領域データの変化量によって定められる行動特徴を示す行動特徴データテーブルから該人物の行動特徴を抽出する手段とを備え、行動理解部は、行動特徴検出部によって抽出された人物の行動特徴の組合せを、予め設定される人物の行動に対応付ける行動理解データテーブルから該人物の行動を抽出する手段を備えるものである。   In order to solve the above-described problems, a human behavior understanding system according to claim 1 of the present invention detects an imaging region including a person to be imaged, and a human region imaged by the imaging unit. A part detection unit that extracts part region data included in the action part, a behavior feature detection part that detects a behavior feature based on the amount of change in the part region data extracted by the part detection unit, and a behavior detected by the behavior feature detection part A behavior understanding unit that determines a person's behavior by combining the features of the part, and the part detection unit is a part region candidate of a part region candidate included in the person region imaged by the imaging unit Part region data is extracted by comparing the means for extracting data with the extracted part region candidate data and template data of a preset part region The behavior feature detection unit includes a means for calculating a change amount of the part region data detected by the part detection unit, and the person from the behavior feature data table indicating the behavior feature determined by the change amount of the part region data. The behavior understanding unit includes a behavior understanding data table that associates a combination of the person's behavior features extracted by the behavior feature detection unit with a preset behavior of the person. Is provided.

また、請求項2に記載の人物行動理解システムは、被写対象の人物を含む人物領域と別個に予め規定される特定領域を含む撮像領域の検出を行う撮像部と、この撮像部によって撮像される人物領域に含まれる部位領域データを抽出する部位検出部と特定領域データを抽出する特定領域検出部とを備える人体部位検出部と、人体部位検出部によって抽出された部位領域データと特定領域データの変化量によって行動の特徴を検出する行動特徴検出部と、行動特徴検出部によって検出された行動の特徴を組み合わせることによって人物の行動を判断する行動理解部と、を有する人物行動理解システムであって、部位検出部は、撮像部によって撮像された人物領域に含まれる部位領域候補の部位領域候補データを抽出する手段と、この抽出された部位領域候補データと予め設定される部位領域のテンプレートデータとを照合して部位領域データを抽出する手段とを備え、特定領域検出部は、撮像部によって撮像された特定領域に含まれる特定領域データを抽出する手段を備え、行動特徴検出部は、部位検出部によって検出された部位領域データの変化量を演算する手段と、特定領域検出部によって検出された特定領域データの変化量を演算する手段と、部位領域データの変化量及び特定領域データの変化量によって定められる行動特徴を示す行動特徴データテーブルから該人物の行動特徴を抽出する手段とを備え、行動理解部は、行動特徴検出部によって抽出された人物の行動特徴の組合せを、予め設定される人物の行動に対応付ける行動理解データテーブルから、該人物の行動を抽出する手段を備えるものである。   Further, the human behavior understanding system according to claim 2 is an image pickup unit that detects an image pickup region that includes a specific region that is defined in advance separately from a person region that includes a person to be imaged, and is picked up by the image pickup unit. A human body part detection unit including a part detection unit for extracting part region data included in the person region and a specific region detection unit for extracting specific region data; and the part region data and the specific region data extracted by the human body part detection unit A behavioral behavior understanding system having a behavioral feature detection unit that detects a behavioral feature based on a change amount of a behavior and a behavioral understanding unit that determines the behavior of a person by combining the behavioral features detected by the behavioral feature detection unit. The part detection unit includes means for extracting part region candidate data of a part region candidate included in the person region imaged by the imaging unit, and the extracted part Means for collating region candidate data with template data of a preset part region and extracting part region data, and the specific region detection unit extracts specific region data included in the specific region imaged by the imaging unit; Means for extracting, the behavior feature detecting unit calculates a change amount of the part region data detected by the part detection unit, and a means for calculating the change amount of the specific region data detected by the specific region detection unit; Means for extracting the behavior feature of the person from the behavior feature data table indicating the behavior feature determined by the change amount of the part region data and the change amount of the specific region data, and the behavior understanding unit is extracted by the behavior feature detection unit The action of the person is extracted from the action understanding data table that associates the combination of the action characteristics of the person with the action of the person set in advance. It is intended to provide means.

請求項3に記載の人物行動理解システムは、請求項2に記載の人物行動理解システムにおいて、特定領域は予め分割された複数の領域であって、行動特徴検出部は、部位検出部によって抽出された該部位領域データが、分割された特定領域のいずれの領域に存在するかという部位存在領域データについて検出する手段を備え、行動特徴テーブルはこの部位存在領域データと行動特徴を対応付けるものである。   The human behavior understanding system according to claim 3 is the human behavior understanding system according to claim 2, wherein the specific region is a plurality of regions divided in advance, and the behavior feature detection unit is extracted by the part detection unit. In addition, there is provided means for detecting part existence area data indicating in which of the divided specific areas the part area data is present, and the behavior feature table associates the part existence region data with the behavior feature.

請求項4に記載の人物行動理解システムは、請求項1乃至請求項3のいずれか1項に記載の人物行動理解システムにおいて、部位検出部は、人物の頭部領域の部位領域データを抽出する頭部検出部と、手領域の部位領域データを抽出する手検出部と、胴体領域の部位領域データを抽出する胴体検出部と、足領域の部位領域データを抽出する足検出部の内少なくとも1つの検出部を備えるものである。   The human behavior understanding system according to claim 4 is the human behavior understanding system according to any one of claims 1 to 3, wherein the part detection unit extracts part region data of a person's head region. At least one of a head detection unit, a hand detection unit that extracts part region data of the hand region, a torso detection unit that extracts part region data of the torso region, and a foot detection unit that extracts part region data of the foot region One detection unit is provided.

請求項5に記載の人物行動理解システムは、請求項1乃至請求項4のいずれか1項に記載の人物行動理解システムにおいて、部位領域データの変化量は、部位領域のデータの変化量、この変化量の変化速度、変化量の変化加速度のいずれか1つであるものである。   The human behavior understanding system according to claim 5 is the human behavior understanding system according to any one of claims 1 to 4, wherein the change amount of the part region data is the change amount of the data of the part region. It is one of change rate of change amount and change acceleration of change amount.

請求項6に記載の人物行動理解システムは、請求項1乃至請求項5のいずれか1項に記載の人物行動理解システムにおいて、行動理解部は、行動理解データテーブルから該人物の行動が抽出できない場合には、行動特徴検出部又は人体部位検出部において再検出を実行するように信号を送信するものである。   The person behavior understanding system according to claim 6 is the person behavior understanding system according to any one of claims 1 to 5, wherein the behavior understanding unit cannot extract the behavior of the person from the behavior understanding data table. In such a case, a signal is transmitted so that re-detection is executed in the behavior feature detection unit or the human body part detection unit.

請求項7に記載の人物行動理解システムは、請求項1乃至請求項6のいずれか1項に記載の人物行動理解システムにおいて、部位検出部は、抽出された部位領域データが単独である場合に、特定領域検出部、行動特徴検出部及び行動理解部を作動させるタスク制御手段を備えるものである。なお、本願明細書において、部位領域データが「単独」であるとは、部位の器官数が1つである場合には、その器官に関する部位領域データが1つである場合を意味し、また、部位の器官数が2つで一対である場合には、その器官に関する部位領域データが1つ又は一対である場合を意味する。
手や足など一対存在する器官の場合であれば、一対のそれぞれが検出される場合もあるが、一方が例えば布団などに隠れてしまいもう一方のみが検出されることもあるので、一対なくとも1つであっても単独の概念に含めることとした。
The human behavior understanding system according to claim 7 is the human behavior understanding system according to any one of claims 1 to 6, wherein the part detection unit is configured such that the extracted part region data is independent. , A task control means for activating the specific area detection unit, the behavior feature detection unit, and the behavior understanding unit. In the present specification, the region region data “single” means that when the number of organs in the region is one, the region region data relating to the organ is one, When the number of organs of a part is two and it is a pair, it means that the part region data regarding the organ is one or a pair.
In the case of a pair of organs such as hands and feet, each of the pair may be detected. However, one of them may be hidden behind a futon, for example, and only the other may be detected. Even one was included in a single concept.

請求項8に記載の人物行動理解システムは、請求項1乃至請求項7のいずれか1項に記載の人物行動理解システムにおいて、部位検出部によって抽出された部位領域データが単独である場合に、特定領域検出部、行動特徴検出部及び行動理解部を作動させるタスク制御手段を備えるものである。   The human behavior understanding system according to claim 8 is the human behavior understanding system according to any one of claims 1 to 7, wherein the part region data extracted by the part detection unit is alone. Task control means for operating the specific area detection unit, the behavior feature detection unit, and the behavior understanding unit is provided.

本発明の人物行動理解システムにおいては、請求項1に記載の人物行動理解システムでは、撮像部で得られた画像から人体部位検出部では人物の部位領域のデータを抽出し、行動特徴検出部では抽出された部位領域のデータの変化量を用いて人物の行動特徴を抽出し、さらにこの行動特徴あるいはその組合せを用いて行動理解部で行動を抽出するという階層構造を備えており、各部毎に機能を分担させて各々で情報を選択抽出しているため、高精度で人物の行動を把握することができる。   In the human behavior understanding system according to the present invention, in the human behavior understanding system according to the first aspect, the human body part detection unit extracts data of the human part region from the image obtained by the imaging unit, and the behavior feature detection unit It has a hierarchical structure in which the behavioral features of the person are extracted using the amount of change in the extracted part region data, and further, the behavioral understanding unit uses this behavioral feature or a combination thereof to extract the behavior. Since the functions are shared and information is selectively extracted for each, it is possible to grasp the behavior of the person with high accuracy.

また、請求項2に記載の人物行動理解システムにおいては、部位検出部に加えて特定領域検出部を備えることで、部位領域のデータのみならず特定領域のデータを抽出し、それらのデータを基に行動特徴を検出することができるので、より正確に高精度の行動理解を行うことができる。   In addition, in the human behavior understanding system according to claim 2, by providing a specific region detection unit in addition to the region detection unit, not only the region region data but also the specific region data is extracted, and the data is based on the data. Therefore, it is possible to more accurately understand the behavior.

特に、請求項3に記載の人物行動理解システムでは、請求項2に記載の発明の効果に加えて、部位存在領域データを検出することができるので、抽出された部位領域データが分割されたどの特定領域に存在するかが容易に把握でき、人物の部位とその存在位置の組合せが可能となることから行動特徴の検出がより容易となる。従って、人物の行動理解がより容易にしかも高精度で可能となる。   In particular, in the human behavior understanding system according to claim 3, in addition to the effect of the invention according to claim 2, it is possible to detect the region existing region data. It can be easily grasped whether it exists in a specific area, and since it becomes possible to combine a person's part and its existence position, it becomes easier to detect a behavior feature. Therefore, it is possible to understand the behavior of the person more easily and with high accuracy.

また、特に請求項4に記載の人物行動理解システムにおいては、請求項1乃至請求項3に記載の発明の効果に加えて、人物の特徴として捉えやすい頭部、手、胴体、足を検出することでより高精度に人物行動を把握することができる。   In addition, in the human behavior understanding system according to claim 4, in addition to the effects of the inventions according to claims 1 to 3, a head, hand, torso, and foot that are easy to grasp as human characteristics are detected. Therefore, it is possible to grasp the human behavior with higher accuracy.

請求項5に記載の人物行動理解システムでは、請求項1乃至請求項4に記載の発明と同様の効果に加えて、特に部位領域データの変化量として位置データの変化量のみならず、変化速度や変化加速度を用いて、より詳細な行動特徴を得ることで、詳細な行動理解を行うことができる。   In the human behavior understanding system according to the fifth aspect, in addition to the same effects as the inventions according to the first to fourth aspects, in particular, not only the change amount of the position data but also the change speed as the change amount of the part region data. It is possible to understand the behavior in detail by obtaining more detailed behavioral characteristics using the change acceleration.

特に、請求項6に記載の人物行動理解システムでは、請求項1乃至請求項5の発明の効果に加えて、フィードバック機能を備えることで、誤検出や誤演算を正しく修正してより正確な行動理解を促進することが可能である。   In particular, in the human behavior understanding system according to claim 6, in addition to the effects of the inventions of claims 1 to 5, a feedback function is provided so that correct detection of erroneous detection and miscalculation can be made and more accurate behavior can be obtained. It is possible to promote understanding.

請求項7及び請求項8に記載の発明においては、行動理解のための処理を実行するに際して、まず、部位検出部において正しい部位が検出された場合にのみ特定領域検出部や後段の行動特徴検出部及び行動理解部を作動させることで、省エネルギーで効率的に人物行動理解システムを稼動させることが可能であり、また、稼動の精度を高めることも可能である。   In the inventions according to claim 7 and claim 8, when executing the process for understanding the behavior, first, only when the correct part is detected in the part detection part, the specific region detection part and the subsequent action feature detection By operating the unit and the behavior understanding unit, it is possible to operate the human behavior understanding system efficiently with energy saving, and it is also possible to increase the accuracy of operation.

以下に本発明の実施の形態に係る人物行動理解システムについて図1乃至図29を参照しながら説明する。
図1は本発明の実施の形態に係る人物行動理解システムの構成図である。図1において、人物行動理解システム1は撮像部2、システム本体3及び出力部4から構成され、さらに第1データベース17、第2データベース18、第3データベース19を備えている。
まず、撮像部2では背景の中に存在する人物を背景ごと撮影して、撮像データ20を取得する。この撮像データ20は、撮像部2に接続されている第1データベース17に格納される。この撮像部2は例えば病院などの医療施設や介護施設あるいは独居高齢者や障害者をかかえる家庭などに設置されるもので、被写対象の人物は患者や高齢者あるいは障害者など何らかの介護を必要とする人物を想定している。従って、例えば病室のベッド傍の天井などに撮像部2が設置され、患者を高い位置からベッド廻りも含めて撮像するような状態である。
撮像部2による撮像領域には、被写対象の人物が占める人物領域と予め設定される撮像領域の一部又は全部の特定領域があり、人物領域は、さらにそれぞれの部位領域から構成されている。特定領域は、人物がいない状態で予め設定されるので、その特定領域の中に人物が入る場合がありその場合には人物領域と特定領域が重複する場合もある。また、この特定領域は、例えばベッド上の患者が起き上がったときの頭部位置周辺エリアをエリア1、枕周辺をエリア2、布団の領域をエリア3、ベッド廻りでエリア1,2,3のいずれにも属さない領域をエリア4などと分割しておくとよい。
なお、撮像部2は1台の固定カメラを想定するものであり、この撮像部2から得られる動画像に後述する複数の処理部を適用させて簡素かつ安価でありながら高い測定精度を担保する人物行動理解システムを提供するものである。
A human behavior understanding system according to an embodiment of the present invention will be described below with reference to FIGS.
FIG. 1 is a configuration diagram of a human behavior understanding system according to an embodiment of the present invention. In FIG. 1, the human behavior understanding system 1 includes an imaging unit 2, a system body 3, and an output unit 4, and further includes a first database 17, a second database 18, and a third database 19.
First, the imaging unit 2 captures a person in the background together with the background, and acquires the imaging data 20. This imaging data 20 is stored in the first database 17 connected to the imaging unit 2. The imaging unit 2 is installed in, for example, a medical facility such as a hospital, a nursing facility, or a family with an elderly person or a disabled person. The subject person needs some kind of care such as a patient, an elderly person, or a disabled person. Is assumed. Therefore, for example, the imaging unit 2 is installed on the ceiling near the bed in a hospital room, and the patient is imaged from a high position including around the bed.
The imaging area by the imaging unit 2 includes a person area occupied by the person to be imaged and a specific area of a part or all of the preset imaging area, and the person area is further composed of respective part areas. . Since the specific area is set in advance without a person, a person may enter the specific area. In this case, the specific area may overlap with the person area. In addition, this specific area is, for example, the area around the head position when the patient on the bed gets up, the area 2 around the pillow, the area 3 around the futon, or the areas 1, 2, 3 around the bed It is preferable to divide the area that does not belong to the area 4 or the like.
The imaging unit 2 is assumed to be a single fixed camera, and a plurality of processing units to be described later are applied to a moving image obtained from the imaging unit 2 to ensure high measurement accuracy while being simple and inexpensive. It provides a human behavior understanding system.

システム本体3は、人体部位検出部5と行動特徴検出部6と行動理解部7から構成される階層化された処理構造を備えている。第1の処理部である人体部位検出部5は、人物の部位領域を抽出するための部位検出部8と前述の特定領域を抽出するための特定領域検出部9から構成されている。これらの処理部が分散、協調して被写対象人物の行動理解を行う。
さらに、部位検出部8は、部位領域候補データ抽出手段10、部位領域データ照合手段11及びタスク制御手段13から構成されており、特定領域検出部9は、特定領域データ抽出手段12を備えている。
行動特徴検出部6は、人体部位検出部5に接続されており部位領域データ変化量演算手段14a、特定領域データ変化量演算手段14b、部位存在領域検出手段14c及び行動特徴抽出手段15から構成される。さらに、行動理解部7は、人物行動抽出手段16を備えている。
The system body 3 includes a hierarchized processing structure including a human body part detection unit 5, a behavior feature detection unit 6, and a behavior understanding unit 7. The human body part detection unit 5 which is a first processing unit includes a part detection unit 8 for extracting a person's part region and a specific region detection unit 9 for extracting the above-mentioned specific region. These processing units distribute and cooperate to understand the behavior of the subject person.
Further, the part detection unit 8 includes a part region candidate data extraction unit 10, a part region data collation unit 11 and a task control unit 13, and the specific region detection unit 9 includes a specific region data extraction unit 12. .
The behavior feature detection unit 6 is connected to the human body part detection unit 5 and includes a part region data change amount calculation unit 14a, a specific region data change amount calculation unit 14b, a part presence region detection unit 14c, and a behavior feature extraction unit 15. The Further, the behavior understanding unit 7 includes a person behavior extraction unit 16.

人体部位検出部5の部位検出部8は、撮像部2から直接に撮像データ20を読み出すかあるいは第1データベース17に格納された撮像データ20を読み出して、部位領域候補データ抽出手段10によって、撮像データ20の中から部位領域候補データを抽出し、さらに部位領域データ照合手段11で、第2データベース18に格納されているテンプレートデータ24から部位領域に関するデータと照合しながら、部位領域候補データの中から真の部位領域データ21を抽出する。抽出された部位領域データ21は第1データベース17に格納される。
なお、撮像データ20は一定のタイムスパンで撮像部2から伝送されるデータであり、それぞれの時間毎に時間をキーとして第1データベース17に格納されており、時間毎に読み出すことも可能である。また、抽出された部位領域データ21と特定領域データ22も時間毎に格納可能であり、その時間をキーとして格納されるのでその時間をキーとして読み出しも可能である。上記の一定のタイムスパンは、適宜本システムの利用者によって設定可能である。
The part detection unit 8 of the human body part detection unit 5 reads the imaging data 20 directly from the imaging unit 2 or reads the imaging data 20 stored in the first database 17, and the part region candidate data extraction unit 10 performs imaging. Part region candidate data is extracted from the data 20, and the part region data collating unit 11 collates the data related to the part region from the template data 24 stored in the second database 18, True region data 21 is extracted from the above. The extracted part region data 21 is stored in the first database 17.
Note that the imaging data 20 is data transmitted from the imaging unit 2 in a certain time span, and is stored in the first database 17 with each time as a key, and can be read out every time. . Also, the extracted part region data 21 and the specific region data 22 can be stored for each time, and the time is stored using the time as a key, so that it can be read using the time as a key. The fixed time span can be set as appropriate by the user of the present system.

また、部位領域候補データ抽出手段10における抽出は、予め撮像しておいた背景画像データ23との差分(以下、この背景画像データとの差分を背景差分と呼ぶことがある。)を取ったり、あるいは一定のタイムスパン毎に撮像されて第1データベース17に格納された撮像データ20間で差分(以下、この撮像データ20間での差分をフレーム間差分と呼ぶことがある。)を取ることによって行われる。背景差分は初期の状態からの変化を得ることができ、フレーム間差分は時々刻々と変化する動きを得ることができる。
一方、特定領域検出部9は部位検出部8と同様に特定領域データ抽出手段12によって撮像データ20の中から特定領域データ22を抽出する。抽出された特定領域データ22は第1データベース17に格納される。この特定領域データ22は予め特定されている領域(以下、エリアと呼ぶことがある。)に属する画素データを抽出するものである。
以上のとおり、人体部位検出部5では、撮像データ20に含まれる人物領域の部位領域データ21と特定領域データ22を抽出して第1データベース17に格納する。もちろん、第1データベース17に格納しなくとも行動特徴検出部6に送信してもよい。
Further, the extraction in the part region candidate data extraction unit 10 takes a difference from the background image data 23 captured in advance (hereinafter, the difference from the background image data may be referred to as a background difference). Alternatively, by taking a difference between the imaging data 20 captured every fixed time span and stored in the first database 17 (hereinafter, the difference between the imaging data 20 may be referred to as an inter-frame difference). Done. The background difference can obtain a change from the initial state, and the inter-frame difference can obtain a motion that changes every moment.
On the other hand, the specific area detection unit 9 extracts the specific area data 22 from the imaging data 20 by the specific area data extraction unit 12 as in the part detection unit 8. The extracted specific area data 22 is stored in the first database 17. The specific area data 22 is used to extract pixel data belonging to an area specified in advance (hereinafter sometimes referred to as an area).
As described above, the human body part detection unit 5 extracts the part area data 21 and the specific area data 22 of the person area included in the imaging data 20 and stores them in the first database 17. Of course, you may transmit to the action characteristic detection part 6, without storing in the 1st database 17. FIG.

また、行動特徴検出部6では、部位領域データ変化量演算手段14a及び特定領域データ変化量演算手段14bによって、人体部位検出部5において抽出された部位領域データ21と特定領域データ22を用いて、部位領域データの変化量や特定領域データの変化量を演算する。この変化量の具体例については後述するが、例えば部位の位置(特に重心位置)の変化量を示す部位領域データ変化量27や部位領域データ変化速度28や部位領域データ変化加速度29などがある。
これらの変化量の演算には、部位の位置変化量であれば部位領域データ21の基準となるような部位領域データ21と比較してその差を演算すればよく、また、フレーム間差分をとることによって、単位時間中の移動量を演算することによって部位変化速度28が得られるし、その部位変化速度28の単位時間中の変化を演算することで部位変化加速度29が得られる。また、特定領域データの変化量を示す特定領域データ変化量31であれば、特定領域データ22に含まれる領域の画素データとその画素データが撮像された時刻とは異なる時刻の画素データを比較することによって得られるものである。これによって何らかの変化がその特定領域において生じていることが把握される。また、この特定領域データ変化量31の単位時間中の変化を演算することで特定領域データ変化速度32が得られ、さらにその速度の単位時間中の変化を演算することで特定領域データ変化加速度33が得られる。
得られた部位領域データ変化量27、部位領域データ変化速度28、部位領域データ変化加速度29、特定領域データ変化量31、特定領域データ変化速度32、特定領域データ変化加速度33は演算結果を格納するための第3データベース19に格納される。
The behavior feature detection unit 6 uses the part region data 21 and the specific region data 22 extracted by the human body part detection unit 5 by the part region data change amount calculation unit 14a and the specific region data change amount calculation unit 14b. The change amount of the part region data and the change amount of the specific region data are calculated. Specific examples of the change amount will be described later. For example, there are a part region data change amount 27, a part region data change speed 28, a part region data change acceleration 29, and the like indicating a change amount of the position of the part (particularly the center of gravity position).
For the calculation of these change amounts, the difference may be calculated by comparing with the part region data 21 which is the reference of the part region data 21 if the position change amount of the part, and the difference between frames is taken. Thus, the part change speed 28 is obtained by calculating the amount of movement during the unit time, and the part change acceleration 29 is obtained by calculating the change of the part change speed 28 during the unit time. If the specific area data change amount 31 indicates the change amount of the specific area data, the pixel data of the area included in the specific area data 22 is compared with the pixel data at a time different from the time when the pixel data was captured. Can be obtained. As a result, it is understood that some kind of change occurs in the specific area. Further, the specific area data change rate 32 is obtained by calculating the change in the specific area data change amount 31 during the unit time, and the specific area data change acceleration 33 is obtained by calculating the change of the speed during the unit time. Is obtained.
The obtained part region data change amount 27, part region data change rate 28, part region data change acceleration 29, specific region data change amount 31, specific region data change rate 32, and specific region data change acceleration 33 store calculation results. Is stored in the third database 19 for the purpose.

なお、特定領域におけるデータの増減は、被写対象の人物自体の動きがいずれの場所で起こっているのかという情報や、特定領域に存在する枕や布団の位置の変化に関する情報などを検出可能であることから、人物の行動を理解する上でより正確に判断することができ、重要な判断材料となる。
このようにして得られた部位領域データ変化量と特定領域データ変化量を用いて、行動特徴抽出手段15では第2データベース18に格納されている行動特徴データテーブル25を読み出して参照しながら、先の部位領域データ変化量と周辺領域データ変化量によって定められる行動特徴を抽出する。
なお、特定領域検出部9、特定領域データ変化量演算手段14b及び部位存在領域検出手段14cは必須ではないが、これらによって特定領域データ変化量が演算されれば、行動特徴データテーブル25に予め設定しておく行動特徴データのバリエーションを増やして詳細に行動特徴を規定しておくことが可能である。
In addition, the increase or decrease of data in a specific area can detect information such as where the movement of the subject person itself occurs, information on changes in the position of pillows or futons in the specific area, etc. Therefore, it is possible to judge more accurately in understanding the behavior of a person, which is an important judgment material.
Using the part region data change amount and the specific region data change amount obtained in this manner, the behavior feature extraction unit 15 reads and references the behavior feature data table 25 stored in the second database 18 while referring to The behavior feature defined by the region region data change amount and the peripheral region data change amount is extracted.
Note that the specific area detection unit 9, the specific area data change amount calculation unit 14b, and the part presence area detection unit 14c are not essential, but if the specific area data change amount is calculated by these, they are set in the behavior feature data table 25 in advance. It is possible to specify behavior features in detail by increasing variations of behavior feature data.

行動特徴検出部6において抽出された行動特徴を用いて、行動理解部7の人物行動抽出手段16では、第2データベース18に格納された行動理解データテーブル26を読み出して参照しながら、この行動特徴によって定められる行動を抽出する。なお、行動特徴検出部6によって抽出される行動特徴については図20を参照しながら後述するが、かならず2つの行動特徴の組合せによって対応付けられた行動を抽出するものである。第1の行動特徴のもとで、第2の行動特徴ならば、その「行動」と理解するもので、この第1の行動特徴を本願明細書内では、前兆行動特徴と呼び、第2の行動特徴を確定行動特徴と呼ぶ。
ここで、部位検出部8に含まれているタスク制御手段13について説明する。本実施の形態に係る人物行動理解システム1は、前述のように、例えば病院の病室に入院する患者のベッド廻りを撮像して患者の行動などを監視しながらその安全を確保するためのシステムとして機能する。このようなケースで、患者の家族が見舞いに来ている状態あるいは医師や看護婦がそばについている場合であれば、たとえ容態が急変したりしても処置の対応が可能であるため特にこの様なシステムが作動していなくともよい。すなわち、患者が一人で病室にいる場合に監視が必要となるのである。したがって、撮像部2によって得られる撮像データ20において、患者一人のものと考えられる部位が検出された場合にのみ、特定領域検出部9や人体部位検出部5の後段として機能する行動特徴検出部6や行動理解部7を作動させればよいのである。
Using the behavior feature extracted by the behavior feature detection unit 6, the human behavior extraction means 16 of the behavior understanding unit 7 reads out and refers to the behavior understanding data table 26 stored in the second database 18, and this behavior feature. Extract the action defined by. The behavior features extracted by the behavior feature detection unit 6 will be described later with reference to FIG. 20, but the behavior associated with the combination of the two behavior features is always extracted. Under the first behavior feature, if it is the second behavior feature, it is understood as “behavior”. In the present specification, this first behavior feature is referred to as a precursor behavior feature. The behavior feature is called a definite behavior feature.
Here, the task control means 13 included in the part detection unit 8 will be described. As described above, the human behavior understanding system 1 according to the present embodiment is, for example, a system for ensuring safety while imaging a patient's bed around a hospital room and monitoring the behavior of the patient. Function. In such a case, if the patient's family is visiting, or if a doctor or nurse is nearby, it is possible to deal with treatment even if the condition suddenly changes. The system does not have to operate. That is, monitoring is necessary when the patient is alone in the hospital room. Therefore, the behavior feature detection unit 6 that functions as a subsequent stage of the specific region detection unit 9 or the human body part detection unit 5 only when a part considered to be one patient is detected in the imaging data 20 obtained by the imaging unit 2. The behavior understanding unit 7 may be activated.

タスク制御手段13は、そのような機能を備えるもので、部位領域候補データ抽出手段10と部位領域データ照合手段11によって抽出される真の部位領域データ21が、1つである場合あるいは一対である場合、すなわち被写対象の人物の部位が単独で検出された場合にのみ、特定領域検出部9や行動特徴検出部6や行動理解部7に信号を送信して作動させるものである。
これによって複数の部位領域データを検出した際には、その後の作動を停止して、再度、部位領域候補データ抽出手段10と部位領域データ照合手段11を作動させて撮像データ20から部位領域データを抽出して単独のデータであるか否かを判断することで、効率的に行動理解を行うと同時に、行動特徴や行動の誤認による誤った判断を避けて精度の高い行動理解を促進するものである。
本実施の形態においては、このタスク制御手段13は部位検出部8に含まれているが、必ずしも部位検出部8に含まれる必要はなく、タスク制御手段13が階層構造を形成する人体部位検出部5、行動特徴検出部6及び行動理解部7以外の構成要素として単独に存在するようにしてもよいことは言うまでもない。
The task control means 13 has such a function, and when the part region candidate data extraction means 10 and the part region data collation means 11 extract one true part region data 21, there is one or a pair. In this case, that is, only when a part of a person to be imaged is detected alone, a signal is transmitted to the specific area detection unit 9, the behavior feature detection unit 6, and the behavior understanding unit 7 to operate.
Thus, when a plurality of part region data are detected, the subsequent operation is stopped, and the part region candidate data extraction unit 10 and the part region data collating unit 11 are operated again to obtain the part region data from the imaging data 20. By extracting and judging whether the data is single data, it is possible to efficiently understand the behavior, and at the same time, avoid misjudgment due to behavioral features and misperception of the behavior and promote accurate behavior understanding. is there.
In the present embodiment, the task control unit 13 is included in the part detection unit 8, but it is not necessarily included in the part detection unit 8, and the human body part detection unit in which the task control unit 13 forms a hierarchical structure. 5. Needless to say, it may exist independently as a component other than the behavior feature detection unit 6 and the behavior understanding unit 7.

さらに、行動特徴検出部6に設けられている部位存在領域検出手段14cについて説明を加える。
前述のとおり予め設定される特定領域を分割し、分割された領域にそれぞれID符号を付してエリア1などとしておき、部位検出部8によって抽出される部位領域データ21が、この分割されID符号を備えたいずれの領域に含まれるかを部位存在領域データ30として検出する手段である。
検出された部位存在領域データ30は、第3データベース19に格納される。この部位存在領域データ30は、行動特徴検出部6の行動特徴抽出手段15において、部位領域データ変化量あるいは特定領域データ変化量と組み合せられ、その組合せに対して定められる行動特徴が行動特徴データテーブル25から抽出されることになる。この具体例については後述する。
Furthermore, the part presence area | region detection means 14c provided in the action characteristic detection part 6 is demonstrated.
As described above, the specific area set in advance is divided, ID codes are attached to the divided areas to form areas 1 and the like, and the part area data 21 extracted by the part detection unit 8 is divided into ID codes. It is a means to detect as which site | part area | region area | region data 30 it is included in which area | region provided.
The detected part existence region data 30 is stored in the third database 19. This part existence region data 30 is combined with the part region data change amount or the specific region data change amount in the behavior feature extraction means 15 of the behavior feature detection unit 6, and the behavior feature determined for the combination is the behavior feature data table. 25. A specific example will be described later.

次に、部位検出部8が部位領域データ21を抽出するまでの作用について図2乃至図9を参照しながら説明する。図2は、部位検出部8の一種であり、部位として頭部を想定する頭部検出部8aの構成図である。
図2において、入力画像40とは、撮像データ20をシステム本体3への入力情報として捉えた場合の名称であり、実質的には撮像データ20と同一である。頭部検出部8aに入力された入力画像40は、部位領域候補データ抽出手段10の一種で頭部候補データ抽出部10aによって読み出され、この頭部候補データ抽出部10aを構成する、肌色領域抽出部44a、正規化明度背景差分抽出部44b、RGB背景差分抽出部44c及び髪色領域抽出部44dに送信される。
Next, the operation until the part detection unit 8 extracts the part region data 21 will be described with reference to FIGS. FIG. 2 is a configuration diagram of a head detection unit 8a which is a kind of the site detection unit 8 and assumes a head as a site.
In FIG. 2, an input image 40 is a name when the imaging data 20 is captured as input information to the system body 3, and is substantially the same as the imaging data 20. The input image 40 input to the head detection unit 8a is read by the head candidate data extraction unit 10a as a kind of part region candidate data extraction means 10, and the skin color region constituting the head candidate data extraction unit 10a The data is transmitted to the extraction unit 44a, the normalized lightness background difference extraction unit 44b, the RGB background difference extraction unit 44c, and the hair color region extraction unit 44d.

まず、2つの共通領域抽出部46a,46bに関連するRGB背景差分抽出部44cから説明する。
RGB背景差分抽出部44cでは、図3に示されるようにRGB成分を備えた入力画像40に対して第2データベース18に格納されている背景画像データ23との差分を抽出するものである。背景画像データ23は被写対象の人物が存在しない状態で撮像部2から取得されたデータであるため、入力画像40との差分を取ることによれば、被写対象の人物を中心として、さらに布団や枕など当初の状態とは異なる状態にある物が差分として抽出される。このようにして得られたのが2値画像45cである。
First, the RGB background difference extraction unit 44c related to the two common area extraction units 46a and 46b will be described.
The RGB background difference extraction unit 44c extracts a difference from the background image data 23 stored in the second database 18 with respect to the input image 40 having RGB components as shown in FIG. Since the background image data 23 is data acquired from the imaging unit 2 in a state where no subject person exists, by taking the difference from the input image 40, the background image data 23 is further centered on the subject person. Objects in a different state from the original state, such as futons and pillows, are extracted as differences. A binary image 45c is obtained in this way.

なお、図3中に入力画像40として示されるデータは、1次元配列となっており、そのデータ数は縦横の画素(ピクセル)がそれぞれ240個と320個であり、さらにRGBの3成分を考慮するため、その3倍となっている。図4は、入力画像40の画素配置を示す概念図である。座標は図4中の左上が原点となり、そこからX軸は右方向に320ピクセル、Y軸は下方向に240ピクセル存在しており、それぞれ、X軸ではi番目、Y軸ではj番目のピクセルを(xi,yi)と表現される。   Note that the data shown as the input image 40 in FIG. 3 is a one-dimensional array, and the number of data is 240 pixels and 320 pixels in the vertical and horizontal directions, respectively, and three RGB components are taken into consideration. Therefore, it is three times that. FIG. 4 is a conceptual diagram showing the pixel arrangement of the input image 40. The coordinates are the origin at the upper left in FIG. 4, from which the X axis is 320 pixels rightward and the Y axis is 240 pixels downward, i-th on the X-axis and j-th on the Y-axis, respectively. Is expressed as (xi, yi).

また、差分演算について図5を参照しながら説明を追加する。図5はRGB背景差分抽出部44cで実行される処理内容を示すフロー図である。図5において、ステップS11では入力画像40中の画素(x,y)の明度R(x,y),G(x,y),B(x,y)と背景画像データ23中の画素(x、y)の明度R(x,y),G(x,y),B(x,y)を抽出し、ステップS12でその不一致度Dを求める。ステップS13で、その不一致度Dと不一致度に対するしきい値Sを比較して、不一致度Dがしきい値Sよりも大きい場合には、画素(x,y)の値を1とし、そうでない場合には、0とする2値化処理を行うのである。これによって、図2に示されるような2値画像45cが抽出されるのである。なお、しきい値Sは適宜予め設定される数値である。 Further, the difference calculation will be described with reference to FIG. FIG. 5 is a flowchart showing the processing contents executed by the RGB background difference extraction unit 44c. 5, in step S11, the lightness R (x, y), G (x, y), B (x, y) of the pixel (x, y) in the input image 40 and the pixel (x in the background image data 23) , Y) brightness R B (x, y), G B (x, y), B B (x, y) are extracted, and the discrepancy D B is obtained in step S12. In step S13, by comparing the threshold S D for the inconsistency D B and inconsistency, if inconsistency degree D B is larger than the threshold value S D is the value of pixel (x, y) 1 If this is not the case, a binarization process of 0 is performed. As a result, a binary image 45c as shown in FIG. 2 is extracted. The threshold value SD is a numerical value set in advance as appropriate.

次に、図2に示される肌色領域抽出部44aについて、図6を参照しながら説明する。肌色領域抽出部44aは、RGB背景差分抽出部44cなどと同様に入力画像40を撮像部2から直接読み出すかあるいは第1データベース17から読み出して、肌モデルデータ24aと比較して2値画像45aを抽出する。ここで、肌モデルデータ24aについて説明を加える。肌色を示すI値は、各画素のRGB成分を用いて式(1)で示される数値として既に知られる手法であり、一般的に用いられるものである。   Next, the skin color area extraction unit 44a shown in FIG. 2 will be described with reference to FIG. The skin color area extraction unit 44a reads the input image 40 directly from the imaging unit 2 or reads it from the first database 17 in the same manner as the RGB background difference extraction unit 44c, etc., and compares the input image 40 with the skin model data 24a to generate a binary image 45a. Extract. Here, the skin model data 24a will be described. The I value indicating the skin color is a technique already known as a numerical value represented by Expression (1) using the RGB component of each pixel, and is generally used.

予め、肌モデルデータ24aとして被写対象の人物の肌色のI値の分布を正規分布と仮定しI値の平均μと標準偏差σを用いて表現しておき、入力画像40中の各画素に対して式(2)で示される判別式を用いることで、肌色と判断される画素には1を、そうでない場合には0を入力することで2値化処理を行い2値画像45aを抽出するのである。すなわち、テンプレートデータ24にはこのように式で表現される場合も含まれるのである。   As the skin model data 24a, the distribution of the I value of the skin color of the person to be imaged is assumed to be a normal distribution and expressed using the average μ of the I value and the standard deviation σ, and each pixel in the input image 40 is expressed. On the other hand, by using the discriminant represented by the equation (2), a binary image 45a is extracted by performing binarization processing by inputting 1 to a pixel determined to be skin color, and otherwise inputting 0. To do. In other words, the template data 24 includes such a case expressed by an expression.

次に、正規化明度背景差分抽出部44bでは、RGB背景差分抽出部44cと同様に、背景差分を抽出するが、この正規化明度背景差分抽出部44bでは正規化明度の差分を抽出するところに特徴がある。この正規化明度とは、図5のステップS11に示したそれぞれの画素のRGB毎の明度が明度の合計に占める割合を表すものであり、具体的には、下記の式(3)で表現される。   Next, the normalized lightness background difference extraction unit 44b extracts a background difference in the same manner as the RGB background difference extraction unit 44c, but the normalized lightness background difference extraction unit 44b extracts a difference in normalized lightness. There are features. This normalized lightness represents the ratio of the lightness of each pixel RGB shown in step S11 of FIG. 5 to the total lightness, and is specifically expressed by the following equation (3). The

このように正規化明度の差分を取ることによれば、RGB背景の差分を取るこことに比べて照明条件が変化しても正規化明度値には影響がないという特徴があることが知られており、白色など淡色の影響を小さくすることができるため、例えば布団などを抽出することなく人物の部位をより明確に抽出することができる。
本実施の形態では、特に、病室にいる患者を被写対象人物として想定しており、この背景の差分では人物の他にも当初位置から移動した物も抽出されるため、人物の部位を抽出するためには、動いた布団や枕といった白色あるいは有色であっても淡色の物を可能な限り排除することが重要となる。従って、RGB背景差分抽出部44cのみならず正規化明度背景差分抽出部44bを加えているのである。
この正規化明度背景差分抽出部44bにおいてもRGB背景差分抽出部44cと同様に図5に示されるようなフロー図に従って2値化処理を行い、2値画像45bを抽出する。
It is known that taking the difference in normalized brightness in this way has a characteristic that there is no effect on the normalized brightness value even if the illumination condition changes compared to taking the difference in RGB background. Since the influence of light colors such as white can be reduced, for example, a person's part can be extracted more clearly without extracting a futon or the like.
In the present embodiment, in particular, a patient in a hospital room is assumed as a subject person, and in this background difference, in addition to the person, an object moved from the initial position is also extracted. In order to do this, it is important to eliminate as much as possible white or colored materials such as moving futons and pillows. Therefore, not only the RGB background difference extraction unit 44c but also the normalized lightness background difference extraction unit 44b is added.
Similarly to the RGB background difference extraction unit 44c, the normalized lightness background difference extraction unit 44b performs binarization processing according to the flowchart shown in FIG. 5 and extracts a binary image 45b.

さらに、髪色領域抽出部44dでも第2データベース18から髪モデルデータ24bを読み出して髪色領域抽出部44dから抽出されたデータと比較しながら2値化処理を施して2値画像45dを得る。
このようにして肌色領域抽出部44a〜髪色領域抽出部44dで得られた2値画像45a〜2値画像45dは、共通領域抽出部46a、共通領域抽出部46bを用いて共通部分に関する2値画像47a、2値画像47bを抽出する。このように共通領域に関して2値化処理を実施してさらに2値画像を得ることによって、より精度の高い頭部領域候補が抽出される。
Furthermore, the hair color region extraction unit 44d also reads the hair model data 24b from the second database 18 and performs a binarization process while comparing it with the data extracted from the hair color region extraction unit 44d to obtain a binary image 45d.
The binary images 45a to 45d obtained by the skin color region extraction unit 44a to the hair color region extraction unit 44d in this way are binary values related to the common portion using the common region extraction unit 46a and the common region extraction unit 46b. An image 47a and a binary image 47b are extracted. In this way, binarization processing is performed on the common region to obtain a binary image, whereby a head region candidate with higher accuracy is extracted.

図7を参照しながら2値画像45cと2値画像45dを用いて共通領域抽出部46bで共通領域を抽出して2値画像47bを取得する方法について説明する。図7は、共通領域抽出部46bがRGB背景差分と髪色の2値画像から共通画像を抽出することを説明するための概念図である。
図7において、2値画像Aは、RGB背景差分抽出部44cで抽出された2値画像45cであり、2値画像Bは、髪色領域抽出部44dで抽出された2値画像45dである。これらの2値画像A,Bは共通領域抽出部46bによって読み出され、その2つの画像の共通の画像について1と共通部分以外では0を入力して2値画像47bを求めている。この共通領域抽出部46bにおける演算は、2値画像A上で画素(x,y)の画素値をA(x,y)とし、2値画像B上で画素(x,y)の画素値をB(x,y)とすると、出力される2値画像Cは、式(4)で示されるような式に基づいて値を求める。なお、すなわち、A(x,y)とB(x,y)がそれぞれ1であればC(x,y)も1となるが、いずれかが0であれば、C(x,y)も0となる。
A method of acquiring the binary image 47b by extracting the common region by the common region extraction unit 46b using the binary image 45c and the binary image 45d will be described with reference to FIG. FIG. 7 is a conceptual diagram for explaining that the common area extraction unit 46b extracts a common image from the binary image of the RGB background difference and the hair color.
In FIG. 7, a binary image A is a binary image 45c extracted by the RGB background difference extraction unit 44c, and a binary image B is a binary image 45d extracted by the hair color region extraction unit 44d. These binary images A and B are read by the common area extraction unit 46b, and 0 is input to the common image of the two images except for 1 and the common part to obtain the binary image 47b. In the calculation in the common area extraction unit 46b, the pixel value of the pixel (x, y) on the binary image A is A (x, y), and the pixel value of the pixel (x, y) on the binary image B is calculated. Assuming B (x, y), the output binary image C obtains a value based on an equation as shown in equation (4). That is, if A (x, y) and B (x, y) are each 1, C (x, y) is also 1, but if either is 0, C (x, y) is also 0.

式(4)中の符号∩は論理積を示す。2値画像47bにおいて、黒く塗られている部分が共通部分であり、この部分がRGB背景差分によって抽出された変化のある画素と髪色として抽出された画素が混在している領域となる。従って、この領域は、頭部の中でも特に髪の領域の候補ということができる。この共通領域抽出部46bと同様に、2値画像45a〜2値画像45cを用いて共通領域を抽出して2値画像47aが求められる。この2値画像47aは、2値画像47bが髪の領域の候補であったのに対して顔の領域の候補ということができる。
頭部検出部8aでは2つの2値画像を抽出し、テンプレートマッチング部11aでは、さらにこの2値画像を予め第2データベース18に格納された頭部テンプレートデータ24cと比較して最終的な頭部領域2値画像48aを抽出する。すなわち、2値画像47a、2値画像47bの時点では、まだ頭部候補であり、その数はそれぞれ複数存在する可能性があるが、頭部テンプレートデータ24cと比較することで、最終的に被写対象の人物の頭部のデータを1つに絞り得るのである。なお、頭部テンプレートデータ24cは、詳細にいえば、顔テンプレートデータと髪テンプレートデータの2種類があり、それぞれについて2値画像47aと2値画像47bを照合して頭部領域2値画像48aを抽出するのである。
The sign 中 in equation (4) indicates a logical product. In the binary image 47b, a portion painted in black is a common portion, and this portion is a region where pixels having a change extracted by the RGB background difference and pixels extracted as a hair color are mixed. Therefore, it can be said that this region is a candidate for a hair region in the head. Similar to the common area extraction unit 46b, the binary image 47a is obtained by extracting the common area using the binary images 45a to 45c. The binary image 47a can be said to be a face region candidate, whereas the binary image 47b is a hair region candidate.
The head detecting unit 8a extracts two binary images, and the template matching unit 11a further compares the binary images with the head template data 24c stored in the second database 18 in advance to obtain a final head. A region binary image 48a is extracted. That is, at the time of the binary image 47a and the binary image 47b, it is still a head candidate, and there may be a plurality of each of them. The head data of the person to be copied can be narrowed down to one. In detail, the head template data 24c includes two types of face template data and hair template data. The binary image 47a and the binary image 47b are collated with each other to obtain a head region binary image 48a. Extract it.

このテンプレートマッチング部11aにおいて、頭部領域2値画像48aを抽出する方法について図8及び図9を参照しながら説明する。図8は、頭部候補データを頭部テンプレートデータに照合する状態を示す概念図であり、図9(a)は頭部候補領域に係る2値画像47aを長方形のボーダーとして捉える様子を模式的に示す概念図、図9(b)は頭部テンプレートデータ24cのうち、演算に用いる部分を示すための概念図である。
図8及び図9(a)において、共通領域抽出部46aにおいて抽出された頭部候補領域に係る2値画像47aは、それを含む長方形として捉えられ、その中心(x、y)が求められる。この中心に対して、予め第2データベース18に格納されている頭部テンプレートデータ24cの中心を(x,y−h/4)として求める。この頭部テンプレートデータ24cの中心座標は、人間の顔のつくりをベースに概略として求めるものであり、適宜修正してもよい。
次に、図9(b)に示されるように頭部テンプレートデータ24cの長軸aと短軸bを式(5)によって求める。
A method of extracting the head region binary image 48a in the template matching unit 11a will be described with reference to FIGS. FIG. 8 is a conceptual diagram showing a state in which head candidate data is collated with head template data. FIG. 9A schematically shows a state in which a binary image 47a related to a head candidate region is captured as a rectangular border. FIG. 9B is a conceptual diagram for showing a part used for calculation in the head template data 24c.
8 and 9A, the binary image 47a related to the head candidate region extracted by the common region extraction unit 46a is regarded as a rectangle including the same, and the center (x, y) is obtained. With respect to this center, the center of the head template data 24c stored in advance in the second database 18 is obtained as (x, y−h / 4). The center coordinates of the head template data 24c are obtained as a rough outline based on the creation of a human face, and may be modified as appropriate.
Next, as shown in FIG. 9B, the major axis “a” and the minor axis “b” of the head template data 24c are obtained by Expression (5).

このように定めることによって、前髪の位置は先に考えた長方形の上辺に一致することになる。従って、長方形の上辺より上側が髪領域であり、それより下が顔領域となる。そこで、頭部テンプレートデータ24cの顔領域内にある2値画像47aの画素数と、頭部テンプレートデータ24cの髪領域内にある2値画像45cの画素数の和Tを求め、式(6)で表現される適合率rを求める。
第2データベース18に格納されている頭部テンプレートデータ24cは、この長軸と短軸によって、適合率の演算に使用される部分を限定していることになる。
By defining in this way, the position of the bangs coincides with the upper side of the previously considered rectangle. Therefore, the upper side of the rectangle is the hair region, and the lower side is the face region. Therefore, the sum T of the number of pixels of the binary image 47a in the face region of the head template data 24c and the number of pixels of the binary image 45c in the hair region of the head template data 24c is obtained, and the equation (6) The precision r expressed by is obtained.
In the head template data 24c stored in the second database 18, the portion used for calculation of the precision is limited by the long axis and the short axis.

候補領域の中でこの適合率rが最大になったもの、あるいはしきい値を設けておき、そのしきい値を超えたものを頭部領域2値画像48aとして抽出する。
最大のものとすると、常に1つの頭部が認識されるものの、前述のとおり例えば病室に患者以外の肉親や医療関係者が存在した際に、患者以外の一人の人間が認識される可能性があるためにタスク制御手段を活用しようとしても必ず1つの部位が検出されてしまうとタスク制御手段が機能しないこととなってしまう。そこで、タスク制御手段などを作動させる場合にはしきい値を設けておき、撮像領域に人物が複数存在する際に、複数の部位すなわち、単独ではない部位が検出されるようにしておくことが望ましい。
なお、長軸aと短軸bのhを用いた式は一例であり適宜修正してもよいことは言うまでもない。
また、本実施の形態における上述の頭部領域2値画像48aの抽出は頭部テンプレートデータ24cの中でも特に顔テンプレートデータに基づくものであるが、髪テンプレートデータを用いて頭部領域2値画像48aを決定するようにしてもよい。すなわち、2値画像47bを用いる場合には、頭部テンプレートデータ24cの髪領域内にある2値画像47bの画素数と、頭部テンプレートデータ24cの顔領域内にある2値画像45cの画素数の和T'を求め、式(6)と同様に表現される適合率r'を求めるようにすればよい。なお、その際には式(5)は適宜修正して使用してもよい。
さらに、互いの適合率を各頭部領域候補において施して、最も適合率の高い領域を頭部領域としてもよい。
Among the candidate areas, a threshold value is provided for the matching rate r that is maximized, or a threshold value that exceeds the threshold value is extracted as a head area binary image 48a.
If it is the maximum, one head is always recognized, but if there are relatives other than the patient or medical personnel in the hospital room as described above, there is a possibility that one person other than the patient will be recognized. For this reason, even if one tries to use the task control means, the task control means will not function if one part is always detected. Therefore, when operating the task control means or the like, a threshold value is provided so that when there are a plurality of persons in the imaging region, a plurality of parts, that is, parts that are not single are detected. desirable.
Needless to say, the formula using h of the major axis a and the minor axis b is an example and may be modified as appropriate.
Further, the extraction of the head region binary image 48a described above in the present embodiment is based on the face template data in the head template data 24c, but the head region binary image 48a is obtained using the hair template data. May be determined. That is, when the binary image 47b is used, the number of pixels of the binary image 47b in the hair region of the head template data 24c and the number of pixels of the binary image 45c in the face region of the head template data 24c. And the matching rate r ′ expressed in the same manner as Equation (6) may be obtained. In this case, the formula (5) may be appropriately modified and used.
Furthermore, the matching rate of each other may be applied to each head region candidate, and the region with the highest matching rate may be set as the head region.

次に、図10を参照しながら図1に示される部位検出部8の一種である胴体検出部8bについて説明する。図10は、部位として胴体を想定する胴体検出部8bの構成図である。
図10において、胴体検出部8bに入力された入力画像40は、部位領域候補データ抽出手段10の一種である胴体候補データ抽出部10bによって読み出され、この胴体候補データ抽出部10bを構成するRGB差分抽出部50に送信される。このRGB差分抽出部50は、図2に示した頭部検出部8aのRGB背景差分抽出部44cと同様のものであり、第2データベース18に格納された背景画像データ23を読み出して比較して背景差分を取るものである。
Next, the body detection unit 8b which is a kind of the part detection unit 8 shown in FIG. 1 will be described with reference to FIG. FIG. 10 is a configuration diagram of the trunk detection unit 8b assuming a trunk as a part.
In FIG. 10, an input image 40 input to the body detection unit 8b is read out by a body candidate data extraction unit 10b, which is a kind of part region candidate data extraction means 10, and RGB constituting the body candidate data extraction unit 10b. It is transmitted to the difference extraction unit 50. This RGB difference extraction unit 50 is the same as the RGB background difference extraction unit 44c of the head detection unit 8a shown in FIG. 2, and reads and compares the background image data 23 stored in the second database 18. The background difference is taken.

ここで得られた背景差分領域51はクラスタリング部52に送出される。このクラスタリング部52では、背景差分領域51内の画素に対するクラスタリングを行う。クラスタリングとは、グルーピングあるいはグループ化することを意味し、同じような位置で同じような明度を備える画素をまとめることで胴体領域の検出をより容易に精度よく行うものである。
通常、被写対象の人物は何らかの衣服を着ており、その衣服は例えばパジャマなどであるが模様が施されている場合が多い。そこで、その模様の特徴を予めテンプレートデータ24内に胴体のテンプレートデータとして格納しておき、その胴体のテンプレートデータと照合するためにクラスタリングを行うものである。
The background difference area 51 obtained here is sent to the clustering unit 52. The clustering unit 52 performs clustering on the pixels in the background difference area 51. Clustering means grouping or grouping, and the body region is detected more easily and accurately by grouping pixels having similar brightness at similar positions.
Usually, the person to be imaged wears some kind of clothes, and the clothes are, for example, pajamas but are often provided with a pattern. Therefore, the feature of the pattern is stored in advance as template data of the trunk in the template data 24, and clustering is performed in order to collate with the template data of the trunk.

具体的にクラスタリングの手順を説明する。
(1)まず、背景差分領域51内のJ個の画素をランダムに選択し、それらを初期クラスタ中心とする。初期クラスタにおいては、J個の画素のそれぞれの座標、色成分を各クラスタの平均ベクトルの成分とする。
(2)次に、画素pとクラスタk(k=1,2,...,J)の平均ベクトルZとのユークリッド距離d(k、p)を求め、画素pをd(k,p)が最小となるクラスタに統合する。
(3)背景差分領域51内の全画素に対して(2)の処理を行う。
(4)(3)により再構成されたクラスタkの平均ベクトルZを再計算する。
(5)各クラスタの平均ベクトル間の距離を計算し、最小の距離にあるクラスタ同士を統合する。
(6)クラスタ数がJになるまで(4)、(5)の処理を繰り返す。
(6)のクラスタ数Jは、適宜設定してよい。さらに、クラスタリング部52では、このようにクラスタリングされて求められた各クラスタにおいて、その明度の平均値に対して正規化明度を演算する。この正規化明度値と予め設定された胴体のテンプレートデータをパジャマモデルマッチング部11bで照合して胴体領域2値画像48bを抽出する。この胴体のテンプレートデータは、例えばパジャマの色の分布のモデルであり、肌色のI値の分布と同様にパジャマの色の分布モデルを正規分布と仮定してその平均μと標準偏差σを用いて表現しておき、式(3)と同様のしきい値からこのしきい値を満たす画素数が最も多いクラスタを胴体のクラスタとして検出する。但し、パジャマの色の分布モデルに含まれる画素数が予め別途設定したしきい値以下である場合には、画像内に胴体がないと判断する。
A clustering procedure will be specifically described.
(1) First, J N pixels in the background difference area 51 are selected at random and set as the initial cluster center. In the initial clusters, each of the coordinates of J N pixels, the color component as a component of the average vector of each cluster.
(2) Next, the Euclidean distance d (k, p) between the pixel p and the average vector Z k of the cluster k (k = 1, 2,..., J N ) is obtained, and the pixel p is set to d (k, Integrate into the cluster with the smallest p).
(3) The process (2) is performed on all the pixels in the background difference area 51.
(4) Recalculate the average vector Z k of the cluster k reconstructed by (3).
(5) The distance between the average vectors of each cluster is calculated, and the clusters at the minimum distance are integrated.
(6) until the number of clusters is J P (4), and repeats the processing of (5).
Cluster number J P (6) may be set as appropriate. Further, the clustering unit 52 calculates the normalized lightness with respect to the average value of the lightness in each cluster obtained by clustering in this way. The normalized brightness value and preset template data of the trunk are collated by the pajama model matching unit 11b to extract the trunk region binary image 48b. The body template data is, for example, a model of pajama color distribution, and assumes that the pajama color distribution model is a normal distribution and uses its mean μ and standard deviation σ as in the skin color I value distribution. In other words, the cluster having the largest number of pixels satisfying this threshold value is detected as the body cluster from the same threshold value as in the expression (3). However, when the number of pixels included in the pajama color distribution model is equal to or less than a threshold value set separately in advance, it is determined that there is no body in the image.

次に、図11を参照しながら図1に示される部位検出部8の一種である手検出部8cについて説明する。図11は、部位として手を想定する手検出部8cの構成図である。
図11において、手検出部8cに入力された入力画像40は、部位領域候補データ抽出手段10の一種で手候補データ抽出部10cによって読み出され、この手候補データ抽出部10cを構成する肌色領域抽出部54a、フレーム間差分抽出部54b及びエッジ2値画像抽出部54cに送信される。
このうち、肌色領域抽出部54aは、図2に示した肌色領域抽出部44aと同様の作用と効果を有するものである。肌色領域2値画像55aを抽出するために、第2データベース18のテンプレートデータ24中に手の肌モデルデータを格納しておき、式(1)と同様な式を用いることで、2値画像45aと同様の肌色領域2値画像55aを抽出することができる。
Next, a hand detection unit 8c, which is a type of the part detection unit 8 shown in FIG. 1, will be described with reference to FIG. FIG. 11 is a configuration diagram of the hand detection unit 8c that assumes a hand as a part.
In FIG. 11, an input image 40 input to the hand detection unit 8c is read by the hand candidate data extraction unit 10c as a kind of part region candidate data extraction means 10, and the skin color region constituting the hand candidate data extraction unit 10c. The data is transmitted to the extraction unit 54a, the interframe difference extraction unit 54b, and the edge binary image extraction unit 54c.
Among these, the skin color area extraction unit 54a has the same operations and effects as the skin color area extraction unit 44a shown in FIG. In order to extract the skin color region binary image 55a, the skin model data of the hand is stored in the template data 24 of the second database 18, and a binary image 45a is obtained by using an equation similar to the equation (1). The same skin color area binary image 55a can be extracted.

一方、フレーム間差分抽出部54bについて図12を参照しながら説明する。図12は、フレーム間差分抽出部54bの作用を説明するための概念図である。図12において、入力画像40を読み出して、さらにTフレーム前の入力画像40aを第1データベース17に格納されている部位領域データ21の中より読み出す。この2つの入力画像に関するフレーム間差分を取ることによって、フレーム間差分2値画像55bを演算する。
このフレーム間差分2値画像55bの演算方法について図13を参照しながら説明する。図13は、フレーム間差分抽出部54bで実行される処理内容を示すフロー図である。図13において、ステップS21では入力画像40中の画素(x,y)の明度R(x,y),G(x,y),B(x,y)とTフレーム前の入力画像40a中の画素(x、y)の明度R(x,y),G(x,y),B(x,y)を抽出し、ステップS22でその不一致度Dを求める。ステップS23で、その不一致度Dと不一致度に対するしきい値Sを比較して、不一致度Dがしきい値Sよりも大きい場合には、画素(x,y)の値を1とし、そうでない場合には、0とする2値化処理を行うのである。これによって、図11に示されるようなフレーム間差分2値画像55bが抽出されるのである。なお、しきい値Sは適宜予め設定される数値である。
On the other hand, the inter-frame difference extraction unit 54b will be described with reference to FIG. FIG. 12 is a conceptual diagram for explaining the operation of the inter-frame difference extraction unit 54b. In FIG. 12, the input image 40 is read out, and the input image 40 a before Tb frame is read out from the part region data 21 stored in the first database 17. The inter-frame difference binary image 55b is calculated by taking the inter-frame difference regarding the two input images.
A method of calculating the inter-frame difference binary image 55b will be described with reference to FIG. FIG. 13 is a flowchart showing the processing contents executed by the inter-frame difference extraction unit 54b. 13, the brightness R of the pixels in the input image 40 in step S21 (x, y) (x , y), G (x, y), B (x, y) and T b previous frame of the input image 40a in The brightness R F (x, y), G F (x, y), and B F (x, y) of the pixel (x, y) are extracted, and the mismatch degree D F is obtained in step S22. In step S23, by comparing the threshold S F for that inconsistency D F and inconsistency, if inconsistency degree D F is larger than the threshold value S F is the value of pixel (x, y) 1 If this is not the case, a binarization process of 0 is performed. Thereby, the inter-frame difference binary image 55b as shown in FIG. 11 is extracted. The threshold value SF is a numerical value set in advance as appropriate.

次に、図14を参照しながらエッジ2値画像抽出部54cについて説明する。図14はエッジ2値画像抽出部54cにおける作用を説明するための概念図である。図14において、ステップS31として表現されている入力画像40のエッジ2値画像抽出部54cによる読み出しは、ステップS32におけるエッジ成分の検出工程につながる。このエッジ成分の検出は、示される座標から明らかなように4つの隣接する画素のそれぞれのRGB成分についてあたかもたすきがけのようにして行われる。
このようにして求められたエッジ成分は、ステップS33で示されるように入力画像40中の画素のエッジ成分の和Eを求め、このエッジ成分の和Eとしきい値Seを比較してエッジ成分の和Eが大きい場合には、画素値を1とし、そうでない場合には画素値を0として2値化処理が施される。このようにしてエッジ2値画像55cを抽出するのである。
Next, the edge binary image extraction unit 54c will be described with reference to FIG. FIG. 14 is a conceptual diagram for explaining the operation of the edge binary image extraction unit 54c. In FIG. 14, reading of the input image 40 expressed as step S31 by the edge binary image extraction unit 54c leads to an edge component detection step in step S32. The detection of the edge component is performed as if it were as if for each of the RGB components of four adjacent pixels, as is apparent from the coordinates shown.
The edge component thus obtained is obtained as a sum E of the edge components of the pixels in the input image 40 as shown in step S33, and the sum E of the edge components and the threshold value Se are compared to determine the edge component. If the sum E is large, the pixel value is set to 1, and if not, the pixel value is set to 0 and binarization processing is performed. In this way, the edge binary image 55c is extracted.

次に、図11に戻り共通領域抽出部56について説明する。この共通領域抽出部56では、先に図7を用いて説明した共通領域抽出部46bと同様の手法によって手候補領域を含む2値画像57を抽出する。
この手候補領域を含む2値画像57と先に説明したエッジ2値画像55cからエッジマッチング部11cは手領域2値画像48cを抽出する。このエッジマッチング部11cによる手領域2値画像48cの抽出の作用について図15を参照しながら説明する。図15(a)は、手候補領域を含む2値画像を模式的に示す概念図であり図15(b)は、エッジ2値画像を模式的に示す概念図である。図15(a)においては、示される丸印は手候補領域を含む2値画像57の境界線を示すものである。この境界線をまず抽出し、その後、この境界線における2値画像とエッジ2値画像55cの論理積を取る。この論理積とは、先に式(4)として説明したものであり、いずれも画素値が1である場合には論理積は1となるが、その画素値が1となった画素数を計数し、一致率としてこの画素値が1となった画素数と先の境界線における画素数の比を演算する。そして、この一致率が最大となる領域を手領域とする。
なお、頭部検出部8aの箇所で説明したとおり、最大のものとすると、常に1つあるいは一対の手が認識されるものの、タスク制御手段が機能しないこととなってしまうので、タスク制御手段などを作動させる場合にはしきい値を設けておき、撮像領域に人物が複数存在する際に、複数の部位すなわち、単独ではない部位が検出されるようにしておくことが望ましい。
Next, returning to FIG. 11, the common area extraction unit 56 will be described. The common area extraction unit 56 extracts a binary image 57 including a hand candidate area by the same method as the common area extraction unit 46b described above with reference to FIG.
The edge matching unit 11c extracts the hand region binary image 48c from the binary image 57 including the hand candidate region and the edge binary image 55c described above. The operation of extracting the hand region binary image 48c by the edge matching unit 11c will be described with reference to FIG. FIG. 15A is a conceptual diagram schematically showing a binary image including a hand candidate area, and FIG. 15B is a conceptual diagram schematically showing an edge binary image. In FIG. 15A, the circles shown indicate the boundary lines of the binary image 57 including the hand candidate area. This boundary line is first extracted, and then the logical product of the binary image and the edge binary image 55c at this boundary line is obtained. This logical product is the one described above as equation (4). In both cases, when the pixel value is 1, the logical product is 1, but the number of pixels having the pixel value of 1 is counted. Then, the ratio of the number of pixels having the pixel value of 1 as the coincidence rate and the number of pixels on the previous boundary line is calculated. Then, an area where the coincidence rate is maximum is taken as a hand area.
As described in the section of the head detection unit 8a, if it is the maximum, the task control means will not function although one or a pair of hands will always be recognized. It is desirable to set a threshold value when operating the camera, and to detect a plurality of parts, that is, parts that are not singular when there are a plurality of persons in the imaging region.

なお、本実施の形態の説明においては、足検出部については手検出部と同じアルゴリズムで抽出することができる。具体的には、例えば図11においては、手に対して構成される要素について、これを足についての構成要素とすればよい。肌色領域抽出部54a、フレーム間差分抽出部54b、エッジ2値画像抽出部54cなどについても足用に構成すればよい。その他の構成要素についても同様である。もちろん、第2データベース18には足のためのテンプレートデータを格納しておく必要がある。   In the description of the present embodiment, the foot detection unit can be extracted with the same algorithm as the hand detection unit. Specifically, for example, in FIG. 11, an element configured for the hand may be used as a component for the foot. The skin color area extraction unit 54a, the interframe difference extraction unit 54b, the edge binary image extraction unit 54c, and the like may be configured for the foot. The same applies to other components. Of course, it is necessary to store template data for the foot in the second database 18.

以上、部位検出部8について説明した。次に、行動特徴検出部6を構成する部位領域データ変化量演算手段14aと特定領域データ変化量演算手段14bについて図16を参照しながら説明する。
図16(a)は特定領域データ変化量演算手段14bの作用を説明するためのフロー図であり、図16(b)は部位存在領域検出手段14cの作用を説明するためのフロー図である。図16(a)において、特定領域検出部9で抽出された分割された特定領域の各エリアに含まれる時刻tにおけるRGB背景差分領域の画素数について、その単位時刻前の同じRGB背景差分領域の画素数を比較することによって、例えばふとん領域(エリア3)の差分が増加したかどうかを判断し、そうであれば1とし、そうでなければ0とする2値化処理を行う。このエリア3については、先にも一例として説明したが図17に示すとおりである。具体的には、ベッド上の患者が起き上がったときの頭部位置周辺エリアをエリア1、枕周辺をエリア2、布団の領域をエリア3、ベッド廻りでエリア1,2,3のいずれにも属さない領域をエリア4としている。
また、図16(b)においては、頭部検出部8aによって抽出された頭部の重心座標に着目し、その重心座標がエリア1に含まれるか否かを判断し、それであれば1とし、そうでなければ0とする2値化処理を行うものである。
Heretofore, the part detection unit 8 has been described. Next, the part area data change amount calculation means 14a and the specific area data change amount calculation means 14b constituting the behavior feature detection unit 6 will be described with reference to FIG.
FIG. 16A is a flowchart for explaining the operation of the specific area data change amount calculating means 14b, and FIG. 16B is a flowchart for explaining the action of the region existing area detecting means 14c. In FIG. 16A, regarding the number of pixels of the RGB background difference area at time t included in each area of the divided specific area extracted by the specific area detection unit 9, the same RGB background difference area before the unit time is obtained. By comparing the number of pixels, for example, it is determined whether or not the difference of the futon area (area 3) has increased. This area 3 has been described above as an example, but is as shown in FIG. Specifically, when the patient on the bed gets up, the area around the head position belongs to area 1, area around the pillow area 2, area 3 of the futon area, and areas 1, 2, and 3 around the bed. The area that does not exist is designated as area 4.
In FIG. 16B, paying attention to the center-of-gravity coordinates of the head extracted by the head detection unit 8a, it is determined whether or not the center-of-gravity coordinates are included in the area 1. Otherwise, binarization processing is performed with 0.

図18は、図16に示されるようにして実行された特定領域検出部9からの出力を用いた2値化処理の結果によって定められる行動特徴を表現する概念図である。図18において、例えば、現状の状態を「寝ている」状態としておき、特定領域検出部9において、時刻tと時刻t−1におけるエリア1のRGB差分の画素数の差を求め、それが増加か等しいか減少であるかを判断する。   FIG. 18 is a conceptual diagram expressing behavior features defined by the result of the binarization process using the output from the specific area detection unit 9 executed as shown in FIG. In FIG. 18, for example, the current state is set to “sleeping”, and the specific area detection unit 9 obtains the difference in the number of pixels of the RGB difference of area 1 at time t and time t−1 and increases it. It is judged whether it is equal or decreased.

その結果自体が、図19で示される行動特徴データテーブル25の一部に含まれている。図19は、行動特徴データテーブルの一例を示す概念図である。例えば、図18のエリア1のRGB差分の画素数が、エリア1で増加したと仮定すると、図19の行動特徴データテーブル25では、ID=b2で示される行動特徴となる。この図18に示される演算と判断が図1における特定領域データ変化量演算手段14bで実行される。また、その特定領域データ変化量演算手段14bで実行された結果得られた行動特徴データは行動特徴抽出手段15によって第2データベース18に格納された行動特徴データテーブル25を読み出して実行される。特定領域データ変化量演算手段14bで演算された特定領域データ変化量31、特定領域データ変化速度32、特定領域データ変化加速度33は第3データベース19に格納される。
特定領域検出部9で抽出された特定領域データ22を利用するだけでなく、図16(b)に示される例えば頭部検出部8aによって抽出された頭部の重心座標に関して部位存在領域検出手段14cで図16に示されるような演算と判断を行い、行動特徴抽出手段15によって第2データベース18に格納された行動特徴データテーブル25を読み出してID=a7で示される行動特徴である「頭部がエリア1に存在する」が抽出される。部位存在領域検出手段14cで演算された部位存在領域データ30は、第3データベース19に格納される。
The result itself is included in a part of the behavior feature data table 25 shown in FIG. FIG. 19 is a conceptual diagram illustrating an example of a behavior feature data table. For example, if it is assumed that the number of pixels of the RGB difference in area 1 in FIG. 18 has increased in area 1, the behavior feature data table 25 in FIG. 19 has the behavior feature indicated by ID = b2. The calculation and determination shown in FIG. 18 are executed by the specific area data change amount calculation means 14b in FIG. Further, the behavior feature data obtained as a result of the execution by the specific area data change amount calculation means 14b is read out by the behavior feature extraction means 15 from the behavior feature data table 25 stored in the second database 18. The specific area data change amount 31, the specific area data change speed 32, and the specific area data change acceleration 33 calculated by the specific area data change amount calculation unit 14 b are stored in the third database 19.
In addition to using the specific area data 22 extracted by the specific area detection unit 9, for example, the part presence area detection means 14c regarding the barycentric coordinates of the head extracted by the head detection unit 8a shown in FIG. 16 is performed, and the behavior feature data table 25 stored in the second database 18 is read by the behavior feature extraction means 15 and the behavior feature indicated by ID = a7 is “head. “Existing in area 1” is extracted. The part existing area data 30 calculated by the part existing area detecting means 14 c is stored in the third database 19.

なお、図16には図示していないが、部位領域データ変化量演算手段14aについても同様に頭部検出部8aによって抽出された頭部の重心座標の移動による変化量などを演算し、その変化量から例えば図19にID=a1で示される行動特徴である「頭部が一定速度以上で移動する」などが抽出される。部位領域データ変化量演算手段14aによって演算される部位領域データ変化量27、部位領域データ変化速度28、部位領域データ変化加速度29は第3データベース19に格納される。
このように行動特徴検出部6で行動特徴データテーブル25を使用して抽出された行動特徴は、図1に示される行動理解部7へ伝送される。行動理解部7では、人物行動抽出手段16が、行動特徴を組み合せることによって第2データベース18に格納されている行動理解データテーブル26を読み出して最終的な人物の行動を抽出することになる。
Although not shown in FIG. 16, the region region data change amount calculation means 14 a similarly calculates the change amount due to the movement of the center of gravity coordinates of the head extracted by the head detection unit 8 a, and the change For example, the action feature indicated by ID = a1 in FIG. 19 “the head moves at a certain speed or higher” is extracted from the quantity. The part region data change amount 27, the part region data change rate 28, and the part region data change acceleration 29 calculated by the part region data change amount calculation unit 14 a are stored in the third database 19.
The behavior features extracted by the behavior feature detection unit 6 using the behavior feature data table 25 in this way are transmitted to the behavior understanding unit 7 shown in FIG. In the behavior understanding unit 7, the human behavior extraction means 16 reads out the behavior understanding data table 26 stored in the second database 18 by combining the behavior features, and extracts the final human behavior.

本実施の形態に係る人物行動理解システム1の大きな特徴として、前述の前兆行動特徴と確定行動特徴による行動理解プロセスがある。この行動理解のプロセスを模式的に表現したのが図20である。図20において、「行動特徴」のもとで「行動特徴」ならば「行動」と理解すると示されているが、最初の「行動特徴」が前兆行動特徴であり、後の「行動特徴」が確定行動特徴となる。この行動理解プロセスでは、1つの行動特徴で行動を理解するのではなく、前兆と確定の2つの行動特徴をもってはじめて行動と理解するものである。このように2段構えの行動理解プロセスを備えることで、行動理解を確実なものにして誤認などがないようにしている。なお、前兆行動特徴がある行動に対して複数存在する場合にはこれらはORで考えられ、確定行動特徴がある行動に対して複数存在するならば、これらはANDで考えられる。これによって、可能性は広く考えるが確定する際には絞り込むというスタンスが明確となっている。   As a major feature of the human behavior understanding system 1 according to the present embodiment, there is a behavior understanding process based on the precursor behavior feature and the confirmed behavior feature described above. FIG. 20 schematically shows this process of understanding behavior. In FIG. 20, it is indicated that “behavior” is understood as “behavior” under “behavior feature”, but the first “behavior feature” is a precursor behavior feature and the subsequent “behavior feature” is It becomes a definite behavior feature. In this behavior understanding process, an action is not understood with one behavior characteristic, but is understood with behavior only with two behavior characteristics of a precursor and a confirmation. By providing a two-stage action understanding process in this way, the action understanding is ensured and no misunderstandings are caused. In addition, when there are a plurality of behaviors with a predictive behavior feature, these are considered as OR, and when there are a plurality of behaviors with a definite behavior feature, they are considered as AND. This clarifies the stance of broadly considering the possibilities but narrowing down when they are finalized.

図21及び図22を参照しながら行動理解のプロセスの具体例を説明する。図21(a)乃至(d)は、いずれも第2データベース18に格納される行動理解データテーブル26の一例である。また、図22(a)は、被写対象の人物の行動の状態遷移図を示すものであり、図22(b)は(a)の行動の状態遷移図の一部を拡大しながらさらに、その遷移の条件を示す概念図である。
図21(a)において、「背景差分がエリア3で増加する」という前兆行動特徴のもとで、「頭部がエリア1に存在する」という確定行動特徴と「背景差分がエリア4に存在しない」という別の確定行動特徴を備えているならば、「寝ているから起きている」という行動と理解するものである。この他の図21(b)乃至(d)については記載のとおりであるためその説明を省略する。
図22(a)において、符号60a〜60eは人物の状態の候補を示すものであり、符号61a〜61gはその状態遷移の方向を示すものである。寝ている状態60aと起きている状態60dでは互いに遷移の可能性があるため、互いに矢印が向いているが、寝ている状態60aと転落している状態60bでは、寝ている状態60aから転落している状態60bへのみ矢印が向いている。
図21(a)の行動を見ると、「寝ている」から「起きている」への遷移であり、図22(a)の符号60aから符号60dへの矢印で符号61aとなる。
A specific example of the behavior understanding process will be described with reference to FIGS. 21 and 22. FIGS. 21A to 21D are examples of the behavior understanding data table 26 stored in the second database 18. FIG. 22 (a) shows a state transition diagram of the behavior of the person to be imaged, and FIG. 22 (b) further expands a part of the behavior state transition diagram of (a). It is a conceptual diagram which shows the conditions of the transition.
In FIG. 21A, based on the predictive behavior feature “background difference increases in area 3”, the definite behavior feature “head exists in area 1” and “background difference does not exist in area 4”. If it has another deterministic behavior feature, it is understood that the behavior is “being awake because of sleeping”. Since the other FIGS. 21B to 21D are as described, the description thereof is omitted.
In FIG. 22A, reference numerals 60a to 60e indicate candidate human states, and reference numerals 61a to 61g indicate the direction of the state transition. Since there is a possibility of transition between the sleeping state 60a and the waking state 60d, the arrows are pointing to each other, but the sleeping state 60a and the falling state 60b fall from the sleeping state 60a. The arrow is pointing only to the active state 60b.
Looking at the behavior of FIG. 21 (a), it is a transition from “sleeping” to “waking up”, and the arrow from the reference numeral 60a to the reference numeral 60d in FIG.

この遷移の条件について図22(b)を参照しながらもう一度説明する。図22(b)では、行動特徴検出部6において抽出される行動特徴がいくつか存在すると考えられ、そのうち、寝ている状態で、図中、1.で表現される「起きている」への行動特徴検出があるとした場合、符号61aで示される状態遷移の方向へ進んで、「起きている」という状態になるためには、さらに、図中2.で表現される「起きている」への行動特徴検出がなされなければならないのである。
これが先に説明した前兆行動特徴と確定行動特徴と呼ぶものである。これらの2つの行動特徴が検出されてはじめて状態の遷移と判断し、その状態遷移が行動なのである。
この行動理解のための行動理解データテーブル26を利用した演算では、図19で示したようなIDをキーとすることで論理的な演算を実行するとよい。
This transition condition will be described once again with reference to FIG. In FIG. 22 (b), it is considered that there are some behavior features extracted by the behavior feature detection unit 6, and among them, 1. If there is an action feature detection for “Waking up” expressed by “”, in order to proceed to the state transition direction indicated by the reference numeral 61a and become “Waking up” state, 2. The behavioral feature detection for “Waking up” expressed in the above must be made.
This is called the precursor behavior feature and the definite behavior feature described above. Only when these two behavior features are detected is a state transition determined, and the state transition is a behavior.
In the calculation using the behavior understanding data table 26 for understanding the behavior, a logical calculation may be executed by using the ID as shown in FIG. 19 as a key.

このようにして行動として理解された内容は、図1に示されるように出力部4に表示される。
その際には、第1データベース17乃至第3データベース19に格納されている様々なデータや演算結果を適宜表示するとよい。
The contents understood as actions in this way are displayed on the output unit 4 as shown in FIG.
At that time, various data and calculation results stored in the first database 17 to the third database 19 may be appropriately displayed.

次に、図23及び図24を参照しながら本実施の形態に係る人物行動理解システム1のフィードバックについて説明する。
図23は、人物行動理解システム1全体のフィードバックを含めた概略構成図であり、図24(a)はフィードバックの作用を説明するための概念図であり、図24(b)はフィードバックの条件を説明するためのフロー図である。
図23において、既に説明したとおり、入力画像40は人体部位検出部5によって読み出され、人体部位検出部5では頭部や手、さらに胴体などの検出を行う。検出後、それらの情報を基に行動特徴検出部6において、行動特徴の抽出を行い、さらに抽出された行動特徴を基に行動理解部7において行動理解を行うのである。そして、これら人体部位検出部5、行動特徴検出部6、行動理解部7の階層構造を利用しながら互いに協調が可能なように行動理解部7から行動特徴検出部6へ実行される第1フィードバック65と行動特徴検出部6から人体部位検出部5へ実行される第2フィードバック66が設けられている。
Next, feedback of the human behavior understanding system 1 according to the present embodiment will be described with reference to FIGS.
FIG. 23 is a schematic configuration diagram including feedback of the entire human behavior understanding system 1, FIG. 24 (a) is a conceptual diagram for explaining the action of feedback, and FIG. 24 (b) shows feedback conditions. It is a flowchart for demonstrating.
In FIG. 23, as already described, the input image 40 is read by the human body part detection unit 5, and the human body part detection unit 5 detects a head, a hand, and a torso. After detection, the behavior feature detection unit 6 extracts behavior features based on the information, and the behavior understanding unit 7 performs behavior understanding based on the extracted behavior features. The first feedback executed from the behavior understanding unit 7 to the behavior feature detection unit 6 so as to be able to cooperate with each other using the hierarchical structure of the human body part detection unit 5, the behavior feature detection unit 6, and the behavior understanding unit 7. 65 and a second feedback 66 that is executed from the behavior feature detection unit 6 to the human body part detection unit 5 is provided.

この2つのフィードバックについて図24(a),(b)を参照しながら説明を加える。図24(a)において、まず行動理解部7にて「寝ている」を検出したとする。その際に、第1フィードバック65によって行動特徴検出部6で矛盾する行動特徴の有無を確認する。その結果、図24(a)に示されるように、「頭部がエリア4に存在」という行動特徴を検出したとする。このエリア4は先に説明したとおり、ベッドの下など寝ている状態では頭がそこにあるはずがないようなエリアである。従って、その行動特徴は行動理解部7における行動理解と矛盾しており、従って、本実施の形態に係る人物行動理解システム1では、行動特徴検出部6から人体部位検出部5に対して第2フィードバック66を実行させて頭部検出部による再検出を指令する。
一方、図24(b)に示されるように、もし、「頭部がエリア4に存在する」という行動特徴が行動特徴検出部6において検出されなかったとすれば、矛盾はないので、そのままフィードバックなしとなる。このように人体部位検出部5から行動理解部7への情報の流れと、これとは逆に流れるチェック機能を備えており、階層構造を効果的に活用することにより、より精度の高い人物行動理解システムとしている。
The two feedbacks will be described with reference to FIGS. 24 (a) and 24 (b). In FIG. 24A, it is assumed that the action understanding unit 7 first detects “sleeping”. At that time, the behavior feature detector 6 confirms the presence or absence of contradictory behavior features by the first feedback 65. As a result, as shown in FIG. 24A, it is assumed that the behavior feature “the head is in area 4” is detected. As described above, this area 4 is an area where the head cannot be there when sleeping such as under a bed. Therefore, the behavior feature is inconsistent with the behavior understanding in the behavior understanding unit 7. Therefore, in the human behavior understanding system 1 according to the present embodiment, the behavior feature detection unit 6 performs the second operation on the human body part detection unit 5. The feedback 66 is executed to instruct redetection by the head detection unit.
On the other hand, as shown in FIG. 24 (b), if the behavior feature “the head is in area 4” is not detected by the behavior feature detection unit 6, there is no contradiction, so there is no feedback. It becomes. As described above, the flow of information from the human body part detection unit 5 to the behavior understanding unit 7 and the check function that flows in the opposite direction are provided, and by using the hierarchical structure effectively, more accurate human behavior It is an understanding system.

以上説明したとおり、本実施の形態に係る人物行動理解システム1は、人体部位検出部5、行動特徴検出部6、行動理解部7という階層構造を備えて分散、協調しながら入力画像を処理することができ、高い精度を発揮することができる。また、人物の部位のみならず、特定領域を想定してそれを複数に分割してエリア毎に背景差分の増減などを演算することで、被写対象となる人物のみならず、周囲の変化も捉えることが可能であると同時に、エリアに分割するに留まって、詳細に周囲を解析することはしないため処理される画素データが比較的軽い。従って、高い精度を発揮しながら行動理解の判断に必要な演算装置の性能に制限がほとんどなく、必要な時間も短くて済むという顕著な効果を有する。   As described above, the human behavior understanding system 1 according to the present embodiment has a hierarchical structure of the human body part detection unit 5, the behavior feature detection unit 6, and the behavior understanding unit 7, and processes input images while being distributed and coordinated. And high accuracy can be achieved. In addition to a person's part, assuming a specific area, dividing it into multiple parts and calculating the increase / decrease of the background difference for each area, not only the person to be imaged but also the surrounding changes At the same time, the pixel data to be processed is relatively light because it is not divided into areas, and the surroundings are not analyzed in detail. Therefore, there is a remarkable effect that there is almost no limit on the performance of the arithmetic unit necessary for judgment of behavior understanding while exhibiting high accuracy, and the necessary time can be shortened.

次に、図25乃至図28を参照しながら発明者によって実施された実証試験について説明する。
図25(a)は、実証試験の様子を模式的に表現した概念図であり、図25(b)は固定カメラによって実際に撮像された画像例を示すものである。
患者が病院のベッドに横たわっている様子を模擬して実証試験を実施した。固定カメラは1台であり、病室の天井から患者とその周囲を撮像している。
図26(a)は、例えば図2に示した入力画像40の一例を示すものであり、(b)は同じくRGB背景差分抽出部44cによって抽出される背景差分画像を示し、(c)は同じく図2の正規化明度背景差分抽出部44bによって抽出される画像であり、(d)は肌色領域抽出部44a、(e)は髪色領域抽出部44dで抽出される画像である。最後に(f)は例えば図11に示されるフレーム間差分抽出部54bによって抽出される画像を示すものである。これらの(b)乃至(f)は(a)の入力画像をベースにそれぞれ得られた画像である。
Next, the verification test conducted by the inventor will be described with reference to FIGS.
FIG. 25A is a conceptual diagram schematically showing the state of the verification test, and FIG. 25B shows an example of an image actually captured by a fixed camera.
A demonstration test was conducted simulating a patient lying on a hospital bed. There is one fixed camera and images the patient and the surrounding area from the ceiling of the hospital room.
FIG. 26A shows an example of the input image 40 shown in FIG. 2, for example, FIG. 26B shows a background difference image extracted by the RGB background difference extraction unit 44c, and FIG. 2 is an image extracted by the normalized lightness background difference extraction unit 44b, FIG. 2D is an image extracted by the skin color region extraction unit 44a, and FIG. 2E is an image extracted by the hair color region extraction unit 44d. Finally, (f) shows an image extracted by the inter-frame difference extraction unit 54b shown in FIG. 11, for example. These (b) to (f) are images obtained based on the input image of (a).

図27(a)乃至(f)はそれぞれ「寝ている」、「起き上がる」、「ベッドの外」、「撮像領域外」、「転落」、「柵をつかむ」を示す状態を示しており、これらが本人物行動理解システム1によって検出対象となる状態例である。
最後に図28に入力画像とそれによって検出された例について示す。(a)は入力画像で、(b)が頭部検出例、(c)が手検出例であり、(d)が胴体の検出例である。
このように示される実証試験の結果をまとめて表1と表2に示す。
FIGS. 27A to 27F show states indicating “sleeping”, “getting up”, “outside the bed”, “outside the imaging region”, “falling”, and “grabbing the fence”, respectively. These are examples of states to be detected by the person behavior understanding system 1.
Finally, FIG. 28 shows an input image and an example detected thereby. (A) is an input image, (b) is a head detection example, (c) is a hand detection example, and (d) is a torso detection example.
Tables 1 and 2 summarize the results of the demonstration tests shown in this way.

表1は、人体部位検出結果を示すものである。表1より、頭部及び胴体の検出率に比較して手の検出率が著しく低くなっているが、頭部と胴体については概ねほぼ検出可能なレベルとなった。   Table 1 shows human body part detection results. From Table 1, the detection rate of the hand is significantly lower than the detection rate of the head and torso, but the level of the head and torso is almost detectable.

表2は、「寝ている」という初期状態からの行動理解結果を示すものである。表2より「寝ている」、「起きている」、「ベッドの外にいる」、「退室している」は90%以上の高精度で検出された。また、「転落している」と状態についても7割以上の検出率があり、本実施の形態に係る人物行動理解システムは十分実用可能といえる。   Table 2 shows the behavior understanding results from the initial state of “sleeping”. From Table 2, “sleeping”, “waking up”, “out of bed”, and “leaving out” were detected with a high accuracy of 90% or more. Further, the state of “falling” also has a detection rate of 70% or more, and it can be said that the human behavior understanding system according to the present embodiment is sufficiently practical.

一般家庭から病院などの医療施設や介護施設などで、介護が必要な患者や高齢者などに対して幅広く利用が可能である。また、このような医療分野でなくとも危険作業の監視などにも行動特徴データテーブルや行動理解データテーブルを適宜修正すれば適用が可能である。   It can be used widely from general households to medical facilities such as hospitals and nursing care facilities for patients and elderly people who need nursing care. Moreover, even if it is not in such a medical field, it can be applied to monitoring dangerous work and the like by appropriately modifying the behavior feature data table and the behavior understanding data table.

本発明の実施の形態に係る人物行動理解システムの構成図である。It is a lineblock diagram of a person action understanding system concerning an embodiment of the invention. 本実施の形態に係る部位検出部の部位として頭部を想定する頭部検出部の構成図である。It is a block diagram of the head detection part which assumes a head as a site | part of the site | part detection part which concerns on this Embodiment. RGB背景差分抽出部における作用を示すフロー図である。It is a flowchart which shows the effect | action in an RGB background difference extraction part. 入力画像の画素配置を示す概念図である。It is a conceptual diagram which shows pixel arrangement | positioning of an input image. RGB背景差分抽出部で実行される処理内容を示すフロー図である。It is a flowchart which shows the processing content performed in the RGB background difference extraction part. 肌色領域抽出部における作用を示すフロー図である。It is a flowchart which shows the effect | action in a skin color area | region extraction part. 共通領域抽出部が肌色と髪色の2値画像から共通画像を抽出することを説明するための概念図である。It is a conceptual diagram for demonstrating that a common area extraction part extracts a common image from the binary image of skin color and hair color. 頭部候補データを頭部テンプレートデータに照合する状態を示す概念図である。It is a conceptual diagram which shows the state which collates head candidate data with head template data. (a)は頭部候補領域に係る2値画像を長方形のボーダーとして捉える様子を模式的に示す概念図であり、(b)は頭部テンプレートデータのうち、演算に用いる部分を示すための概念図である。(A) is a conceptual diagram which shows typically a mode that the binary image which concerns on a head candidate area | region is caught as a rectangular border, (b) is a concept for showing the part used for a calculation among head template data. FIG. 部位として胴体を想定する胴体検出部の構成図である。It is a block diagram of the trunk | drum detection part which assumes a trunk | drum as a site | part. 部位として手を想定する手検出部の構成図である。It is a block diagram of the hand detection part which assumes a hand as a site | part. フレーム間差分抽出部の作用を説明するための概念図である。It is a conceptual diagram for demonstrating the effect | action of the difference extraction part between frames. フレーム間差分抽出部で実行される処理内容を示すフロー図である。It is a flowchart which shows the processing content performed in the difference extraction part between frames. エッジ2値画像抽出部における作用を説明するための概念図である。It is a conceptual diagram for demonstrating the effect | action in an edge binary image extraction part. (a)は、手候補領域を含む2値画像を模式的に示す概念図であり(b)は、エッジ2値画像を模式的に示す概念図である。(A) is a conceptual diagram schematically showing a binary image including a hand candidate region, and (b) is a conceptual diagram schematically showing an edge binary image. (a)は特定領域データ変化量演算手段の作用を説明するためのフロー図であり、(b)は部位存在領域検出手段の作用を説明するためのフロー図である。(A) is a flowchart for demonstrating the effect | action of a specific area data variation | change_quantity calculating means, (b) is a flowchart for demonstrating the effect | action of a site | part location area | region detection means. 特定領域の分割エリア例を示す概念図である。It is a conceptual diagram which shows the example of the division area of a specific area. 図16に示されるようにして実行された特定領域検出部からの出力を用いた2値化処理の結果によって定められる行動特徴を表現する概念図である。It is a conceptual diagram expressing the action characteristic defined by the result of the binarization process using the output from the specific area | region detection part performed as FIG. 16 shows. 行動特徴データテーブルの一例を示す概念図である。It is a conceptual diagram which shows an example of an action characteristic data table. 行動理解のプロセスを模式的に表現した概念図である。It is the conceptual diagram which expressed the process of behavior understanding typically. (a)乃至(d)は、いずれも第2データベースに格納される行動理解データテーブルの一例である。(A) thru | or (d) are all examples of the action understanding data table stored in a 2nd database. (a)は、被写対象の人物の行動の状態遷移図を示すものであり、(b)は(a)の行動の状態遷移図の一部を拡大しながらさらに、その遷移の条件を示す概念図である。(a) shows the state transition diagram of the behavior of the person to be imaged, and (b) shows the condition of the transition while enlarging a part of the state transition diagram of the behavior of (a). It is a conceptual diagram. 人物行動理解システム1全体のフィードバックを含めた概略構成図である。It is a schematic block diagram including the feedback of the whole human action understanding system. (a)はフィードバックの作用を説明するための概念図であり、図24(b)はフィードバックの条件を説明するためのフロー図である。FIG. 24A is a conceptual diagram for explaining the action of feedback, and FIG. 24B is a flowchart for explaining conditions for feedback. (a)は、実証試験の様子を模式的に表現した概念図であり、(b)は固定カメラによって実際に撮像された画像例を示すものである。(A) is the conceptual diagram which expressed the mode of the verification test typically, (b) shows the example of an image actually imaged with the fixed camera. (a)は、例えば図2に示した入力画像の一例を示すものであり、(b)は同じくRGB背景差分抽出部によって抽出される背景差分画像を示し、(c)は同じく図2の正規化明度背景差分抽出部によって抽出される画像であり、(d)は肌色領域抽出部で抽出される画像であり、(e)は髪色領域抽出部で抽出される画像であり、(f)は例えば図11に示されるフレーム間差分抽出部によって抽出される画像を示すものである。(A) shows an example of the input image shown in FIG. 2, for example. (B) shows the background difference image extracted by the RGB background difference extraction unit, and (c) shows the regular image shown in FIG. (D) is an image extracted by the skin color region extracting unit, (e) is an image extracted by the hair color region extracting unit, (f) Indicates an image extracted by the interframe difference extraction unit shown in FIG. 11, for example. (a)乃至(f)はそれぞれ寝ている、起き上がる、ベッドの外、撮像領域外、転落、柵をつかむを示す状態を示しており、これらが本人物行動理解システム1によって検出対象となる状態例である。(A) to (f) show states indicating sleeping, getting up, outside the bed, outside the imaging area, falling, and grabbing the fence, and these are the detection targets by the human behavior understanding system 1. It is an example. (a)は入力画像で、(b)が頭部検出例、(c)が手検出例であり、(d)が胴体の検出例である。(A) is an input image, (b) is a head detection example, (c) is a hand detection example, and (d) is a torso detection example.

符号の説明Explanation of symbols

1…人物行動理解システム 2…撮像部 3…システム本体 4…出力部 5…人体部位検出部 6…行動特徴検出部 7…行動理解部 8…部位検出部 8a…頭部検出部 8b…胴体検出部 8c…手検出部 9…特定領域検出部 10…部位領域候補データ抽出手段 10a…頭部候補データ抽出部 10b…胴体候補データ抽出部 10c…手候補データ抽出部 11…部位領域データ照合手段 11a…テンプレートマッチング部 11b…パジャマモデルマッチング部 11c…エッジマッチング部 12…特定領域データ抽出手段 13…タスク制御手段 14a…部位領域データ変化量演算手段 14b…特定領域データ変化量演算手段 14c…部位存在領域検出手段 15…行動特徴抽出手段 16…人物行動抽出手段 17…第1データベース 18…第2データベース 19…第3データベース 20…撮像データ 21…部位領域データ 22…特定領域データ 23…背景画像データ 24…テンプレートデータ 24a…肌モデルデータ 24b…髪モデルデータ 24c…頭部テンプレートデータ 25…行動特徴データテーブル 26…行動理解データテーブル 27…部位領域データ変化量 28…部位領域データ変化速度 29…部位領域データ変化加速度 30…部位存在領域データ 31…特定領域データ変化量 32…特定領域データ変化速度 33…特定領域データ変化加速度 40…入力画像 40a…入力画像 44a…肌色領域抽出部 44b…正規化明度背景差分抽出部 44c…RGB背景差分抽出部 44d…髪色領域抽出部 45a…2値画像 45b…2値画像 45c…2値画像 45d…2値画像 46a…共通領域抽出部 46b…共通領域抽出部 47a…2値画像 47b…2値画像 48a…頭部領域2値画像 48b…胴体領域2値画像 48c…手領域2値画像 50…RGB差分抽出部 51…背景差分領域 52…クラスタリング部 54a…肌色領域抽出部 54b…フレーム間差分抽出部 54c…エッジ2値画像抽出部 55a…肌色領域2値画像 55b…フレーム間差分2値画像 55c…エッジ2値画像 56…共通領域抽出部 57…手候補領域を含む2値画像 60a〜60e…状態 61a〜61g…状態遷移の方向 65…第1フィードバック 66…第2フィードバック   DESCRIPTION OF SYMBOLS 1 ... Person action understanding system 2 ... Imaging part 3 ... System main body 4 ... Output part 5 ... Human body part detection part 6 ... Action feature detection part 7 ... Action understanding part 8 ... Part detection part 8a ... Head detection part 8b ... Body detection Part 8c ... Hand detection part 9 ... Specific area detection part 10 ... Part region candidate data extraction means 10a ... Head candidate data extraction part 10b ... Body candidate data extraction part 10c ... Hand candidate data extraction part 11 ... Part area data collation means 11a ... Template matching unit 11b ... Pajamas model matching unit 11c ... Edge matching unit 12 ... Specific area data extraction means 13 ... Task control means 14a ... Partial area data change amount calculating means 14b ... Specific area data change amount calculating means 14c ... Part existence area Detecting means 15 ... action feature extracting means 16 ... person action extracting means 17 ... first data 18 ... 2nd database 19 ... 3rd database 20 ... Imaging data 21 ... Site region data 22 ... Specific region data 23 ... Background image data 24 ... Template data 24a ... Skin model data 24b ... Hair model data 24c ... Head template Data 25 ... Action feature data table 26 ... Action understanding data table 27 ... Part region data change amount 28 ... Part region data change speed 29 ... Part region data change acceleration 30 ... Part existing region data 31 ... Specific region data change amount 32 ... Specific Region data change speed 33 ... Specific region data change acceleration 40 ... Input image 40a ... Input image 44a ... Skin color region extraction unit 44b ... Normalized lightness background difference extraction unit 44c ... RGB background difference extraction unit 44d ... Hair color region extraction unit 45a ... Binary image 45b ... Value image 45c ... Binary image 45d ... Binary image 46a ... Common region extraction unit 46b ... Common region extraction unit 47a ... Binary image 47b ... Binary image 48a ... Head region binary image 48b ... Body region binary image 48c ... hand region binary image 50 ... RGB difference extraction unit 51 ... background difference region 52 ... clustering unit 54a ... skin color region extraction unit 54b ... interframe difference extraction unit 54c ... edge binary image extraction unit 55a ... skin color region binary image 55b ... Inter-frame difference binary image 55c ... Edge binary image 56 ... Common area extraction unit 57 ... Binary image including hand candidate areas 60a to 60e ... State 61a to 61g ... State transition direction 65 ... First feedback 66 ... First 2 feedback

Claims (8)

被写対象の人物を含む撮像領域の検出を行う撮像部と、この撮像部によって撮像される人物領域に含まれる部位領域データを抽出する部位検出部と、前記部位検出部によって抽出された部位領域データの変化量によって行動の特徴を検出する行動特徴検出部と、前記行動特徴検出部によって検出された前記行動の特徴を組み合わせることによって前記人物の行動を判断する行動理解部と、を有する人物行動理解システムであって、
前記部位検出部は、前記撮像部によって撮像された前記人物領域に含まれる部位領域候補の部位領域候補データを抽出する手段と、この抽出された部位領域候補データと予め設定される前記部位領域のテンプレートデータとを照合して部位領域データを抽出する手段とを備え、
前記行動特徴検出部は、前記部位検出部によって検出された前記部位領域データの変化量を演算する手段と、前記部位領域データの変化量によって定められる行動特徴を示す行動特徴データテーブルから該人物の行動特徴を抽出する手段とを備え、
前記行動理解部は、前記行動特徴検出部によって抽出された前記人物の行動特徴の組合せを、予め設定される前記人物の行動に対応付ける行動理解データテーブルから、該人物の行動を抽出する手段を備えることを特徴とする人物行動理解システム。
An imaging unit that detects an imaging region including a person to be imaged, a part detection unit that extracts part region data included in a person region imaged by the imaging unit, and a part region extracted by the part detection unit A human behavior having a behavior feature detection unit that detects a feature of a behavior based on a change amount of data, and a behavior understanding unit that determines the behavior of the person by combining the behavior features detected by the behavior feature detection unit An understanding system,
The part detection unit includes means for extracting part region candidate data of a part region candidate included in the person region imaged by the imaging unit, and the extracted part region candidate data and the preset part region Means for collating with template data and extracting part region data;
The behavior feature detection unit is configured to calculate a change amount of the part region data detected by the part detection unit and a behavior feature data table indicating a behavior feature determined by the change amount of the part region data. Means for extracting behavioral features,
The behavior understanding unit includes means for extracting the behavior of the person from a behavior understanding data table that associates the combination of the behavior features of the person extracted by the behavior feature detection unit with the behavior of the person set in advance. Human behavior understanding system characterized by that.
被写対象の人物を含む人物領域と別個に予め規定される特定領域を含む撮像領域の検出を行う撮像部と、この撮像部によって撮像される前記人物領域に含まれる部位領域データを抽出する部位検出部と前記特定領域データを抽出する特定領域検出部とを備える人体部位検出部と、前記人体部位検出部によって抽出された部位領域データと特定領域データの変化量によって行動の特徴を検出する行動特徴検出部と、前記行動特徴検出部によって検出された前記行動の特徴を組み合わせることによって前記人物の行動を判断する行動理解部と、を有する人物行動理解システムであって、
前記部位検出部は、前記撮像部によって撮像された前記人物領域に含まれる部位領域候補の部位領域候補データを抽出する手段と、この抽出された部位領域候補データと予め設定される前記部位領域のテンプレートデータとを照合して部位領域データを抽出する手段とを備え、
前記特定領域検出部は、前記撮像部によって撮像された前記特定領域に含まれる特定領域データを抽出する手段を備え、
前記行動特徴検出部は、前記部位検出部によって検出された前記部位領域データの変化量を演算する手段と、前記特定領域検出部によって検出された前記特定領域データの変化量を演算する手段と、前記部位領域データの変化量及び前記特定領域データの変化量によって定められる行動特徴を示す行動特徴データテーブルから該人物の行動特徴を抽出する手段とを備え、
前記行動理解部は、前記行動特徴検出部によって抽出された前記人物の行動特徴の組合せを、予め設定される前記人物の行動に対応付ける行動理解データテーブルから、該人物の行動を抽出する手段を備えることを特徴とする人物行動理解システム。
An imaging unit that detects an imaging region including a specific region that is defined in advance separately from a person region that includes a person to be imaged, and a region that extracts part region data included in the person region imaged by the imaging unit A human body part detection unit comprising a detection unit and a specific area detection unit for extracting the specific area data; and an action for detecting a feature of the action based on the region area data extracted by the human body part detection unit and the amount of change in the specific area data A human behavior understanding system comprising: a feature detection unit; and a behavior understanding unit that determines the behavior of the person by combining the behavior features detected by the behavior feature detection unit,
The part detection unit includes means for extracting part region candidate data of a part region candidate included in the person region imaged by the imaging unit, and the extracted part region candidate data and the preset part region Means for collating with template data and extracting part region data;
The specific area detection unit includes means for extracting specific area data included in the specific area imaged by the imaging unit,
The behavior feature detection unit calculates a change amount of the part region data detected by the part detection unit, and calculates a change amount of the specific region data detected by the specific region detection unit, Means for extracting a behavior feature of the person from a behavior feature data table indicating a behavior feature defined by the amount of change of the part region data and the amount of change of the specific region data;
The behavior understanding unit includes means for extracting the behavior of the person from a behavior understanding data table that associates the combination of the behavior features of the person extracted by the behavior feature detection unit with the behavior of the person set in advance. Human behavior understanding system characterized by that.
前記特定領域は予め分割された複数の領域であって、前記行動特徴検出部は、前記部位検出部によって抽出された該部位領域データが、前記分割された特定領域のいずれの領域に存在するかという部位存在領域データについて検出する手段を備え、前記行動特徴テーブルはこの部位存在領域データと行動特徴を対応付けることを特徴とする請求項2に記載の人物行動理解システム。   The specific region is a plurality of regions divided in advance, and the behavior feature detecting unit determines in which region of the divided specific region the region region data extracted by the region detecting unit exists. 3. The human behavior understanding system according to claim 2, further comprising means for detecting the part presence region data, wherein the behavior feature table associates the part presence region data with the behavior feature. 前記部位検出部は、人物の頭部領域の部位領域データを抽出する頭部検出部と、手領域の部位領域データを抽出する手検出部と、胴体領域の部位領域データを抽出する胴体検出部と、足領域の部位領域データを抽出する足検出部の内少なくとも1つの検出部を備えることを特徴とする請求項1乃至請求項3のいずれか1項に記載の人物行動理解システム。   The part detection unit includes a head detection unit that extracts part region data of a person's head region, a hand detection unit that extracts part region data of a hand region, and a torso detection unit that extracts part region data of a torso region 4. The human behavior understanding system according to claim 1, further comprising: at least one of a foot detection unit that extracts part region data of the foot region. 5. 前記部位領域データの変化量は、前記部位領域のデータの変化量、この変化量の変化速度、前記変化量の変化加速度のいずれか1つであることを特徴とする請求項1乃至請求項4のいずれか1項に記載の人物行動理解システム。   The change amount of the part region data is any one of a change amount of the data of the part region, a change speed of the change amount, and a change acceleration of the change amount. The human behavior understanding system according to any one of the above. 前記行動理解部は、前記行動理解データテーブルから該人物の行動が抽出できない場合には、前記行動特徴検出部又は人体部位検出部において再検出を実行するように信号を送信することを特徴とする請求項1乃至請求項5のいずれか1項に記載の人物行動理解システム。   The behavior understanding unit transmits a signal so that re-detection is performed in the behavior feature detection unit or the human body part detection unit when the behavior of the person cannot be extracted from the behavior understanding data table. The human behavior understanding system according to any one of claims 1 to 5. 前記部位検出部は、抽出された前記部位領域データが単独である場合に、前記特定領域検出部、前記行動特徴検出部及び前記行動理解部を作動させるタスク制御手段を備えることを特徴とする請求項1乃至請求項6のいずれか1項に記載の人物行動理解システム。   The said part detection part is provided with the task control means to operate the said specific area | region detection part, the said action feature detection part, and the said action understanding part, when the extracted said part area | region data is single. The human behavior understanding system according to any one of claims 1 to 6. 前記部位検出部によって抽出された前記部位領域データが単独である場合に、前記特定領域検出部、前記行動特徴検出部及び前記行動理解部を作動させるタスク制御手段を備えることを特徴とする請求項1乃至請求項6のいずれか1項に記載の人物行動理解システム。
The task control means for operating the specific region detection unit, the behavior feature detection unit, and the behavior understanding unit when the region region data extracted by the region detection unit is independent. The human behavior understanding system according to any one of claims 1 to 6.
JP2004069800A 2004-03-11 2004-03-11 Human behavior understanding system Expired - Fee Related JP3767898B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004069800A JP3767898B2 (en) 2004-03-11 2004-03-11 Human behavior understanding system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004069800A JP3767898B2 (en) 2004-03-11 2004-03-11 Human behavior understanding system

Publications (2)

Publication Number Publication Date
JP2005258830A true JP2005258830A (en) 2005-09-22
JP3767898B2 JP3767898B2 (en) 2006-04-19

Family

ID=35084479

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004069800A Expired - Fee Related JP3767898B2 (en) 2004-03-11 2004-03-11 Human behavior understanding system

Country Status (1)

Country Link
JP (1) JP3767898B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012023566A (en) * 2010-07-14 2012-02-02 Toshiba Teli Corp Monitoring system, and behavior monitoring program
JP2012071004A (en) * 2010-09-29 2012-04-12 Omron Healthcare Co Ltd Safe nursing system and method for controlling the safe nursing system
JP2012071003A (en) * 2010-09-29 2012-04-12 Omron Healthcare Co Ltd Safe nursing system and method for controlling the safe nursing system
JP2014021619A (en) * 2012-07-13 2014-02-03 Aiphone Co Ltd Patient recognition device
JP2015210796A (en) * 2014-04-30 2015-11-24 富士通株式会社 Monitoring system, program and watching method
JP2016115054A (en) * 2014-12-12 2016-06-23 富士通株式会社 Monitoring control program, monitoring controller, and monitoring control method
WO2016199504A1 (en) * 2015-06-09 2016-12-15 コニカミノルタ株式会社 Behavior detection device, behavior detection method, and monitored-person monitoring device
WO2017150211A1 (en) * 2016-03-03 2017-09-08 コニカミノルタ株式会社 Action recognition apparatus, action learning apparatus, action recognition program, and action learning program
JP2019053647A (en) * 2017-09-19 2019-04-04 富士ゼロックス株式会社 Behavior estimation apparatus and behavior estimation program
JP2020042422A (en) * 2018-09-07 2020-03-19 株式会社エヌ・ティ・ティ・データ Driving state monitoring support system, driving state monitoring support method, and program
WO2021033453A1 (en) * 2019-08-21 2021-02-25 コニカミノルタ株式会社 Image processing system, image processing program, and image processing method

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012023566A (en) * 2010-07-14 2012-02-02 Toshiba Teli Corp Monitoring system, and behavior monitoring program
JP2012071004A (en) * 2010-09-29 2012-04-12 Omron Healthcare Co Ltd Safe nursing system and method for controlling the safe nursing system
JP2012071003A (en) * 2010-09-29 2012-04-12 Omron Healthcare Co Ltd Safe nursing system and method for controlling the safe nursing system
JP2014021619A (en) * 2012-07-13 2014-02-03 Aiphone Co Ltd Patient recognition device
JP2015210796A (en) * 2014-04-30 2015-11-24 富士通株式会社 Monitoring system, program and watching method
JP2016115054A (en) * 2014-12-12 2016-06-23 富士通株式会社 Monitoring control program, monitoring controller, and monitoring control method
JP2017091552A (en) * 2015-06-09 2017-05-25 コニカミノルタ株式会社 Behavior detection device, behavior detection method and monitored person monitoring device
JP6048630B1 (en) * 2015-06-09 2016-12-21 コニカミノルタ株式会社 Behavior detection device, behavior detection method, and monitored person monitoring device
WO2016199504A1 (en) * 2015-06-09 2016-12-15 コニカミノルタ株式会社 Behavior detection device, behavior detection method, and monitored-person monitoring device
WO2017150211A1 (en) * 2016-03-03 2017-09-08 コニカミノルタ株式会社 Action recognition apparatus, action learning apparatus, action recognition program, and action learning program
JP2019053647A (en) * 2017-09-19 2019-04-04 富士ゼロックス株式会社 Behavior estimation apparatus and behavior estimation program
JP7110568B2 (en) 2017-09-19 2022-08-02 富士フイルムビジネスイノベーション株式会社 Action estimation device and action estimation program
JP2020042422A (en) * 2018-09-07 2020-03-19 株式会社エヌ・ティ・ティ・データ Driving state monitoring support system, driving state monitoring support method, and program
JP7154071B2 (en) 2018-09-07 2022-10-17 株式会社エヌ・ティ・ティ・データ Driving state monitoring support system, driving state monitoring support method and program
WO2021033453A1 (en) * 2019-08-21 2021-02-25 コニカミノルタ株式会社 Image processing system, image processing program, and image processing method
JP7351339B2 (en) 2019-08-21 2023-09-27 コニカミノルタ株式会社 Image processing system, image processing program, and image processing method

Also Published As

Publication number Publication date
JP3767898B2 (en) 2006-04-19

Similar Documents

Publication Publication Date Title
US11544953B2 (en) Methods and systems for identifying the crossing of a virtual barrier
US20210256835A1 (en) System and method for monitoring clinical activities
CN112784662A (en) Video-based fall risk evaluation system
US11688265B1 (en) System and methods for safety, security, and well-being of individuals
JP6717235B2 (en) Monitoring support system and control method thereof
JP6392983B2 (en) Patient monitoring system and method
Zouba et al. Monitoring activities of daily living (ADLs) of elderly based on 3D key human postures
JP6822328B2 (en) Watching support system and its control method
JP3767898B2 (en) Human behavior understanding system
US11666247B2 (en) Method, device and computer program for capturing optical image data of patient surroundings and for identifying a patient check-up
JP6692987B2 (en) Devices, Systems, and Methods for Patient Monitoring to Predict and Prevent Bed Fall
JPH1199140A (en) Device for detecting sleeping condition abnormality
WO2020145380A1 (en) Care recording device, care recording system, care recording program, and care recording method
CN110073442A (en) The equipment of the position of lateral boundaries for detecting optical image data and for determining patient support equipment, method and computer program
JP6579411B1 (en) Monitoring system and monitoring method for care facility or hospital
Bauer et al. Modeling bed exit likelihood in a camera-based automated video monitoring application
JP6822326B2 (en) Watching support system and its control method
WO2020241034A1 (en) Monitoring system and monitoring method
JP2022010581A (en) Detection device, detection method, image processing method and program
Su et al. A smart ward with a fall detection system
Inoue et al. Bed exit action detection based on patient posture with long short-term memory
Veltmaat et al. Recognizing activities with the Kinect
Payandeh On Visualizing Movements and Activities of Healthy Seniors
JP2022048830A (en) Detection system, detection device, terminal device, display control device, detection method, and program
WO2023088740A1 (en) Monitoring an entity in a medical facility

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050719

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050830

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20050830

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20050830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051018

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051208

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060130

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090210

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100210

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100210

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110210

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110210

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120210

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees