JP6119938B2 - Image processing system, image processing apparatus, image processing method, and image processing program - Google Patents

Image processing system, image processing apparatus, image processing method, and image processing program Download PDF

Info

Publication number
JP6119938B2
JP6119938B2 JP2016567941A JP2016567941A JP6119938B2 JP 6119938 B2 JP6119938 B2 JP 6119938B2 JP 2016567941 A JP2016567941 A JP 2016567941A JP 2016567941 A JP2016567941 A JP 2016567941A JP 6119938 B2 JP6119938 B2 JP 6119938B2
Authority
JP
Japan
Prior art keywords
person
boundary
image processing
region
action
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016567941A
Other languages
Japanese (ja)
Other versions
JPWO2016181837A1 (en
Inventor
保理江 大作
大作 保理江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Application granted granted Critical
Publication of JP6119938B2 publication Critical patent/JP6119938B2/en
Publication of JPWO2016181837A1 publication Critical patent/JPWO2016181837A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G7/00Beds specially adapted for nursing; Devices for lifting patients or disabled persons
    • A61G7/05Parts, details or accessories of beds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/01Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
    • G08B25/04Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using a single signalling line, e.g. in a closed loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof

Description

本開示は、画像処理技術に関し、特に、人物の行動を判別するための画像処理システム、画像処理装置、画像処理方法、および画像処理プログラムに関する。   The present disclosure relates to an image processing technique, and more particularly, to an image processing system, an image processing apparatus, an image processing method, and an image processing program for determining a person's action.

画像から人物の行動を判別するための画像処理技術がある。この画像処理技術は、たとえば、高齢者等の介護を要する被介護者の行動を見守る画像処理装置に応用されている。画像処理装置は、被介護者が転倒等を伴う行動を取ったことを検出し、そのことを介護者に報知する。これにより、介護者は、被介護者の転倒等を未然に防ぐことができる。   There is an image processing technique for discriminating a person's action from an image. This image processing technology is applied to, for example, an image processing apparatus that watches the behavior of a cared person who needs care for an elderly person or the like. The image processing device detects that the cared person has taken an action involving a fall or the like, and notifies the caregiver of this. Thereby, the caregiver can prevent the care receiver from falling over.

このような画像処理装置に関して、特開2014−90913号公報(特許文献1)は、患者を撮像したカメラの撮像映像を基に、患者が上半身を起こした状態や離床を検出することができるナースコールシステムを開示している。特開2014−174627号公報(特許文献2)は、簡易な方法で見守り対象者の行動を推定する情報処理装置を開示している。   With regard to such an image processing apparatus, Japanese Patent Application Laid-Open No. 2014-90913 (Patent Document 1) discloses a nurse that can detect a state in which the patient wakes up or gets out of bed based on an image captured by a camera that images the patient. A call system is disclosed. Japanese Patent Laying-Open No. 2014-174627 (Patent Document 2) discloses an information processing apparatus that estimates the behavior of a person being watched over by a simple method.

特開2014−90913号公報JP 2014-90913 A 特開2014−174627号公報JP 2014-174627 A

特許文献1に開示されるナースコールシステムは、患者が上半身を起こした状態や患者の離床を看護師に通報する。腰の悪い患者は、上半身を十分に起こすことができないことがある。そのため、患者は、上半身を起こす前にベッドから足を出して離床しようとする。特許文献1に開示されるナースコールシステムは、患者が上半身を起こした状態を検出した時点で看護師に通報するため、通報のタイミングが遅く、ベッドからの転倒や転落が十分に防止できない。また、ベッドから離れた状態を検出したタイミングで通報が行なわれると、通報のタイミングが遅すぎて、ベッドからの転倒や転落が十分に防止され得ない。   The nurse call system disclosed in Patent Document 1 notifies a nurse of a state in which the patient wakes up and a patient getting out of bed. Patients with poor back may not be able to wake up sufficiently. Therefore, the patient tries to get out of bed before getting up. Since the nurse call system disclosed in Patent Document 1 reports to the nurse when a state in which the patient has raised his / her upper body is detected, the timing of the report is late and the fall or fall from the bed cannot be sufficiently prevented. In addition, if the notification is made at the timing when the state of being separated from the bed is detected, the notification timing is too late, and the fall or fall from the bed cannot be sufficiently prevented.

特許文献2に開示される情報処理装置は、オプティカルフローを用いて画像内で患者がベッドからはみ出した大きさを検出し、当該大きさが所定の大きさを超えた場合に、患者がベッドの柵を越えたこと報知する。図20に示されるように、患者9を斜めから撮影するようにカメラが設置されている場合、患者9は、上半身を起こしただけで画像上においてベッド20からはみ出る。そのため、特許文献2に開示される情報処理装置においては、患者9への誤報が増加し、患者9の負担が増加する。また、カメラが患者9の真上に設置されている場合で、患者9がベッドから足を先に降ろして離床するときには、画像上では、足を床に垂直に降ろす動きを示すオプティカルフローがほとんど表れない。そのため、特許文献2に開示される情報処理装置は、患者9の行動を正確に検出できず、転倒や転落の発生を十分に防止できない。   The information processing apparatus disclosed in Patent Document 2 detects the size of a patient protruding from the bed in an image using an optical flow, and when the size exceeds a predetermined size, the patient Notify that you have passed the fence. As shown in FIG. 20, when the camera is installed so as to photograph the patient 9 from an oblique direction, the patient 9 protrudes from the bed 20 on the image only by raising his / her upper body. Therefore, in the information processing apparatus disclosed in Patent Document 2, misinformation to the patient 9 increases, and the burden on the patient 9 increases. In addition, when the camera is installed directly above the patient 9 and when the patient 9 gets off the bed with his feet first, the optical flow indicating the movement of the feet vertically down on the floor is almost displayed on the image. Does not appear. For this reason, the information processing apparatus disclosed in Patent Document 2 cannot accurately detect the behavior of the patient 9 and cannot sufficiently prevent the occurrence of a fall or fall.

したがって、従来とは異なる方法で患者や被介護者等の人物の行動を判別でき、当該人物の転倒や転落の発生を低減することが可能な画像処理システムが望まれている。   Therefore, there is a demand for an image processing system that can discriminate the behavior of a person such as a patient or a cared person by a method different from the conventional one and can reduce the occurrence of the person's fall or fall.

本開示は上述のような問題点を解決するためになされたものであって、ある局面における目的は、従来とは異なる方法で人物の行動を判別できる画像処理システムを提供することである。他の局面における目的は、従来とは異なる方法で人物の行動を判別できる画像処理装置を提供することである。さらに他の局面における目的は、従来とは異なる方法で人物の行動を判別できる画像処理方法を提供することである。さらに他の局面における目的は、従来とは異なる方法で人物の行動を判別できる画像処理プログラムを提供することである。   The present disclosure has been made in order to solve the above-described problems, and an object in one aspect is to provide an image processing system capable of discriminating a person's action by a method different from the conventional one. An object in another aspect is to provide an image processing apparatus capable of discriminating a person's behavior by a method different from the conventional one. Still another object of the present invention is to provide an image processing method capable of discriminating a person's action by a method different from the conventional method. Still another object of the present invention is to provide an image processing program capable of discriminating a person's behavior by a method different from the conventional method.

ある局面に従うと、人物の行動を判別することが可能な画像処理システムは、物体を撮影して得られる基準画像内の領域であって物体を含む物体領域と他の領域との境界の設定を受け付けるための境界受付部と、基準画像と同じ視点から物体を撮影して得られる入力画像内において人物領域を検出するための人物検出部と、入力画像内における境界と人物領域との重なり方に基づいて、人物の行動を判別するための判別部とを備える。判別部は、境界と人物領域とが重なっている部分の幅に応じて、行動を判別する。
他の局面に従うと、人物の行動を判別することが可能な画像処理システムは、物体を撮影して得られる基準画像内の領域であって物体を含む物体領域と他の領域との境界の設定を受け付けるための境界受付部と、基準画像と同じ視点から物体を撮影して得られる入力画像内において人物領域を検出するための人物検出部と、入力画像内における境界と人物領域との重なり方に基づいて、人物の行動を判別するための判別部とを備える。人物検出部は、入力画像内において人物の足領域を検出する。判別部は、入力画像内における境界と足領域との重なり方に基づいて、行動を判別する。
他の局面に従うと、人物の行動を判別することが可能な画像処理システムは、物体を撮影して得られる基準画像内の領域であって物体を含む物体領域と他の領域との境界の設定を受け付けるための境界受付部と、基準画像と同じ視点から物体を撮影して得られる入力画像内において人物領域を検出するための人物検出部と、入力画像内における境界と人物領域との重なり方に基づいて、人物の行動を判別するための判別部とを備える。物体は、寝具である。判別部によって判別される行動は、起床および入床の少なくとも一方を含む。判別部は、境界と人物領域とが重なっている部分の幅が所定値を超えた場合に、行動が起床または入床であると判別する。
According to a certain aspect, an image processing system capable of discriminating a person's behavior is to set a boundary between an object region including an object and another region in a reference image obtained by photographing the object. A boundary receiving unit for receiving, a person detecting unit for detecting a person area in an input image obtained by photographing an object from the same viewpoint as the reference image, and a method for overlapping the boundary and the person area in the input image And a discriminating unit for discriminating the behavior of the person. The determination unit determines the action according to the width of the portion where the boundary and the person region overlap.
According to another aspect, an image processing system capable of discriminating a person's behavior is a region in a reference image obtained by photographing an object, and setting a boundary between the object region including the object and another region A boundary receiving unit for receiving an image, a person detecting unit for detecting a person area in an input image obtained by photographing an object from the same viewpoint as the reference image, and a method for overlapping the boundary and the person area in the input image And a discriminator for discriminating a person's action based on the above. The person detection unit detects a human foot region in the input image. The discriminating unit discriminates an action based on how the boundary and the foot region overlap in the input image.
According to another aspect, an image processing system capable of discriminating a person's behavior is a region in a reference image obtained by photographing an object, and setting a boundary between the object region including the object and another region A boundary receiving unit for receiving an image, a person detecting unit for detecting a person area in an input image obtained by photographing an object from the same viewpoint as the reference image, and a method for overlapping the boundary and the person area in the input image And a discriminator for discriminating a person's action based on the above. The object is bedding. The behavior discriminated by the discriminating unit includes at least one of getting up and entering the floor. The determination unit determines that the action is to wake up or enter the floor when the width of the portion where the boundary and the person region overlap exceeds a predetermined value.

好ましくは、画像処理システムは、入力画像内における人物の動作方向を検出するための方向検出部をさらに備える。判別部は、幅が所定値を超え、かつ、動作方向が入力画像内の物体領域の内側から外側に向いている場合に、人物が寝具から起床していると判別し、幅が所定値を超え、かつ、動作方向が入力画像内の物体領域の外側から内側に向いている場合に、人物が寝具に入床していると判別する。   Preferably, the image processing system further includes a direction detection unit for detecting the movement direction of the person in the input image. The discriminating unit discriminates that the person is getting up from the bedding when the width exceeds the predetermined value and the movement direction is directed from the inside to the outside of the object area in the input image, and the width is set to the predetermined value. If the movement direction exceeds the object area in the input image, the person is determined to be in the bedding.

好ましくは、人物検出部は、人物領域の形状と、人物領域内の画像情報との少なくとも一方の情報を用いて、人物の特定の部位を検出する。   Preferably, the person detection unit detects a specific part of the person by using at least one of the shape of the person area and the image information in the person area.

好ましくは、画像処理システムは、設定された境界のうちから判別部の行動判別処理に用いる境界部分の設定を受け付けるための境界部分受付部をさらに備える。   Preferably, the image processing system further includes a boundary part receiving unit for receiving the setting of the boundary part used for the action determining process of the determining unit from the set boundaries.

他の局面に従うと、人物の行動を判別することが可能な画像処理装置は、物体を撮影して得られる基準画像内の領域であって物体を含む物体領域と他の領域との境界の設定を受け付けるための境界受付部と、基準画像と同じ視点から物体を撮影して得られる入力画像内において人物領域を検出するための人物検出部と、入力画像内における境界と人物領域との重なり方に基づいて、人物の行動を判別するための判別部とを備える。判別部は、境界と人物領域とが重なっている部分の幅に応じて、行動を判別する。
他の局面に従うと、人物の行動を判別することが可能な画像処理装置は、物体を撮影して得られる基準画像内の領域であって物体を含む物体領域と他の領域との境界の設定を受け付けるための境界受付部と、基準画像と同じ視点から物体を撮影して得られる入力画像内において人物領域を検出するための人物検出部と、入力画像内における境界と人物領域との重なり方に基づいて、人物の行動を判別するための判別部とを備える。人物検出部は、入力画像内において人物の足領域を検出し、判別部は、入力画像内における境界と足領域との重なり方に基づいて、行動を判別する。
他の局面に従うと、人物の行動を判別することが可能な画像処理装置は、物体を撮影して得られる基準画像内の領域であって物体を含む物体領域と他の領域との境界の設定を受け付けるための境界受付部と、基準画像と同じ視点から物体を撮影して得られる入力画像内において人物領域を検出するための人物検出部と、入力画像内における境界と人物領域との重なり方に基づいて、人物の行動を判別するための判別部とを備える。物体は、寝具である。判別部によって判別される行動は、起床および入床の少なくとも一方を含む。判別部は、境界と人物領域とが重なっている部分の幅が所定値を超えた場合に、行動が起床または入床であると判別する。
According to another aspect, an image processing apparatus capable of discriminating a person's behavior is to set a boundary between an object region including the object and another region in the reference image obtained by photographing the object A boundary receiving unit for receiving an image, a person detecting unit for detecting a person area in an input image obtained by photographing an object from the same viewpoint as the reference image, and a method for overlapping the boundary and the person area in the input image And a discriminator for discriminating a person's action based on the above. The determination unit determines the action according to the width of the portion where the boundary and the person region overlap.
According to another aspect, an image processing apparatus capable of discriminating a person's behavior is to set a boundary between an object region including the object and another region in the reference image obtained by photographing the object A boundary receiving unit for receiving an image, a person detecting unit for detecting a person area in an input image obtained by photographing an object from the same viewpoint as the reference image, and a method for overlapping the boundary and the person area in the input image And a discriminator for discriminating a person's action based on the above. The person detection unit detects a human foot region in the input image, and the determination unit determines a behavior based on how the boundary and the foot region overlap in the input image.
According to another aspect, an image processing apparatus capable of discriminating a person's behavior is to set a boundary between an object region including the object and another region in the reference image obtained by photographing the object A boundary receiving unit for receiving an image, a person detecting unit for detecting a person area in an input image obtained by photographing an object from the same viewpoint as the reference image, and a method for overlapping the boundary and the person area in the input image And a discriminator for discriminating a person's action based on the above. The object is bedding. The behavior discriminated by the discriminating unit includes at least one of getting up and entering the floor. The determination unit determines that the action is to wake up or enter the floor when the width of the portion where the boundary and the person region overlap exceeds a predetermined value.

他の局面に従うと、人物の行動を判別することが可能な画像処理方法は、物体を撮影して得られる基準画像内の領域であって物体を含む物体領域と他の領域との境界の設定を受け付けるステップと、基準画像と同じ視点から物体を撮影して得られる入力画像内において人物領域を検出するステップと、入力画像内における境界と人物領域との重なり方に基づいて、人物の行動を判別するステップとを備える。判別するステップは、境界と人物領域とが重なっている部分の幅に応じて、行動を判別する。
他の局面に従うと、人物の行動を判別することが可能な画像処理方法は、物体を撮影して得られる基準画像内の領域であって物体を含む物体領域と他の領域との境界の設定を受け付けるステップと、基準画像と同じ視点から物体を撮影して得られる入力画像内において人物領域を検出するステップと、入力画像内における境界と人物領域との重なり方に基づいて、人物の行動を判別するステップとを備える。検出するステップは、入力画像内において人物の足領域を検出する。判別するステップは、入力画像内における境界と足領域との重なり方に基づいて、行動を判別する。
他の局面に従うと、人物の行動を判別することが可能な画像処理方法は、物体を撮影して得られる基準画像内の領域であって物体を含む物体領域と他の領域との境界の設定を受け付けるステップと、基準画像と同じ視点から物体を撮影して得られる入力画像内において人物領域を検出するステップと、入力画像内における境界と人物領域との重なり方に基づいて、人物の行動を判別するステップとを備える。物体は、寝具である。判別するステップで判別される行動は、起床および入床の少なくとも一方を含む。判別するステップは、境界と人物領域とが重なっている部分の幅が所定値を超えた場合に、行動が起床または入床であると判別する。
According to another aspect, an image processing method capable of discriminating a person's action is to set a boundary between an object region including an object and another region in a reference image obtained by photographing the object. The step of detecting the person area in the input image obtained by photographing the object from the same viewpoint as the reference image, and the action of the person based on how the boundary and the person area in the input image overlap. Determining. In the determining step, the action is determined according to the width of the portion where the boundary and the person region overlap.
According to another aspect, an image processing method capable of discriminating a person's action is to set a boundary between an object region including an object and another region in a reference image obtained by photographing the object. The step of detecting the person area in the input image obtained by photographing the object from the same viewpoint as the reference image, and the action of the person based on how the boundary and the person area in the input image overlap. Determining. The detecting step detects a human foot region in the input image. In the determining step, the action is determined based on how the boundary and the foot region overlap in the input image.
According to another aspect, an image processing method capable of discriminating a person's action is to set a boundary between an object region including an object and another region in a reference image obtained by photographing the object. The step of detecting the person area in the input image obtained by photographing the object from the same viewpoint as the reference image, and the action of the person based on how the boundary and the person area in the input image overlap. Determining. The object is bedding. The action determined in the determining step includes at least one of getting up and entering. In the determining step, when the width of the portion where the boundary and the person region overlap exceeds a predetermined value, it is determined that the action is to wake up or enter.

他の局面に従うと、人物の行動を判別することが可能な画像処理プログラムは、コンピュータに、物体を撮影して得られる基準画像内の領域であって物体を含む物体領域と他の領域との境界の設定を受け付けるステップと、基準画像と同じ視点から物体を撮影して得られる入力画像内において人物領域を検出するステップと、入力画像内における境界と人物領域との重なり方に基づいて、人物の行動を判別するステップとを実行させる。判別するステップは、境界と人物領域とが重なっている部分の幅に応じて、行動を判別する。 According to another aspect, an image processing program capable of discriminating a person's behavior is an area in a reference image obtained by photographing an object on a computer and includes the object area including the object and another area. Based on the step of accepting the setting of the boundary, the step of detecting the person area in the input image obtained by photographing the object from the same viewpoint as the reference image, and the way in which the boundary and the person area in the input image overlap And a step of discriminating the behavior of. In the determining step, the action is determined according to the width of the portion where the boundary and the person region overlap.

ある局面において、従来とは異なる方法で人物の行動を判別できる。
本発明の上記および他の目的、特徴、局面および利点は、添付の図面と関連して理解される本発明に関する次の詳細な説明から明らかとなるであろう。
In a certain situation, it is possible to determine a person's behavior by a method different from the conventional method.
The above and other objects, features, aspects and advantages of the present invention will become apparent from the following detailed description of the present invention taken in conjunction with the accompanying drawings.

第1の実施の形態に従う画像処理システムの構成の一例を示す図である。It is a figure which shows an example of a structure of the image processing system according to 1st Embodiment. 人物を真上から撮影して得られた時系列の画像を示す図である。It is a figure which shows the time-sequential image obtained by image | photographing a person from right above. ベッドの長手方向を含むように人物を斜めから撮影して得られた時系列の画像を示す図である。It is a figure which shows the time-sequential image obtained by image | photographing a person from diagonally so that the longitudinal direction of a bed may be included. ベッドの短手方向を含むように人物を斜めから撮影して得られた画像を示す図である。It is a figure which shows the image obtained by image | photographing a person from diagonally so that the transversal direction of a bed may be included. 第1の実施の形態に従う画像処理システムの画面遷移図を示す図である。It is a figure which shows the screen transition diagram of the image processing system according to 1st Embodiment. メイン画面の一例を示す図である。It is a figure which shows an example of a main screen. 設定モードトップ画面の一例を示す図である。It is a figure which shows an example of a setting mode top screen. 領域設定画面の一例を示す図である。It is a figure which shows an example of an area | region setting screen. 平常時画面の一例を示す図である。It is a figure which shows an example of a normal time screen. 発報時画面の一例を示す図である。It is a figure which shows an example of the screen at the time of report. 第1の実施の形態に従う画像処理システムの機能構成の一例を示すブロック図である。It is a block diagram which shows an example of a function structure of the image processing system according to 1st Embodiment. 第1の実施の形態に従う画像処理システムが実行する画像処理を示すフローチャートである。It is a flowchart which shows the image processing which the image processing system according to 1st Embodiment performs. 行動判別処理を示すフローチャートである。It is a flowchart which shows an action discrimination | determination process. 人物検出処理を概略的に示す概念図である。It is a conceptual diagram which shows a person detection process roughly. 第1の実施の形態に従う画像処理システムの主要なハードウェア構成を示すブロック図である。It is a block diagram which shows the main hardware constitutions of the image processing system according to 1st Embodiment. 選択画面の一例を示す図である。It is a figure which shows an example of a selection screen. 第2の実施の形態に従う画像処理システムの機能構成の一例を示すブロック図である。It is a block diagram which shows an example of a function structure of the image processing system according to 2nd Embodiment. 入力画像の中心がベッド領域の手前にある例を示す図である。It is a figure which shows the example which has the center of an input image before the bed area | region. 入力画像の中心がベッド領域に含まれている例を示す図である。It is a figure which shows the example in which the center of an input image is contained in the bed area | region. 人物を斜めから撮影して得られた画像を示す図である。It is a figure which shows the image obtained by image | photographing a person from diagonally.

以下、図面を参照しつつ、本発明に従う各実施の形態について説明する。以下の説明では、同一の部品および構成要素には同一の符号を付してある。それらの名称および機能も同じである。したがって、これらについての詳細な説明は繰り返さない。なお、以下で説明される各実施の形態および各変形例は、適宜選択的に組み合わされてもよい。   Embodiments according to the present invention will be described below with reference to the drawings. In the following description, the same parts and components are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated. Each embodiment and each modified example described below may be selectively combined as appropriate.

<第1の実施の形態>
[画像処理システム300の構成]
図1を参照して、画像処理システム300の構成について説明する。図1は、画像処理システム300の構成の一例を示す図である。
<First Embodiment>
[Configuration of Image Processing System 300]
The configuration of the image processing system 300 will be described with reference to FIG. FIG. 1 is a diagram illustrating an example of the configuration of an image processing system 300.

画像処理システム300は、たとえば、被介護者10の行動を見守るために用いられる。図1に示されるように、画像処理システム300は、画像処理装置としての室内端末100と、管理サーバー200とを含む。室内端末100および管理サーバー200は、ネットワーク400を介して互いに接続されている。   The image processing system 300 is used for watching the behavior of the care recipient 10, for example. As shown in FIG. 1, the image processing system 300 includes an indoor terminal 100 as an image processing apparatus and a management server 200. The indoor terminal 100 and the management server 200 are connected to each other via the network 400.

室内端末100は、たとえば、医療施設、介護施設、宅内等に設置される。室内端末100は、後述するカメラ105(図15参照)を備える。図1には、カメラ105が被介護者10およびベッド20を天井から撮影している様子が示されている。室内端末100は、カメラ105から得られた時系列の画像(映像)に基づいて被介護者10の行動を判別する。一例として、室内端末100が判別可能な行動は、被介護者10の起床および入床の少なくとも1つを含む。ここでいう「起床」とは、被介護者10がベッド20上で目を覚ましてから立ち上がるまでの行動のことをいう。「入床」とは、被介護者10がベッド20に近付いてからベッド20に入るまでの行動のことをいう。   The indoor terminal 100 is installed in, for example, a medical facility, a nursing facility, a home, or the like. The indoor terminal 100 includes a camera 105 (see FIG. 15) described later. FIG. 1 shows a state where the camera 105 is photographing the care receiver 10 and the bed 20 from the ceiling. The indoor terminal 100 determines the behavior of the care receiver 10 based on a time-series image (video) obtained from the camera 105. As an example, the behavior that can be identified by the indoor terminal 100 includes at least one of getting up and entering the care receiver 10. Here, “wake-up” refers to an action from when the cared person 10 wakes up on the bed 20 until it stands up. “Entering the floor” means an action from when the care recipient 10 approaches the bed 20 until entering the bed 20.

室内端末100は、報知対象の行動(たとえば、起床等)を検出すると、当該行動の種類を示す情報を管理サーバー200に送信する。報知対象の行動として起床が検出されると、管理サーバー200は、被介護者10が起床したことを介護者に報知する。これにより、介護者は、被介護者10がベッド20から立ち上がることを支援することができ、被介護者10の起床時に生じる転倒や転落を未然に防ぐことができる。   When the indoor terminal 100 detects a behavior to be notified (for example, wake-up or the like), the indoor terminal 100 transmits information indicating the type of the behavior to the management server 200. When wake-up is detected as the action to be notified, the management server 200 notifies the caregiver that the care receiver 10 has woken up. Thereby, the caregiver can assist the care receiver 10 to get up from the bed 20, and can prevent the fall or fall that occurs when the care receiver 10 wakes up.

なお、図1には、画像処理システム300が1つの室内端末100を備えている例が示されているが、画像処理システム300は、複数の室内端末100を備えてもよい。また、図1には、画像処理システム300が1つの管理サーバー200を備えている例が示されているが、画像処理システム300は、複数の管理サーバー200を備えてもよい。さらに、図1には、室内端末100と管理サーバー200とが別個の装置として構成されているが、室内端末100と管理サーバー200とは一体的に構成されてもよい。   1 illustrates an example in which the image processing system 300 includes one indoor terminal 100, the image processing system 300 may include a plurality of indoor terminals 100. 1 illustrates an example in which the image processing system 300 includes one management server 200, the image processing system 300 may include a plurality of management servers 200. Furthermore, although the indoor terminal 100 and the management server 200 are configured as separate devices in FIG. 1, the indoor terminal 100 and the management server 200 may be configured integrally.

[画像処理システム300の処理概要]
図2〜図4を参照して、第1の実施の形態に従う画像処理システム300の処理概要について説明する。図2は、被介護者10を真上から撮影して得られた時系列の画像を示す図である。図3は、ベッド20の長手方向を含むように被介護者10を斜めから撮影して得られた時系列の画像を示す図である。図4は、ベッド20の短手方向を含むように被介護者10を斜めから撮影して得られた画像を示す図である。
[Processing Overview of Image Processing System 300]
With reference to FIGS. 2 to 4, an outline of processing of image processing system 300 according to the first embodiment will be described. FIG. 2 is a diagram showing time-series images obtained by photographing the care receiver 10 from directly above. FIG. 3 is a diagram showing time-series images obtained by photographing the care recipient 10 from an oblique direction so as to include the longitudinal direction of the bed 20. FIG. 4 is a diagram illustrating an image obtained by photographing the care receiver 10 from an oblique direction so as to include the short direction of the bed 20.

画像処理システム300は、入力画像32Aから人物領域12を抽出する。画像処理システム300は、人物領域12とベッド境界40との重なり方に基づいて、被介護者10の行動を判別する。ベッド境界40は、入力画像32A内のベッド領域と他の領域との境界の一部または全部である。ベッド境界40は、後述するように予め設定されている。   The image processing system 300 extracts the person region 12 from the input image 32A. The image processing system 300 determines the behavior of the care recipient 10 based on how the person region 12 and the bed boundary 40 overlap. The bed boundary 40 is a part or all of the boundary between the bed area and the other area in the input image 32A. The bed boundary 40 is preset as will be described later.

ある局面において、入力画像32Bに示されるように、画像処理システム300は、ベッド境界40と人物領域12とが重なっている部分の幅(すなわち、重なり幅W1)に応じて、被介護者10の行動を判別する。画像処理システム300は、重なり幅W1が所定値(以下、「閾値Thw」ともいう。)を超えた場合に、被介護者10の行動が起床または入床であると判別する。   In one aspect, as shown in the input image 32B, the image processing system 300 determines whether the care receiver 10 has the caregiver 10 according to the width of the portion where the bed boundary 40 and the person region 12 overlap (that is, the overlap width W1). Determine the behavior. When the overlap width W1 exceeds a predetermined value (hereinafter also referred to as “threshold Thw”), the image processing system 300 determines that the action of the care recipient 10 is to wake up or enter the floor.

入力画像32Cに示されるように、ベッド境界40と人物領域12との重なり部分が複数ある場合には、画像処理システム300は、重なり幅W2,W3の合計に応じて、被介護者10の行動を判別する。画像処理システム300は、重なり幅W2,W3の合計が閾値Thwを超えた場合に、被介護者10がベッド20から起床している、または被介護者10がベッド20に入床していると判別する。なお、画像処理システム300は、重なり幅W2の左端と重なり幅W3の右端との間の幅を閾値Thwと比較してもよい。   As shown in the input image 32C, when there are a plurality of overlapping portions between the bed boundary 40 and the person region 12, the image processing system 300 determines the behavior of the care recipient 10 according to the sum of the overlapping widths W2 and W3. Is determined. In the image processing system 300, when the sum of the overlap widths W2 and W3 exceeds the threshold Thw, the cared person 10 gets up from the bed 20 or the cared person 10 enters the bed 20 Determine. Note that the image processing system 300 may compare the width between the left end of the overlap width W2 and the right end of the overlap width W3 with the threshold Thw.

被介護者10は、上半身を十分に起こすことができない場合、上半身を起こす前にベッドから足を出して離床しようとする。画像処理システム300は、ベッド境界40と人物領域12との重なり方に応じて、被介護者10の行動を判別するため、被介護者10が上半身を起こす前に被介護者10の起床を判別できる。画像処理システム300が被介護者10の起床を介護者に報知することで、介護者は、被介護者10の元に素早く駆け付けることができる。その結果、介護者は、被介護者10が転倒したり、被介護者10がベッド20から転落したりすることを未然に防ぐことができる。   If the cared person 10 cannot raise the upper body sufficiently, he / she tries to get out of the bed before getting up. Since the image processing system 300 determines the behavior of the cared person 10 according to how the bed boundary 40 and the person area 12 overlap, the image processing system 300 determines the care receiver 10's getting up before the cared person 10 wakes up. it can. The image processing system 300 informs the caregiver of the caregiver 10 getting up, so that the caregiver can quickly rush to the caregiver 10. As a result, the caregiver can prevent the cared person 10 from falling or the cared person 10 from falling from the bed 20 in advance.

好ましくは、画像処理システム300は、入力画像32A〜32Cの人物領域12の形状と、当該人物領域12内の画像情報との少なくとも一方の情報を用いて、被介護者10の特定の部位を検出する。当該特定の部位は、被介護者10の足を含む。画像処理システム300は、ベッド境界40と入力画像32A〜32C内の足領域との重なり方に基づいて、被介護者10の行動を判別する。これにより、画像処理システム300は、被介護者10の足がベッド20からはみ出た状態を検出することができ、画像処理システム300は、ベッド20から出ようとする被介護者10の行動をより正確に検出できる。   Preferably, the image processing system 300 detects a specific part of the care recipient 10 using at least one of the shape of the person area 12 of the input images 32A to 32C and the image information in the person area 12. To do. The specific part includes the foot of the care recipient 10. The image processing system 300 determines the behavior of the care receiver 10 based on how the bed boundary 40 overlaps the foot regions in the input images 32A to 32C. Thereby, the image processing system 300 can detect the state where the foot of the cared person 10 protrudes from the bed 20, and the image processing system 300 can further determine the action of the cared person 10 about to go out of the bed 20. It can be detected accurately.

さらに好ましくは、画像処理システム300は、入力画像33A〜33C内における被介護者10の動作方向を検出する。画像処理システム300は、重なり幅W1が閾値Thwを超え、かつ、動作方向がベッド領域の内側から外側に向いている場合に、被介護者10がベッド20から起床していると判別する。また、画像処理システム300は、重なり幅W1が閾値Thwを超え、かつ、動作方向がベッド領域の外側から内側に向いている場合に、被介護者10がベッド20に入床していると判別する。画像処理システム300は、被介護者10の動作方向を行動判別処理に用いることで、被介護者10の行動をより正確に判別できる。   More preferably, the image processing system 300 detects the movement direction of the care recipient 10 in the input images 33A to 33C. The image processing system 300 determines that the care receiver 10 is getting up from the bed 20 when the overlap width W1 exceeds the threshold Thw and the operation direction is from the inside to the outside of the bed area. In addition, the image processing system 300 determines that the care receiver 10 has entered the bed 20 when the overlap width W1 exceeds the threshold Thw and the operation direction is from the outside to the inside of the bed area. To do. The image processing system 300 can more accurately discriminate the behavior of the cared person 10 by using the movement direction of the cared person 10 for the action discriminating process.

なお、図2では、被介護者10を真上から撮影して得られた入力画像32A〜32Cを用いて行動判別処理を行なう例について説明を行なったが、被介護者10は、必ずしも真上から撮影されなくともよい。たとえば、図3の入力画像33A〜33Cに示されるように、被介護者10は、ベッド20の長手方向を含むように斜めから撮影されてもよい。この場合、ベッド境界40は、ベッド20の上面とベッド20の側面との境界として管理者によって設定される。   In addition, in FIG. 2, although the example which performs an action discrimination | determination process using the input images 32A-32C obtained by image | photographing the cared person 10 from right above was demonstrated, the cared person 10 is not necessarily right above. It does not have to be taken from. For example, as shown in the input images 33 </ b> A to 33 </ b> C of FIG. 3, the care recipient 10 may be taken from an oblique direction so as to include the longitudinal direction of the bed 20. In this case, the bed boundary 40 is set by the administrator as a boundary between the upper surface of the bed 20 and the side surface of the bed 20.

また、図4の入力画像34に示されるように、被介護者10は、ベッド20の短手方向を含むように斜めから撮影されてもよい。この場合、画像処理システム300は、カメラの角度、ベッド20の角度、およびベッド20の位置の少なくとも1つの情報に応じて、行動判別に用いる閾値Thwを補正する。画像処理システム300は、補正後の閾値Thwと重なり幅W4とを比較する。あるいは、画像処理システム300は、重なり幅W4を補正し、補正後の重なり幅W4と閾値Thwとを比較してもよい。   Further, as shown in the input image 34 of FIG. 4, the care receiver 10 may be photographed from an oblique direction so as to include the short direction of the bed 20. In this case, the image processing system 300 corrects the threshold value Thw used for action determination according to at least one information of the camera angle, the bed 20 angle, and the bed 20 position. The image processing system 300 compares the corrected threshold value Thw with the overlap width W4. Alternatively, the image processing system 300 may correct the overlap width W4 and compare the corrected overlap width W4 with the threshold Thw.

また、上述では、人物領域12とベッド境界40との重なり部分に基づいて、重なり幅W1〜W4を検出する例について説明を行なったが、重なり幅W1〜W4は、他の方法で検出されてもよい。たとえば、画像処理システム300は、足形状のテンプレートを予め保持し、当該テンプレートと類似する部分をベッド境界40の近傍で探索する。画像処理システム300は、類似したテンプレートのサイズに応じて重なり幅W1〜W4を決定する。   In the above description, the example in which the overlapping widths W1 to W4 are detected based on the overlapping portion between the person region 12 and the bed boundary 40 has been described. However, the overlapping widths W1 to W4 are detected by other methods. Also good. For example, the image processing system 300 stores a foot-shaped template in advance and searches for a portion similar to the template in the vicinity of the bed boundary 40. The image processing system 300 determines the overlapping widths W1 to W4 according to the sizes of similar templates.

他にも、画像処理システム300は、足の幅を有する肌色領域を可視光画像内で探索し、当該肌色領域とベッド境界40との重なり幅W1〜W4を検出してもよい。他にも、画像処理システム300は、サーモグラフィ画像から高温領域を探索し、当該高温領域とベッド境界40との重なり幅W1〜W4を検出してもよい。また、行動判別に用いられる特徴量としては、重なり幅W1〜W4ではなく、ベッド境界40からはみ出した領域の面積やはみ出した量(たとえば、ベッド端からの距離)等の別の特徴量が用いられてもよい。   In addition, the image processing system 300 may search for a skin color area having a foot width in the visible light image, and detect overlap widths W1 to W4 between the skin color area and the bed boundary 40. In addition, the image processing system 300 may search for a high temperature region from the thermographic image and detect overlap widths W1 to W4 between the high temperature region and the bed boundary 40. In addition, as the feature amount used for action determination, another feature amount such as the area of the region that protrudes from the bed boundary 40 or the amount of protrusion (for example, the distance from the bed edge) is used instead of the overlap widths W1 to W4. May be.

[画像処理システム300の画面遷移]
図5〜図10を参照して、画像処理システム300に表示される画面例について説明する。図5は、画像処理システム300の画面遷移図を示す図である。
[Screen Transition of Image Processing System 300]
A screen example displayed on the image processing system 300 will be described with reference to FIGS. FIG. 5 is a diagram showing a screen transition diagram of the image processing system 300.

画像処理システム300は、本実施の形態に従う画像処理プログラムを実行したときに、初期画面としてメイン画面310を表示する。管理者は、メイン画面310からは、設定モードトップ画面320または平常時画面340に遷移させることができる。管理者は、設定モードトップ画面320からは、メイン画面310または領域設定画面330に遷移させることができる。管理者は、領域設定画面330からは、設定モードトップ画面320に遷移させることができる。管理者は、平常時画面340からは、メイン画面310または発報時画面350に遷移させることができる。管理者は、発報時画面350からは、平常時画面340に遷移させることができる。   The image processing system 300 displays the main screen 310 as an initial screen when the image processing program according to the present embodiment is executed. The administrator can make a transition from the main screen 310 to the setting mode top screen 320 or the normal screen 340. The administrator can make a transition from the setting mode top screen 320 to the main screen 310 or the area setting screen 330. The administrator can make a transition from the area setting screen 330 to the setting mode top screen 320. The administrator can make a transition from the normal screen 340 to the main screen 310 or the notification time screen 350. The administrator can make a transition from the notification time screen 350 to the normal screen 340.

以下では、メイン画面310、設定モードトップ画面320、領域設定画面330、平常時画面340、および発報時画面350の画面例について順に説明する。   Hereinafter, screen examples of the main screen 310, the setting mode top screen 320, the region setting screen 330, the normal time screen 340, and the notification time screen 350 will be described in order.

(メイン画面310)
図6は、メイン画面310の一例を示す図である。画像処理システム300は、本実施の形態に従う画像処理プログラムを実行したときに、初期画面としてメイン画面310を表示する。
(Main screen 310)
FIG. 6 is a diagram illustrating an example of the main screen 310. The image processing system 300 displays the main screen 310 as an initial screen when the image processing program according to the present embodiment is executed.

メイン画面310は、行動判別処理の開始を受け付けるためのボタン312と、行動判別処理に関する設定画面を開くためのボタン314とを含む。画像処理システム300は、ボタン312の押下を検出した場合には、平常時画面340を表示する。また、画像処理システム300は、ボタン314の押下を検出した場合には、設定モードトップ画面320を表示する。   The main screen 310 includes a button 312 for accepting the start of the action determination process and a button 314 for opening a setting screen related to the action determination process. When detecting that the button 312 is pressed, the image processing system 300 displays a normal screen 340. In addition, when the image processing system 300 detects that the button 314 is pressed, the image processing system 300 displays a setting mode top screen 320.

(設定モードトップ画面320)
図7は、設定モードトップ画面320の一例を示す図である。設定モードトップ画面320は、画像処理システム300の初期設定時やメンテナンス時に表示される。
(Setting mode top screen 320)
FIG. 7 is a diagram illustrating an example of the setting mode top screen 320. The setting mode top screen 320 is displayed at the time of initial setting or maintenance of the image processing system 300.

設定モードトップ画面320は、行動判別処理に関するパラメータの設定を受け付ける。たとえば、設定モードトップ画面320は、後述するカメラ105のフレームレートに関するパラメータを受け付ける。また、設定モードトップ画面320は、カメラ105から出力される画像の明るさに関するパラメータを受け付ける。さらに、設定モードトップ画面320は、被介護者の行動の検出感度に関するパラメータを受け付ける。さらに、設定モードトップ画面320は、カメラ105を設置する天井の高さに関するパラメータを受け付ける。設定モードトップ画面320の「更新」ボタンが押下されると、各パラメータは、画像処理システム300に反映される。   The setting mode top screen 320 accepts parameter settings related to behavior determination processing. For example, the setting mode top screen 320 receives parameters related to the frame rate of the camera 105 described later. In addition, the setting mode top screen 320 receives parameters relating to the brightness of the image output from the camera 105. Furthermore, the setting mode top screen 320 accepts parameters relating to the detection sensitivity of the care receiver's behavior. Furthermore, the setting mode top screen 320 receives parameters regarding the height of the ceiling on which the camera 105 is installed. When the “update” button on the setting mode top screen 320 is pressed, each parameter is reflected in the image processing system 300.

画像処理システム300は、ボタン322の押下を検出した場合には、領域設定画面330を表示する。画像処理システム300は、ボタン324の押下を検出した場合には、メイン画面310を表示する。   When the image processing system 300 detects that the button 322 is pressed, the image processing system 300 displays an area setting screen 330. The image processing system 300 displays the main screen 310 when it detects that the button 324 is pressed.

設定モードトップ画面320は、他のパラメータの入力を受け付けてもよい。たとえば、設定モードトップ画面320は、カメラ105に関するパラメータとして、入力画像のコントラストに関するパラメータ、カメラのズーム調整に関するパラメータ、およびカメラのパンチルト調整に関するパラメータ等を受け付けてもよい。他にも、設定モードトップ画面320は、室内端末100から画像処理システム300に送信する画像の圧縮率等を受け付けてもよい。他にも、設定モードトップ画面320は、起床または入床等の行動を判別する時間帯等の設定を受け付けてもよい。   The setting mode top screen 320 may accept input of other parameters. For example, the setting mode top screen 320 may accept a parameter relating to the contrast of the input image, a parameter relating to the zoom adjustment of the camera, a parameter relating to the pan / tilt adjustment of the camera, and the like as the parameters relating to the camera 105. In addition, the setting mode top screen 320 may accept a compression rate of an image transmitted from the indoor terminal 100 to the image processing system 300. In addition, the setting mode top screen 320 may accept a setting such as a time zone for determining an action such as getting up or entering.

(領域設定画面330)
図8は、領域設定画面330の一例を示す図である。領域設定画面330は、設定画像30(基準画像)に対するベッド境界40の設定を受け付ける。設定されたベッド境界40は、上述したように、行動判別処理で用いられる。
(Area setting screen 330)
FIG. 8 is a diagram illustrating an example of the area setting screen 330. The area setting screen 330 receives the setting of the bed boundary 40 with respect to the setting image 30 (reference image). The set bed boundary 40 is used in the action determination process as described above.

領域設定画面330は、たとえば、点41A〜41Dの設定を受け付けることでベッド境界40の設定を受け付ける。一例として、点41A〜41Dは、マウス操作に連動するポインタ332によって入力される。画像処理システム300は、管理者によって設定されたベッド境界40を保存する操作を受け付けたことに基づいて、設定画像30内でベッド境界40を特定するための情報(たとえば、座標等)を記憶する。   The area setting screen 330 receives the setting of the bed boundary 40 by receiving the settings of the points 41A to 41D, for example. As an example, the points 41A to 41D are input by a pointer 332 that is interlocked with a mouse operation. The image processing system 300 stores information (for example, coordinates) for specifying the bed boundary 40 in the setting image 30 based on accepting an operation for saving the bed boundary 40 set by the administrator. .

なお、図8では、ベッド境界40を設定する方法として、点41A〜41Dを設定する例について説明を行なったが、ベッド境界40は、他の方法で設定されてもよい。たとえば、領域設定画面330は、線の設定を受け付けることでベッド境界40の設定を受け付けてもよい。他の方法としては、領域設定画面330は、面の設定を受け付けることでベッド境界40の設定を受け付ける。この場合、管理者は、領域設定画面330に対するドラッグ操作によりベッド20が写っている範囲を指定する。このように、ベッド境界40の設定方法としては、ベッド領域とその他の領域との境界の一部または全部を指定することが可能な任意の方法が採用され得る。   In FIG. 8, the example of setting the points 41 </ b> A to 41 </ b> D has been described as the method for setting the bed boundary 40, but the bed boundary 40 may be set by other methods. For example, the area setting screen 330 may accept the setting of the bed boundary 40 by accepting the setting of the line. As another method, the area setting screen 330 receives the setting of the bed boundary 40 by receiving the setting of the surface. In this case, the administrator designates a range in which the bed 20 is shown by a drag operation on the area setting screen 330. As described above, as a method for setting the bed boundary 40, any method capable of designating a part or all of the boundary between the bed region and the other region may be employed.

また、図8では、ベッド境界40を設定する方法として、矩形の境界を設定する例について説明を行なったが、ベッド境界40は、他の形状で設定されもよい。たとえば、ベッド境界40は、円形、楕円形、多角形(たとえば、六角形)等のその他の形状で設定されてもよい。あるいは、ベッド境界40の形状は、線、弧等であってもよい。当該線や弧は、所定の太さを有していてもよい。   In FIG. 8, an example in which a rectangular boundary is set as a method for setting the bed boundary 40 has been described. However, the bed boundary 40 may be set in another shape. For example, the bed boundary 40 may be set in other shapes such as a circle, an ellipse, and a polygon (for example, a hexagon). Alternatively, the shape of the bed boundary 40 may be a line, an arc, or the like. The line or arc may have a predetermined thickness.

また、図8では、ポインタ332でベッド境界40を設定する例について説明を行なったが、ベッド境界40は、タッチ操作等のその他の操作で設定されもよい。   In addition, although an example in which the bed boundary 40 is set with the pointer 332 has been described in FIG. 8, the bed boundary 40 may be set by other operations such as a touch operation.

また、図8では、ベッド20に対してベッド境界40を設定する例について説明を行なったが、境界が設定される対象物は、ベッドに限定されない。たとえば、境界が設定される対象物は、布団等の寝具、椅子、被介護者によって利用されるその他の物体を含む。   Moreover, although the example which sets the bed boundary 40 with respect to the bed 20 was demonstrated in FIG. 8, the target object in which a boundary is set is not limited to a bed. For example, the object for which the boundary is set includes bedding such as a futon, a chair, and other objects used by the care recipient.

また、図8では、ベッド境界40が管理者によって手動で設定される例について説明を行なったが、画像処理システム300は、エッジ抽出やテンプレートマッチングなどの画像処理によってベッド境界40を自動で検出してもよい。あるいは、画像処理システム300は、3Dセンサ、ベッド20の脚に取り付けられた位置センサ、圧力センサを有するカーペット等、その他のセンサによってベッド境界40を検出してもよい。   In FIG. 8, an example in which the bed boundary 40 is manually set by the administrator has been described. However, the image processing system 300 automatically detects the bed boundary 40 by image processing such as edge extraction or template matching. May be. Alternatively, the image processing system 300 may detect the bed boundary 40 by other sensors such as a 3D sensor, a position sensor attached to the leg of the bed 20, and a carpet having a pressure sensor.

(平常時画面340)
図9は、平常時画面340の一例を示す図である。平常時画面340は、画像処理システム300による行動判別処理の実行中において、監視対象の被介護者10が危険を伴わない行動(たとえば、就寝等)を取っているときに表示される画面である。一例として、画像処理システム300は、被介護者10を撮影して得られた画像(映像)をそのまま平常時画面340として表示する。
(Normal screen 340)
FIG. 9 is a diagram illustrating an example of the normal screen 340. The normal screen 340 is a screen that is displayed when the monitored care recipient 10 is taking a non-hazardous action (for example, going to sleep) during the execution of the action determination process by the image processing system 300. . As an example, the image processing system 300 displays an image (video) obtained by photographing the care recipient 10 as it is as a normal screen 340.

(発報時画面350)
図10は、発報時画面350の一例を示す図である。発報時画面350は、画像処理システム300による行動判別処理の実行中において、監視対象の被介護者10が危険を伴う行動を取ったときに表示される画面である。画像処理システム300は、発報時画面350を表示する前に発報時画面350の表示の可否を管理者に問い合わせてもよい。
(Notification screen 350)
FIG. 10 is a diagram showing an example of the notification time screen 350. The notification time screen 350 is a screen that is displayed when the care receiver 10 to be monitored takes a risky action during execution of the action determination process by the image processing system 300. The image processing system 300 may inquire of the administrator whether or not the notification time screen 350 can be displayed before displaying the notification time screen 350.

図10に示されるように、画像処理システム300は、被介護者10が起床したことを検出したことに基づいて、被介護者10の起床を介護者に報知する。ある局面において、画像処理システム300は、メッセージ352によって被介護者10の起床を介護者に報知する。他の局面において、画像処理システム300は、音声等の音によって被介護者10の起床を介護者に報知する。さらに他の局面において、画像処理システム300は、被介護者10の起床の検出時における画像または映像を表示する。これにより、万が一、画像処理システム300が誤発報を行なった場合であっても、介護者は、行動検出時における被介護者10の行動を画像または映像で確認できる。そのため、被介護者10の元に無駄に駆け付けずに済む。   As shown in FIG. 10, the image processing system 300 notifies the caregiver of the care receiver 10 to wake up based on the detection that the care receiver 10 has woken up. In one aspect, the image processing system 300 notifies the caregiver of the care receiver 10 to wake up with a message 352. In another aspect, the image processing system 300 notifies the caregiver of the care receiver 10 to wake up by sound such as voice. In yet another aspect, the image processing system 300 displays an image or video when the care receiver 10 is detected to wake up. As a result, even if the image processing system 300 makes a false alarm, the caregiver can confirm the action of the care receiver 10 at the time of action detection with an image or video. Therefore, it is not necessary to rush to the care recipient 10.

なお、報知対象になる行動は、起床に限定されない。たとえば、報知対象になる行動は、入床、離床、被介護者10に危険が生じるその他の行動を含む。   The action to be notified is not limited to wake up. For example, the action to be notified includes entering the floor, leaving the floor, and other actions that cause danger to the care recipient 10.

[画像処理システム300の機能構成]
図11を参照して、画像処理システム300の機能について説明する。図11は、画像処理システム300の機能構成の一例を示すブロック図である。図11に示されるように、画像処理システム300は、室内端末100と、管理サーバー200とを備える。以下では、室内端末100および管理サーバー200の機能について順に説明する。
[Functional Configuration of Image Processing System 300]
The functions of the image processing system 300 will be described with reference to FIG. FIG. 11 is a block diagram illustrating an example of a functional configuration of the image processing system 300. As shown in FIG. 11, the image processing system 300 includes an indoor terminal 100 and a management server 200. Below, the function of the indoor terminal 100 and the management server 200 is demonstrated in order.

(室内端末100の機能構成)
図11に示されるように、室内端末100は、機能構成として、受信部110と、人物検出部120と、方向検出部130と、判別部140と、送信部160とを含む。
(Functional configuration of indoor terminal 100)
As illustrated in FIG. 11, the indoor terminal 100 includes a reception unit 110, a person detection unit 120, a direction detection unit 130, a determination unit 140, and a transmission unit 160 as functional configurations.

受信部110は、設定画像30(図8参照)に対して設定されたベッド境界40を管理サーバー200から受信する。受信部110は、受信したベッド境界40を記憶装置106に格納する。   The receiving unit 110 receives the bed boundary 40 set for the setting image 30 (see FIG. 8) from the management server 200. The receiving unit 110 stores the received bed boundary 40 in the storage device 106.

人物検出部120は、設定画像30と同じ視点から物体(たとえば、ベッド)を撮影して得られる入力画像内において人物領域を検出する。人物検出処理の詳細については後述する(図14参照)。   The person detection unit 120 detects a person region in an input image obtained by photographing an object (for example, a bed) from the same viewpoint as the setting image 30. Details of the person detection process will be described later (see FIG. 14).

方向検出部130は、入力画像内の物体(たとえば、ベッド)に対する被介護者の動作方向を検出する。一例として、方向検出部130は、ベッド境界40内に占める人物領域の面積の変化に基づいて、入力画像内における被介護者の動作方向を検出する。たとえば、当該面積が前回の面積と比べて所定値以上減少した場合に、方向検出部130は、被介護者がベッド領域の内側から外側に動いていると判断する。当該面積が前回の面積と比べて所定値以上増加した場合に、方向検出部130は、被介護者がベッド領域の外側から内側に動いていると判断する。なお、方向検出部130は、人物検出部120によって検出された人物領域の位置の変化に基づいて動作方向を検出してもよい。   The direction detection unit 130 detects the movement direction of the care recipient with respect to an object (for example, a bed) in the input image. As an example, the direction detection unit 130 detects the movement direction of the cared person in the input image based on the change in the area of the person region in the bed boundary 40. For example, when the area decreases by a predetermined value or more compared to the previous area, the direction detection unit 130 determines that the care receiver is moving from the inside of the bed area to the outside. When the area increases by a predetermined value or more compared to the previous area, the direction detection unit 130 determines that the care recipient is moving from the outside of the bed area to the inside. Note that the direction detection unit 130 may detect the operation direction based on a change in the position of the person area detected by the person detection unit 120.

判別部140は、入力画像内における人物領域と、入力画像内におけるベッド境界40との重なり方に基づいて、被介護者の行動を判別する。行動判別処理の詳細については後述する(図13参照)。   The determination unit 140 determines the behavior of the care recipient based on how the person region in the input image overlaps the bed boundary 40 in the input image. Details of the action determination process will be described later (see FIG. 13).

送信部160は、カメラ105(図15参照)から得られた設定画像30と、判別部140によって判別された行動の種類とを管理サーバー200に送信する。   The transmission unit 160 transmits the setting image 30 obtained from the camera 105 (see FIG. 15) and the type of action determined by the determination unit 140 to the management server 200.

(管理サーバー200の機能構成)
引き続き図11を参照して、管理サーバー200の機能構成について説明する。図11に示されるように、管理サーバー200は、機能構成として、受信部210と、報知部230と、境界受付部240と、送信部250とを含む。
(Functional configuration of management server 200)
The functional configuration of the management server 200 will be described with reference to FIG. As illustrated in FIG. 11, the management server 200 includes a reception unit 210, a notification unit 230, a boundary reception unit 240, and a transmission unit 250 as functional configurations.

受信部210は、カメラ105(図15参照)から得られた設定画像30と、判別部140によって判別された行動の種類とを室内端末100から受信する。   The receiving unit 210 receives the setting image 30 obtained from the camera 105 (see FIG. 15) and the type of action determined by the determining unit 140 from the indoor terminal 100.

報知部230は、報知対象の行動が検出された場合に、当該行動が検出されたことを報知する。報知対象の行動は、たとえば、起床、入床、離床、監視対象の被介護者に危険が伴うその他の行動を含む。報知手段の一例として、報知部230は、行動の種類を示す情報をメッセージとして表示したり、音声によって出力したりする。あるいは、報知部230は、介護者が有する携帯端末(図示しない)に行動の種類を示す情報をメッセージとして表示させたり、当該携帯端末に音声を出力させたり、当該携帯端末を振動させたりする。   When the behavior to be notified is detected, the notification unit 230 notifies that the behavior has been detected. The behavior to be notified includes, for example, getting up, getting in, getting out of bed, and other behaviors that are dangerous for the care recipient to be monitored. As an example of the notification unit, the notification unit 230 displays information indicating the type of action as a message or outputs it by voice. Or the alerting | reporting part 230 displays the information which shows the kind of action as a message on the portable terminal (not shown) which a caregiver has, outputs a sound to the said portable terminal, or vibrates the said portable terminal.

境界受付部240は、ベッドを撮影して得られる設定画像30内の領域であってベッドを含む領域と他の領域との間のベッド境界40の設定を受け付ける。ベッド境界40は、ベッド領域と他の領域との間における一部または全部に相当する。好ましくは、ベッド境界40は、ベッドのエッジ部分の一部または全部に相当する。さらに好ましくは、ベッド境界40は、ベッドの上面の境界の一部または全部に相当する。   The boundary receiving unit 240 receives the setting of the bed boundary 40 between the area including the bed and the other area in the setting image 30 obtained by photographing the bed. The bed boundary 40 corresponds to a part or the whole between the bed area and another area. Preferably, the bed boundary 40 corresponds to part or all of the edge portion of the bed. More preferably, the bed boundary 40 corresponds to part or all of the boundary of the upper surface of the bed.

送信部250は、境界受付部240が受け付けた設定画像30に対するベッド境界40の設定を室内端末100に送信する。   The transmission unit 250 transmits the setting of the bed boundary 40 for the setting image 30 received by the boundary reception unit 240 to the indoor terminal 100.

[画像処理システム300の制御構造]
図12〜図14を参照して、画像処理システム300の制御構造について説明する。図12は、画像処理システム300が実行する画像処理を示すフローチャートである。図12の処理は、室内端末100のCPU102(図15参照)や、管理サーバー200のCPU202(図15参照)によって実行される。他の局面において、処理の一部または全部が、回路素子その他のハードウェアによって実行されてもよい。
[Control Structure of Image Processing System 300]
A control structure of the image processing system 300 will be described with reference to FIGS. FIG. 12 is a flowchart showing image processing executed by the image processing system 300. The processing of FIG. 12 is executed by the CPU 102 (see FIG. 15) of the indoor terminal 100 and the CPU 202 (see FIG. 15) of the management server 200. In other aspects, some or all of the processing may be performed by circuit elements or other hardware.

ステップS50において、画像処理システム300は、監視対象の被介護者を撮影して得られた画像を本実施の形態に従う画像処理プログラムに入力する。   In step S50, image processing system 300 inputs an image obtained by photographing the care recipient to be monitored into the image processing program according to the present embodiment.

ステップS60において、画像処理システム300は、上述の判別部140(図11参照)として、行動判別処理を実行する。行動判別処理の詳細については後述する(図13参照)。   In step S60, the image processing system 300 performs a behavior determination process as the above-described determination unit 140 (see FIG. 11). Details of the action determination process will be described later (see FIG. 13).

ステップS70において、画像処理システム300は、本実施の形態に従う画像処理を終了するか否かを判断する。たとえば、画像処理システム300は、管理者から処理を中断する操作を受け付けた場合に、本実施の形態に従う画像処理を終了すると判断する(ステップS70においてYES)。そうでない場合には(ステップS70においてNO)、画像処理システム300は、制御をステップS80に切り替える。   In step S70, image processing system 300 determines whether or not to end image processing according to the present embodiment. For example, image processing system 300 determines that the image processing according to the present embodiment is to be terminated when an operation for interrupting the processing is received from the administrator (YES in step S70). Otherwise (NO in step S70), image processing system 300 switches control to step S80.

ステップS80において、画像処理システム300は、次の入力画像をカメラ105から取得する。これにより、画像処理システム300は、時系列の画像に対して本実施の形態に従う画像処理を順次実行する。   In step S <b> 80, the image processing system 300 acquires the next input image from the camera 105. As a result, the image processing system 300 sequentially executes image processing according to the present embodiment on the time-series images.

(行動判別処理)
図13および図14を参照して、図12のステップS60で実行される行動判別処理について詳細に説明する。図13は、行動判別処理を示すフローチャートである。図14は、図13のステップS100で実行される人物検出処理を概略的に示す概念図である。
(Behavior discrimination processing)
With reference to FIGS. 13 and 14, the action determination process executed in step S60 of FIG. 12 will be described in detail. FIG. 13 is a flowchart showing the action determination process. FIG. 14 is a conceptual diagram schematically showing the person detection process executed in step S100 of FIG.

ステップS100において、画像処理システム300は、上述の人物検出部120(図11参照)として、入力画像から人物領域を検出する。人物領域は、たとえば、入力画像から背景画像を差分する背景差分や、撮影時刻が前後である画像を差分する時間差分によって検出される。   In step S100, the image processing system 300 detects a person area from the input image as the above-described person detection unit 120 (see FIG. 11). The person area is detected by, for example, a background difference that makes a difference between background images from an input image or a time difference that makes an difference between images whose shooting times are before and after.

図14には、背景差分によって入力画像32から人物領域12を抽出する処理が概略的に示されている。より具体的には、画像処理システム300は、人物が写っていない背景画像35を予め取得しておく。背景画像35は、上述の設定画像30(図8参照)と同一の画像であってもよいし、設定画像30とは別に得られた画像であってもよい。   FIG. 14 schematically shows a process of extracting the person region 12 from the input image 32 based on the background difference. More specifically, the image processing system 300 acquires a background image 35 in which no person is shown in advance. The background image 35 may be the same image as the setting image 30 described above (see FIG. 8), or may be an image obtained separately from the setting image 30.

画像処理システム300は、カメラ105(図15参照)から入力画像32を取得すると、入力画像32から背景画像35を差分する。これにより、画像処理システム300は、入力画像32から背景を除いた背景差分画像36を得ることができる。画像処理システム300は、所定値以上の画素値を有する領域を人物領域12とする。   When the image processing system 300 acquires the input image 32 from the camera 105 (see FIG. 15), the image processing system 300 subtracts the background image 35 from the input image 32. Thereby, the image processing system 300 can obtain the background difference image 36 excluding the background from the input image 32. The image processing system 300 sets a region having a pixel value equal to or greater than a predetermined value as the person region 12.

なお、人物領域12は、図14に示される方法とは異なる方法で抽出されてもよい。たとえば、画像処理システム300は、被介護者10の特徴的な部分(すなわち、特徴量)をテンプレートとして予め準備しておき、入力画像32を走査することにより当該テンプレートと類似する領域を探索する。画像処理システム300は、入力画像32内でテンプレートと類似する領域を探索できた場合には、当該領域を人物領域12とする。他にも、人物領域12は、オプティカルフローやトラッキング等のその他の画像処理技術によって抽出されてもよい。   The person area 12 may be extracted by a method different from the method shown in FIG. For example, the image processing system 300 prepares a characteristic portion (that is, a feature amount) of the care recipient 10 as a template in advance, and searches the region similar to the template by scanning the input image 32. If the image processing system 300 can search for an area similar to the template in the input image 32, the image processing system 300 sets the area as the person area 12. In addition, the person region 12 may be extracted by other image processing techniques such as optical flow and tracking.

好ましくは、画像処理システム300は、人物領域12から足領域を抽出する。足領域の抽出方法は任意である。一例として、画像処理システム300は、肌色度合い、輝度等の画素値情報、人物領域12の幅等の形状情報、オプティカルフロー等の動き情報が予め定められた範囲内にあるか否かを判断し、予め定められた範囲内にあるという条件を満たす領域を足領域として抽出する。あるいは、画像処理システム300は、足形状のテンプレートを予め保持し、当該テンプレートと類似する部分をベッド境界40の近傍で探索する。画像処理システム300は、当該テンプレートと類似する領域を探索できた場合には、当該領域を足領域とする。   Preferably, the image processing system 300 extracts a foot area from the person area 12. The method for extracting the foot region is arbitrary. As an example, the image processing system 300 determines whether pixel value information such as skin color degree and luminance, shape information such as the width of the person area 12, and motion information such as optical flow are within a predetermined range. Then, a region that satisfies the condition of being within a predetermined range is extracted as a foot region. Alternatively, the image processing system 300 holds a foot-shaped template in advance and searches for a portion similar to the template in the vicinity of the bed boundary 40. When the image processing system 300 can search for a region similar to the template, the image processing system 300 sets the region as a foot region.

ステップS102において、画像処理システム300は、上述の方向検出部130(図11参照)として、入力画像内の物体(たとえば、ベッド)に対する被介護者の動作方向を検出する。一例として、画像処理システム300は、ベッド領域に占める人物領域の面積S1の変化に基づいて、画像内における被介護者の動作方向を検出する。たとえば、今回の面積S1が前回の面積S1と比べて所定値以上減少した場合に、画像処理システム300は、被介護者がベッドの内側から外側の方向に動いていると判断する。今回の面積S1が前回の面積S1と比べて所定値以上増加した場合に、方向検出部130は、被介護者がベッドの外側から内側の方向に動いていると判断する。なお、画像処理システム300は、ベッド領域外に占める人物領域の面積S2の変化に基づいて、画像内における被介護者の動作方向を検出してもよい。   In step S102, the image processing system 300 detects the direction of movement of the care recipient relative to an object (for example, a bed) in the input image as the above-described direction detection unit 130 (see FIG. 11). As an example, the image processing system 300 detects the direction of movement of the cared person in the image based on a change in the area S1 of the person area in the bed area. For example, when the current area S1 has decreased by a predetermined value or more compared to the previous area S1, the image processing system 300 determines that the cared person is moving from the inside to the outside of the bed. When the current area S1 increases by a predetermined value or more compared to the previous area S1, the direction detection unit 130 determines that the care recipient is moving from the outside of the bed to the inside. Note that the image processing system 300 may detect the direction of movement of the care recipient in the image based on the change in the area S2 of the person area outside the bed area.

ステップS110において、画像処理システム300は、入力画像内における被介護者の移動方向がベッドの内側から外側の方向を向いているか否かを判断する。画像処理システム300は、入力画像内における人物の移動方向がベッドの内側から外側に向いていると判断した場合(ステップS110においてYES)、制御をステップS120に切り替える。そうでない場合には(ステップS110においてNO)、画像処理システム300は、行動判別処理を終了する。   In step S110, the image processing system 300 determines whether the moving direction of the care recipient in the input image is from the inside of the bed to the outside. If the image processing system 300 determines that the moving direction of the person in the input image is from the inside of the bed to the outside (YES in step S110), the control is switched to step S120. If not (NO in step S110), the image processing system 300 ends the action determination process.

ステップS120において、画像処理システム300は、ベッド境界40と人物領域12との重なり幅Wが閾値Thwよりも大きいか否かを判断する。画像処理システム300は、重なり幅Wが閾値Thwよりも大きいと判断した場合(ステップS120においてYES)、制御をステップS122に切り替える。そうでない場合には(ステップS120においてNO)、画像処理システム300は、行動判別処理を終了する。   In step S120, the image processing system 300 determines whether or not the overlap width W between the bed boundary 40 and the person region 12 is larger than the threshold value Thw. When image processing system 300 determines that overlap width W is larger than threshold value Thw (YES in step S120), control is switched to step S122. If not (NO in step S120), the image processing system 300 ends the action determination process.

ステップS122において、画像処理システム300は、上述の報知部230(図11参照)として、被介護者が起床したことを報知する。報知手段の一例として、画像処理システム300は、行動の種類を示す情報をメッセージとして表示したり、音声によって出力したりする。あるいは、画像処理システム300は、介護者が有する携帯端末(図示しない)に行動の種類を示す情報をメッセージとして表示させたり、当該携帯端末に音声を出力させたり、当該携帯端末を振動させたりする。   In step S122, the image processing system 300 notifies the care receiver that he / she has woken up as the above-described notification unit 230 (see FIG. 11). As an example of notification means, the image processing system 300 displays information indicating the type of action as a message or outputs it by voice. Alternatively, the image processing system 300 displays information indicating the type of action as a message on a portable terminal (not shown) possessed by the caregiver, outputs sound to the portable terminal, or vibrates the portable terminal. .

[画像処理システム300のハードウェア構成]
図15を参照して、画像処理システム300のハードウェア構成の一例について説明する。図15は、画像処理システム300の主要なハードウェア構成を示すブロック図である。図15に示されるように、画像処理システム300は、室内端末100と、管理サーバー200と、ネットワーク400とを含む。室内端末100および管理サーバー200は、ネットワーク400を介して接続されている。以下では、室内端末100のハードウェア構成と、管理サーバー200のハードウェア構成とについて順に説明する。
[Hardware Configuration of Image Processing System 300]
An example of the hardware configuration of the image processing system 300 will be described with reference to FIG. FIG. 15 is a block diagram illustrating a main hardware configuration of the image processing system 300. As shown in FIG. 15, the image processing system 300 includes an indoor terminal 100, a management server 200, and a network 400. The indoor terminal 100 and the management server 200 are connected via a network 400. Hereinafter, the hardware configuration of the indoor terminal 100 and the hardware configuration of the management server 200 will be described in order.

(室内端末100のハードウェア構成)
図15に示されるように、室内端末100は、ROM(Read Only Memory)101と、CPU102と、RAM(Random Access Memory)103と、ネットワークI/F(インタフェース)104と、カメラ105と、記憶装置106とを含む。
(Hardware configuration of indoor terminal 100)
As shown in FIG. 15, the indoor terminal 100 includes a ROM (Read Only Memory) 101, a CPU 102, a RAM (Random Access Memory) 103, a network I / F (interface) 104, a camera 105, and a storage device. 106.

ROM101は、オペレーティングシステム(OS:Operating System)、室内端末100で実行される制御プログラム等を格納する。CPU102は、オペレーティングシステムや室内端末100の制御プログラム等の各種プログラムを実行することで、室内端末100の動作を制御する。RAM103は、ワーキングメモリとして機能し、プログラムの実行に必要な各種データを一時的に格納する。   The ROM 101 stores an operating system (OS), a control program executed by the indoor terminal 100, and the like. The CPU 102 controls the operation of the indoor terminal 100 by executing various programs such as an operating system and a control program for the indoor terminal 100. The RAM 103 functions as a working memory and temporarily stores various data necessary for program execution.

ネットワークI/F104には、アンテナやNIC(Network Interface Card)等の通信機器が接続される。室内端末100は、当該通信機器を介して、他の通信端末との間でデータを送受信する。他の通信端末は、たとえば、管理サーバー200、その他の端末等を含む。室内端末100は、本実施の形態に従う各種の処理を実現するための画像処理プログラム108を、ネットワーク400を介してダウンロードできるように構成されてもよい。   A communication device such as an antenna or a NIC (Network Interface Card) is connected to the network I / F 104. The indoor terminal 100 transmits / receives data to / from other communication terminals via the communication device. Other communication terminals include, for example, the management server 200 and other terminals. Indoor terminal 100 may be configured to download image processing program 108 for realizing various processes according to the present embodiment via network 400.

カメラ105は、たとえば、監視カメラまたは被写体を撮影することが可能なその他の撮像装置である。なお、カメラ105は、室内端末100と別個に構成されてもよいし、図15に示されるように室内端末100と一体的に構成されてもよい。   The camera 105 is, for example, a surveillance camera or other imaging device capable of photographing a subject. The camera 105 may be configured separately from the indoor terminal 100, or may be configured integrally with the indoor terminal 100 as shown in FIG.

記憶装置106は、たとえば、ハードディスクや外付けの記憶装置等の記憶媒体である。一例として、記憶装置106は、設定画像に対して設定されたベッド境界40と、本実施の形態に従う各種の処理を実現するための画像処理プログラム108とを記憶する。ベッド境界40は、設定画像や入力画像内でベッドが写っている領域を特定するための情報である。たとえば、ベッド境界40は、ベッドの端点を示す座標値で示される。   The storage device 106 is a storage medium such as a hard disk or an external storage device. As an example, the storage device 106 stores a bed boundary 40 set for a set image and an image processing program 108 for realizing various processes according to the present embodiment. The bed boundary 40 is information for specifying a region where a bed is reflected in a setting image or an input image. For example, the bed boundary 40 is indicated by a coordinate value indicating the end point of the bed.

なお、画像処理プログラム108は、単体のプログラムとしてではなく、任意のプログラムの一部に組み込まれて提供されてもよい。この場合、任意のプログラムと協働して本実施の形態に従う処理が実現される。このような一部のモジュールを含まないプログラムであっても、本実施の形態に従う画像処理システム300の趣旨を逸脱するものではない。さらに、本実施の形態に従う画像処理プログラム108によって提供される機能の一部または全部は、専用のハードウェアによって実現されてもよい。さらに、少なくとも1つのサーバーが本実施の形態に従う処理を実現する、所謂クラウドサービスのような形態で管理サーバー200が構成されてもよい。   Note that the image processing program 108 may be provided by being incorporated in a part of an arbitrary program, not as a single program. In this case, processing according to the present embodiment is realized in cooperation with an arbitrary program. Even such a program that does not include some modules does not depart from the spirit of the image processing system 300 according to the present embodiment. Furthermore, part or all of the functions provided by the image processing program 108 according to the present embodiment may be realized by dedicated hardware. Furthermore, the management server 200 may be configured in the form of a so-called cloud service in which at least one server realizes processing according to the present embodiment.

(管理サーバー200のハードウェア構成)
次に、管理サーバー200のハードウェア構成について説明する。図15に示されるように、管理サーバー200は、ROM201と、CPU202と、RAM203と、ネットワークI/F204と、モニタ205と、記憶装置206とを含む。
(Hardware configuration of management server 200)
Next, the hardware configuration of the management server 200 will be described. As illustrated in FIG. 15, the management server 200 includes a ROM 201, a CPU 202, a RAM 203, a network I / F 204, a monitor 205, and a storage device 206.

ROM201は、オペレーティングシステム、管理サーバー200で実行される制御プログラム等を格納する。CPU202は、オペレーティングシステムや管理サーバー200の制御プログラム等の各種プログラムを実行することで、管理サーバー200の動作を制御する。RAM203は、ワーキングメモリとして機能し、プログラムの実行に必要な各種データを一時的に格納する。   The ROM 201 stores an operating system, a control program executed by the management server 200, and the like. The CPU 202 controls the operation of the management server 200 by executing various programs such as an operating system and a control program of the management server 200. The RAM 203 functions as a working memory and temporarily stores various data necessary for program execution.

ネットワークI/F204には、アンテナやNIC等の通信機器が接続される。管理サーバー200は、当該通信機器を介して、他の通信端末との間でデータを送受信する。他の通信端末は、たとえば、室内端末100、その他の端末等を含む。管理サーバー200は、本実施の形態に従う各種の処理を実現するためのプログラムを、ネットワーク400を介してダウンロードできるように構成されてもよい。   A communication device such as an antenna or a NIC is connected to the network I / F 204. The management server 200 transmits / receives data to / from other communication terminals via the communication device. Other communication terminals include, for example, the indoor terminal 100 and other terminals. Management server 200 may be configured to download a program for realizing various processes according to the present embodiment via network 400.

モニタ205は、本実施の形態に従う画像処理プログラム208を実行することで表示される各種画面を表示する。たとえば、モニタ205は、メイン画面310(図6参照)、設定モードトップ画面320(図7参照)、領域設定画面330(図8参照)、平常時画面340(図9参照)、および発報時画面350(図10参照)等の画面を表示する。なお、モニタ205は、タッチセンサ(図示しない)と組み合わされてタッチパネルとして実現されてもよい。タッチパネルは、ベッド境界40の設定操作や画面の切り替え操作等をタッチ操作で受け付ける。   The monitor 205 displays various screens displayed by executing the image processing program 208 according to the present embodiment. For example, the monitor 205 includes a main screen 310 (see FIG. 6), a setting mode top screen 320 (see FIG. 7), an area setting screen 330 (see FIG. 8), a normal screen 340 (see FIG. 9), and a notification time. A screen such as a screen 350 (see FIG. 10) is displayed. The monitor 205 may be realized as a touch panel in combination with a touch sensor (not shown). The touch panel accepts a setting operation of the bed boundary 40, a screen switching operation, and the like by a touch operation.

記憶装置206は、たとえば、ハードディスクや外付けの記憶装置等の記憶媒体である。一例として、記憶装置206は、本実施の形態に従う各種の処理を実現するための画像処理プログラム208を記憶する。   The storage device 206 is a storage medium such as a hard disk or an external storage device. As an example, the storage device 206 stores an image processing program 208 for realizing various processes according to the present embodiment.

[小括]
以上のようにして、本実施の形態に従う画像処理システム300は、ベッド境界と人物領域との重なり方に基づいて被介護者の行動を判別する。これにより、画像処理システム300は、ベッド境界を通過していることを検出でき、被介護者の起床や入床等を検出できる。画像処理システム300が被介護者の起床等を介護者に報知することで、介護者は、被介護者の元に素早く駆け付けることができる。その結果、介護者は、被介護者が転倒したり、被介護者がベッドから転落したりすることを未然に防ぐことができる。
[Brief Summary]
As described above, image processing system 300 according to the present embodiment determines the behavior of the care recipient based on how the bed boundary and the person area overlap. Thereby, the image processing system 300 can detect passing through the bed boundary, and can detect the rising or entering of the care recipient. The image processing system 300 informs the caregiver of the caregiver's wake-up and the like so that the caregiver can quickly rush to the caregiver. As a result, the caregiver can prevent the care receiver from falling or the care receiver falling from the bed.

<第2の実施の形態>
[概要]
第1の実施の形態に従う画像処理システム300は、予め設定されたベッド境界を全て用いて被介護者の行動を判別していた。これに対して、第2の実施の形態に従う画像処理システム300Aは、予め設定されたベッド境界を部分的に用いて被介護者の行動を判別する。
<Second Embodiment>
[Overview]
The image processing system 300 according to the first embodiment discriminates the behavior of the cared person using all preset bed boundaries. On the other hand, the image processing system 300A according to the second embodiment determines the care receiver's behavior by partially using a preset bed boundary.

以下では、図16を参照して、第2の実施の形態に従う画像処理システム300Aの概要について説明する。図16は、選択画面360の一例を示す図である。選択画面360は、設定されたベッド境界40の内から判別処理に用いる境界(以下、「境界部分」ともいう。)の選択を受け付ける。   Below, with reference to FIG. 16, the outline | summary of 300 A of image processing systems according to 2nd Embodiment is demonstrated. FIG. 16 is a diagram illustrating an example of the selection screen 360. The selection screen 360 accepts selection of a boundary (hereinafter also referred to as “boundary portion”) to be used for determination processing from among the set bed boundaries 40.

図16の例では、マウス操作に連動するポインタ332によって境界部分43が選択されている。境界部分43は、ベッド境界40の一辺に相当する。画像処理システム300Aは、選択された境界部分43と人物領域との重なり方に応じて被介護者の行動を判別する。すなわち、画像処理システム300Aは、選択されなかった境界部分については行動判別処理に用いない。これにより、画像処理システム300Aは、被介護者が起床するときに通過しない境界を除外することができるので、被介護者の起床を誤検出することを低減することができる。   In the example of FIG. 16, the boundary portion 43 is selected by a pointer 332 that is linked to a mouse operation. The boundary portion 43 corresponds to one side of the bed boundary 40. The image processing system 300A determines the behavior of the care recipient in accordance with how the selected boundary portion 43 and the person area overlap. That is, the image processing system 300A does not use the boundary portion that has not been selected for the action determination process. As a result, the image processing system 300A can exclude a boundary that does not pass when the cared person wakes up, so that erroneous detection of the cared person's wakeup can be reduced.

なお、図16では、行動判別処理に用いられる境界部分が選択される例について説明したが、行動判別処理に用いられない境界部分が選択されてもよい。   In addition, although FIG. 16 demonstrated the example in which the boundary part used for an action discrimination | determination process was selected, the boundary part which is not used for an action discrimination | determination process may be selected.

また、境界部分は、他の方法で選択されてもよい。たとえば、画像処理システム300Aは、ベッド領域の長辺を境界部分として自動的に選択してもよい。あるいは、画像処理システム300Aは、画像中心からの距離、ベッドの柵の有無等の情報に基づいて、境界部分を自動的に選択してもよい。あるいは、起床時または入床時には被介護者が特定の境界部分を通過するという点に着目して、画像処理システム300Aは、人物領域との重なりが頻繁に生じるベッド端を境界部分として自動的に選択してもよい。   The boundary portion may be selected by other methods. For example, the image processing system 300A may automatically select the long side of the bed area as the boundary portion. Alternatively, the image processing system 300A may automatically select the boundary portion based on information such as the distance from the image center and the presence / absence of a bed fence. Alternatively, paying attention to the fact that the cared person passes through a specific boundary portion when waking up or entering the floor, the image processing system 300A automatically uses the edge of the bed that frequently overlaps the person area as the boundary portion. You may choose.

さらに、選択画面360は、複数の境界部分の選択を受け付けてもよい。複数の境界部分が選択された場合、画像処理システム300Aは、後述するように、それぞれの境界部分の位置に応じて行動判別処理を変えてもよい。   Furthermore, the selection screen 360 may accept selection of a plurality of boundary portions. When a plurality of boundary portions are selected, the image processing system 300A may change the action determination processing according to the position of each boundary portion, as will be described later.

[画像処理システム300Aの機能構成]
図17を参照して、第2の実施の形態に従う画像処理システム300Aの機能について説明する。図17は、画像処理システム300Aの機能構成の一例を示すブロック図である。図17に示されるように、画像処理システム300Aは、室内端末100と、管理サーバー200とを備える。画像処理システム300Aにおいては、管理サーバー200が境界部分受付部245をさらに備える点で第1の実施の形態に従う画像処理システム300とは異なる。その他の機能構成については上述の通りであるので、それらの機能構成については説明を繰り返さない。
[Functional Configuration of Image Processing System 300A]
With reference to FIG. 17, functions of image processing system 300A according to the second embodiment will be described. FIG. 17 is a block diagram illustrating an example of a functional configuration of the image processing system 300A. As illustrated in FIG. 17, the image processing system 300 </ b> A includes an indoor terminal 100 and a management server 200. The image processing system 300A is different from the image processing system 300 according to the first embodiment in that the management server 200 further includes a boundary portion receiving unit 245. Since other functional configurations are as described above, description thereof will not be repeated.

境界部分受付部245は、設定されたベッド境界40のうちから行動判別処理に用いる境界部分の設定を受け付ける。一例として、境界部分受付部245は、ベッド境界40の端辺のうちから特定の辺を選択する操作を受け付け、選択された辺を境界部分とする。境界部分受付部245は、選択された境界部分を送信部250に出力する。   The boundary part reception unit 245 receives the setting of the boundary part used for the action determination process from the set bed boundary 40. As an example, the boundary portion receiving unit 245 receives an operation of selecting a specific side from the end sides of the bed boundary 40, and sets the selected side as the boundary portion. The boundary part reception unit 245 outputs the selected boundary part to the transmission unit 250.

[画像処理システム300Aの行動判別処理]
図18および図19を参照して、第2の実施の形態に従う画像処理システム300Aの行動判別処理について説明する。図18は、入力画像37の画像中心45がベッド境界40の手前(下側)にある例を示す図である。図19は、入力画像38の画像中心45がベッド境界40に含まれている例を示す図である。
[Behavior determination processing of image processing system 300A]
With reference to FIG. 18 and FIG. 19, the action determination process of image processing system 300A according to the second embodiment will be described. FIG. 18 is a diagram illustrating an example in which the image center 45 of the input image 37 is in front of (below) the bed boundary 40. FIG. 19 is a diagram illustrating an example in which the image center 45 of the input image 38 is included in the bed boundary 40.

入力画像内の被介護者の写り方やベッドの写り方は、入力画像内の位置に応じて変わる。そのため、人物領域とベッド境界との重なり方も、被介護者の位置やベッドの位置に応じて変わる。この点に着目して、画像処理システム300Aは、入力画像内におけるベッド境界40の位置に応じて、同一の行動に対する行動判別処理を変える。異なる言い方をすれば、画像処理システム300Aは、ベッド境界40とカメラ105(図15参照)との位置関係に応じて行動判別処理を変える。   The way the cared person appears in the input image and the way the bed appears vary depending on the position in the input image. For this reason, the way in which the person area overlaps the bed boundary also changes depending on the position of the care recipient and the position of the bed. Focusing on this point, the image processing system 300A changes the action determination process for the same action according to the position of the bed boundary 40 in the input image. In other words, the image processing system 300A changes the action determination process according to the positional relationship between the bed boundary 40 and the camera 105 (see FIG. 15).

一例として、画像処理システム300Aは、ベッド境界40(あるいは境界部分43)に対する画像中心45の位置を特定し、特定した位置に応じて行動判別処理を変える。たとえば、図18に示されるように、画像中心45がベッド境界40の手前(下側)に位置しているとする。この場合、画像処理システム300Aは、表50の「手前」を選択し、当該「手前」に予め関連付けられている行動判別処理を実行する。また、図19に示されるように、画像中心45がベッド境界40内に位置しているとする。この場合、画像処理システム300Aは、表50の「直上」を選択し、当該「直上」に予め関連付けられている行動判別処理を実行する。   As an example, the image processing system 300A specifies the position of the image center 45 with respect to the bed boundary 40 (or the boundary portion 43), and changes the action determination process according to the specified position. For example, as shown in FIG. 18, it is assumed that the image center 45 is positioned in front of (below) the bed boundary 40. In this case, the image processing system 300 </ b> A selects “front” in the table 50 and executes an action determination process associated with the “front” in advance. Further, it is assumed that the image center 45 is located within the bed boundary 40 as shown in FIG. In this case, the image processing system 300 </ b> A selects “directly above” in the table 50 and executes a behavior determination process associated with the “directly above” in advance.

なお、ベッド境界40(あるいは、境界部分43)とカメラ105(図15参照)との位置関係を特定する方法は、図18および図19に示される例に限定されない。たとえば、カメラ105が斜め下向きにあおり角を有するように設置されているとする。この場合、画像処理システム300Aは、予め設定されているあおり角、または入力画像から自動的に算出されるあおり角度に基づいて、入力画像内におけるカメラ105の直下の位置(画像中心ではない)を算出する。画像処理システム300Aは、算出した位置とベッド境界40との位置関係に応じて行動判別処理を変える。   Note that the method for specifying the positional relationship between the bed boundary 40 (or the boundary portion 43) and the camera 105 (see FIG. 15) is not limited to the examples shown in FIGS. For example, it is assumed that the camera 105 is installed so as to have a tilted downward angle. In this case, the image processing system 300A determines a position (not the center of the image) immediately below the camera 105 in the input image based on a preset tilt angle or a tilt angle automatically calculated from the input image. calculate. The image processing system 300A changes the action determination process according to the positional relationship between the calculated position and the bed boundary 40.

[小括]
以上のようにして、第2の実施の形態に従う画像処理システム300Aは、ベッド境界40のうちから行動判別処理に用いる境界部分の選択を受け付ける。画像処理システム300Aは、選択された境界部分と人物領域との重なり方に応じて被介護者の行動を判別する。これにより、画像処理システム300Aは、被介護者が起床するときに通過しない境界を除外することができるので、被介護者の起床を誤検出することを低減することができる。
[Brief Summary]
As described above, the image processing system 300 </ b> A according to the second embodiment accepts selection of a boundary portion used for the action determination process from the bed boundary 40. The image processing system 300 </ b> A determines the behavior of the care recipient in accordance with how the selected boundary portion and the person area overlap. As a result, the image processing system 300A can exclude a boundary that does not pass when the cared person wakes up, so that erroneous detection of the cared person's wakeup can be reduced.

今回開示された実施の形態は全ての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて請求の範囲によって示され、請求の範囲と均等の意味および範囲内での全ての変更が含まれることが意図される。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

9 患者、10 被介護者、12 人物領域、20 ベッド、30 設定画像、32,32A〜32C,33A〜33C,34,37,38 入力画像、35 背景画像、36 背景差分画像、40 ベッド境界、41A〜41D 点、43 境界部分、45 画像中心、100 室内端末、101,201 ROM、102,202 CPU、103,203 RAM、104,204 ネットワークI/F、105 カメラ、106,206 記憶装置、108,208 画像処理プログラム、110,210 受信部、120 人物検出部、130 方向検出部、140 判別部、160,250 送信部、200 管理サーバー、205 モニタ、230 報知部、240 境界受付部、245 境界部分受付部、300,300A 画像処理システム、310 メイン画面、312,314,322,324 ボタン、320 設定モードトップ画面、330 領域設定画面、332 ポインタ、340 平常時画面、350 発報時画面、352 メッセージ、360 選択画面、400 ネットワーク。   9 patients, 10 care recipients, 12 person areas, 20 beds, 30 setting images, 32, 32A to 32C, 33A to 33C, 34, 37, 38 input images, 35 background images, 36 background difference images, 40 bed boundaries, 41A to 41D point, 43 boundary portion, 45 image center, 100 indoor terminal, 101,201 ROM, 102,202 CPU, 103,203 RAM, 104,204 network I / F, 105 camera, 106,206 storage device, 108 , 208 Image processing program, 110, 210 receiving unit, 120 person detecting unit, 130 direction detecting unit, 140 discriminating unit, 160, 250 transmitting unit, 200 management server, 205 monitor, 230 notifying unit, 240 boundary receiving unit, 245 boundary Partial acceptance unit, 300, 300A image processing system, 10 main screen, 312,314,322,324 button, 320 Setting mode top screen, 330 area setting screen, 332 pointers, 340 normal time display, 350 alarm time screen, 352 message, 360 selection screen 400 network.

Claims (13)

人物の行動を判別することが可能な画像処理システムであって、
物体を撮影して得られる基準画像内の領域であって前記物体を含む物体領域と他の領域との境界の設定を受け付けるための境界受付部と、
前記基準画像と同じ視点から前記物体を撮影して得られる入力画像内において人物領域を検出するための人物検出部と、
前記入力画像内における前記境界と前記人物領域との重なり方に基づいて、前記人物の行動を判別するための判別部とを備え、
前記判別部は、前記境界と前記人物領域とが重なっている部分の幅に応じて、前記行動を判別する、画像処理システム。
An image processing system capable of discriminating human actions,
A boundary receiving unit for receiving a setting of a boundary between an object region including the object and a region in a reference image obtained by photographing the object;
A person detection unit for detecting a person region in an input image obtained by photographing the object from the same viewpoint as the reference image;
A determination unit for determining the action of the person based on how the boundary and the person area overlap in the input image;
The image processing system , wherein the determination unit determines the action according to a width of a portion where the boundary and the person region overlap .
人物の行動を判別することが可能な画像処理システムであって、
物体を撮影して得られる基準画像内の領域であって前記物体を含む物体領域と他の領域との境界の設定を受け付けるための境界受付部と、
前記基準画像と同じ視点から前記物体を撮影して得られる入力画像内において人物領域を検出するための人物検出部と、
前記入力画像内における前記境界と前記人物領域との重なり方に基づいて、前記人物の行動を判別するための判別部とを備え、
前記人物検出部は、前記入力画像内において前記人物の足領域を検出し、
前記判別部は、前記入力画像内における前記境界と前記足領域との重なり方に基づいて、前記行動を判別する、画像処理システム。
An image processing system capable of discriminating human actions,
A boundary receiving unit for receiving a setting of a boundary between an object region including the object and a region in a reference image obtained by photographing the object;
A person detection unit for detecting a person region in an input image obtained by photographing the object from the same viewpoint as the reference image;
A determination unit for determining the action of the person based on how the boundary and the person area overlap in the input image;
The person detecting unit detects a foot region of the person in the input image;
The said determination part is an image processing system which discriminate | determines the said action based on how the said boundary and the said foot area | region in the said input image overlap .
人物の行動を判別することが可能な画像処理システムであって、
物体を撮影して得られる基準画像内の領域であって前記物体を含む物体領域と他の領域との境界の設定を受け付けるための境界受付部と、
前記基準画像と同じ視点から前記物体を撮影して得られる入力画像内において人物領域を検出するための人物検出部と、
前記入力画像内における前記境界と前記人物領域との重なり方に基づいて、前記人物の行動を判別するための判別部とを備え、
前記物体は、寝具であり、
前記判別部によって判別される行動は、起床および入床の少なくとも一方を含み、
前記判別部は、前記境界と前記人物領域とが重なっている部分の幅が所定値を超えた場合に、前記行動が前記起床または前記入床であると判別する、画像処理システム。
An image processing system capable of discriminating human actions,
A boundary receiving unit for receiving a setting of a boundary between an object region including the object and a region in a reference image obtained by photographing the object;
A person detection unit for detecting a person region in an input image obtained by photographing the object from the same viewpoint as the reference image;
A determination unit for determining the action of the person based on how the boundary and the person area overlap in the input image;
The object is bedding;
The action discriminated by the discriminating unit includes at least one of getting up and entering the floor,
The said determination part is an image processing system which discriminate | determines that the said action is the said getting-up or the said entrance when the width | variety of the part with which the said boundary and the said person area | region has exceeded predetermined value .
前記画像処理システムは、前記入力画像内における前記人物の動作方向を検出するための方向検出部をさらに備え、
前記判別部は、
前記幅が前記所定値を超え、かつ、前記動作方向が前記入力画像内の前記物体領域の内側から外側に向いている場合に、前記人物が前記寝具から起床していると判別し、
前記幅が前記所定値を超え、かつ、前記動作方向が前記入力画像内の前記物体領域の外側から内側に向いている場合に、前記人物が前記寝具に入床していると判別する、請求項3に記載の画像処理システム。
The image processing system further includes a direction detection unit for detecting a movement direction of the person in the input image,
The discrimination unit
When the width exceeds the predetermined value and the movement direction is directed from the inside to the outside of the object area in the input image, it is determined that the person is getting up from the bedding,
When the width exceeds the predetermined value and the movement direction is directed from the outside to the inside of the object area in the input image, it is determined that the person is entering the bedding. Item 4. The image processing system according to Item 3.
前記人物検出部は、前記人物領域の形状と、前記人物領域内の画像情報との少なくとも一方の情報を用いて、前記人物の特定の部位を検出する、請求項1〜のいずれか1項に記載の画像処理システム。 The person detecting unit, and the shape of the human region, using at least one of information of the image information of the person within the area, detecting a particular portion of the person, any one of claims 1-4 The image processing system described in 1. 前記画像処理システムは、設定された前記境界のうちから前記判別部の行動判別処理に用いる境界部分の設定を受け付けるための境界部分受付部をさらに備える、請求項1〜のいずれか1項に記載の画像処理システム。 The image processing system further comprises a boundary portion receiving unit for accepting the setting of boundary used for the action determination processing of the determination unit from among the boundaries set, in any one of claims 1 to 5 The image processing system described. 人物の行動を判別することが可能な画像処理装置であって、
物体を撮影して得られる基準画像内の領域であって前記物体を含む物体領域と他の領域との境界の設定を受け付けるための境界受付部と、
前記基準画像と同じ視点から前記物体を撮影して得られる入力画像内において人物領域を検出するための人物検出部と、
前記入力画像内における前記境界と前記人物領域との重なり方に基づいて、前記人物の行動を判別するための判別部とを備え、
前記判別部は、前記境界と前記人物領域とが重なっている部分の幅に応じて、前記行動を判別する、画像処理装置。
An image processing apparatus capable of discriminating human behavior,
A boundary receiving unit for receiving a setting of a boundary between an object region including the object and a region in a reference image obtained by photographing the object;
A person detection unit for detecting a person region in an input image obtained by photographing the object from the same viewpoint as the reference image;
A determination unit for determining the action of the person based on how the boundary and the person area overlap in the input image;
The determination unit is an image processing apparatus that determines the behavior according to a width of a portion where the boundary and the person region overlap .
人物の行動を判別することが可能な画像処理装置であって、
物体を撮影して得られる基準画像内の領域であって前記物体を含む物体領域と他の領域との境界の設定を受け付けるための境界受付部と、
前記基準画像と同じ視点から前記物体を撮影して得られる入力画像内において人物領域を検出するための人物検出部と、
前記入力画像内における前記境界と前記人物領域との重なり方に基づいて、前記人物の行動を判別するための判別部とを備え、
前記人物検出部は、前記入力画像内において前記人物の足領域を検出し、
前記判別部は、前記入力画像内における前記境界と前記足領域との重なり方に基づいて、前記行動を判別する、画像処理装置。
An image processing apparatus capable of discriminating human behavior,
A boundary receiving unit for receiving a setting of a boundary between an object region including the object and a region in a reference image obtained by photographing the object;
A person detection unit for detecting a person region in an input image obtained by photographing the object from the same viewpoint as the reference image;
A determination unit for determining the action of the person based on how the boundary and the person area overlap in the input image;
The person detecting unit detects a foot region of the person in the input image;
The said discrimination | determination part is an image processing apparatus which discriminate | determines the said action based on how the said boundary and the said foot area | region in the said input image overlap .
人物の行動を判別することが可能な画像処理装置であって、
物体を撮影して得られる基準画像内の領域であって前記物体を含む物体領域と他の領域との境界の設定を受け付けるための境界受付部と、
前記基準画像と同じ視点から前記物体を撮影して得られる入力画像内において人物領域を検出するための人物検出部と、
前記入力画像内における前記境界と前記人物領域との重なり方に基づいて、前記人物の行動を判別するための判別部とを備え、
前記物体は、寝具であり、
前記判別部によって判別される行動は、起床および入床の少なくとも一方を含み、
前記判別部は、前記境界と前記人物領域とが重なっている部分の幅が所定値を超えた場合に、前記行動が前記起床または前記入床であると判別する、画像処理装置。
An image processing apparatus capable of discriminating human behavior,
A boundary receiving unit for receiving a setting of a boundary between an object region including the object and a region in a reference image obtained by photographing the object;
A person detection unit for detecting a person region in an input image obtained by photographing the object from the same viewpoint as the reference image;
A determination unit for determining the action of the person based on how the boundary and the person area overlap in the input image;
The object is bedding;
The action discriminated by the discriminating unit includes at least one of getting up and entering the floor,
The determination unit is an image processing device that determines that the action is the wake-up or the entrance when the width of a portion where the boundary and the person region overlap exceeds a predetermined value .
人物の行動を判別することが可能な画像処理方法であって、
物体を撮影して得られる基準画像内の領域であって前記物体を含む物体領域と他の領域との境界の設定を受け付けるステップと、
前記基準画像と同じ視点から前記物体を撮影して得られる入力画像内において人物領域を検出するステップと、
前記入力画像内における前記境界と前記人物領域との重なり方に基づいて、前記人物の行動を判別するステップとを備え、
前記判別するステップは、前記境界と前記人物領域とが重なっている部分の幅に応じて、前記行動を判別する、画像処理方法。
An image processing method capable of determining a person's behavior,
Receiving a setting of a boundary between an object region including the object and a region in a reference image obtained by photographing the object; and
Detecting a human region in an input image obtained by photographing the object from the same viewpoint as the reference image;
Determining the action of the person based on how the boundary and the person area overlap in the input image,
The determining step is an image processing method in which the action is determined according to a width of a portion where the boundary and the person region overlap .
人物の行動を判別することが可能な画像処理方法であって、
物体を撮影して得られる基準画像内の領域であって前記物体を含む物体領域と他の領域との境界の設定を受け付けるステップと、
前記基準画像と同じ視点から前記物体を撮影して得られる入力画像内において人物領域を検出するステップと、
前記入力画像内における前記境界と前記人物領域との重なり方に基づいて、前記人物の行動を判別するステップとを備え、
前記検出するステップは、前記入力画像内において前記人物の足領域を検出し、
前記判別するステップは、前記入力画像内における前記境界と前記足領域との重なり方に基づいて、前記行動を判別する、画像処理方法。
An image processing method capable of determining a person's behavior,
Receiving a setting of a boundary between an object region including the object and a region in a reference image obtained by photographing the object; and
Detecting a human region in an input image obtained by photographing the object from the same viewpoint as the reference image;
Determining the action of the person based on how the boundary and the person area overlap in the input image,
The detecting step detects a foot region of the person in the input image,
The determining step is an image processing method in which the action is determined based on how the boundary and the foot region overlap in the input image .
人物の行動を判別することが可能な画像処理方法であって、
物体を撮影して得られる基準画像内の領域であって前記物体を含む物体領域と他の領域との境界の設定を受け付けるステップと、
前記基準画像と同じ視点から前記物体を撮影して得られる入力画像内において人物領域を検出するステップと、
前記入力画像内における前記境界と前記人物領域との重なり方に基づいて、前記人物の行動を判別するステップとを備え、
前記物体は、寝具であり、
前記判別するステップで判別される行動は、起床および入床の少なくとも一方を含み、
前記判別するステップは、前記境界と前記人物領域とが重なっている部分の幅が所定値を超えた場合に、前記行動が前記起床または前記入床であると判別する、画像処理方法。
An image processing method capable of determining a person's behavior,
Receiving a setting of a boundary between an object region including the object and a region in a reference image obtained by photographing the object; and
Detecting a human region in an input image obtained by photographing the object from the same viewpoint as the reference image;
Determining the action of the person based on how the boundary and the person area overlap in the input image,
The object is bedding;
The action determined in the determining step includes at least one of getting up and entering the floor,
The determining step is an image processing method in which, when the width of a portion where the boundary and the person region overlap exceeds a predetermined value, the action is determined to be the wake-up or the entrance .
人物の行動を判別することが可能な画像処理プログラムであって、
前記画像処理プログラムは、コンピュータに、
物体を撮影して得られる基準画像内の領域であって前記物体を含む物体領域と他の領域との境界の設定を受け付けるステップと、
前記基準画像と同じ視点から前記物体を撮影して得られる入力画像内において人物領域を検出するステップと、
前記入力画像内における前記境界と前記人物領域との重なり方に基づいて、前記人物の行動を判別するステップとを実行させ、
前記判別するステップは、前記境界と前記人物領域とが重なっている部分の幅に応じて、前記行動を判別する、画像処理プログラム。
An image processing program capable of discriminating human actions,
The image processing program is stored in a computer.
Receiving a setting of a boundary between an object region including the object and a region in a reference image obtained by photographing the object; and
Detecting a human region in an input image obtained by photographing the object from the same viewpoint as the reference image;
Determining the action of the person based on how the boundary and the person area overlap in the input image,
The determining step is an image processing program for determining the action according to a width of a portion where the boundary and the person region overlap .
JP2016567941A 2015-05-08 2016-04-27 Image processing system, image processing apparatus, image processing method, and image processing program Active JP6119938B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015095642 2015-05-08
JP2015095642 2015-05-08
PCT/JP2016/063176 WO2016181837A1 (en) 2015-05-08 2016-04-27 Image processing system, image processing device, image processing method, and image processing program

Publications (2)

Publication Number Publication Date
JP6119938B2 true JP6119938B2 (en) 2017-04-26
JPWO2016181837A1 JPWO2016181837A1 (en) 2017-05-25

Family

ID=57248876

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016567941A Active JP6119938B2 (en) 2015-05-08 2016-04-27 Image processing system, image processing apparatus, image processing method, and image processing program

Country Status (2)

Country Link
JP (1) JP6119938B2 (en)
WO (1) WO2016181837A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11170522B2 (en) 2018-11-22 2021-11-09 Konica Minolta, Inc. Storage medium storing image processing program, and image processor
DE102010060110B4 (en) 2010-10-21 2022-01-20 Dr. Ing. H.C. F. Porsche Aktiengesellschaft internal combustion engine
US11847859B2 (en) 2019-09-02 2023-12-19 Nec Corporation Information processing device, method, and program recording medium

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10321856B2 (en) * 2017-01-12 2019-06-18 Hill-Rom Services, Inc. Bed exit monitoring system
CN110638461A (en) * 2019-09-17 2020-01-03 山东省肿瘤防治研究院(山东省肿瘤医院) Human body posture recognition method and system on electric hospital bed

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4590745B2 (en) * 2001-01-31 2010-12-01 パナソニック電工株式会社 Image processing device
JP6115335B2 (en) * 2013-06-10 2017-04-19 ノーリツプレシジョン株式会社 Information processing apparatus, information processing method, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010060110B4 (en) 2010-10-21 2022-01-20 Dr. Ing. H.C. F. Porsche Aktiengesellschaft internal combustion engine
US11170522B2 (en) 2018-11-22 2021-11-09 Konica Minolta, Inc. Storage medium storing image processing program, and image processor
US11847859B2 (en) 2019-09-02 2023-12-19 Nec Corporation Information processing device, method, and program recording medium

Also Published As

Publication number Publication date
WO2016181837A1 (en) 2016-11-17
JPWO2016181837A1 (en) 2017-05-25

Similar Documents

Publication Publication Date Title
JP6137425B2 (en) Image processing system, image processing apparatus, image processing method, and image processing program
JP6119938B2 (en) Image processing system, image processing apparatus, image processing method, and image processing program
US10078951B2 (en) Method and process for determining whether an individual suffers a fall requiring assistance
US10546481B2 (en) Method for determining whether an individual leaves a prescribed virtual perimeter
JP6717235B2 (en) Monitoring support system and control method thereof
JP6167563B2 (en) Information processing apparatus, information processing method, and program
WO2015133195A1 (en) Information processing device, information processing method, and program
JP2014236896A (en) Information processor, information processing method, and program
WO2016199495A1 (en) Behavior detection device, behavior detection method and program, and subject monitoring device
JP6958560B2 (en) Watching system, watching device, watching method, and watching program
WO2016186160A1 (en) Image processing system, image processing device, image processing method, and image processing program
JP6048630B1 (en) Behavior detection device, behavior detection method, and monitored person monitoring device
JP6311809B2 (en) Image processing system, image processing apparatus, image processing method, and image processing program
US11513007B2 (en) Notification control device, notification control system, and notification control method
US20180322334A1 (en) Person Monitoring Device And Method, And Person Monitoring System
US10762761B2 (en) Monitoring assistance system, control method thereof, and program
WO2019013105A1 (en) Monitoring assistance system and control method thereof
EP4002365A1 (en) Device and method for controlling a camera
JP6922914B2 (en) Watching system, watching device, watching method, and watching program
JP6729512B2 (en) Monitoring support system and control method thereof
JP2023051147A (en) Nurse call system and state determination system
JP2022126069A (en) Image processing method
JP2022126070A (en) Image processing method
JP2022126071A (en) Image processing method
JP2021033379A (en) Image processing system, image processing program, and image processing method

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170228

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170313

R150 Certificate of patent or registration of utility model

Ref document number: 6119938

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150