JP2021065617A - Image processing device and image processing program - Google Patents

Image processing device and image processing program Download PDF

Info

Publication number
JP2021065617A
JP2021065617A JP2019195394A JP2019195394A JP2021065617A JP 2021065617 A JP2021065617 A JP 2021065617A JP 2019195394 A JP2019195394 A JP 2019195394A JP 2019195394 A JP2019195394 A JP 2019195394A JP 2021065617 A JP2021065617 A JP 2021065617A
Authority
JP
Japan
Prior art keywords
behavior
moving body
unit
image processing
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019195394A
Other languages
Japanese (ja)
Inventor
辰也 佐々木
Tatsuya Sasaki
辰也 佐々木
一谷 修司
Shuji Ichitani
修司 一谷
智也 岡▲崎▼
Tomoya Okazaki
智也 岡▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2019195394A priority Critical patent/JP2021065617A/en
Publication of JP2021065617A publication Critical patent/JP2021065617A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Alarm Systems (AREA)
  • Accommodation For Nursing Or Treatment Tables (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Emergency Alarm Devices (AREA)

Abstract

To provide an image processing device and image processing program which improve the detection accuracy of the behavior of an object person.SOLUTION: An image processing device which is used in a care system that monitors the behavior of an object person includes an image acquisition unit 451, a detection unit 452, a storage unit 410, a behavior estimation unit 454 and an output unit 455. The image acquisition unit acquires an image. The detection unit detects a movable body by detecting a detection area including the movable body on the basis of the image. The storage unit stores the detection area detected by the detection unit. The behavior estimation unit estimates the behavior of the movable body in the detection area detected by the detection unit when the detection unit detects the movable body, and estimates the behavior of the movable body in the detection area stored in the storage unit when the detection unit does not detect the movable body. The output unit outputs information about the behavior when the behavior of the movable body estimated by the behavior estimation unit is the prescribed behavior.SELECTED DRAWING: Figure 3

Description

本発明は、画像処理装置および画像処理プログラムに関する。 The present invention relates to an image processing apparatus and an image processing program.

我が国は、戦後の高度経済成長に伴う生活水準の向上、衛生環境の改善、および医療水準の向上等により、長寿命化が顕著となっている。このため、出生率の低下と相まって、高齢化率が高い高齢化社会になっている。このような高齢化社会では、病気、怪我、および加齢等により、介護や看護等を必要とする要介護者および要看護者等(以下、「対象者」と称する)の増加が想定される。 In Japan, the longevity of life has become remarkable due to the improvement of living standards, the improvement of sanitary environment, and the improvement of medical standards due to the high economic growth after the war. For this reason, coupled with the decline in the birth rate, the aging society has a high aging rate. In such an aging society, it is expected that the number of people requiring long-term care and nursing care (hereinafter referred to as "target persons") will increase due to illness, injury, aging, etc. ..

対象者は、病院や、老人福祉施設等の施設に入所し、看護や介護を受ける。このような施設では、対象者が、例えばベッドからの転落や歩行中の転倒等によって怪我を負ったり、ベッドから抜け出して徘徊したりする等の事態が生じ得る。このような事態に対し、可及的速やかに対応する必要がある。また、このような事態を放置しておくとさらに重大な事態に発展してしまう可能性もある。このため、施設では、看護師や介護士等(以下、「看護師等」という)は、定期的に巡視することによってその安否や様子を確認している。 The target person enters a hospital or facility such as a welfare facility for the elderly and receives nursing care and long-term care. In such a facility, the subject may be injured due to, for example, falling from the bed or falling while walking, or may get out of the bed and wander. It is necessary to respond to such a situation as soon as possible. Moreover, if such a situation is left unattended, it may develop into a more serious situation. For this reason, at the facility, nurses, caregivers, etc. (hereinafter referred to as "nurses, etc.") regularly patrol to confirm their safety and condition.

しかしながら、対象者の増加数に対し看護師等の増加数が追い付かずに、看護業界や介護業界は、慢性的に人手不足になっている。さらに、日勤の時間帯に較べ、準夜勤や夜勤の時間帯では、看護師等の人数が減るため、一人当たりの業務負荷が増大するので、業務負荷の軽減が要請される。このような人手不足や看護師等の負担を軽減するため、看護業務や介護業務を補完する技術が求められている。このため、近年では、対象者を監視(モニター)する監視装置が研究、開発されている。 However, the number of nurses and others has not caught up with the increase in the number of subjects, and the nursing industry and the long-term care industry are chronically understaffed. Furthermore, compared to the day shift hours, the number of nurses and the like decreases during the semi-night shift and night shift hours, and the work load per person increases. Therefore, it is required to reduce the work load. In order to reduce such labor shortages and the burden on nurses, there is a need for technology that complements nursing work and long-term care work. Therefore, in recent years, a monitoring device for monitoring a target person has been researched and developed.

ところが、監視装置は、対象者を監視する装置であるが、対象者の居場所に対象者ではない者が居ると誤検知する可能性がある。例えば、清掃者等が対象者の居場所に居る場合等である。この誤検知によって安否確認を促す発報が行われると、例えば、看護師等の監視者が発報のあった対象者の居場所に駆けつけたり、発報をリセットしたりする等の無駄な手間が生じてしまうおそれがある。 However, although the monitoring device is a device that monitors the target person, there is a possibility of erroneously detecting that there is a person who is not the target person in the location of the target person. For example, when a cleaner or the like is in the place of the target person. When a warning is issued to prompt confirmation of safety due to this false detection, for example, a monitor such as a nurse rushes to the location of the subject who has been notified, or resets the notification, which is a waste of time and effort. It may occur.

これに関連して、下記特許文献1には、被監視者を監視する被監視者監視装置において、被監視者以外の者の行動による誤検知を回避するため、看護師等の指示により、検知機能を一時的に停止する機能を設けることが開示されている。 In relation to this, in Patent Document 1 below, in the monitored person monitoring device that monitors the monitored person, in order to avoid false detection due to the behavior of a person other than the monitored person, the detection is performed by the instruction of a nurse or the like. It is disclosed to provide a function to temporarily stop the function.

国際公開第2016/152428号International Publication No. 2016/152428

しかし、特許文献1の技術では、被監視者以外の者の行動による誤検知を回避することはできるが、被監視者の行動の検知精度そのものを向上させることはできない。 However, the technique of Patent Document 1 can avoid erroneous detection due to the behavior of a person other than the monitored person, but cannot improve the detection accuracy of the behavior of the monitored person itself.

本発明は、上述した課題に鑑みてなされたものである。したがって、本発明の目的は、対象者の行動の検知精度を向上させる画像処理装置および画像処理プログラムを提供することを目的とする。 The present invention has been made in view of the above-mentioned problems. Therefore, an object of the present invention is to provide an image processing device and an image processing program that improve the detection accuracy of the behavior of the subject.

本発明の上記課題は、以下の手段によって解決される。 The above object of the present invention is solved by the following means.

(1)対象者の行動を監視する介護システムで使用される画像処理装置であって、画像を取得する画像取得部と、前記画像に基づいて移動体を含む領域を検出することで、前記移動体を検出する検出部と、前記検出部により検出された前記移動体に対応して設定された検知領域を記憶する記憶部と、前記検出部によって前記移動体が検出されている場合は、前記検出部によって検出された前記検知領域において前記移動体の行動を推定する一方で、前記検出部によって前記移動体が検出されない場合は、前記記憶部に記憶された前記検知領域において前記移動体の行動を推定する行動推定部と、前記行動推定部で推定された前記移動体の行動が所定の行動である場合に、前記行動に関する情報を出力する出力部と、を有する、画像処理装置。 (1) An image processing device used in a nursing care system that monitors the behavior of a subject, and the movement is performed by detecting an image acquisition unit that acquires an image and an area including a moving body based on the image. A detection unit that detects a body, a storage unit that stores a detection area set corresponding to the moving body detected by the detecting unit, and a storage unit that stores the moving body detected by the detecting unit. The behavior of the moving body is estimated in the detection area detected by the detection unit, but when the moving body is not detected by the detection unit, the behavior of the moving body is estimated in the detection area stored in the storage unit. An image processing device having a behavior estimation unit that estimates a behavior, and an output unit that outputs information about the behavior when the behavior of the moving body estimated by the behavior estimation unit is a predetermined behavior.

(2)前記検知領域において、前記移動体の、人の体に関する特徴点位置を推定して前記移動体の姿勢を推定する姿勢推定部をさらに有し、前記行動推定部は、前記姿勢推定部によって推定された前記移動体の姿勢に基づいて、前記検知領域における前記移動体の行動を推定する、上記(1)に記載の画像処理装置。 (2) In the detection region, the movement estimation unit further includes a posture estimation unit that estimates the position of a feature point of the moving body with respect to the human body and estimates the posture of the moving body, and the behavior estimation unit is the posture estimation unit. The image processing apparatus according to (1) above, which estimates the behavior of the moving body in the detection region based on the posture of the moving body estimated by.

(3)前記出力部は、前記移動体の行動が前記所定の行動である場合に、前記行動に関する情報を、前記対象者を介護する介護者の端末装置に送信する、上記(1)または(2)に記載の画像処理装置。 (3) The output unit transmits information about the behavior to the terminal device of the caregiver who cares for the target person when the behavior of the moving body is the predetermined behavior. The image processing apparatus according to 2).

(4)前記行動推定部は、前記検知領域と、推定された前記特徴点位置との重なりに基づいて、前記移動体の行動を推定し、前記出力部は、前記行動推定部による前記移動体の行動の推定結果に基づいて、前記移動体の行動に関する情報を出力するか否かを決定する、上記(2)に記載の画像処理装置。 (4) The behavior estimation unit estimates the behavior of the moving body based on the overlap between the detection region and the estimated feature point position, and the output unit is the moving body by the behavior estimation unit. The image processing apparatus according to (2) above, which determines whether or not to output information regarding the behavior of the moving body based on the estimation result of the behavior of the moving body.

(5)前記行動推定部は、前記検出部によって前記移動体が検出されなくなった場合に、前記移動体が検出されなくなる前の所定期間の前記検知領域における前記姿勢推定部の推定結果に基づいて、前記移動体の行動を推定し、前記出力部は、前記行動推定部による前記移動体の行動の推定結果に基づいて、前記移動体の行動に関する情報を出力するか否かを決定する、上記(2)に記載の画像処理装置。 (5) The behavior estimation unit is based on the estimation result of the posture estimation unit in the detection region for a predetermined period before the moving body is no longer detected when the moving body is no longer detected by the detection unit. The behavior of the mobile body is estimated, and the output unit determines whether or not to output information regarding the behavior of the mobile body based on the estimation result of the behavior of the mobile body by the behavior estimation unit. The image processing apparatus according to (2).

(6)前記行動推定部は、前記所定期間の前記検知領域における前記姿勢推定部の推定結果が立位である場合に、前記移動体の行動が、前記移動体の行動に関する情報を出力する必要のない特定行動であると推定し、前記出力部は、前記移動体の行動が前記特定行動である場合に、前記移動体の行動に関する情報を出力しない、上記(5)に記載の画像処理装置。 (6) The behavior estimation unit needs to output information about the behavior of the mobile body when the estimation result of the posture estimation unit in the detection region for the predetermined period is standing. The image processing apparatus according to (5) above, wherein the output unit does not output information regarding the behavior of the moving body when the behavior of the moving body is the specific behavior. ..

(7)対象者の行動を監視する介護システムで使用される画像処理プログラムであって、画像を取得するステップ(a)と、前記画像に基づいて移動体を含む領域を検出することで、前記移動体を検出するステップ(b)と、検出された前記移動体に対応して設定された検知領域を記憶部に記憶するステップ(c)と、前記移動体が検出されている場合は、検出された前記検知領域において前記移動体の行動を推定する一方で、前記移動体が検出されない場合は、前記記憶部に記憶された前記検知領域において前記移動体の行動を推定するステップ(d)と、推定された前記移動体の行動が所定の行動である場合に、前記行動に関する情報を出力するステップ(e)と、を含む処理をコンピューターに実行させるための画像処理プログラム。 (7) An image processing program used in a care system that monitors the behavior of a target person, which is described in the step (a) of acquiring an image and by detecting an area including a moving body based on the image. A step (b) for detecting a moving body, a step (c) for storing a detection area set corresponding to the detected moving body in the storage unit, and a detection when the moving body is detected. The step (d) of estimating the behavior of the moving body in the detection area stored in the storage unit when the moving body is not detected while estimating the behavior of the moving body in the detected detection area. , An image processing program for causing a computer to perform a process including a step (e) of outputting information about the action when the estimated action of the moving body is a predetermined action.

本発明によれば、対象者が検出されない場合に、記憶部に記憶された検知領域において、移動体の行動を推定するので、対象者の退出判定の精度を向上させることができる。したがって、対象者の退出判定時に、転倒や転落等のイベント通知を行う必要のある所定の行動を失報するリスクを低減できる。 According to the present invention, when the target person is not detected, the behavior of the moving body is estimated in the detection area stored in the storage unit, so that the accuracy of the exit determination of the target person can be improved. Therefore, it is possible to reduce the risk of losing a predetermined action that requires notification of an event such as a fall or a fall when the subject is determined to leave.

一実施形態に係る演算装置を含む画像処理システムの概略構成を示す図である。It is a figure which shows the schematic structure of the image processing system including the arithmetic unit which concerns on one Embodiment. 図1に示す演算装置の構成を例示する概略ブロック図である。It is a schematic block diagram which illustrates the structure of the arithmetic unit shown in FIG. 図2に示す制御部の機能を示すブロック図である。It is a block diagram which shows the function of the control part shown in FIG. 図1に示す撮影装置による撮影画像の例を説明するための説明図である。It is explanatory drawing for demonstrating the example of the photographed image by the photographing apparatus shown in FIG. 人の特徴点の例を示す説明図である。It is explanatory drawing which shows the example of the characteristic point of a person. 図3に示す姿勢推定部により推定された特徴点の例を示す説明図である。It is explanatory drawing which shows the example of the feature point estimated by the posture estimation part shown in FIG. 図2に示す演算装置の制御方法の主要な処理手順を説明するためのフローチャートである。It is a flowchart for demonstrating the main processing procedure of the control method of the arithmetic unit shown in FIG. 対象者を含む撮影画像の例を説明するための説明図である。It is explanatory drawing for demonstrating the example of the photographed image including the subject. 図7における対象者の行動を推定する処理(ステップS105)の手順を説明するためのサブルーチン・フローチャートである。6 is a subroutine / flowchart for explaining the procedure of the process of estimating the behavior of the target person (step S105) in FIG. 7. 退出に関する条件の適用例を説明するための説明図である。It is explanatory drawing for demonstrating the application example of the condition about leaving.

以下、図面を参照して、本発明の実施形態について説明する。なお、図面において、同一の要素には同一の符号を付し、重複する説明を省略する。また、図面の寸法比率は、説明の都合上誇張されており、実際の比率とは異なる場合がある。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the drawings, the same elements are designated by the same reference numerals, and duplicate description will be omitted. In addition, the dimensional ratios in the drawings are exaggerated for convenience of explanation and may differ from the actual ratios.

<画像処理システム10>
図1は、一実施形態に係る演算装置を含む画像処理システム10の概略構成を示す図である。
<Image processing system 10>
FIG. 1 is a diagram showing a schematic configuration of an image processing system 10 including an arithmetic unit according to an embodiment.

画像処理システム10は、撮影装置100、通信ネットワーク200、携帯端末300、および演算装置400を有する。演算装置400は、通信ネットワーク200により撮影装置100および携帯端末300と相互に通信可能に接続される。 The image processing system 10 includes a photographing device 100, a communication network 200, a mobile terminal 300, and an arithmetic unit 400. The arithmetic unit 400 is communicably connected to the photographing device 100 and the mobile terminal 300 by the communication network 200.

<撮影装置100>
撮影装置100は、例えば近赤外線カメラにより構成され、所定の位置に設置されることで、当該所定の位置を視点として俯瞰される撮影領域を撮影する。以下、撮影装置100により撮影された画像を「撮影画像600」(図4参照)という。すなわち、撮影装置100は、LED(Light Emitting Device)により近赤外線を撮影領域に向けて照射し、撮影領域内の物体により反射される近赤外線の反射光をCMOS(Complememtary Metal Oxide Semiconductor)センサーにより受光することで撮影領域を撮影し得る。撮影画像600は近赤外線の反射率を各画素とするモノクロ画像であり得る。所定の位置は、例えば対象者500の居室の天井である。撮影領域は、例えば居室の床全体を含む3次元の領域である。撮影装置100は、例えば15fps〜30fpsのフレームレートの動画として撮影領域を撮影する。撮影画像600には動画と静止画とを含む。撮影装置100は、撮影画像600を演算装置400等に送信する。
<Shooting device 100>
The photographing device 100 is composed of, for example, a near-infrared camera, and is installed at a predetermined position to photograph a photographing area that is overlooked with the predetermined position as a viewpoint. Hereinafter, the image taken by the photographing device 100 is referred to as "photographed image 600" (see FIG. 4). That is, the photographing device 100 irradiates the near-infrared ray toward the photographing area by the LED (Light Emitting Device), and receives the reflected light of the near-infrared ray reflected by the object in the photographing area by the CMOS (Complementary Metal Oxide Semiconductor) sensor. By doing so, the shooting area can be shot. The captured image 600 may be a black-and-white image having the reflectance of near infrared rays as each pixel. The predetermined position is, for example, the ceiling of the living room of the subject 500. The photographing area is, for example, a three-dimensional area including the entire floor of the living room. The photographing device 100 photographs the photographing area as a moving image having a frame rate of, for example, 15 fps to 30 fps. The captured image 600 includes a moving image and a still image. The photographing device 100 transmits the photographed image 600 to the arithmetic unit 400 or the like.

また、撮影装置100は、例えばセンサーボックスに含まれる近赤外線カメラでありうる。センサーボックスは、近赤外線カメラおよび体動センサー等を備える箱状の装置である。この場合、演算装置400の機能の一部または全部をセンサーボックスが有するように構成し得る。体動センサーは、ベッドに対してマイクロ波を送受信して対象者500の体動(例えば呼吸動)によって生じたマイクロ波のドップラーシフトを検出するドップラーシフト方式のセンサーである。 Further, the photographing device 100 may be, for example, a near-infrared camera included in the sensor box. The sensor box is a box-shaped device including a near-infrared camera, a body motion sensor, and the like. In this case, the sensor box may be configured to have a part or all of the functions of the arithmetic unit 400. The body motion sensor is a Doppler shift type sensor that transmits and receives microwaves to and from the bed and detects the Doppler shift of microwaves generated by the body movement (for example, respiratory movement) of the subject 500.

<通信ネットワーク200>
通信ネットワーク200には、イーサネット(登録商標)等の有線通信規格によるネットワークインターフェースを使用し得る。通信ネットワーク200には、Bluetooth(登録商標)、IEEE802.11等の無線通信規格によるネットワークインターフェースを使用してもよい。通信ネットワーク200には、アクセスポイント210が設けられ、携帯端末300と、撮影装置100および演算装置400とを無線通信ネットワークにより通信可能に接続する。
<Communication network 200>
For the communication network 200, a network interface based on a wired communication standard such as Ethernet (registered trademark) can be used. For the communication network 200, a network interface based on a wireless communication standard such as Bluetooth (registered trademark) or IEEE802.11 may be used. An access point 210 is provided in the communication network 200, and the mobile terminal 300, the photographing device 100, and the arithmetic unit 400 are communicably connected by a wireless communication network.

<携帯端末300>
携帯端末300は、対象者500の行動に関する情報を演算装置400から受信し、画面に表示したり、アラームを鳴らしたりすることにより、対象者500の行動を看護師等に報知する。携帯端末300は、例えばスマートフォンにより構成され得る。なお、携帯端末300は、撮影装置100から撮影画像600を受信して表示できるように構成されてもよい。
<Mobile terminal 300>
The mobile terminal 300 receives information about the behavior of the target person 500 from the arithmetic unit 400, displays it on the screen, sounds an alarm, and notifies the nurse or the like of the behavior of the target person 500. The mobile terminal 300 may be composed of, for example, a smartphone. The mobile terminal 300 may be configured to receive and display the captured image 600 from the photographing device 100.

<演算装置400>
演算装置400は、対象者500の行動を監視する介護システムで使用される画像処理装置である。演算装置400は、撮影装置100により撮影された撮影画像600を、撮影装置100から受信し、撮影画像600に含まれる人(対象者500)の行動に関する情報を携帯端末(介護者の端末装置)300に送信する。なお、介護システムは、介護、看護、支援等を含むケアに用いられるシステムである。
<Arithmetic logic unit 400>
The arithmetic unit 400 is an image processing device used in a nursing care system that monitors the behavior of the subject 500. The arithmetic unit 400 receives the captured image 600 captured by the photographing device 100 from the photographing device 100, and transmits information on the behavior of the person (target person 500) included in the captured image 600 to the mobile terminal (caregiver's terminal device). Send to 300. The long-term care system is a system used for care including long-term care, nursing, and support.

図2は、図1に示す演算装置400の構成を例示する概略ブロック図である。演算装置400は、記憶部410、表示部420、入力部430、通信部440、および制御部450を有する。これらの構成要素は、バス460を介して相互に接続される。 FIG. 2 is a schematic block diagram illustrating the configuration of the arithmetic unit 400 shown in FIG. The arithmetic unit 400 includes a storage unit 410, a display unit 420, an input unit 430, a communication unit 440, and a control unit 450. These components are connected to each other via bus 460.

記憶部410は、RAM(Random Access Memory)、ROM(Read Only Memory)、およびSSD(Solid State Drive)により構成され得る。RAMは、制御部450の作業領域として一時的にプログラムやデータを記憶する。ROMは、予め各種プログラムや各種データを格納する。SSDは、オペレーションシステムを含む各種プログラムおよび各種データを格納する。本実施形態では、後述する人物領域510の位置および大きさを特定するデータが格納される。 The storage unit 410 may be composed of a RAM (Random Access Memory), a ROM (Read Only Memory), and an SSD (Solid State Drive). The RAM temporarily stores programs and data as a work area of the control unit 450. The ROM stores various programs and various data in advance. The SSD stores various programs including an operating system and various data. In the present embodiment, data for specifying the position and size of the person area 510, which will be described later, is stored.

表示部420は、例えば液晶ディスプレイであり、各種情報を表示する。また、入力部430は、例えばタッチパネルや各種キーにより構成される。入力部430は、各種操作、入力のために使用される。 The display unit 420 is, for example, a liquid crystal display and displays various information. Further, the input unit 430 is composed of, for example, a touch panel and various keys. The input unit 430 is used for various operations and inputs.

通信部440は、外部機器と通信するためのインターフェースである。通信には、イーサネット(登録商標)、SATA、PCI Express、USB、IEEE1394等の規格によるネットワークインターフェースが用いられ得る。その他、通信には、Bluetooth(登録商標)、IEEE802.11、4G等の無線通信インターフェースが用いられ得る。通信部140は、撮影装置100から撮影画像600を受信する。また、通信部440は、後述する制御部450の行動推定部454で推定された、対象者500の行動に関する情報を携帯端末300に送信する。 The communication unit 440 is an interface for communicating with an external device. For communication, a network interface according to a standard such as Ethernet (registered trademark), SATA, PCI Express, USB, IEEE1394, etc. can be used. In addition, a wireless communication interface such as Bluetooth (registered trademark), 802.11, 4G, etc. can be used for communication. The communication unit 140 receives the captured image 600 from the photographing device 100. In addition, the communication unit 440 transmits information regarding the behavior of the target person 500, which is estimated by the behavior estimation unit 454 of the control unit 450, which will be described later, to the mobile terminal 300.

制御部450は、CPU(Central Processing Unit)により構成され、画像処理プログラムにしたがって演算装置400の各部の制御および演算処理を行う。以下、制御部450の機能の詳細について説明する。 The control unit 450 is configured by a CPU (Central Processing Unit), and controls and performs arithmetic processing of each unit of the arithmetic unit 400 according to an image processing program. The details of the function of the control unit 450 will be described below.

図3は、図2に示す制御部450の機能を示すブロック図である。制御部450は、画像取得部451、領域検出部(検出部)452、姿勢推定部453、行動推定部454、および出力部455を有する。 FIG. 3 is a block diagram showing the functions of the control unit 450 shown in FIG. The control unit 450 includes an image acquisition unit 451, an area detection unit (detection unit) 452, a posture estimation unit 453, a behavior estimation unit 454, and an output unit 455.

画像取得部451は、撮影装置100から通信部440を通じて撮影画像600を取得する。取得した撮影画像600は、領域検出部452に送信される。 The image acquisition unit 451 acquires the captured image 600 from the photographing device 100 through the communication unit 440. The acquired captured image 600 is transmitted to the area detection unit 452.

図4は、図1に示す撮影装置100による撮影画像600の例を説明するための説明図である。撮影画像600には、対象者500、ベッド700、および内扉720を含む複数の物体が含まれている。内扉720は、例えばスライド式の扉であり、居室の外側と内側とを仕切る。領域検出部452は、撮影画像600から、人物領域510と物体領域710を検出する。人物領域510は、撮影画像600における対象者500を含む矩形(太線の枠で表示)内の領域であり、物体領域710は、人物以外の特定の物体(例えば、椅子)を含む矩形(破線で表示)内の領域である。 FIG. 4 is an explanatory diagram for explaining an example of a photographed image 600 by the photographing apparatus 100 shown in FIG. The captured image 600 includes a plurality of objects including the subject 500, the bed 700, and the inner door 720. The inner door 720 is, for example, a sliding door that separates the outside and the inside of the living room. The area detection unit 452 detects the person area 510 and the object area 710 from the captured image 600. The person area 510 is an area within a rectangle (indicated by a thick line frame) including the target person 500 in the captured image 600, and the object area 710 is a rectangle (in a broken line) including a specific object (for example, a chair) other than the person. The area within the display).

領域検出部452は、撮影画像600上で物体(オブジェクト)が存在する領域を物体存在領域として検出し、検出した物体存在領域に含まれる物体の所定のカテゴリーごとの信頼度スコアを算出する。信頼度スコアは、対象物体に関する尤度である。領域検出部452は、Faster R−CNN等のDNN(Deep Neural Network)を用いた公知の技術により信頼度スコアを算出し得る。 The area detection unit 452 detects the area where the object (object) exists on the captured image 600 as the object existence area, and calculates the reliability score for each predetermined category of the object included in the detected object existence area. The confidence score is the likelihood with respect to the target object. The region detection unit 452 can calculate the reliability score by a known technique using a DNN (Deep Neural Network) such as Faster R-CNN.

所定のカテゴリーは、例えば、人物、椅子、および機具とし得る。領域検出部452は、人物のカテゴリーの信頼度スコアが最も高い物体存在領域を人物領域510として検出する。すなわち、領域検出部452は、物体(移動体)としての対象者500を検出する検出部として機能する。同様に、所定の物体のカテゴリーの信頼度スコアが最も高い物体存在領域を、当該信頼度スコアが最も高いカテゴリーの物体領域710(例えば、椅子の物体領域)として検出する。 Predetermined categories can be, for example, people, chairs, and equipment. The area detection unit 452 detects the object existence area having the highest reliability score in the person category as the person area 510. That is, the area detection unit 452 functions as a detection unit that detects the target person 500 as an object (moving body). Similarly, the object existence region having the highest reliability score in a predetermined object category is detected as the object region 710 (for example, the object region of a chair) in the category having the highest reliability score.

あるいは、人物領域510の検出方法としては、検出対象の撮影画像600と、撮影装置100によって予め抽出された、撮影領域の背景画像との差分を抽出する背景差分法が使用され得る。また、検出対象の撮影画像600と、過去の撮影画像の平均との差分を抽出するフレーム間(時間)差分法等が使用され得る。 Alternatively, as a method for detecting the person area 510, a background subtraction method for extracting the difference between the captured image 600 to be detected and the background image of the captured area previously extracted by the photographing device 100 can be used. Further, an inter-frame (time) difference method or the like for extracting the difference between the captured image 600 to be detected and the average of the captured images in the past can be used.

領域検出部452によって検出された人物領域510および物体領域710は、記憶部410に記憶される。 The person area 510 and the object area 710 detected by the area detection unit 452 are stored in the storage unit 410.

携帯端末300は、撮影装置100から受信した複数フレームの撮影画像600に基づく動画を再生し、演算装置400から受信した人物領域510を示す矩形(枠)を人物領域510に対応するディスプレイ上の位置に表示する。 The mobile terminal 300 reproduces a moving image based on the captured image 600 of a plurality of frames received from the photographing device 100, and positions a rectangle (frame) indicating the person area 510 received from the arithmetic unit 400 on the display corresponding to the person area 510. Display on.

姿勢推定部453は、人物領域510から対象者500の姿勢を推定する。より具体的には、姿勢推定部453は、人物領域510から対象者500の人の体に関する特徴点520(以下、「特徴点520」とも称する)を推定し、特徴点520の推定結果に基づいて対象者500の姿勢を推定する。 The posture estimation unit 453 estimates the posture of the target person 500 from the person area 510. More specifically, the posture estimation unit 453 estimates the feature points 520 (hereinafter, also referred to as "feature points 520") relating to the human body of the subject 500 from the person area 510, and is based on the estimation result of the feature points 520. The posture of the subject 500 is estimated.

図5は、人の特徴点の例を示す説明図である。図5においては、特徴点520の位置が白抜きの丸により示されている。なお、特徴点520間を結ぶ黒い太線は骨を示している。図5の例においては、特徴点520の相対的位置により、対象者500が立位で両腕を広げている姿勢が認識できる。特徴点520には、例えば、頭、首、肩、肘、手、腰、腿、膝、および足の特徴点520が含まれる。特徴点520には、上記以外の特徴点520が含まれてもよく、上記のいずれかが含まれなくてもよい。姿勢推定部453は、人物領域510から特徴点520を検出するための辞書が反映されたDNNにより、人物領域510から対象者500の特徴点520を推定し得る。例えば、姿勢推定部453は、DeepPose等のDNNを用いた公知の技術により特徴点520を推定し得る。DeepPoseについては、公知の文献(Alexander Toshev, et al. “DeepPose: Human Pose Estimation via Deep Neural Networks”, in CVPR, 2014)に詳細が記載されている。 FIG. 5 is an explanatory diagram showing an example of human feature points. In FIG. 5, the positions of the feature points 520 are indicated by white circles. The thick black line connecting the feature points 520 indicates the bone. In the example of FIG. 5, the relative position of the feature point 520 allows the subject 500 to recognize the posture in which both arms are spread while standing. Feature points 520 include, for example, feature points 520 of the head, neck, shoulders, elbows, hands, hips, thighs, knees, and feet. The feature point 520 may include a feature point 520 other than the above, and may not include any of the above. The posture estimation unit 453 can estimate the feature points 520 of the subject 500 from the person area 510 by the DNN reflecting the dictionary for detecting the feature points 520 from the person area 510. For example, the posture estimation unit 453 can estimate the feature point 520 by a known technique using DNN such as DeepPose. DeepPose is described in detail in the known literature (Alexander Toshev, et al. "DeepPose: Human Pose Optimization via Deep Neural Networks", in CVPR, 2014).

図6は、図3に示す姿勢推定部453により推定された特徴点520の例を示す説明図である。図6の例においては、特徴点520を人物領域510に重畳させて示している。 FIG. 6 is an explanatory diagram showing an example of feature points 520 estimated by the posture estimation unit 453 shown in FIG. In the example of FIG. 6, the feature points 520 are superimposed on the person area 510.

また、姿勢推定部453は、特徴点520の推定結果に基づいて、対象者500の姿勢を推定する。例えば、姿勢推定部453は、隠れマルコフモデルを用いて、推定された特徴点520から尤もらしい対象者500の姿勢を算出する。 Further, the posture estimation unit 453 estimates the posture of the subject 500 based on the estimation result of the feature point 520. For example, the posture estimation unit 453 calculates the posture of the plausible subject 500 from the estimated feature points 520 using the hidden Markov model.

人の姿勢を認識する他の方法としては、例えば、予め決められた姿勢モデルと各特徴点位置との距離が最小となるものをその姿勢とする方法、姿勢を特徴量として学習し、当該学習結果を用いて姿勢認識する方法等が挙げられる。 As other methods for recognizing a person's posture, for example, a method in which the distance between a predetermined posture model and each feature point position is the minimum is set as the posture, and the posture is learned as a feature amount, and the learning is performed. A method of recognizing a posture using the result can be mentioned.

行動推定部454は、姿勢推定部453で推定された対象者500の姿勢に基づいて、対象者500の行動を推定する。より具体的には、行動推定部454は、特徴点520の位置と物体領域710の位置関係と、に基づいて対象者500の行動を推定する。行動には、例えば、ベッド700から起き上がったという行動(起床)、ベッド700から離れたという行動(離床)、ベッド700から落ちたという行動(転落)、床面等に倒れ込む行動(転倒)、歩行等が含まれる。 The behavior estimation unit 454 estimates the behavior of the subject 500 based on the posture of the subject 500 estimated by the posture estimation unit 453. More specifically, the behavior estimation unit 454 estimates the behavior of the subject 500 based on the positional relationship between the position of the feature point 520 and the object region 710. The behavior includes, for example, the behavior of getting up from the bed 700 (getting up), the behavior of getting away from the bed 700 (getting out of bed), the behavior of falling from the bed 700 (falling), the behavior of falling down on the floor (falling), and walking. Etc. are included.

また、本実施形態では、行動には、居室の外、すなわち撮影領域外へ出る行動(退出)が含まれる。退出には、例えば、外出やトイレに行く場合等が含まれる。行動推定部454は、対象者500が退出したか否かを判定する機能を有する。この機能は、設定により有効または無効を選択できる。以下、この機能を有効に設定した場合について説明する。 Further, in the present embodiment, the action includes an action (exit) of going out of the living room, that is, outside the photographing area. Exiting includes, for example, going out or going to the bathroom. The behavior estimation unit 454 has a function of determining whether or not the subject 500 has left. This feature can be enabled or disabled depending on the settings. The case where this function is enabled will be described below.

対象者500が退出した場合、対象者500は撮影領域外に出ているため、領域検出部452は、人物領域510を検出できなくなる。すなわち、領域検出部452は、対象者500を検出できなくなる。一方、例えば、対象者500が居室のベッド700で毛布に包まっている場合も、領域検出部452は、対象者500を検出できない。したがって、領域検出部452による対象者500の検出の有無のみで、対象者500の退出を判定することは困難である。 When the target person 500 leaves, since the target person 500 is out of the shooting area, the area detection unit 452 cannot detect the person area 510. That is, the area detection unit 452 cannot detect the target person 500. On the other hand, for example, even when the subject 500 is wrapped in a blanket on the bed 700 in the living room, the area detection unit 452 cannot detect the subject 500. Therefore, it is difficult to determine the exit of the target person 500 only by the presence or absence of the detection of the target person 500 by the area detection unit 452.

そこで、本実施形態では、領域検出部452によって対象者500が検出されなくなった場合に、記憶部410に記憶されている、対象者500が検出されなくなる前の人物領域510における姿勢推定部453の推定結果に基づいて、対象者500の行動を推定し、対象者500の退出を判定する。対象者500の退出を判定する具体的な方法については後述する。 Therefore, in the present embodiment, when the target person 500 is no longer detected by the area detection unit 452, the posture estimation unit 453 in the person area 510 before the target person 500 is no longer detected, which is stored in the storage unit 410. Based on the estimation result, the behavior of the subject 500 is estimated, and the exit of the subject 500 is determined. A specific method for determining the exit of the target person 500 will be described later.

また、対象者500が居室から退出したことにより、領域検出部452によって対象者500が検出されなくなった場合、撮影画像600には現実の対象者500の姿は映らなくなる。ここで、対象者500が検出されなくなった場合とは、対象者500の一部または全部が撮影画像600内に存在しなくなることにより、領域検出部452で、人物領域510が検出されなくなった場合である。実施形態では、領域検出部452によって対象者500が検出されなくなった場合、記憶部410に記憶されている、対象者500が検出されなくなる前の人物領域510を、演算装置400の表示部420や、携帯端末300の画面に表示させるように制御する。 Further, when the target person 500 is not detected by the area detection unit 452 due to the subject person 500 leaving the living room, the actual image of the target person 500 is not reflected in the captured image 600. Here, the case where the target person 500 is not detected is the case where the person area 510 is not detected by the area detection unit 452 because a part or all of the target person 500 does not exist in the captured image 600. Is. In the embodiment, when the target person 500 is no longer detected by the area detection unit 452, the person area 510 stored in the storage unit 410 before the target person 500 is no longer detected is displayed on the display unit 420 of the arithmetic unit 400 or the display unit 420. , Control to display on the screen of the mobile terminal 300.

出力部455は、行動推定部454による対象者500の行動の推定結果に基づいて、対象者500の行動に関する情報を出力するか否かを決定する。より具体的には、出力部455は、例えば、対象者500の行動が所定の行動である場合、対象者500の行動に関する情報を携帯端末300へ送信(イベント通知)する。所定の行動には、起床、離床、転落、および転倒が含まれる。一方、退出は、所定の行動に含まれず、携帯端末300へ送信する必要のない行動(以下、「特定行動」という)とされる。出力部455は、対象者500の行動が特定行動である場合、対象者500の行動に関する情報を携帯端末300へ送信しない。なお、本実施形態では、特定行動として退出を例示して説明するが、特定行動は退出に限定されない。例えば、特定行動には、対象者500が居室内のトイレに入る行動が含まれる。この場合も、退出と同様に領域検出部452で人物領域510が検出されなくなる。 The output unit 455 determines whether or not to output information regarding the behavior of the target person 500 based on the estimation result of the behavior of the target person 500 by the behavior estimation unit 454. More specifically, for example, when the action of the target person 500 is a predetermined action, the output unit 455 transmits information about the action of the target person 500 to the mobile terminal 300 (event notification). Predetermined actions include getting up, getting out of bed, falling, and falling. On the other hand, leaving is an action that is not included in the predetermined action and does not need to be transmitted to the mobile terminal 300 (hereinafter, referred to as "specific action"). When the action of the target person 500 is a specific action, the output unit 455 does not transmit the information about the action of the target person 500 to the mobile terminal 300. In this embodiment, exit is illustrated as a specific action, but the specific action is not limited to exit. For example, the specific action includes an action in which the subject 500 enters the toilet in the living room. In this case as well, the person area 510 is not detected by the area detection unit 452 as in the case of exiting.

<演算装置400の制御方法>
図7は、本実施形態における演算装置400の制御方法の主要な処理手順を説明するためのフローチャートである。また、図8は、対象者500を含む撮影画像600の例を説明するための説明図である。また、図9は、図7における対象者の行動を推定する処理(ステップS105)の手順を説明するためのサブルーチン・フローチャートである。図7および図9に示す各処理は、制御部450のCPUが画像処理プログラムを実行することにより実現される。
<Control method of arithmetic unit 400>
FIG. 7 is a flowchart for explaining a main processing procedure of the control method of the arithmetic unit 400 in the present embodiment. Further, FIG. 8 is an explanatory diagram for explaining an example of the photographed image 600 including the subject 500. Further, FIG. 9 is a subroutine / flowchart for explaining the procedure of the process (step S105) of estimating the behavior of the target person in FIG. 7. Each of the processes shown in FIGS. 7 and 9 is realized by the CPU of the control unit 450 executing an image processing program.

以下では、図4に示す対象者500がベッド700を離れ、歩いて内扉720へ向かう場合について想定する。 In the following, it is assumed that the subject 500 shown in FIG. 4 leaves the bed 700 and walks toward the inner door 720.

まず、撮影画像600の画像データを取得する(ステップS101)。画像取得部451は、撮影装置100により上記フレームレートで撮影された画像データを順に取得する。例えば、対象者500が内扉720の前に到達し、内扉720を開けた場合、図8に示すように、画像取得部451は、居室の外へ通じる出入口の前にいる対象者500を含む撮影画像610を取得する。図8において、グレーの領域D1は、出入口を通じて撮影される居室の外側の空間を示している。 First, the image data of the captured image 600 is acquired (step S101). The image acquisition unit 451 sequentially acquires image data captured at the above frame rate by the imaging device 100. For example, when the target person 500 reaches in front of the inner door 720 and opens the inner door 720, the image acquisition unit 451 sets the target person 500 in front of the doorway leading to the outside of the living room as shown in FIG. The captured image 610 including the image is acquired. In FIG. 8, the gray area D1 shows the space outside the living room photographed through the doorway.

次に、画像データに基づいて人物領域を検出する(ステップS102)。領域検出部452は、各々の撮影画像610について、物体存在領域ごとの人物の信頼度スコアを算出し、人物のカテゴリーの信頼度スコアが最も高い物体存在領域を人物領域511として検出し、対象者500を検出する。人物領域511は、検知領域を構成する。なお、検知領域は、対象者500(移動体)と対応して設定され、人物領域511と同じ領域であってもよいし、人物領域511を含む、異なる大きさの領域であってもよい。例えば、検知領域は、ニューラルネットワークの学習によって推定された人物領域511よりも大きい領域であってもよいし、矩形以外の形状であってもよい。 Next, the person area is detected based on the image data (step S102). The area detection unit 452 calculates the reliability score of the person for each object existence area for each captured image 610, detects the object existence area having the highest reliability score in the person category as the person area 511, and detects the target person. Detect 500. The person area 511 constitutes a detection area. The detection area may be set in correspondence with the target person 500 (moving body) and may be the same area as the person area 511, or may be an area of a different size including the person area 511. For example, the detection region may be a region larger than the human region 511 estimated by learning the neural network, or may have a shape other than a rectangle.

次に、人物領域511を記憶する(ステップS103)。記憶部410は、人物領域511を特定するデータ(例えば、人物領域511が矩形である場合は、その起点および終点の座標)を記憶する
次に、対象者500の姿勢を推定する(ステップS104)。姿勢推定部453は、人物領域511において、対象者500の特徴点520の位置を推定して対象者500の姿勢を推定する。姿勢推定部453は、例えば、画像取得部451によって取得された各々の撮影画像610について、対象者500の姿勢を推定し、推定結果を記憶部410に記憶させる。図8に示す例では、姿勢推定部453は、特徴点520の各々の位置関係から、対象者500が立位の姿勢にあると推定する。
Next, the person area 511 is stored (step S103). The storage unit 410 stores data for identifying the person area 511 (for example, when the person area 511 is rectangular, the coordinates of the start point and the end point). Next, the posture of the target person 500 is estimated (step S104). .. The posture estimation unit 453 estimates the position of the feature point 520 of the target person 500 in the person area 511 and estimates the posture of the target person 500. The posture estimation unit 453 estimates the posture of the subject 500 for each photographed image 610 acquired by the image acquisition unit 451 and stores the estimation result in the storage unit 410. In the example shown in FIG. 8, the posture estimation unit 453 estimates that the subject 500 is in a standing posture from the positional relationship of each of the feature points 520.

次に、対象者500の行動を推定する(ステップS105)。図9に示すように、対象者500が検出されているか否かを判断する(ステップS201)。行動推定部454は、対象者500が検出されている場合(ステップS201)、姿勢推定部453で推定された対象者500の姿勢に基づいて、対象者500の行動を推定する(ステップS202)。例えば、行動推定部454は、図4に示すように対象者500がベッド700に座っている状態から、図8に示すように居室の出入口の前に到達するまでの間に、対象者500が離床し、歩行したと推定する。制御部450は、対象者500の行動を推定する処理を終了し、図7における動作に関する情報を出力する処理(S106)に移行する。 Next, the behavior of the subject 500 is estimated (step S105). As shown in FIG. 9, it is determined whether or not the target person 500 has been detected (step S201). When the target person 500 is detected (step S201), the behavior estimation unit 454 estimates the behavior of the target person 500 based on the posture of the target person 500 estimated by the posture estimation unit 453 (step S202). For example, in the behavior estimation unit 454, the subject 500 sits on the bed 700 as shown in FIG. 4 and reaches the front of the doorway of the living room as shown in FIG. It is estimated that he got out of bed and walked. The control unit 450 ends the process of estimating the behavior of the target person 500, and shifts to the process (S106) of outputting the information regarding the operation in FIG. 7.

一方、対象者500は、撮影領域外に出ると、領域検出部452によって検出できなくなる。行動推定部454は、領域検出部452によって対象者500が検出されなくなった場合(ステップS201:NO)、対象者500が検出されなくなる前の人物領域511における姿勢推定部453の推定結果に基づいて、対象者500の行動を推定する。具体的な手順は以下のとおりである。 On the other hand, when the subject 500 goes out of the photographing area, it cannot be detected by the area detection unit 452. When the target person 500 is no longer detected by the area detection unit 452 (step S201: NO), the behavior estimation unit 454 is based on the estimation result of the posture estimation unit 453 in the person area 511 before the target person 500 is no longer detected. , Estimate the behavior of the subject 500. The specific procedure is as follows.

退出に関する条件を判定する(ステップS203)。退出に関する条件は、例えば、対象者500の姿勢に関して、対象者500の退出を肯定的に示す事項、または示唆する事項であり得る。各々の退出に関する条件は、異なる観点から対象者500の退出を示すことが好ましい。対象者500の退出を示す、異なる事項に基づいて、対象者500の退出を判定することにより、退出判定の精度が向上する。退出に関する条件の具体例については後述する。 The condition for leaving is determined (step S203). The condition regarding exit may be, for example, a matter that positively indicates or suggests the exit of the subject 500 with respect to the posture of the subject 500. It is preferable that the conditions for each exit indicate the exit of the subject 500 from different viewpoints. By determining the exit of the target person 500 based on different matters indicating the exit of the target person 500, the accuracy of the exit determination is improved. Specific examples of conditions for leaving will be described later.

次に、退出に関する条件を全て満たしているか否かを判断する(ステップS204)。退出に関する条件を全て満たしている場合(ステップS204:YES)、行動推定部454は、対象者500が退出したと判定する(ステップS205)。一方、退出に関する条件の少なくともいずれかを満たしていない場合(ステップS204:NO)、行動推定部454は、対象者500が退出していないと判定する(ステップS206)。 Next, it is determined whether or not all the conditions for leaving are satisfied (step S204). When all the conditions for exiting are satisfied (step S204: YES), the behavior estimation unit 454 determines that the subject 500 has exited (step S205). On the other hand, when at least one of the conditions relating to exit is not satisfied (step S204: NO), the behavior estimation unit 454 determines that the subject 500 has not exited (step S206).

次に、判定結果を記憶する(ステップS207)。行動推定部454は、対象者500の退出判定の結果を記憶410に保存する。 Next, the determination result is stored (step S207). The behavior estimation unit 454 stores the result of the exit determination of the subject 500 in the memory 410.

再び、図7に戻り、行動に関する情報を出力する(ステップS106)。出力部455は、対象者500の行動が上記所定の行動である場合、対象者500の行動に関する情報を携帯端末300へ送信する。また、ステップS206で対象者500が退出していないと判定した場合についても、物陰で対象者500が転倒または転落したりしている可能性もあるので、対象者500の行動に関する情報を携帯端末300へ送信する。一方、出力部455は、対象者500の行動が退出等の特定行動である場合、対象者500の行動に関する情報を送信しない。 Returning to FIG. 7 again, the information regarding the action is output (step S106). When the action of the target person 500 is the above-mentioned predetermined action, the output unit 455 transmits information about the action of the target person 500 to the mobile terminal 300. Further, even when it is determined in step S206 that the target person 500 has not left, there is a possibility that the target person 500 has fallen or has fallen due to the shadow. Send to 300. On the other hand, when the action of the target person 500 is a specific action such as leaving, the output unit 455 does not transmit information about the action of the target person 500.

例えば、対象者500が離床し、内扉720まで歩行で接近し、内扉720の前に立って内扉720を開き、出入口から外へ退出する場合、対象者500が離床した時点で、出力部455は対象者500が離床した旨を携帯端末300へ送信する。一方、対象者500の退出については、携帯端末300へは送信されない。 For example, when the subject 500 leaves the bed, walks closer to the inner door 720, stands in front of the inner door 720, opens the inner door 720, and exits from the doorway, the output occurs when the subject 500 leaves the bed. The unit 455 transmits to the mobile terminal 300 that the subject 500 has left the bed. On the other hand, the exit of the target person 500 is not transmitted to the mobile terminal 300.

<退出に関する条件>
対象者500が居室から退出し、撮影領域外に出ると、領域検出部452は、対象者500を検出できなくなる。したがって、対象者500が検出されなくなることが、対象者500の退出の条件となる。すなわち、行動推定部454は、領域検出部452が対象者500を「見失った」ことを前提条件として判定する。
<Conditions for leaving>
When the subject 500 leaves the living room and goes out of the photographing area, the area detection unit 452 cannot detect the subject 500. Therefore, it is a condition for the subject 500 to leave that the subject 500 is not detected. That is, the behavior estimation unit 454 determines that the area detection unit 452 "lost" the subject 500 as a precondition.

対象者500が居室から退出した場合、通常、居室を離れる何かの目的があるので、居室にすぐに戻ってくることはないと考えられる。したがって、対象者500は、退出してから、ある程度の時間にわたり検出されないことが予想される。したがって、対象者500が居室から退出した場合、下記の条件1を満たす。 When the subject 500 leaves the room, it is considered that he / she will not return to the room immediately because he / she usually has some purpose to leave the room. Therefore, it is expected that the subject 500 will not be detected for a certain period of time after leaving. Therefore, when the subject 500 leaves the living room, the following condition 1 is satisfied.

(条件1)対象者500が検出されない状態が所定の第1期間にわたり継続している。第1期間は、フレーム数に換算した場合、上記フレームレートの値によって変わり得るが、例えば20フレーム以上に相当する期間であり得る。なお、この値は、本実施形態で想定している特定の実施環境において精度の高い退出判定を行うことができたときの値であり、実施環境に応じて適宜変更され得る。また、以下に示す各条件において例示される値についても同様である。 (Condition 1) The state in which the subject 500 is not detected continues for a predetermined first period. The first period may change depending on the value of the frame rate when converted into the number of frames, but may be, for example, a period corresponding to 20 frames or more. It should be noted that this value is a value when a highly accurate exit determination can be performed in the specific implementation environment assumed in the present embodiment, and can be appropriately changed depending on the implementation environment. The same applies to the values exemplified under each of the following conditions.

また、本実施形態では、対象者500が居室から退出し、対象者500が検出されなくなった場合、例えば、対象者500が検出されなくなる直前の人矩形がそのままの状態で維持される。したがって、上記条件1は、対象者500が検出されなくなってから、人矩形が第1期間にわたって動かない、ということもできる。 Further, in the present embodiment, when the target person 500 leaves the living room and the target person 500 is no longer detected, for example, the human rectangle immediately before the target person 500 is no longer detected is maintained as it is. Therefore, under the above condition 1, it can be said that the human rectangle does not move for the first period after the subject 500 is no longer detected.

また、対象者500が内扉720を開くために内扉720の前に立ってから、領域検出部452によって検出されなくなる直前までの期間では、対象者500は立位の姿勢である。したがって、対象者500が居室から退出した場合、下記の条件2を満たす。 Further, in the period from when the subject 500 stands in front of the inner door 720 to open the inner door 720 until immediately before the detection by the area detection unit 452, the subject 500 is in a standing posture. Therefore, when the subject 500 leaves the living room, the following condition 2 is satisfied.

(条件2)対象者500が領域検出部452によって検出されなくなる、すなわち人矩形が動かなくなる前の所定の第2期間(所定期間)にわたり対象者500が立位の姿勢である。第2期間は、フレーム数に換算すると、例えば5フレーム程度に相当する期間であり得る。 (Condition 2) The subject 500 is not detected by the area detection unit 452, that is, the subject 500 is in a standing posture for a predetermined second period (predetermined period) before the human rectangle becomes immobile. The second period may be a period corresponding to, for example, about 5 frames when converted into the number of frames.

上述の条件1および条件2により、対象者500が第1期間にわたり検出されず、対象者500が検出されなくなる前の第2期間にわたり立位の姿勢であったことが確認できる。これらの条件に加えて、対象者500が検出されなくなった撮影領域における位置を確認することで、対象者500の退出判定をより高精度に行える。すなわち、対象者500が居室から退出した場合、下記の条件3を満たす。 According to the above-mentioned conditions 1 and 2, it can be confirmed that the subject 500 was not detected during the first period and was in a standing posture for the second period before the subject 500 was no longer detected. In addition to these conditions, by confirming the position in the photographing area where the target person 500 is no longer detected, the exit determination of the target person 500 can be performed with higher accuracy. That is, when the subject 500 leaves the living room, the following condition 3 is satisfied.

(条件3)居室領域外の特徴点520の個数が所定数以上である。所定数は、例えばフレーム平均で8以上であり得る。居室領域外の特徴点520の個数は、例えば、次のように算出され得る。対象者500が検出されないので、記憶部410に記憶されている、対象者500が検出されなくなる前の人物領域511に基づいて対象者500の特徴点520の位置が推定される(図8を参照)。行動推定部454は、人物領域511における対象者500の特徴点520の位置を解析し、居室領域外(図8に示す例では、領域D1)にある特徴点520の数を算出する。すなわち、行動推定部454は、人物領域511と、推定された特徴点520の位置との重なりに基づいて、対象者500の退出の条件を判定する。 (Condition 3) The number of feature points 520 outside the living room area is a predetermined number or more. The predetermined number can be, for example, 8 or more on a frame average. The number of feature points 520 outside the living room area can be calculated, for example, as follows. Since the subject 500 is not detected, the position of the feature point 520 of the subject 500 is estimated based on the person area 511 stored in the storage unit 410 before the subject 500 is no longer detected (see FIG. 8). ). The behavior estimation unit 454 analyzes the position of the feature points 520 of the subject 500 in the person area 511, and calculates the number of the feature points 520 outside the living room area (area D1 in the example shown in FIG. 8). That is, the behavior estimation unit 454 determines the condition for leaving the subject 500 based on the overlap between the person area 511 and the estimated position of the feature point 520.

また、居室領域外の特徴点520の個数に関する上記条件に加えて、撮影画像の中心点(図8の撮影画像610の例では、符号800の位置)から居室外領域の特徴点520までの距離に関する条件を課すことができる。例えば、上記中心点から居室外の領域D1内の特徴点520への距離(図8の撮影画像610の例では、破線810で示す距離)の最小値が所定長以上であることを条件とし得る。所定長は、例えば撮影画像のサイズが1280×960(フルサイズ)である場合、377以上であり得る。 Further, in addition to the above condition regarding the number of feature points 520 outside the living room area, the distance from the center point of the photographed image (position of reference numeral 800 in the example of the photographed image 610 of FIG. 8) to the feature point 520 of the outside room area. Conditions can be imposed. For example, it may be a condition that the minimum value of the distance from the center point to the feature point 520 in the region D1 outside the living room (the distance indicated by the broken line 810 in the example of the captured image 610 of FIG. 8) is equal to or longer than a predetermined length. .. The predetermined length can be 377 or more, for example, when the size of the captured image is 1280 × 960 (full size).

また、対象者500は、居室から退出するとき立位であるはずなので、下記の条件4を満たす。 Further, since the subject 500 should be standing when leaving the living room, the following condition 4 is satisfied.

(条件4)領域検出部452によって対象者500が検出されない間、すなわち人矩形が動かない間は、対象者500の姿勢は立位のままである。 (Condition 4) While the target person 500 is not detected by the area detection unit 452, that is, while the human rectangle does not move, the posture of the target person 500 remains standing.

また、センサーボックスが、領域検出部452と同等の、人物を検出する機能を有する場合、対象者500について、領域検出部452によって検出された人物領域511と、センサーボックスによって検出された人物領域(以下、「SB人物領域」という)とを比較することで、退出判定の精度をさらに向上できる。 When the sensor box has a function of detecting a person, which is equivalent to that of the area detection unit 452, the person area 511 detected by the area detection unit 452 and the person area detected by the sensor box (for the target person 500) Hereinafter, the accuracy of the exit determination can be further improved by comparing with the "SB person area").

すなわち、対象者500が居室から退出した場合、例えば、上記の条件1に対応する条件として、下記の条件5を満たす。 That is, when the subject 500 leaves the living room, for example, the following condition 5 is satisfied as a condition corresponding to the above condition 1.

(条件5)センサーボックスの撮影画像についても、対象者500が検出されない状態が所定の第3期間にわたり継続している。第3期間は、フレーム数に換算した場合、上記フレームレートの値によって変わり得るが、例えば20フレーム以上に相当する期間であり得る。 (Condition 5) As for the captured image of the sensor box, the state in which the subject 500 is not detected continues for a predetermined third period. The third period, when converted to the number of frames, may change depending on the value of the frame rate, but may be, for example, a period corresponding to 20 frames or more.

センサーボックスは、撮影画像から人シルエットを検出し、人シルエットに基づいて対象者500を検出する。人シルエットは、例えば、撮影時刻が前後する画像(フレーム)の差分を抽出する時間差分法により差分が相対的に大きい画素の範囲を抽出することで検出され得る。 また、人物領域511とSB人物領域との一致の度合いを確認することもできる。例えば、人物領域511とSB人物領域とが一致する度合いが所定の閾値以上であるかを判定する。一致の度合いは、例えばIoU(Intersection over Union)によって評価できる。IoUは、共通集合の面積/和集合の面積で定義される。本実施形態では、IoUは、人物領域511とSB人物領域との共通領域を、人物領域511とSB人物領域との和の領域で除した値となる。すなわち、対象者500が居室から退出した場合、下記の条件6を満たす。 The sensor box detects a human silhouette from the captured image and detects the target person 500 based on the human silhouette. The human silhouette can be detected, for example, by extracting a range of pixels having a relatively large difference by the time difference method for extracting the difference between images (frames) whose shooting times are before and after. It is also possible to confirm the degree of coincidence between the person area 511 and the SB person area. For example, it is determined whether the degree of coincidence between the person area 511 and the SB person area is equal to or greater than a predetermined threshold value. The degree of agreement can be evaluated by, for example, IoU (Intersection over Union). IoU is defined by the area of the intersection / the area of the union. In the present embodiment, the IoU is a value obtained by dividing the common area between the person area 511 and the SB person area by the sum area of the person area 511 and the SB person area. That is, when the subject 500 leaves the living room, the following condition 6 is satisfied.

(条件6)人物領域511とSB人物領域とのIoUの平均が所定の閾値以上である。所定の閾値は、例えば0.3程度であり得る。 (Condition 6) The average of IoU between the person area 511 and the SB person area is equal to or higher than a predetermined threshold value. The predetermined threshold value can be, for example, about 0.3.

図10は、退出に関する条件の適用例を説明するための説明図である。図10に示す例では、条件1〜6について判定する場合を例示しているが、このような場合に限定されず、求められる判定精度に応じて、条件を適宜省略したり、新しい条件を追加したりすることができる。例えば、判定精度を維持する見地から、少なくとも条件1〜3について判定を実施することが好ましい。条件4については省略することができる。条件5および6については、センサーボックスの構成に応じて、判定実施の可否を選択し得る。 FIG. 10 is an explanatory diagram for explaining an application example of the condition relating to exit. In the example shown in FIG. 10, the case where the determination is made for the conditions 1 to 6 is illustrated, but the case is not limited to such a case, and the condition is appropriately omitted or a new condition is added according to the required determination accuracy. Can be done. For example, from the viewpoint of maintaining the determination accuracy, it is preferable to perform the determination for at least conditions 1 to 3. Condition 4 can be omitted. Regarding conditions 5 and 6, it is possible to select whether or not to carry out the determination depending on the configuration of the sensor box.

図10に示すように、画像取得部451によって撮影画像がフレーム1〜50まで取得され、対象者500が、フレーム27以降において領域検出部452によって検出されず、フレーム29以降においてセンサーボックスによっても検出されないことを想定する。 As shown in FIG. 10, captured images are acquired by the image acquisition unit 451 from frames 1 to 50, and the subject 500 is not detected by the area detection unit 452 after the frame 27, but also by the sensor box after the frame 29. It is assumed that it will not be done.

条件1について、フレーム27〜フレーム50(マスが黒色に塗られているフレーム)において対象者500が検出されていないことが示されている。図10に示す例では、この期間は、24フレーム(≧20フレーム)であるので、条件1は満たされている。 Regarding condition 1, it is shown that the subject 500 is not detected in the frames 27 to 50 (frames in which the squares are painted black). In the example shown in FIG. 10, since this period is 24 frames (≧ 20 frames), the condition 1 is satisfied.

条件2について、対象者500が検出されなくなる前のフレーム22〜フレーム26(マスがグレーに塗られているフレーム)は立位の姿勢であることが示されている。図10に示す例では、この期間は、5フレームであるので、条件2も満たされている。 Regarding condition 2, it is shown that the frames 22 to 26 (frames whose squares are painted in gray) before the subject 500 is no longer detected are in a standing posture. In the example shown in FIG. 10, since this period is 5 frames, the condition 2 is also satisfied.

条件3、4、および6については、フレーム29〜フレーム50において、各条件の判定を行うことが示されている(それぞれ斜線、星印、「●」で示されている)。 Regarding conditions 3, 4, and 6, it is indicated that the determination of each condition is performed in frames 29 to 50 (indicated by diagonal lines, stars, and “●”, respectively).

条件5について、フレーム29〜フレーム50(「〇」で示されている)において対象者500が検出されていないことが示されている。図10に示す例では、この期間は、22フレーム(≧20フレーム)であるので、条件5は満たされている。 Regarding condition 5, it is shown that the subject 500 is not detected in frames 29 to 50 (indicated by “◯”). In the example shown in FIG. 10, since this period is 22 frames (≧ 20 frames), the condition 5 is satisfied.

以上で説明した本実施形態の画像処理装置400は、下記の効果を奏する。 The image processing apparatus 400 of the present embodiment described above has the following effects.

記憶部410に人物領域511が記憶された状態で、領域検出部452によって対象者500が検出されない場合に、記憶部410に記憶された人物領域511において、対象者500の行動を推定するので、対象者500の退出判定の精度を向上させることができる。したがって、対象者500の退出判定時に、転倒や転落等のイベント通知を行う必要のある所定の行動を失報するリスクを低減できる。 When the person area 511 is stored in the storage unit 410 and the target person 500 is not detected by the area detection unit 452, the behavior of the target person 500 is estimated in the person area 511 stored in the storage unit 410. It is possible to improve the accuracy of the exit determination of the target person 500. Therefore, it is possible to reduce the risk of losing a predetermined action that requires notification of an event such as a fall or a fall when the target person 500 is determined to leave.

本発明は、上述した実施形態のみに限定されるものではなく、特許請求の範囲内において、種々改変することができる。 The present invention is not limited to the above-described embodiments, and various modifications can be made within the scope of the claims.

例えば、画像処理プログラムは、USBメモリー、フレキシブルディスク、CD−ROM等のコンピューター読み取り可能な記録媒体によって提供されてもよいし、インターネット等のネットワークを介してオンラインで提供されてもよい。この場合、コンピューター読み取り可能な記録媒体に記録されたプログラムは、通常、メモリーやストレージ等に転送され記憶される。また、この画像処理プログラムは、例えば、単独のアプリケーションソフトとして提供されてもよいし、サーバーの一機能としてその各装置のソフトウェアに組み込んでもよい。 For example, the image processing program may be provided by a computer-readable recording medium such as a USB memory, a flexible disk, or a CD-ROM, or may be provided online via a network such as the Internet. In this case, the program recorded on the computer-readable recording medium is usually transferred to a memory, storage, or the like and stored. Further, this image processing program may be provided as a single application software, or may be incorporated into the software of each device as a function of the server.

また、実施形態において画像処理プログラムにより実行される処理の一部または全部を回路等のハードウェアに置き換えて実行されうる。 Further, in the embodiment, a part or all of the processing executed by the image processing program may be replaced with hardware such as a circuit and executed.

10 画像処理システム、
100 撮影装置、
200 通信ネットワーク、
210 アクセスポイント、
300 携帯端末、
400 演算装置、
410 記憶部、
420 表示部、
430 入力部、
440 通信部、
450 制御部、
451 画像取得部、
452 領域検出部、
453 姿勢推定部、
454 行動推定部、
455 出力部、
500 対象者、
510,511 人物領域、
520 特徴点、
600,610 撮影画像、
700 ベッド、
710 物体領域。
10 Image processing system,
100 shooting equipment,
200 communication networks,
210 access points,
300 mobile terminals,
400 arithmetic unit,
410 storage,
420 display section,
430 input section,
440 Communication Department,
450 control unit,
451 Image acquisition unit,
452 area detector,
453 Posture estimation unit,
454 Behavior Estimator,
455 output unit,
500 subjects,
510,511 People area,
520 feature points,
600,610 captured images,
700 beds,
710 Object area.

Claims (7)

対象者の行動を監視する介護システムで使用される画像処理装置であって、
画像を取得する画像取得部と、
前記画像に基づいて移動体を含む領域を検出することで、前記移動体を検出する検出部と、
前記検出部により検出された前記移動体に対応して設定された検知領域を記憶する記憶部と、
前記検出部によって前記移動体が検出されている場合は、前記検出部によって検出された前記検知領域において前記移動体の行動を推定する一方で、前記検出部によって前記移動体が検出されない場合は、前記記憶部に記憶された前記検知領域において前記移動体の行動を推定する行動推定部と、
前記行動推定部で推定された前記移動体の行動が所定の行動である場合に、前記行動に関する情報を出力する出力部と、を有する、画像処理装置。
An image processing device used in a long-term care system that monitors the behavior of the subject.
The image acquisition unit that acquires images and
A detection unit that detects the moving body by detecting a region including the moving body based on the image, and a detection unit that detects the moving body.
A storage unit that stores a detection area set corresponding to the moving body detected by the detection unit, and a storage unit.
When the moving body is detected by the detecting unit, the behavior of the moving body is estimated in the detection region detected by the detecting unit, but when the detecting unit does not detect the moving body, the moving body is not detected. A behavior estimation unit that estimates the behavior of the moving body in the detection area stored in the storage unit, and a behavior estimation unit.
An image processing device having an output unit that outputs information about the behavior when the behavior of the moving body estimated by the behavior estimation unit is a predetermined behavior.
前記検知領域において、前記移動体の、人の体に関する特徴点を推定して前記移動体の姿勢を推定する姿勢推定部をさらに有し、
前記行動推定部は、前記姿勢推定部によって推定された前記移動体の姿勢に基づいて、前記検知領域における前記移動体の行動を推定する、請求項1に記載の画像処理装置。
The detection region further includes a posture estimation unit that estimates the feature points of the moving body with respect to the human body and estimates the posture of the moving body.
The image processing device according to claim 1, wherein the behavior estimation unit estimates the behavior of the moving body in the detection region based on the posture of the moving body estimated by the posture estimation unit.
前記出力部は、
前記移動体の行動が前記所定の行動である場合に、前記行動に関する情報を、前記対象者を介護する介護者の端末装置に送信する、請求項1または2に記載の画像処理装置。
The output unit
The image processing device according to claim 1 or 2, wherein when the action of the moving body is the predetermined action, information about the action is transmitted to a terminal device of a caregiver who cares for the target person.
前記行動推定部は、
前記検知領域と、推定された前記特徴点位置との重なりに基づいて、前記移動体の行動を推定し、
前記出力部は、
前記行動推定部による前記移動体の行動の推定結果に基づいて、前記移動体の行動に関する情報を出力するか否かを決定する、請求項2に記載の画像処理装置。
The behavior estimation unit
The behavior of the moving body is estimated based on the overlap between the detection region and the estimated feature point position.
The output unit
The image processing apparatus according to claim 2, wherein it is determined whether or not to output information regarding the behavior of the moving body based on the estimation result of the behavior of the moving body by the behavior estimating unit.
前記行動推定部は、
前記検出部によって前記移動体が検出されなくなった場合に、前記移動体が検出されなくなる前の所定期間の前記検知領域における前記姿勢推定部の推定結果に基づいて、前記移動体の行動を推定し、
前記出力部は、
前記行動推定部による前記移動体の行動の推定結果に基づいて、前記移動体の行動に関する情報を出力するか否かを決定する、請求項2に記載の画像処理装置。
The behavior estimation unit
When the moving body is no longer detected by the detection unit, the behavior of the moving body is estimated based on the estimation result of the posture estimation unit in the detection region for a predetermined period before the moving body is no longer detected. ,
The output unit
The image processing apparatus according to claim 2, wherein it is determined whether or not to output information regarding the behavior of the moving body based on the estimation result of the behavior of the moving body by the behavior estimating unit.
前記行動推定部は、
前記所定期間の前記検知領域における前記姿勢推定部の推定結果が立位である場合に、前記移動体の行動が、前記移動体の行動に関する情報を出力する必要のない特定行動であると推定し、
前記出力部は、
前記移動体の行動が前記特定行動である場合に、前記移動体の行動に関する情報を出力しない、請求項5に記載の画像処理装置。
The behavior estimation unit
When the estimation result of the posture estimation unit in the detection region for the predetermined period is standing, it is estimated that the behavior of the moving body is a specific behavior that does not need to output information about the behavior of the moving body. ,
The output unit
The image processing device according to claim 5, which does not output information regarding the behavior of the moving body when the behavior of the moving body is the specific behavior.
対象者の行動を監視する介護システムで使用される画像処理プログラムであって、
画像を取得するステップ(a)と、
前記画像に基づいて移動体を含む領域を検出することで、前記移動体を検出するステップ(b)と、
検出された前記移動体に対応して設定された検知領域を記憶部に記憶するステップ(c)と、
前記移動体が検出されている場合は、検出された前記検知領域において前記移動体の行動を推定する一方で、前記移動体が検出されない場合は、前記記憶部に記憶された前記検知領域において前記移動体の行動を推定するステップ(d)と、
推定された前記移動体の行動が所定の行動である場合に、前記行動に関する情報を出力するステップ(e)と、を含む処理をコンピューターに実行させるための画像処理プログラム。
An image processing program used in a long-term care system that monitors the behavior of the subject.
Step (a) to acquire an image and
The step (b) of detecting the moving body by detecting the region including the moving body based on the image, and
The step (c) of storing the detection area set corresponding to the detected moving object in the storage unit, and
When the moving body is detected, the behavior of the moving body is estimated in the detected detection area, while when the moving body is not detected, the detection area stored in the storage unit is used. Step (d) of estimating the behavior of the moving body and
An image processing program for causing a computer to perform a process including a step (e) of outputting information about the action when the estimated action of the moving body is a predetermined action.
JP2019195394A 2019-10-28 2019-10-28 Image processing device and image processing program Pending JP2021065617A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019195394A JP2021065617A (en) 2019-10-28 2019-10-28 Image processing device and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019195394A JP2021065617A (en) 2019-10-28 2019-10-28 Image processing device and image processing program

Publications (1)

Publication Number Publication Date
JP2021065617A true JP2021065617A (en) 2021-04-30

Family

ID=75636192

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019195394A Pending JP2021065617A (en) 2019-10-28 2019-10-28 Image processing device and image processing program

Country Status (1)

Country Link
JP (1) JP2021065617A (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013149156A (en) * 2012-01-20 2013-08-01 Fujitsu Ltd State detection device and state detection method
WO2018159036A1 (en) * 2017-03-02 2018-09-07 オムロン株式会社 Monitoring assistance system, control method thereof, and program
US20180342081A1 (en) * 2017-05-25 2018-11-29 Samsung Electronics Co., Ltd. Method and system for detecting dangerous situation
JP2019121045A (en) * 2017-12-28 2019-07-22 コニカミノルタ株式会社 Posture estimation system, behavior estimation system, and posture estimation program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013149156A (en) * 2012-01-20 2013-08-01 Fujitsu Ltd State detection device and state detection method
WO2018159036A1 (en) * 2017-03-02 2018-09-07 オムロン株式会社 Monitoring assistance system, control method thereof, and program
US20180342081A1 (en) * 2017-05-25 2018-11-29 Samsung Electronics Co., Ltd. Method and system for detecting dangerous situation
JP2019121045A (en) * 2017-12-28 2019-07-22 コニカミノルタ株式会社 Posture estimation system, behavior estimation system, and posture estimation program

Similar Documents

Publication Publication Date Title
US8427324B2 (en) Method and system for detecting a fallen person using a range imaging device
WO2016143641A1 (en) Posture detection device and posture detection method
JP6150207B2 (en) Monitoring system
JP7196645B2 (en) Posture Estimation Device, Action Estimation Device, Posture Estimation Program, and Posture Estimation Method
JP6984712B2 (en) Program of monitored person monitoring system and monitored person monitoring system
JP6292283B2 (en) Behavior detection device, behavior detection method, and monitored person monitoring device
JP2022165483A (en) Detecting device, detecting system, detecting method, and detecting program
WO2019003859A1 (en) Monitoring system, control method therefor, and program
JP2020034960A (en) Posture detection apparatus of person to be monitored
CN113366529A (en) Nursing recording device, nursing recording system, nursing recording program, and nursing recording method
TW201701238A (en) Falling down detecting systems and method
EP3819864A1 (en) Target object detection program and target object detection device
JP2021065617A (en) Image processing device and image processing program
JP7314939B2 (en) Image recognition program, image recognition device, learning program, and learning device
FI126359B (en) Control system and method
JP6115689B1 (en) Fall detection device, fall detection method and monitored person monitoring device
WO2021033453A1 (en) Image processing system, image processing program, and image processing method
JP7500929B2 (en) IMAGE PROCESSING SYSTEM, IMAGE PROCESSING PROGRAM, AND IMAGE PROCESSING METHOD
WO2020241057A1 (en) Image processing system, image processing program, and image processing method
WO2021033597A1 (en) Image processing system, image processing program, and image processing method
JP7435609B2 (en) Image processing system, image processing program, and image processing method
JP2020190889A (en) Monitoring system for care-needing person
JP7215481B2 (en) Computer Executed Programs, Information Processing Devices, and Computer Executed Methods
JP7142955B2 (en) MONITORING SYSTEM, MONITORING METHOD, AND PROGRAM
WO2020003953A1 (en) Program executed by computer, information processing device, and method executed by computer

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220920

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230607

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230620

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231219