JP2009033564A - Display device and display program - Google Patents

Display device and display program Download PDF

Info

Publication number
JP2009033564A
JP2009033564A JP2007196458A JP2007196458A JP2009033564A JP 2009033564 A JP2009033564 A JP 2009033564A JP 2007196458 A JP2007196458 A JP 2007196458A JP 2007196458 A JP2007196458 A JP 2007196458A JP 2009033564 A JP2009033564 A JP 2009033564A
Authority
JP
Japan
Prior art keywords
image
fall
time
display
display area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007196458A
Other languages
Japanese (ja)
Inventor
Atsushi Oda
淳志 小田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2007196458A priority Critical patent/JP2009033564A/en
Publication of JP2009033564A publication Critical patent/JP2009033564A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a display device and a display program for enabling correct transmission of the state when a monitoring object person has fallen and the state after the monitoring object person has fallen to a monitoring person. <P>SOLUTION: A monitoring person terminal 200 includes a display control unit 230 for displaying imaged data within a display region provided to a display 240 and a communication unit 210 for obtaining message information indicating that fall of the monitoring object person has been detected. The display control unit 230 displays an image when a monitoring object person has fallen within the display region and also displays an image after fall within the display region. A first frame interval that is the interval of frame extracted as the image when the fall occurs from a plurality of the frames forming the imaged data is shorter than a second frame interval that is the interval of frame extracted as the image after the fall from the plurality of frames forming the imaged data. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、監視対象者を含む撮像画像を監視者に提供する表示装置及び表示プログラムに関する。   The present invention relates to a display device and a display program that provide a captured image including a monitoring target person to the monitoring person.

従来、見守られるべき高齢者などの監視対象者の動作を見守る生活見守りシステムや監視対象者の転倒を検出する転倒検出システムなどが知られている。   2. Description of the Related Art Conventionally, there are known life monitoring systems that watch over the actions of monitoring subjects such as elderly people to be watched over, and fall detection systems that detect falls of the monitoring subjects.

これらのシステムでは、監視対象者をカメラなどによって撮像した上で、カメラなどによって撮像された撮像画像が、高齢者などを見守る監視者側の表示装置(テレビのモニタやPCのモニタなど)に送信される。監視者側の表示装置は、撮像画像が表示される表示領域を有しており、監視者は、撮像画像によって監視対象者の動作(転倒)を把握する。   In these systems, the person to be monitored is imaged by a camera or the like, and then the captured image captured by the camera or the like is transmitted to a display device (such as a TV monitor or PC monitor) on the supervisor side who watches over the elderly or the like. Is done. The display device on the monitor side has a display area in which the captured image is displayed, and the monitor grasps the operation (falling) of the monitoring target person by the captured image.

これらのシステムに適用される画像表示方法としては、何らかの異常が発生した時点よりも前の画像(過去画像)と現在時刻における画像(現在画像、すなわち、リアルタイム画像)とを表示領域内に同時に表示する方法が提案されている(例えば、特許文献1)。   As an image display method applied to these systems, an image before the time when some abnormality occurs (past image) and an image at the current time (current image, that is, a real-time image) are simultaneously displayed in the display area. A method has been proposed (for example, Patent Document 1).

これによって、監視者は、過去画像と現在画像とを比較することができ、異常が発生した状況を把握することができる。
特開2004−266592号公報(例えば、請求項1、[0025]、[0054]〜[0057]など)
As a result, the supervisor can compare the past image with the current image, and can grasp the situation in which an abnormality has occurred.
Japanese Unexamined Patent Application Publication No. 2004-266592 (for example, claim 1, [0025], [0054] to [0057], etc.)

ここで、上述した背景技術のように、単に、過去画像と現在画像とを表示領域内に同時に表示するだけでは、何らかの異常が発生した状態を正確に把握することができないケースが考えられる。   Here, as in the background art described above, there may be a case where it is not possible to accurately grasp the state where some abnormality has occurred by simply displaying the past image and the current image simultaneously in the display area.

例えば、監視対象者の転倒を検出する転倒検出システムについて考える。上述した背景技術によれば、監視者は、過去画像によって転倒時点における監視対象者の状況をある程度把握することが可能である。一方で、監視者は、現在画像によって現在時刻における監視対象者の状況をある程度把握することが可能である。   For example, consider a fall detection system that detects the fall of the person being monitored. According to the background art described above, the monitoring person can grasp the situation of the monitoring target person at the time of the fall to some extent from the past image. On the other hand, the monitoring person can grasp the monitoring target person's situation at the current time to some extent from the current image.

しかしながら、表示装置は現在画像を表示しているに過ぎないため、転倒時点から時間が経過すると、転倒後の所定時間内における監視対象者の状況(例えば、監視対象者がどのように起き上がったか、監視対象者が倒れたまま、どの程度の時間間隔で動きがないかなど)を現在画像によって把握することができない。   However, since the display device is currently only displaying an image, when the time elapses from the time of falling, the situation of the monitoring target person within a predetermined time after the falling (for example, how the monitoring target person woke up, It is not possible to grasp from the current image (how much time interval there is no movement, etc.) while the monitoring subject falls down.

そこで、本発明は、上述した課題を解決するためになされたものであり、監視対象者の転倒時の状況、監視対象者の転倒後の状況を監視者に適切に伝達することを可能とする表示装置及び表示プログラムを提供することを目的する。   Therefore, the present invention has been made to solve the above-described problems, and enables the situation of the monitoring target person to fall and the situation after the monitoring person to fall can be appropriately transmitted to the monitoring person. An object is to provide a display device and a display program.

本発明の一の特徴では、監視対象者を含む撮像画像を取得して、前記撮像画像を監視者に提供する表示装置(監視者側端末200)は、前記監視対象者の転倒が検出されたことを示す通知情報を取得する取得部(通信部210)と、前記監視対象者の転倒が検出されたタイミングである検出タイミング前における前記撮像画像を少なくとも含む転倒時画像を表示領域(ディスプレイ240)内に表示するとともに、前記検出タイミング後における前記撮像画像を少なくとも含む転倒後画像を前記表示領域内に表示する表示制御部(表示制御部230)と、前記撮像画像を構成する複数のフレームから前記転倒時画像を抽出する転倒時画像抽出部(表示制御部230)と、前記撮像画像を構成する複数のフレームから前記転倒後画像を抽出する転倒後画像抽出部(表示制御部230)とを備え、前記転倒時画像抽出部によって抽出された前記転倒時画像のフレームの間隔である第1フレーム間隔は、前記転倒後画像抽出部によって抽出された前記転倒後画像のフレームの間隔である第2フレーム間隔よりも短い。   In one aspect of the present invention, the display device (monitorer-side terminal 200) that acquires a captured image including a monitoring target person and provides the captured image to the monitoring person detects a fall of the monitoring target person. An acquisition unit (communication unit 210) that acquires notification information indicating that the image is falling, and an image at the time of the fall including at least the captured image before the detection timing that is a timing at which the monitoring subject is detected to fall. And a display control unit (display control unit 230) that displays in the display area an image after the fall including at least the captured image after the detection timing, and a plurality of frames constituting the captured image A fall-time image extraction unit (display control unit 230) that extracts a fall-time image, and extracts the post-fall image from a plurality of frames constituting the captured image. An after-falling image extraction unit (display control unit 230), and a first frame interval that is a frame interval of the fall-down image extracted by the over-falling image extraction unit is extracted by the after-falling image extraction unit. It is shorter than the second frame interval which is the frame interval of the image after the fall.

本特徴では、表示制御部は、転倒時画像に加えて、転倒後画像を表示する。従って、転倒時点から時間が経過した場合であっても、監視者は、監視対象者の転倒後の状況を転倒後画像によって把握することができる。   In this feature, the display control unit displays the image after the fall in addition to the image at the fall. Therefore, even if time has elapsed since the time of the fall, the monitor can grasp the situation after the fall of the monitoring target person from the image after the fall.

ここで、一般的に、転倒時における監視対象者の動きは早く、転倒後における監視対象者の動きは遅いと想定される。   Here, in general, it is assumed that the movement of the monitoring target person at the time of the fall is fast and the movement of the monitoring target person after the fall is slow.

本特徴では、転倒時画像の第1フレーム間隔は、転倒後画像の第2フレーム間隔よりも短いため、監視対象者の転倒時の状況、監視対象者の転倒後の状況を監視者に適切に伝達することができる。   In this feature, since the first frame interval of the image at the time of the fall is shorter than the second frame interval of the image after the fall, the situation at the time of the fall of the monitoring target person and the situation after the fall of the monitoring target person are appropriately set to the supervisor. Can communicate.

本発明の上述した特徴において、前記転倒時画像は、前記検出タイミングよりも第1時間前から、前記検出タイミングの第2時間後までにおける前記撮像画像であることが好ましい。   In the above-described feature of the present invention, it is preferable that the fall-time image is the captured image from a first time before the detection timing to a second time after the detection timing.

本特徴では、転倒時画像の範囲は、監視対象者の転倒の検出タイミングよりも第1時間前から、監視対象者の転倒の検出タイミングの第2時間後までである。従って、監視者は、監視対象者の転倒時の状況を転倒時画像によって十分に把握することができる。   In this feature, the range of the image at the time of the fall is from the first time before the detection timing of the fall of the monitoring subject to the second time after the detection timing of the fall of the monitoring subject. Therefore, the supervisor can fully grasp the situation at the time of the fall of the monitoring subject by the image at the time of the fall.

本発明の上述した特徴において、前記転倒後画像は、前記検出タイミングの第3時間後から、前記監視対象者の転倒からの回復が検出されたタイミングである回復タイミングまでにおける前記撮像画像であることが好ましい。   In the above-described feature of the present invention, the post-fall image is the captured image from a third time after the detection timing to a recovery timing that is a timing when recovery from the monitoring subject's fall is detected. Is preferred.

本特徴では、転倒後画像の範囲は、監視対象者の転倒の検出タイミングの第3時間後から、監視対象者の転倒からの回復が検出された回復タイミングまでである。従って、監視者は、監視対象者の転倒後の状況を転倒後画像によって十分に把握することができる。   In this feature, the range of the after-fall image is from the third time after the detection timing of the monitoring subject's fall to the recovery timing at which recovery from the fall of the monitoring subject is detected. Therefore, the supervisor can fully grasp the situation after the fall of the monitoring subject by the image after the fall.

本発明の上述した特徴において、前記表示領域は、前記転倒時画像が表示される第1表示領域と、前記転倒後画像が表示される第2表示領域とを含み、前記第1表示領域は、前記転倒時画像を構成する単数のフレームを表示するように構成されており、又は、前記第2表示領域は、前記転倒後画像を構成する単数のフレームを表示するように構成されており、前記表示制御部は、前記第1表示領域において、前記転倒時画像を構成する単数のフレームを時系列順に切り替えて表示し、又は、前記第2表示領域において、前記転倒後画像を構成する単数のフレームを時系列順に切り替えて表示することが好ましい。   In the above-described feature of the present invention, the display area includes a first display area in which the image at the time of the fall is displayed, and a second display area in which the image after the fall is displayed. The single frame constituting the image at the time of the fall is configured to be displayed, or the second display area is configured to display the single frame constituting the image after the fall, and In the first display area, the display control unit switches and displays a single frame constituting the fall-time image in chronological order, or a single frame constituting the post-fall image in the second display area. Are preferably displayed in a time-series order.

本特徴では、転倒時画像を構成する単数のフレームが第1表示領域に時系列順で切り替えて表示され、又は、転倒後画像を構成する単数のフレームが第2表示領域に時系列順で切り替えて表示される。従って、1つのフレームに割り当て可能な表示面積を大きくすることができ、監視者は、転倒時画像又は転倒後画像をみやすい。   In this feature, a single frame composing the fall-time image is displayed in the first display area by switching in time series, or a single frame composing the image after the fall is switched to the second display area in time-series order Displayed. Therefore, the display area that can be assigned to one frame can be increased, and the monitor can easily see the image at the time of the fall or the image after the fall.

本発明の上述した特徴において、前記表示領域は、前記転倒時画像が表示される第1表示領域と、前記転倒後画像が表示される第2表示領域とを含み、前記第1表示領域は、前記転倒時画像を構成する複数のフレームを表示するように構成されており、又は、前記第2表示領域は、前記転倒後画像を構成する複数のフレームを表示するように構成されており、前記表示制御部は、前記第1表示領域において、前記転倒時画像を構成する複数のフレームを同時に時系列順に表示し、又は、前記第2表示領域において、前記転倒後画像を構成する複数のフレームを同時に時系列順に表示することが好ましい。   In the above-described feature of the present invention, the display area includes a first display area in which the image at the time of the fall is displayed, and a second display area in which the image after the fall is displayed. It is configured to display a plurality of frames constituting the image at the time of the fall, or the second display area is configured to display a plurality of frames constituting the image after the fall, The display control unit simultaneously displays a plurality of frames constituting the fall-time image in the first display area in chronological order, or displays a plurality of frames constituting the post-fall image in the second display area. It is preferable to display them in chronological order at the same time.

本特徴では、転倒時画像を構成する複数のフレームが第1表示領域に同時に時系列順で表示され、又は、転倒後画像を構成する複数のフレームが第2表示領域に同時に時系列順で表示される。従って、監視者は、監視対象者の転倒時の状況及び監視対象者の転倒後の状況を同時に見比べることができる。   In this feature, a plurality of frames constituting the fall-time image are simultaneously displayed in the first display area in chronological order, or a plurality of frames constituting the image after the fall are simultaneously displayed in the second display area in chronological order. Is done. Therefore, the supervisor can simultaneously compare the situation when the monitoring subject falls and the situation after the supervisor falls.

本発明の上述した特徴において、前記表示制御部は、前記転倒時画像を構成するフレームのオプティカルフローを前記表示領域内に表示することが好ましい。   In the above-described feature of the present invention, it is preferable that the display control unit displays an optical flow of frames constituting the fall-time image in the display area.

本特徴では、転倒時画像について、オプティカルフローが表示領域内に表示される。従って、監視者は、監視対象者の動作速度を容易に把握することができる。なお、オプティカルフローは、監視対象者の動きが大きいと想定される転倒時画像に適用されるとさらに有用である。   In this feature, the optical flow is displayed in the display area for the fall-down image. Accordingly, the monitor can easily grasp the operation speed of the monitoring target person. The optical flow is more useful when applied to a fall-down image that is assumed to have a large movement of the monitoring subject.

本発明の上述した特徴において、前記表示制御部は、前記転倒後画像を構成する対象フレームと前記転倒後画像を構成する参照フレームとの差分情報に基づいて、前記対象フレームから抽出された動き領域を前記表示領域内に表示することが好ましい。   In the above-described feature of the present invention, the display control unit is configured to extract a motion region extracted from the target frame based on difference information between the target frame constituting the post-falling image and a reference frame constituting the post-falling image. Is preferably displayed in the display area.

本特徴では、転倒後画像について、対象フレームから抽出された動き領域が表示領域内に表示される。従って、監視者は、監視対象者が転倒後に動いているか否かを容易に把握することができる。なお、対象フレームから抽出された動き領域は、監視対象者の動きが小さいと想定される転倒後画像に適用されるとさらに有用である。   In this feature, the motion area extracted from the target frame is displayed in the display area for the after-falling image. Therefore, the monitoring person can easily grasp whether or not the monitoring target person moves after the fall. It should be noted that the motion region extracted from the target frame is more useful when applied to an after-falling image in which the motion of the monitoring target person is assumed to be small.

本発明の上述した特徴において、前記表示制御部は、前記転倒時画像及び前記転倒後画像に加えて、現在時刻における前記撮像画像を前記表示領域内に表示し、前記通知情報の取得に応じて、前記監視対象者の転倒を報知するアラーム情報を前記表示領域内に表示し、前記転倒時画像を構成するフレームのオプティカルフロー、又は、前記転倒後画像を構成するフレーム間の差分情報に応じて、前記アラーム情報の表示方法を変更することが好ましい。   In the above-described feature of the present invention, the display control unit displays the captured image at the current time in the display area in addition to the image at the time of the fall and the image after the fall, and according to the acquisition of the notification information The alarm information for notifying the fall of the person to be monitored is displayed in the display area, and depending on the optical flow of the frames constituting the image at the time of the fall or the difference information between the frames constituting the image after the fall It is preferable to change the display method of the alarm information.

本特徴では、現在時刻における撮像画像(リアルタイム画像)が表示領域内に表示される。従って、監視者は、監視対象者の状況をさらに詳細に把握することができる。   In this feature, a captured image (real-time image) at the current time is displayed in the display area. Therefore, the supervisor can grasp the situation of the person to be monitored in more detail.

本特徴では、オプティカルフロー又はフレーム間の差分情報に応じて、アラーム情報の表示方法が変更される。従って、監視者は、緊急度を容易に把握することができる。   In this feature, the alarm information display method is changed according to the optical flow or the difference information between frames. Therefore, the supervisor can easily grasp the urgency level.

本発明の一の特徴は、監視対象者を含む撮像画像を取得して、前記撮像画像を監視者に提供する表示プログラムは、前記監視対象者の転倒が検出されたことを示す通知情報を取得するステップAと、前記監視対象者の転倒が検出されたタイミングである検出タイミング前における前記撮像画像を少なくとも含む転倒時画像を表示領域内に表示するとともに、前記検出タイミング後における前記撮像画像を少なくとも含む転倒後画像を前記表示領域内に表示するステップBと、前記撮像画像を構成する複数のフレームから前記転倒時画像を抽出するステップCと、前記撮像画像を構成する複数のフレームから前記転倒後画像を抽出するステップDとをコンピュータに実行させ、前記ステップCで抽出された前記転倒時画像のフレームの間隔である第1フレーム間隔は、前記ステップDで抽出された前記転倒後画像のフレームの間隔である第2フレーム間隔よりも短い。   One feature of the present invention is that a display program for acquiring a captured image including a monitoring target person and providing the captured image to the monitoring person acquires notification information indicating that the monitoring target person has fallen. Displaying a fall-time image including at least the captured image before the detection timing, which is a timing when the monitoring subject's fall is detected, in a display area, and at least the captured image after the detection timing. A step B for displaying the image after the fall within the display area, a step C for extracting the image at the time of the fall from the plurality of frames constituting the captured image, and the after the fall from the plurality of frames constituting the captured image Step D for extracting an image is executed by a computer, and the frame interval of the fallen image extracted in step C is calculated. The first frame interval, shorter than the second frame interval is an interval of the frame of the fall after the image extracted in the step D.

本発明によれば、監視対象者の転倒時の状況、監視対象者の転倒後の状況を監視者に適切に伝達することを可能とする表示装置及び表示プログラムを提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the display apparatus and display program which enable it to transmit appropriately the situation at the time of the fall of a monitoring subject and the situation after the fall of a monitoring subject to a supervisor can be provided.

以下において、本発明の実施形態に係る転倒検出システムについて、図面を参照しながら説明する。なお、以下の図面の記載において、同一又は類似の部分には、同一又は類似の符号を付している。   Hereinafter, a fall detection system according to an embodiment of the present invention will be described with reference to the drawings. In the following description of the drawings, the same or similar parts are denoted by the same or similar reference numerals.

ただし、図面は模式的なものであり、各寸法の比率などは現実のものとは異なることに留意すべきである。従って、具体的な寸法などは以下の説明を参酌して判断すべきである。また、図面相互間においても互いの寸法の関係や比率が異なる部分が含まれていることは勿論である。   However, it should be noted that the drawings are schematic and ratios of dimensions and the like are different from actual ones. Therefore, specific dimensions and the like should be determined in consideration of the following description. Moreover, it is a matter of course that portions having different dimensional relationships and ratios are included between the drawings.

[第1実施形態]
(転倒検出システムの構成)
以下において、第1実施形態に係る転倒検出システムの構成について、図面を参照しながら説明する。図1は、第1実施形態に係る転倒検出システムの構成を示す図である。
[First Embodiment]
(Configuration of fall detection system)
Hereinafter, the configuration of the fall detection system according to the first embodiment will be described with reference to the drawings. FIG. 1 is a diagram illustrating a configuration of a fall detection system according to the first embodiment.

図1に示すように、転倒検出システムは、単数又は複数の監視対象者側システム100と、単数又は複数の監視者側端末200とによって構成される。監視対象者側システム100と監視者側端末200とは、有線回線や無線回線などによって接続されている。   As shown in FIG. 1, the fall detection system includes one or a plurality of monitoring subject side systems 100 and one or a plurality of monitoring side terminals 200. The monitoring subject side system 100 and the supervisor side terminal 200 are connected by a wired line or a wireless line.

監視対象者側システム100は、見守られるべき高齢者などの監視対象者の居室などに設けられており、監視対象者を含む撮像画像を取得する。具体的には、監視対象者側システム100は、撮像部110と、入力データ処理部120と、判定基準格納部130と、判定部140と、出力データ処理部150と、通信部160とを有する。   The monitoring subject side system 100 is provided in a room of a monitoring subject such as an elderly person to be watched, and acquires a captured image including the monitoring subject. Specifically, the monitoring subject side system 100 includes an imaging unit 110, an input data processing unit 120, a determination criterion storage unit 130, a determination unit 140, an output data processing unit 150, and a communication unit 160. .

撮像部110は、監視対象者を撮像することによって、監視対象者を含む撮像画像を取得する。なお、撮像部110は、単数のカメラによって構成されていてもよく、複数のカメラによって構成されていてもよい。   The imaging unit 110 acquires a captured image including the monitoring target person by imaging the monitoring target person. Note that the imaging unit 110 may be configured by a single camera or a plurality of cameras.

入力データ処理部120は、撮像部110から撮像画像を取得する。続いて、入力データ処理部120は、監視対象者の転倒を検出するために必要な処理を撮像画像に施す。   The input data processing unit 120 acquires a captured image from the imaging unit 110. Subsequently, the input data processing unit 120 performs processing necessary for detecting the fall of the monitoring subject on the captured image.

例えば、入力データ処理部120は、図2に示すように、撮像画像に含まれる監視対象者を抽出して、監視対象者を囲む直方体の幅(Lx)、高さ(Ly)、奥行き(Lz)を取得する。続いて、入力データ処理部120は、幅と高さとの比(Lx/Ly)と、奥行きと高さとの比(Lz/Ly)を取得する。   For example, as illustrated in FIG. 2, the input data processing unit 120 extracts the monitoring target person included in the captured image, and the width (Lx), height (Ly), and depth (Lz) of the rectangular parallelepiped surrounding the monitoring target person. ) To get. Subsequently, the input data processing unit 120 acquires the ratio between the width and the height (Lx / Ly) and the ratio between the depth and the height (Lz / Ly).

判定基準格納部130は、監視対象者の姿勢(立位、臥位、座位など)、監視対象者の動作モデル(前傾転倒、後傾転倒(しりもち)、座る、寝転ぶなど)などを記憶している。また、判定基準格納部130は、監視対象者の姿勢を判定するための判定基準を記憶している。   The determination criterion storage unit 130 stores the posture of the monitoring subject (standing position, supine position, sitting position, etc.), the motion model of the monitoring target person (forward tilting, backward tilting, sitting, lying down, etc.). is doing. Further, the determination criterion storage unit 130 stores a determination criterion for determining the posture of the monitoring target person.

例えば、判定基準格納部130は、立位を判定するためのLx/Ly閾値(0.4)及びLz/Ly閾値(0.4)を記憶している。判定基準格納部130は、臥位を判定するためのLx/Ly閾値(1.5)及びLz/Ly閾値(1.5)を記憶している。判定基準格納部130は、動作の検出開始タイミング及び動作の検出終了タイミングを判定するためのLx/Ly閾値(0.7)及びLz/Ly閾値(0.7)を記憶している。判定基準格納部130は、動作の検出開始タイミングから動作の検出終了タイミングまでの間において、監視対象者を囲む直方体の幅(Lx)、高さ(Ly)及び奥行き(Lz)によって構成される時系列のデータ(以下、時系列の動作データと称する)と監視対象者の動作とを対応付ける動作モデル(隠れマルコフモデルなど)を記憶している。   For example, the determination criterion storage unit 130 stores an Lx / Ly threshold (0.4) and an Lz / Ly threshold (0.4) for determining standing. The determination reference storage unit 130 stores an Lx / Ly threshold (1.5) and an Lz / Ly threshold (1.5) for determining the supine position. The determination criterion storage unit 130 stores an Lx / Ly threshold (0.7) and an Lz / Ly threshold (0.7) for determining an operation detection start timing and an operation detection end timing. When the criterion storage unit 130 is configured by the width (Lx), the height (Ly), and the depth (Lz) of the rectangular parallelepiped surrounding the monitoring subject from the motion detection start timing to the motion detection end timing. A motion model (such as a hidden Markov model) is stored that associates series data (hereinafter referred to as time series motion data) with the motion of the person being monitored.

判定部140は、入力データ処理部120から取得する情報と判定基準格納部130に記憶された判定基準とに基づいて、監視対象者の動作(前傾転倒、後傾転倒(しりもち)、座る、寝転ぶなど)を判定する。   Based on the information acquired from the input data processing unit 120 and the determination criteria stored in the determination criterion storage unit 130, the determination unit 140 performs the actions of the person being monitored (forward tilting, backward tilting (sirimochi)), and sitting. , Lie down, etc.).

例えば、判定部140は、判定基準格納部130から読み出された閾値と、入力データ処理部120から取得する幅と高さとの比(Lx/Ly)及び奥行きと高さとの比(Lz/Ly)とを比較して、監視対象者の姿勢を判定する。具体的には、監視対象者の姿勢は、以下のように判定される。   For example, the determination unit 140 determines the threshold value read from the determination criterion storage unit 130, the width / height ratio (Lx / Ly) and the depth / height ratio (Lz / Ly) acquired from the input data processing unit 120. ) To determine the posture of the person being monitored. Specifically, the posture of the monitoring subject is determined as follows.

(1)立位・・・Lx/Ly<0.4、又は、Lz/Ly<0.4
(2)臥位・・・Lx/Ly>1.5、又は、Lz/Ly>1.5
(3)座位・・・0.4≦Lx/Ly≦1.5、及び、0.4≦Lz/Ly≦1.5
判定部140は、Lx/Ly≧0.7又はLz/Ly≧0.7である状態が5フレーム又は1sec継続した場合に、監視対象者の動作検出を開始すると判定する。一方で、判定部140は、Lx/Ly<0.7かつLz/Ly<0.7である状態が7フレーム又は1.4sec継続した場合に、監視対象者の動作検出を終了すると判定する。または、判定部140は、監視対象者の動作検出を開始してから10〜15sec(後述するZ時間)が経過した場合に、監視対象者の動作検出を終了すると判定する。
(1) Standing position: Lx / Ly <0.4 or Lz / Ly <0.4
(2) Supine ... Lx / Ly> 1.5 or Lz / Ly> 1.5
(3) Sitting position: 0.4 ≦ Lx / Ly ≦ 1.5 and 0.4 ≦ Lz / Ly ≦ 1.5
The determination unit 140 determines to start the motion detection of the monitoring subject when the state of Lx / Ly ≧ 0.7 or Lz / Ly ≧ 0.7 continues for 5 frames or 1 sec. On the other hand, when the state where Lx / Ly <0.7 and Lz / Ly <0.7 continues for 7 frames or 1.4 seconds, the determination unit 140 determines to end the monitoring target person's motion detection. Alternatively, the determination unit 140 determines to end the monitoring of the monitoring target person when 10 to 15 sec (Z time described later) has elapsed since the start of the monitoring target person's movement detection.

以下において、上述した転倒検出方法については、直方体を用いた転倒検出方法と称する。   Hereinafter, the fall detection method described above is referred to as a fall detection method using a rectangular parallelepiped.

判定部140は、動作の検出開始タイミングから動作の検出終了タイミングまでの間に取得した時系列の動作データに基づいて、監視対象者の動作を判定する。具体的には、判定部140は、隠れマルコフモデルを参照して、時系列の動作データに対して最も高い尤度を出力した動作モデルが転倒モデルである場合に、監視対象者が転倒したと判定する。   The determination unit 140 determines the operation of the monitoring target person based on time-series operation data acquired between the operation detection start timing and the operation detection end timing. Specifically, the determination unit 140 refers to the hidden Markov model, and when the motion model that outputs the highest likelihood with respect to time-series motion data is a fall model, the monitoring target person falls. judge.

なお、時系列の動作データは、上述したように、動作の検出開始タイミングから動作の検出終了タイミングまでの間において、監視対象者を囲む直方体の幅(Lx)、高さ(Ly)及び奥行き(Lz)によって構成される時系列のデータである。   As described above, the time-series motion data includes the width (Lx), the height (Ly), and the depth (Ly) of the rectangular parallelepiped surrounding the person to be monitored between the motion detection start timing and the motion detection end timing. Lz) is time-series data.

出力データ処理部150は、撮像部110から撮像画像を取得するとともに、判定部140から判定結果を取得する。続いて、出力データ処理部150は、監視者側端末200に送信すべき情報を生成する。   The output data processing unit 150 acquires a captured image from the imaging unit 110 and acquires a determination result from the determination unit 140. Subsequently, the output data processing unit 150 generates information to be transmitted to the supervisor side terminal 200.

具体的には、出力データ処理部150は、撮像部110から取得した撮像画像を通信部160に送信する。出力データ処理部150は、判定部140による判定結果が監視対象者の転倒を示す場合には、監視対象者の転倒が検出されたことを示す通知情報を生成する。   Specifically, the output data processing unit 150 transmits the captured image acquired from the imaging unit 110 to the communication unit 160. When the determination result by the determination unit 140 indicates that the monitoring target person has fallen, the output data processing unit 150 generates notification information indicating that the monitoring target person has fallen.

ここで、通知情報は、監視対象者の動作検出が開始した時刻を監視対象者の転倒が検出された時刻として含む。通知情報は、監視対象者の動作検出が終了した時刻を監視対象者の転倒からの回復が検出された時刻として含んでもよい。   Here, the notification information includes the time when the monitoring subject's motion detection is started as the time when the monitoring subject's fall was detected. The notification information may include a time when the monitoring target person's motion detection is completed as a time when the monitoring target person's recovery from falling is detected.

通信部160は、出力データ処理部150によって生成された情報(撮像画像や通知情報など)を監視者側端末200に送信する。   The communication unit 160 transmits information (such as a captured image and notification information) generated by the output data processing unit 150 to the supervisor side terminal 200.

ここで、監視対象者の転倒検出方法としては、直方体を用いた転倒検出方法に関連した様々な方法を適用することが可能であることに留意すべきである(例えば、特願2006−336063号公報、特願2006−342654号公報)。また、監視対象者の転倒検出方法としては、直方体を用いた転倒検出方法以外にも、他の既存の方法を適用することが可能である。   Here, it should be noted that various methods related to the fall detection method using a rectangular parallelepiped can be applied as the fall detection method of the monitoring subject (for example, Japanese Patent Application No. 2006-336063). Gazette, Japanese Patent Application No. 2006-342654). In addition to the fall detection method using a rectangular parallelepiped, other existing methods can be applied as the fall detection method for the person being monitored.

以下においては、上述したいずれかの方法によって監視対象者の転倒が検出され、現実に監視対象者が転倒動作をしていたことを前提として説明を続ける。   In the following, the description will be continued on the assumption that the fall of the monitoring subject has been detected by any of the methods described above and that the monitoring subject has actually fallen.

なお、監視対象者の転倒は、監視対象者が立位(又は座位)から臥位となるまでのいずれかの時点で検出されればよい。従って、監視対象者の転倒は、直方体を用いて転倒検出方法で検出することができる。また、監視対象者の転倒は、監視対象者が立位から臥位となるまでの間において、監視対象者の動きが最も大きい時点で検出されてもよい。また、監視対象者の転倒は、監視対象者が臥位となった時点で検出されてもよい。さらに、監視対象者の転倒は、監視対象者の少なくとも一部が床などに触れた時点で検出されてもよい。   In addition, the fall of the monitoring subject may be detected at any time point from when the monitoring subject falls from the standing position (or sitting position) to the lying position. Therefore, the fall of the monitoring subject can be detected by the fall detection method using a rectangular parallelepiped. In addition, the fall of the monitoring subject may be detected at the time when the movement of the monitoring subject is the largest during the period from the standing position to the lying position. Moreover, the fall of the monitoring subject may be detected at the time when the monitoring subject becomes prone. Furthermore, the fall of the monitoring subject may be detected when at least a part of the monitoring subject touches the floor or the like.

監視者側端末200は、監視対象者を含む撮像画像を監視対象者側システム100から取得して、高齢者などを見守る監視者に撮像画像を提供する。具体的には、監視者側端末200は、通信部210と、画像格納部220と、表示制御部230と、ディスプレイ240とを有する。   The supervisor-side terminal 200 acquires a captured image including the monitoring target person from the monitoring target person-side system 100, and provides the captured image to a monitoring person who watches an elderly person or the like. Specifically, the supervisor-side terminal 200 includes a communication unit 210, an image storage unit 220, a display control unit 230, and a display 240.

通信部210は、監視対象者を含む撮像画像を監視対象者側システム100から受信する。通信部210は、監視対象者の転倒が検出されたことを示す通知情報を監視対象者側システム100から受信する。   The communication unit 210 receives a captured image including the monitoring target person from the monitoring target person side system 100. The communication unit 210 receives notification information indicating that the monitoring target person has fallen from the monitoring target person side system 100.

画像格納部220は、監視対象者側システム100から受信した撮像画像をフレーム単位で記憶している。   The image storage unit 220 stores captured images received from the monitoring subject side system 100 in units of frames.

表示制御部230は、監視対象者を含む撮像画像をディスプレイ240に設けられた表示領域内に表示する。具体的には、表示制御部230は、撮像画像を構成する複数のフレームから下記3種類の画像を抽出した上で、下記3種類の画像を表示する。   The display control unit 230 displays a captured image including the monitoring subject in a display area provided on the display 240. Specifically, the display control unit 230 displays the following three types of images after extracting the following three types of images from a plurality of frames constituting the captured image.

(1) 転倒時画像・・・監視対象者の転倒が検出されたタイミング(以下、検出タイミング)前における撮像画像を少なくとも含む画像
(2) 転倒後画像・・・・・・検出タイミング後における撮像画像を少なくとも含む画像
(3) 現在画像(リアルタイム画像)・・・現在時刻における撮像画像
具体的には、転倒時画像及び転倒後画像について図3を参照しながら説明する。図3に示すように、「監視対象者の転倒時」とは、検出タイミングよりもX時間(第1時間)前から、検出タイミングのY時間(第2時間)後までの期間である。「監視対象者の転倒後」とは、検出タイミングのY時間(第3時間)後から、監視対象者の転倒からの回復が検出されたタイミング(以下、回復タイミング)までの期間である。
(1) Image at the time of falling: an image including at least a captured image before the timing (hereinafter referred to as detection timing) when the monitoring subject's falling is detected. An image including at least an image (3) Current image (real-time image) ... a captured image at the current time Specifically, an image at the time of a fall and an image after the fall will be described with reference to FIG. As shown in FIG. 3, “when the monitoring subject falls” is a period from X hours (first time) before the detection timing to Y hours (second time) after the detection timing. “After the fall of the monitoring subject” is a period from the Y time (third time) of the detection timing to the timing when the recovery from the fall of the monitoring subject is detected (hereinafter, recovery timing).

ここで、X時間は、例えば、つまずきや卒倒などの原因で監視対象者の立位が崩れ始めた状態が「監視対象者の転倒時」に含まれるように定められる。   Here, the X time is determined such that, for example, a state where the standing position of the monitoring subject starts to collapse due to a stumbling or a fall is included in “when the monitoring subject falls”.

Y時間は、監視対象者の全身が床などに伏せた状態が「監視対象者の転倒時」に含まれるように定められる。   The Y time is determined so that the state where the whole body of the monitoring subject is lying on the floor is included in “when the monitoring subject falls”.

Z時間は、検出タイミングから動作の検出時間がタイムアウトするまでの時間である。また、Z時間は、監視対象者の動作判定を開始して、監視対象者の転倒後の状態を監視者に通知するのに充分な時間が得られるように定められる。   The Z time is the time from the detection timing until the operation detection time times out. In addition, the Z time is determined so that sufficient time can be obtained to start the operation determination of the monitoring subject and notify the monitoring person of the state after the monitoring subject falls.

なお、監視対象者の動作検出を開始したタイミングは、検出タイミングであり、監視対象者の動作検出を終了したタイミングは、回復タイミングである。   Note that the timing at which the monitoring target person's motion detection is started is a detection timing, and the timing at which the monitoring target person's motion detection is completed is a recovery timing.

図3に示すように、転倒時画像は、検出タイミングよりもX時間(第1時間)前から、検出タイミングのY時間(第2時間)後までにおける撮像画像である。表示制御部230は、転倒時画像を第1フレーム間隔で表示する。なお、第1フレーム間隔とは、撮像画像を構成する複数のフレームから、転倒時画像として抽出するフレームの間隔である。   As shown in FIG. 3, the overturned image is a captured image from X time (first time) before the detection timing to Y time (second time) after the detection timing. The display control unit 230 displays the overturned image at the first frame interval. The first frame interval is an interval between frames extracted as a fall-down image from a plurality of frames constituting a captured image.

一方で、転倒後画像は、検出タイミングのY時間(第3時間)後から回復タイミングまでにおける撮像画像である。表示制御部230は、転倒後画像を第2フレーム間隔で表示する。なお、第2フレーム間隔とは、撮像画像を構成する複数のフレームから、転倒後画像として抽出するフレームの間隔である。   On the other hand, the after-fall image is a captured image from the time Y after detection time (third time) to the recovery timing. The display control unit 230 displays the after-falling image at the second frame interval. Note that the second frame interval is an interval between frames extracted as a post-falling image from a plurality of frames constituting the captured image.

ここで、転倒時画像には、重力方向に従って監視対象者が転倒する動作が含まれると想定される。すなわち、単位時間における監視対象者の動きが大きいと想定されるため、転倒時画像のフレーム間隔(第1フレーム間隔)は短いことが好ましい。   Here, it is assumed that the image at the time of falling includes an action in which the monitoring subject falls according to the direction of gravity. That is, since it is assumed that the movement of the monitoring subject is large in unit time, it is preferable that the frame interval (first frame interval) of the image at the time of the fall is short.

一方で、転倒後画像には、重力方向に逆らって監視対象者が立ち上がる動作又は監視対象者が静止している動作が含まれると想定される。また、監視対象者が高齢者のため動作が緩慢であること、監視対象者が体を打ち付けてダメージを受けて、監視対象者の動作が緩慢であることなどが想定される。すなわち、単位時間における監視対象者の動きが小さいと想定されるため、転倒後画像のフレーム間隔(第2フレーム間隔)は長いことが好ましい。   On the other hand, it is assumed that the image after the fall includes an operation in which the monitoring subject stands up against the direction of gravity or an operation in which the monitoring subject is stationary. In addition, it is assumed that the operation is slow because the monitoring target is an elderly person, and that the monitoring target is struck by the body and damaged, and the monitoring target is performing slowly. That is, since it is assumed that the movement of the monitoring subject in the unit time is small, it is preferable that the frame interval (second frame interval) of the image after the fall is long.

従って、転倒時画像のフレーム間隔(第1フレーム間隔)は、転倒後画像のフレーム間隔(第2フレーム間隔)よりも短く設定されている。   Accordingly, the frame interval (first frame interval) of the image at the time of the fall is set shorter than the frame interval (second frame interval) of the image after the fall.

ここで、表示制御部230は、検出タイミングを以下のように特定する。例えば、表示制御部230は、監視対象者の転倒が検出された時刻、すなわち、通知情報に含まれる動作検出の開始時刻を検出タイミングとして特定する。   Here, the display control unit 230 specifies the detection timing as follows. For example, the display control unit 230 specifies the time at which the monitoring subject's fall was detected, that is, the operation detection start time included in the notification information as the detection timing.

一方で、表示制御部230は、回復タイミングを以下のように特定する。例えば、表示制御部230は、監視対象者の転倒からの回復が検出された時刻、すなわち、通知情報に含まれる動作検出の終了時刻を回復タイミングとして特定する。   On the other hand, the display control unit 230 specifies the recovery timing as follows. For example, the display control unit 230 specifies the time when the recovery from the fall of the monitoring subject is detected, that is, the end time of the operation detection included in the notification information as the recovery timing.

なお、表示制御部230は、監視対象者の動作検出の終了時刻(転倒からの回復が検出された時刻)が通知情報に含まれていない場合には、検出タイミングのZ時間(>Y時間)後のタイミングを回復タイミングとして特定してもよい。   Note that if the notification information does not include the end time of the motion detection of the monitoring target person (the time when recovery from the fall is detected), the display control unit 230 detects the detection time Z time (> Y time). A later timing may be specified as the recovery timing.

さらに、表示制御部230は、通知情報の受信に応じて、監視対象者の転倒が検出されたことを示すアラーム情報(例えば、“転倒発生”の文字列)を表示領域内に表示する。   Further, in response to receiving the notification information, the display control unit 230 displays alarm information (for example, a character string of “falling”) indicating that the monitoring subject has fallen in the display area.

なお、アラーム情報は、監視対象者が複数である場合には、監視対象者を識別するための情報(例えば、監視対象者の名前、監視対象者の居室番号など)を含んでもよい。また、アラーム情報は、監視対象者の転倒が検出された日時を含んでもよい。   Note that when there are a plurality of monitoring target persons, the alarm information may include information for identifying the monitoring target persons (for example, the name of the monitoring target person, the room number of the monitoring target person, etc.). The alarm information may include the date and time when the monitoring subject's fall was detected.

ここで、上述したX時間は、例えば、0.5〜2secの範囲であることが好ましい。上述したY時間は、例えば、0.5〜2secの範囲内であることが好ましい。上述したZ時間は、例えば、10〜15secの範囲であることが好ましい。   Here, the above-described X time is preferably in the range of 0.5 to 2 seconds, for example. The Y time described above is preferably in the range of 0.5 to 2 seconds, for example. The Z time described above is preferably in the range of 10 to 15 seconds, for example.

また、現在画像(リアルタイム画像)のフレーム間隔が0.033sec(30フレーム/sec)であるケースについて例示すると、転倒時画像のフレーム間隔(第1フレーム間隔)は、例えば、0.033〜0.5secの範囲内であることが好ましい。一方で、転倒後画像のフレーム間隔(第2フレーム間隔)は、例えば、0.5〜2secの範囲内であることが好ましい。   Further, in the case where the frame interval of the current image (real-time image) is 0.033 sec (30 frames / sec), the frame interval (first frame interval) of the image at the time of falling is, for example, 0.033-0. It is preferably within a range of 5 seconds. On the other hand, the frame interval (second frame interval) of the after-falling image is preferably in the range of 0.5 to 2 seconds, for example.

ディスプレイ240は、撮像画像などが表示される表示領域を有する。具体的には、図4に示すように、表示領域は、転倒時画像が表示される転倒時画像表示領域、転倒後画像が表示される転倒後画像表示領域、現在画像(リアルタイム画像)が表示されるリアルタイム画像表示領域、アラーム情報が表示されるアラーム情報表示領域を含む。   The display 240 has a display area where captured images and the like are displayed. Specifically, as shown in FIG. 4, the display area displays a fall-time image display area in which a fall-time image is displayed, an after-fall image display area in which an after-fall image is displayed, and a current image (real-time image). A real-time image display area, and an alarm information display area where alarm information is displayed.

ここで、転倒時画像表示領域は、複数のフレームを表示するように構成されている。表示制御部230は、転倒時画像表示領域において、転倒時画像を構成する複数のフレームを同時に時系列順に表示する。   Here, the fall-time image display area is configured to display a plurality of frames. The display control unit 230 simultaneously displays a plurality of frames constituting the fall-time image in chronological order in the fall-time image display area.

転倒後画像表示領域は、複数のフレームを表示するように構成されている。表示制御部230は、転倒後画像表示領域において、転倒後画像を構成する複数のフレームを同時に時系列順に表示する。   The after-falling image display area is configured to display a plurality of frames. The display control unit 230 simultaneously displays a plurality of frames constituting the post-fall image in chronological order in the post-fall image display area.

リアルタイム画像表示領域は、単数のフレームを表示するように構成されている。表示制御部230は、リアルタイム画像表示領域において現在画像を構成する単数のフレームを時系列順に切り替えて表示する。   The real-time image display area is configured to display a single frame. The display control unit 230 switches and displays a single frame constituting the current image in chronological order in the real-time image display area.

なお、監視者は、転倒時画像表示領域に表示される転倒時画像によって、以下のような情報を得ることが可能である。   Note that the supervisor can obtain the following information from the fall-time image displayed in the fall-time image display area.

(1) 監視対象者がつまずいた物及びつまずきや卒倒が発生した場所
(2) 監視対象者がつまずき又は卒倒が開始してから臥位になるまでの時間(速度)
(3) 監視対象者がつまずき又は卒倒が開始してから臥位になるまでに、居室に設けられた物などに打ち付けられた体の部位
(4) 監視対象者が臥位となった際に、床などに打ち付けられた体の部位
(5) 監視対象者が臥位となった際における姿勢
また、監視者は、転倒後画像表示領域に表示される転倒後画像によって、以下のような情報を得ることが可能である。
(1) Things that the monitoring subject stumbles and the place where the trip or collapse occurred (2) Time (speed) from when the monitoring subject starts to stumble or fall into the decubitus
(3) The part of the body that was struck against an object, etc., placed in the living room after the person to be monitored stumbled or started to fall down and became supine (4) When the person to be monitored became supine The body part struck against the floor, etc. (5) The posture when the person to be monitored is placed in the prone position. Also, the observer uses the post-fall image displayed in the post-fall image display area to provide the following information: It is possible to obtain

(1) 監視対象者の動きの有無
(2) 監視対象者が立ち上がろうとしているか否か
(3) 監視対象者が出血しているか否か
(転倒検出システムの動作)
以下において、第1実施形態に係る転倒検出システムの動作について、図面を参照しながら説明する。図5は、第1実施形態に係る転倒検出システムの動作を示すシーケンス図である。
(1) Presence or absence of movement of monitored person (2) Whether monitored person is going to stand up (3) Whether monitored person is bleeding (operation of fall detection system)
Hereinafter, the operation of the fall detection system according to the first embodiment will be described with reference to the drawings. FIG. 5 is a sequence diagram showing the operation of the fall detection system according to the first embodiment.

図5に示すように、ステップ10において、監視対象者側システム100は、監視対象者を含む撮像画像を取得する。   As shown in FIG. 5, in step 10, the monitoring subject side system 100 acquires a captured image including the monitoring subject.

ステップ20において、監視対象者側システム100は、監視対象者を含む撮像画像を監視者側端末200に送信する。なお、監視対象者側システム100は、撮像画像を継続的に監視者側端末200に送信し続ける。   In step 20, the monitoring subject side system 100 transmits a captured image including the monitoring subject person to the supervisor side terminal 200. Note that the monitoring subject-side system 100 continuously transmits captured images to the monitoring-side terminal 200.

ステップ30において、監視者側端末200は、監視対象者を含む撮像画像を画像格納部220に記憶する。続いて、監視者側端末200は、現在時刻における撮像画像である現在画像(リアルタイム画像)をリアルタイム画像表示領域に表示する。   In step 30, the supervisor-side terminal 200 stores the captured image including the monitoring subject in the image storage unit 220. Subsequently, the supervisor-side terminal 200 displays a current image (real-time image) that is a captured image at the current time in the real-time image display area.

ステップ40において、監視対象者側システム100は、監視対象者の動作検出を開始する。例えば、監視対象者側システム100は、監視対象者側システム100は、Lx/Ly≧0.7又はLz/Ly≧0.7である状態が5フレーム又は1sec継続した場合に、監視対象者の動作検出を開始すると判定する。   In step 40, the monitoring subject side system 100 starts detecting the monitoring subject's motion. For example, the monitoring target person side system 100 determines that the monitoring target person side system 100 determines that the monitoring target person side system 100 is in a state where Lx / Ly ≧ 0.7 or Lz / Ly ≧ 0.7 continues for five frames or one second. It is determined that motion detection is started.

ステップ50において、監視対象者側システム100は、監視対象者の動作検出を終了する。例えば、監視対象者側システム100は、Lx/Ly<0.7かつLz/Ly<0.7である状態が7フレーム又は1.4sec継続した場合に、監視対象者の動作検出を終了すると判定する。   In step 50, the monitoring subject person side system 100 complete | finishes the monitoring subject's operation | movement detection. For example, the monitoring target person side system 100 determines to end the monitoring target person's motion detection when the state of Lx / Ly <0.7 and Lz / Ly <0.7 continues for 7 frames or 1.4 seconds. To do.

ステップ60において、監視対象者側システム100は、監視対象者の動作検出を開始してから監視対象者の動作検出を終了するまでに取得した時系列の動作データに基づいて、監視対象者の動作を判定する。具体的には、監視対象者側システム100は、隠れマルコフモデルを参照して、時系列の動作データに対して最も高い尤度を出力した動作モデルが転倒モデルである場合に、監視対象者が転倒したと判定する。   In step 60, the monitoring target person side system 100 performs the monitoring target person's operation based on the time-series operation data acquired from the start of the monitoring target person's motion detection to the end of the monitoring target person's motion detection. Determine. Specifically, the monitoring target person side system 100 refers to the hidden Markov model, and when the motion model that outputs the highest likelihood with respect to time-series motion data is the fall model, Determined to have fallen.

なお、以下においては、監視対象者が転倒したとステップ60で判定されたものとして説明を続ける。   In the following, the description will be continued assuming that it is determined in step 60 that the monitoring subject has fallen.

ステップ70において、監視対象者側システム100は、監視対象者の転倒が検出されたことを示す通知情報を監視者側端末200に送信する。ここでは、通知情報は、監視対象者の動作検出が開始した時刻を監視対象者の転倒が検出された時刻として含み、監視対象者の動作検出が終了した時刻を監視対象者の転倒からの回復が検出された時刻として含むものとする。   In Step 70, the monitoring target person side system 100 transmits notification information indicating that the monitoring target person has fallen to the monitoring person side terminal 200. Here, the notification information includes the time when the monitoring target person's motion detection started as the time when the monitoring target person's fall was detected, and the time when the monitoring target person's motion detection ended was recovered from the fall of the monitoring target person It is assumed to be included as the time when is detected.

ステップ80において、監視者側端末200は、監視対象者の転倒が検出されたことを示すアラーム情報を表示するとともに、画像格納部220に格納された撮像画像を用いて転倒時画像及び転倒後画像の表示を開始する。   In step 80, the supervisor-side terminal 200 displays alarm information indicating that the monitoring subject's fall has been detected, and uses the captured image stored in the image storage unit 220 and the fall-time image and the post-fall image. Start displaying.

ここで、監視者側端末200は、検出タイミングよりもX時間(第1時間)前から、検出タイミングのY時間(第2時間)後までにおける転倒時画像を表示する。また、監視者側端末200は、検出タイミングのY時間(第3時間)後から回復タイミングまでにおける転倒後画像を表示する。   Here, the supervisor-side terminal 200 displays the fall-time image from X time (first time) before the detection timing to Y time (second time) after the detection timing. Further, the supervisor-side terminal 200 displays the after-falling image from the time Y after the detection timing (third time) to the recovery timing.

(表示装置の動作)
以下において、第1実施形態に係る表示装置の動作について、図面を参照しながら説明する。図6は、第1実施形態に係る監視者側端末200(表示装置)の動作を示すフロー図である。
(Operation of display device)
Hereinafter, the operation of the display device according to the first embodiment will be described with reference to the drawings. FIG. 6 is a flowchart showing the operation of the supervisor side terminal 200 (display device) according to the first embodiment.

図6に示すように、ステップ110において、監視者側端末200は、監視対象者を含む撮像画像を監視対象者側システム100から受信する。   As shown in FIG. 6, in step 110, the supervisor-side terminal 200 receives a captured image including the monitoring subject from the monitoring subject-side system 100.

ステップ120において、監視者側端末200は、監視対象者を含む撮像画像を画像格納部220に記憶する。   In step 120, the supervisor side terminal 200 stores the captured image including the monitoring subject in the image storage unit 220.

ステップ130において、監視者側端末200は、リアルタイム画像表示領域において現在画像(リアルタイム画像)の表示を開始する。   In step 130, the supervisor-side terminal 200 starts displaying the current image (real-time image) in the real-time image display area.

ステップ140において、監視者側端末200は、監視対象者の転倒が検出されたことを示す通知情報を受信したか否かを判定する。監視者側端末200は、通知情報を受信した場合にはステップ150の処理に移る。   In step 140, the supervisor-side terminal 200 determines whether or not notification information indicating that the monitoring subject has fallen has been received. When the monitoring terminal 200 receives the notification information, the monitoring terminal 200 proceeds to the process of step 150.

ステップ150において、監視者側端末200は、監視対象者の転倒が検出されたことを示すアラーム情報をアラーム情報表示領域に表示する。   In step 150, the supervisor-side terminal 200 displays alarm information indicating that the monitoring subject has fallen in the alarm information display area.

ステップ160において、監視者側端末200は、画像格納部220に記憶された撮像画像を用いて、転倒時画像表示領域において転倒時画像を表示する。なお、転倒時画像の範囲は、検出タイミングよりもX時間(第1時間)前から、検出タイミングのY時間(第2時間)後までである。   In step 160, the supervisor-side terminal 200 displays the fall-time image in the fall-time image display area using the captured image stored in the image storage unit 220. The range of the image at the time of falling is from X hours (first time) before the detection timing to Y hours (second time) after the detection timing.

ステップ170において、監視者側端末200は、転倒後画像表示領域において転倒後画像の表示を開始する。なお、転倒後画像の範囲は、検出タイミングよりもY時間(第3時間)後から回復タイミングまでである。   In step 170, the supervisor-side terminal 200 starts displaying the after-falling image in the after-falling image display area. The range of the image after the fall is from the time Y after the third detection time to the recovery timing.

(作用及び効果)
第1実施形態では、表示制御部230は、転倒時画像に加えて、転倒後画像を表示する。従って、転倒時点から所定時間が経過した場合であっても、監視者は、監視対象者の転倒後の状況を転倒後画像によって把握することができる。
(Function and effect)
In the first embodiment, the display control unit 230 displays the image after the fall in addition to the image at the fall. Therefore, even when a predetermined time has elapsed from the time of the fall, the monitor can grasp the situation after the fall of the monitoring target person from the image after the fall.

また、転倒時画像の第1フレーム間隔は、転倒後画像の第2フレーム間隔よりも短いため、監視対象者の転倒時の状況、監視対象者の転倒後の状況を監視者に適切に伝達することができる。   In addition, since the first frame interval of the image at the time of the fall is shorter than the second frame interval of the image after the fall, the situation when the monitoring subject falls and the situation after the fall of the monitoring subject are appropriately transmitted to the supervisor. be able to.

第1実施形態では、転倒時画像の範囲は、検出タイミングよりもX時間(第1時間)前から、検出タイミングのY時間(第2時間)後までである。従って、監視者は、監視対象者の転倒時の状況を転倒時画像によって十分に把握することができる。   In the first embodiment, the range of the image at the time of falling is from X hours (first time) before the detection timing to Y hours (second time) after the detection timing. Therefore, the supervisor can fully grasp the situation at the time of the fall of the monitoring subject by the image at the time of the fall.

第1実施形態では、転倒後画像の範囲は、検出タイミングよりもY時間(第3時間)後から回復タイミングまでである。従って、監視者は、監視対象者の転倒後の状況を転倒後画像によって十分に把握することができる。   In the first embodiment, the range of the after-falling image is from Y time (third time) after the detection timing to the recovery timing. Therefore, the supervisor can fully grasp the situation after the fall of the monitoring subject by the image after the fall.

第1実施形態では、転倒時画像を構成する複数のフレームが転倒時画像表示領域に同時に表示され、転倒後画像を構成する複数のフレームが転倒後画像表示領域に同時に表示される。従って、監視者は、監視対象者の転倒時の状況及び監視対象者の転倒後の状況を同時に見比べることができる。   In the first embodiment, a plurality of frames constituting the fall-time image are simultaneously displayed in the fall-time image display area, and a plurality of frames constituting the after-fall image are simultaneously displayed in the after-fall image display area. Therefore, the supervisor can simultaneously compare the situation when the monitoring subject falls and the situation after the supervisor falls.

第1実施形態では、現在時刻における現在画像(リアルタイム画像)がリアルタイム画像表示領域に表示される。従って、監視者は、監視対象者の状況をさらに詳細に把握することができる。   In the first embodiment, the current image (real-time image) at the current time is displayed in the real-time image display area. Therefore, the supervisor can grasp the situation of the person to be monitored in more detail.

[第2実施形態]
以下において、第2実施形態について図面を参照しながら説明する。以下においては、上述した第1実施形態と第2実施形態との相違点について主として説明する。
[Second Embodiment]
The second embodiment will be described below with reference to the drawings. In the following, differences between the first embodiment and the second embodiment described above will be mainly described.

具体的には、上述した第1実施形態では、転倒時画像表示領域及び転倒後画像表示領域は、複数のフレームを表示するように構成されている。これに対して、第2実施形態では、転倒時画像表示領域及び転倒後画像表示領域は、単数のフレームを表示するように構成されている。   Specifically, in the first embodiment described above, the image display area at the time of fall and the image display area after the fall are configured to display a plurality of frames. In contrast, in the second embodiment, the image display area at the time of the fall and the image display area after the fall are configured to display a single frame.

(表示領域の構成)
以下において、第2実施形態に係る表示領域の構成について、図面を参照しながら説明する。図7は、第2実施形態に係るディスプレイ240に設けられた表示領域の構成を示す図である。
(Configuration of display area)
The configuration of the display area according to the second embodiment will be described below with reference to the drawings. FIG. 7 is a diagram illustrating a configuration of a display area provided in the display 240 according to the second embodiment.

図7に示すように、転倒時画像表示領域は、単数のフレームを表示するように構成されている。表示制御部230は、転倒時画像表示領域において、転倒時画像を構成する単数のフレームを時系列順に切り替えて表示する(コマ送り)。   As shown in FIG. 7, the fall-time image display area is configured to display a single frame. The display control unit 230 switches and displays a single frame constituting the fall-time image in chronological order in the fall-time image display area (frame advance).

転倒後画像表示領域は、単数のフレームを表示するように構成されている。表示制御部230は、転倒後画像表示領域において、転倒後画像を構成する単数のフレームを時系列順に切り替えて表示する(コマ送り)。   The after-falling image display area is configured to display a single frame. The display control unit 230 switches and displays a single frame constituting the after-falling image in time-series order in the after-falling image display area (frame advance).

なお、転倒時画像のフレーム間隔(第1フレーム間隔)は、第1実施形態と同様に、転倒後画像のフレーム間隔(第2フレーム間隔)よりも短く設定されていることに留意すべきである。   It should be noted that the frame interval (first frame interval) of the image at the time of the fall is set shorter than the frame interval (second frame interval) of the image after the fall, as in the first embodiment. .

(作用及び効果)
第2実施形態では、転倒時画像を構成する単数のフレームが転倒時画像表示領域に時系列順に切り替えられて表示され、転倒後画像を構成する単数のフレームが転倒後画像表示領域に時系列順に切り替えられて表示される。従って、第1実施形態よりも、1つのフレームに割り当て可能な表示面積を大きくすることができ、監視者は、転倒時画像及び転倒後画像を見やすい。
(Function and effect)
In the second embodiment, a single frame constituting the fall-time image is switched and displayed in the time-sequential image display area, and a single frame constituting the post-fall image is displayed in the time-sequential order in the post-fall image display area. Switched and displayed. Therefore, the display area that can be assigned to one frame can be increased as compared with the first embodiment, and the monitor can easily view the fall-time image and the after-fall image.

[第3実施形態]
以下において、第3実施形態について図面を参照しながら説明する。以下においては、上述した第1実施形態と第3実施形態との相違点について主として説明する。
[Third Embodiment]
Hereinafter, a third embodiment will be described with reference to the drawings. In the following, differences between the first embodiment and the third embodiment described above will be mainly described.

具体的には、上述した第1実施形態では特に触れていないが、第3実施形態では、転倒時画像を構成するフレームのオプティカルフローが転倒時画像表示領域に表示される。一方で、転倒後画像を構成する対象フレームと転倒後画像を構成する参照フレームとの差分情報に基づいて、対象フレームから抽出された動き領域が転倒後画像表示領域に表示される。   Specifically, although not particularly mentioned in the first embodiment described above, in the third embodiment, the optical flow of the frames constituting the fall-time image is displayed in the fall-time image display area. On the other hand, based on the difference information between the target frame constituting the post-fall image and the reference frame constituting the post-fall image, the motion area extracted from the target frame is displayed in the post-fall image display area.

(表示装置の構成)
以下において、第3実施形態に係る表示装置の構成について、図面を参照しながら説明する。図8は、第3実施形態に係る監視者側端末200(表示装置)の構成を示すブロック図である。
(Configuration of display device)
The configuration of the display device according to the third embodiment will be described below with reference to the drawings. FIG. 8 is a block diagram showing a configuration of the supervisor-side terminal 200 (display device) according to the third embodiment.

図8に示すように、監視者側端末200は、図1に示した構成に加えて、オプティカルフロー算出部250と、フレーム間差分算出部260とを有する。   As shown in FIG. 8, the supervisor-side terminal 200 includes an optical flow calculation unit 250 and an inter-frame difference calculation unit 260 in addition to the configuration shown in FIG.

オプティカルフロー算出部250は、転倒時画像を構成するフレームのオプティカルフローを算出する。オプティカルフローの算出方法としては、ブロックマッチング法や勾配法などが挙げられる。   The optical flow calculation unit 250 calculates the optical flow of the frames constituting the fall-down image. Examples of the optical flow calculation method include a block matching method and a gradient method.

フレーム間差分算出部260は、転倒後画像を構成するフレーム間の差分情報を算出する。例えば、フレーム間差分算出部260は、対象フレームと参照フレームとの差分を画素単位で取得した上で、画素単位で取得した差分を二値化する。続いて、フレーム間差分算出部260は、二値化された差分に対して収縮膨張処理を施した上で、対象フレームと参照フレームとの差分情報(差分領域)を動き領域として算出する。   The inter-frame difference calculation unit 260 calculates difference information between frames constituting the after-falling image. For example, the inter-frame difference calculation unit 260 acquires the difference between the target frame and the reference frame in units of pixels, and binarizes the difference acquired in units of pixels. Subsequently, the inter-frame difference calculation unit 260 performs the contraction / expansion process on the binarized difference, and calculates difference information (difference area) between the target frame and the reference frame as a motion area.

表示制御部230は、図9に示すように、オプティカルフロー算出部250によって算出されたオプティカルフローを転倒時画像表示領域に表示する。表示制御部230は、転倒時画像とともにオプティカルフローを表示することが好ましい。   As shown in FIG. 9, the display control unit 230 displays the optical flow calculated by the optical flow calculation unit 250 in the image display area at the time of falling. It is preferable that the display control unit 230 displays the optical flow together with the overturned image.

なお、表示制御部230は、フロー長が所定閾値を超えるオプティカルフローのみを表示してもよく、フロー長が最大であるオプティカルフローのみを表示してもよい。   The display control unit 230 may display only an optical flow whose flow length exceeds a predetermined threshold, or may display only an optical flow having the maximum flow length.

一方で、表示制御部230は、転倒後画像を構成する対象フレームから、フレーム間差分算出部260によって算出された差分領域を抽出する。続いて、表示制御部230は、図9に示すように、対象フレームから抽出された差分領域である動き領域を転倒後画像として転倒後画像表示領域に表示する。   On the other hand, the display control unit 230 extracts the difference area calculated by the inter-frame difference calculation unit 260 from the target frame constituting the after-falling image. Subsequently, as illustrated in FIG. 9, the display control unit 230 displays a motion area, which is a difference area extracted from the target frame, as a post-fall image in the post-fall image display area.

なお、表示制御部230は、面積が所定閾値を超える動き領域のみを表示してもよく、面積が最大である動き領域のみを表示してもよい。   Note that the display control unit 230 may display only a motion region whose area exceeds a predetermined threshold, or may display only a motion region whose area is maximum.

(作用及び効果)
第3実施形態では、単位時間における監視対象者の動きが大きいと想定される転倒時画像について、転倒時画像表示領域にオプティカルフローが表示される。従って、監視者は、監視対象者の転倒速度を容易に把握することができる。
(Function and effect)
In the third embodiment, an optical flow is displayed in the fall-time image display area for an fall-time image that is assumed to have a large movement of the monitoring subject in a unit time. Therefore, the monitoring person can easily grasp the falling speed of the monitoring target person.

第3実施形態では、単位時間における監視対象者の動きが小さいと想定される転倒後画像について、フレーム間の差分情報に基づいて対象フレームから抽出された動き領域が転倒後画像表示領域に表示される。従って、監視者は、監視対象者が転倒後に動けずにいるか否かを容易に把握することができる。   In the third embodiment, for a post-fall image that is assumed to have a small movement of the monitoring subject in a unit time, a motion area extracted from the target frame based on difference information between frames is displayed in the post-fall image display area. The Therefore, the monitoring person can easily grasp whether or not the monitoring target person cannot move after the fall.

[第4実施形態]
以下において、第1実施形態について図面を参照しながら説明する。以下においては、上述した第1実施形態と第4実施形態との相違点について主として説明する。
[Fourth Embodiment]
Hereinafter, a first embodiment will be described with reference to the drawings. In the following, differences between the first embodiment and the fourth embodiment described above will be mainly described.

具体的には、上述した第1実施形態では特に触れていないが、第4実施形態では、表示制御部230は、転倒時画像を構成するフレームのオプティカルフロー又は転倒後画像を構成するフレーム間の差分情報(差分領域)に応じて、アラーム情報の表示方法を変更する。   Specifically, although not particularly mentioned in the first embodiment described above, in the fourth embodiment, the display control unit 230 causes the optical flow of the frames constituting the image at the time of the fall or between the frames constituting the image after the fall. The alarm information display method is changed according to the difference information (difference area).

なお、監視者側端末200は、第3実施形態と同様に、オプティカルフロー算出部250及びフレーム間差分算出部260を有するものとする。   Note that the supervisor-side terminal 200 includes an optical flow calculation unit 250 and an inter-frame difference calculation unit 260 as in the third embodiment.

具体的には、表示制御部230は、フロー長が最大であるオプティカルフローが所定閾値よりも小さい場合には、緊急度が低い色(例えば、青色)でアラーム情報を表示する。一方で、表示制御部230は、フロー長が最大であるオプティカルフローが所定閾値よりも大きい場合には、緊急度が高い色(例えば、赤色)でアラーム情報を表示する。   Specifically, when the optical flow having the maximum flow length is smaller than a predetermined threshold, the display control unit 230 displays alarm information in a color with a low urgency (for example, blue). On the other hand, when the optical flow having the maximum flow length is larger than the predetermined threshold, the display control unit 230 displays alarm information in a color with a high degree of urgency (for example, red).

なお、緊急度とは、監視者に対して監視対象者の動作がどの程度緊急な対処が必要かを示す度合いである。   The urgency level is a degree indicating how urgent the action of the monitoring target person is necessary for the monitoring person.

ここで、オプティカルフローが大きいケースでは、監視対象者の転倒速度が大きいと考えられる。従って、オプティカルフローが大きいケースでは、緊急度が高いと考えられる。   Here, in the case where the optical flow is large, it is considered that the fall speed of the monitoring subject is large. Therefore, it is considered that the degree of urgency is high when the optical flow is large.

表示制御部230は、面積が最大である差分領域が所定閾値よりも大きい場合には、緊急度が低い色(例えば、青色)でアラーム情報を表示する。一方で、表示制御部230は、面積が最大である差分領域が所定閾値よりも小さい場合には、緊急度が高い色(例えば、赤色)でアラーム情報を表示する。   The display control unit 230 displays the alarm information in a color with a low degree of urgency (for example, blue) when the difference area having the maximum area is larger than a predetermined threshold. On the other hand, the display control unit 230 displays alarm information in a color with a high degree of urgency (for example, red) when the difference area having the maximum area is smaller than a predetermined threshold.

ここで、差分領域が小さいケースでは、監視対象者が転倒後に動けないでいる可能性が高いと考えられる。従って、差分領域が小さいケースでは、緊急度が高いと考えられる。   Here, in a case where the difference area is small, it is considered that there is a high possibility that the monitoring target person cannot move after the fall. Therefore, it is considered that the degree of urgency is high in the case where the difference area is small.

なお、表示制御部230は、オプティカルフローのフロー長及び差分領域の面積の双方を考慮して、アラーム情報の表示方法を変更してもよい。アラーム情報の表示方法は、アラーム情報の色だけではなくて、アラーム情報の文字の大きさ、アラーム情報の点滅の有無、アラーム情報の点滅間隔、アラーム情報に対応する音声の有無、撮像画像のズームの有無などによって変更されてもよい。   The display control unit 230 may change the alarm information display method in consideration of both the flow length of the optical flow and the area of the difference area. The alarm information display method is not only the color of the alarm information, but also the size of the characters in the alarm information, the presence or absence of blinking of the alarm information, the blinking interval of the alarm information, the presence or absence of sound corresponding to the alarm information, the zoom of the captured image It may be changed depending on the presence or absence.

(作用及び効果)
第4実施形態では、オプティカルフロー又はフレーム間の差分情報に応じて、アラーム情報の表示方法が変更される。従って、監視者は、緊急度を容易に把握することができる。
(Function and effect)
In the fourth embodiment, the alarm information display method is changed according to optical flow or difference information between frames. Therefore, the supervisor can easily grasp the urgency level.

[その他の実施形態]
本発明は上述した実施形態によって説明したが、この開示の一部をなす論述及び図面は、この発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施形態、実施例及び運用技術が明らかとなろう。
[Other Embodiments]
Although the present invention has been described with reference to the above-described embodiments, it should not be understood that the descriptions and drawings constituting a part of this disclosure limit the present invention. From this disclosure, various alternative embodiments, examples and operational techniques will be apparent to those skilled in the art.

例えば、上述した実施形態では、転倒時画像の範囲は、検出タイミングよりもX時間前から、検出タイミングのY時間後までであるが、これに限定されるものではない。転倒時画像の範囲は、検出タイミングよりもX時間前から検出タイミングまでであってもよい。   For example, in the above-described embodiment, the range of the image at the time of falling is from X hours before the detection timing to Y hours after the detection timing, but is not limited thereto. The range of the image at the time of falling may be from X hours before the detection timing to the detection timing.

同様に、転倒後画像の範囲は、検出タイミングのY時間後から回復タイミングまでであるが、これに限定されるものではない。転倒後画像の範囲は、検出タイミングから回復タイミングまでであってもよい。   Similarly, the range of the after-falling image is from the time Y after the detection timing to the recovery timing, but is not limited to this. The range of the image after the fall may be from the detection timing to the recovery timing.

上述した実施形態では、第2時間及び第3時間がともにY時間であり、転倒時画像の範囲は転倒後画像の範囲と重複していないが、これに限定されるものではない。転倒時画像の範囲は転倒後画像の範囲と重複していてもよい。   In the embodiment described above, both the second time and the third time are the Y time, and the range of the image at the time of the fall does not overlap with the range of the image after the fall, but is not limited to this. The range of the image at the time of the fall may overlap with the range of the image after the fall.

上述した実施形態では、監視対象者の転倒の検出は、監視対象者側システム100によって行われるが、これに限定されるものではない。監視対象者の転倒の検出は、監視者側端末200で行われてもよい。このようなケースでは、監視対象者側システム100は、監視者側端末200に撮像画像を単に送信するだけでよく、監視者側端末200は、入力データ処理部120〜出力データ処理部150を有している。   In the embodiment described above, the monitoring target person's fall detection is performed by the monitoring target person side system 100, but is not limited to this. The detection of the fall of the monitoring subject may be performed by the supervisor side terminal 200. In such a case, the monitoring subject side system 100 may simply transmit the captured image to the supervisor side terminal 200, and the supervisor side terminal 200 includes the input data processing unit 120 to the output data processing unit 150. is doing.

上述した実施形態では、転倒時画像に対応するオプティカルフローが転倒時画像表示領域に表示されるが、これに限定されるものではない。転倒後画像に対応するオプティカルフローが転倒後画像表示領域に表示されてもよい。   In the above-described embodiment, the optical flow corresponding to the image at the time of falling is displayed in the image display area at the time of falling, but the present invention is not limited to this. An optical flow corresponding to the after-falling image may be displayed in the after-falling image display area.

同様に、転倒後画像に対応するフレーム間の差分情報が転倒後画像表示領域に表示されるが、これに限定されるものではない。転倒時画像に対応するフレーム間の差分情報が転倒時画像表示領域に表示されてもよい。   Similarly, the difference information between frames corresponding to the after-falling image is displayed in the after-falling image display area, but is not limited thereto. The difference information between the frames corresponding to the fall-time image may be displayed in the fall-time image display area.

上述した実施形態では、現在画像がリアルタイム画像表示領域に表示されるが、これに限定されるものではない。プライバシー保護の観点から、現在画像が表示されなくてもよい。また、現在画像を閲覧するためにパスワードが必要であってもよい。   In the above-described embodiment, the current image is displayed in the real-time image display area, but the present invention is not limited to this. From the viewpoint of privacy protection, the current image may not be displayed. Also, a password may be required to view the current image.

上述した第1実施形態と第2実施形態とを組み合わせてもよい。具体的には、転倒時画像表示領域が、単数のフレームを表示するように構成されており、転倒後画像表示領域が、複数のフレームを表示するように構成されていてもよい。逆に、転倒時画像表示領域が、複数のフレームを表示するように構成されており、転倒後画像表示領域が、単数のフレームを表示するように構成されていてもよい。   The first embodiment and the second embodiment described above may be combined. Specifically, the fall-time image display area may be configured to display a single frame, and the after-fall image display area may be configured to display a plurality of frames. Conversely, the image display area at the time of the fall may be configured to display a plurality of frames, and the image display area after the fall may be configured to display a single frame.

上述した実施形態では特に触れていないが、監視者側端末200(表示装置)の動作は、図6に示すフローを実現するプログラム(表示プログラム)として提供されてもよい。   Although not particularly mentioned in the above-described embodiment, the operation of the supervisor-side terminal 200 (display device) may be provided as a program (display program) that realizes the flow shown in FIG.

第1実施形態に係る転倒検出システムの構成を示す図である。It is a figure which shows the structure of the fall detection system which concerns on 1st Embodiment. 第1実施形態に係る監視対象者の姿勢及び動作判定について説明するための図である。It is a figure for demonstrating the attitude | position and motion determination of the monitoring subject which concern on 1st Embodiment. 第1実施形態に係る転倒時画像及び転倒後画像を説明するための図である。It is a figure for demonstrating the image at the time of a fall and the image after a fall which concerns on 1st Embodiment. 第1実施形態に係るディスプレイ240に設けられた表示領域の構成を示す図である。It is a figure which shows the structure of the display area provided in the display 240 which concerns on 1st Embodiment. 第1実施形態に係る転倒検出システムの動作を示すシーケンス図である。It is a sequence diagram which shows operation | movement of the fall detection system which concerns on 1st Embodiment. 第1実施形態に係る監視者側端末200(表示装置)の動作を示すフロー図である。It is a flowchart which shows operation | movement of the supervisor side terminal 200 (display apparatus) which concerns on 1st Embodiment. 第2実施形態に係るディスプレイ240に設けられた表示領域の構成を示す図である。It is a figure which shows the structure of the display area provided in the display 240 which concerns on 2nd Embodiment. 第3実施形態に係る監視者側端末200(表示装置)の構成を示すブロック図である。It is a block diagram which shows the structure of the supervisor side terminal 200 (display apparatus) which concerns on 3rd Embodiment. 第3実施形態に係るディスプレイ240に設けられた表示領域の構成を示す図である。It is a figure which shows the structure of the display area provided in the display 240 which concerns on 3rd Embodiment.

符号の説明Explanation of symbols

100・・・監視対象者側システム、110・・・撮像部、120・・・入力データ処理部、130・・・判定基準格納部、140・・・判定部、150・・・出力データ処理部、160・・・通信部、200・・・監視者側端末、210・・・通信部、220・・・画像格納部、230・・・表示制御部、240・・・ディスプレイ、250・・・オプティカルフロー算出部、260・・・フレーム間差分算出部   DESCRIPTION OF SYMBOLS 100 ... Monitored person side system, 110 ... Imaging part, 120 ... Input data processing part, 130 ... Determination criteria storage part, 140 ... Determination part, 150 ... Output data processing part , 160 ... communication unit, 200 ... supervisor side terminal, 210 ... communication unit, 220 ... image storage unit, 230 ... display control unit, 240 ... display, 250 ... Optical flow calculation unit, 260 ... inter-frame difference calculation unit

Claims (9)

監視対象者を含む撮像画像を取得して、前記撮像画像を監視者に提供する表示装置であって、
前記監視対象者の転倒が検出されたことを示す通知情報を取得する取得部と、
前記監視対象者の転倒が検出されたタイミングである検出タイミング前における前記撮像画像を少なくとも含む転倒時画像を表示領域内に表示するとともに、前記検出タイミング後における前記撮像画像を少なくとも含む転倒後画像を前記表示領域内に表示する表示制御部と、
前記撮像画像を構成する複数のフレームから前記転倒時画像を抽出する転倒時画像抽出部と、
前記撮像画像を構成する複数のフレームから前記転倒後画像を抽出する転倒後画像抽出部とを備え、
前記転倒時画像抽出部によって抽出された前記転倒時画像のフレームの間隔である第1フレーム間隔は、前記転倒後画像抽出部によって抽出された前記転倒後画像のフレームの間隔である第2フレーム間隔よりも短いことを特徴とする表示装置。
A display device that obtains a captured image including a monitoring target person and provides the captured image to the monitoring person,
An acquisition unit that acquires notification information indicating that the monitoring subject's fall has been detected;
A fall-time image including at least the captured image before the detection timing, which is a timing at which the monitoring subject's fall is detected, is displayed in a display area, and an after-fall image including at least the captured image after the detection timing is displayed. A display controller for displaying in the display area;
A fall-time image extraction unit that extracts the fall-time image from a plurality of frames constituting the captured image;
An after-falling image extraction unit that extracts the after-falling image from a plurality of frames constituting the captured image;
The first frame interval that is the frame interval of the image at the time of the fall extracted by the image extraction unit at the time of fall is the second frame interval that is the interval of the frames of the image after the fall extracted by the image extraction unit after the fall A display device characterized by being shorter than that.
前記転倒時画像は、前記検出タイミングよりも第1時間前から、前記検出タイミングの第2時間後までにおける前記撮像画像であることを特徴とする請求項1に記載の表示装置。   2. The display device according to claim 1, wherein the overturning image is the captured image from a first time before the detection timing to a second time after the detection timing. 前記転倒後画像は、前記検出タイミングの第3時間後から、前記監視対象者の転倒からの回復が検出されたタイミングである回復タイミングまでにおける前記撮像画像であることを特徴とする請求項1又は請求項2に記載の表示装置。   The after-fall image is the captured image from a third time after the detection timing to a recovery timing that is a timing at which recovery from the fall of the monitoring subject is detected. The display device according to claim 2. 前記表示領域は、前記転倒時画像が表示される第1表示領域と、前記転倒後画像が表示される第2表示領域とを含み、
前記第1表示領域は、前記転倒時画像を構成する単数のフレームを表示するように構成されており、又は、前記第2表示領域は、前記転倒後画像を構成する単数のフレームを表示するように構成されており、
前記表示制御部は、前記第1表示領域において、前記転倒時画像を構成する単数のフレームを時系列順に切り替えて表示し、又は、前記第2表示領域において、前記転倒後画像を構成する単数のフレームを時系列順に切り替えて表示することを特徴とする請求項1乃至請求項3のいずれかに記載の表示装置。
The display area includes a first display area in which the image at the time of the fall is displayed, and a second display area in which the image after the fall is displayed,
The first display area is configured to display a single frame constituting the image at the time of the fall, or the second display area is configured to display a single frame constituting the image after the fall. Is composed of
In the first display area, the display control unit switches and displays a single frame constituting the fall-time image in chronological order, or a single frame constituting the post-fall image in the second display area. The display device according to any one of claims 1 to 3, wherein the frames are switched and displayed in chronological order.
前記表示領域は、前記転倒時画像が表示される第1表示領域と、前記転倒後画像が表示される第2表示領域とを含み、
前記第1表示領域は、前記転倒時画像を構成する複数のフレームを表示するように構成されており、又は、前記第2表示領域は、前記転倒後画像を構成する複数のフレームを表示するように構成されており、
前記表示制御部は、前記第1表示領域において、前記転倒時画像を構成する複数のフレームを同時に時系列順に表示し、又は、前記第2表示領域において、前記転倒後画像を構成する複数のフレームを同時に時系列順に表示することを特徴とする請求項1乃至請求項3のいずれかに記載の表示装置。
The display area includes a first display area in which the image at the time of the fall is displayed, and a second display area in which the image after the fall is displayed,
The first display area is configured to display a plurality of frames constituting the fall-time image, or the second display area is configured to display a plurality of frames constituting the post-fall image. Is composed of
The display control unit simultaneously displays a plurality of frames constituting the fall-time image in time series in the first display area, or a plurality of frames constituting the post-fall image in the second display area. The display device according to claim 1, wherein the display devices are simultaneously displayed in chronological order.
前記表示制御部は、前記転倒時画像を構成するフレームのオプティカルフローを前記表示領域内に表示することを特徴とする請求項1に記載の表示装置。   The display device according to claim 1, wherein the display control unit displays an optical flow of a frame constituting the fall-time image in the display area. 前記表示制御部は、前記転倒後画像を構成する対象フレームと前記転倒後画像を構成する参照フレームとの差分情報に基づいて、前記対象フレームから抽出された動き領域を前記表示領域内に表示することを特徴とする請求項1に記載の表示装置。   The display control unit displays a motion area extracted from the target frame in the display area based on difference information between a target frame constituting the post-fall image and a reference frame constituting the post-fall image. The display device according to claim 1. 前記表示制御部は、
前記転倒時画像及び前記転倒後画像に加えて、現在時刻における前記撮像画像を前記表示領域内に表示し、
前記通知情報の取得に応じて、前記監視対象者の転倒を報知するアラーム情報を前記表示領域内に表示し、
前記転倒時画像を構成するフレームのオプティカルフロー、又は、前記転倒後画像を構成するフレーム間の差分情報に応じて、前記アラーム情報の表示方法を変更することを特徴とする請求項1乃至請求項7のいずれかに記載の表示装置。
The display control unit
In addition to the image at the time of the fall and the image after the fall, the captured image at the current time is displayed in the display area,
In response to the acquisition of the notification information, alarm information for notifying the fall of the monitoring subject is displayed in the display area,
The display method of the alarm information is changed according to an optical flow of a frame constituting the image at the time of the fall or difference information between frames constituting the image after the fall. 8. The display device according to any one of 7.
監視対象者を含む撮像画像を取得して、前記撮像画像を監視者に提供する表示プログラムであって、コンピュータに、
前記監視対象者の転倒が検出されたことを示す通知情報を取得するステップAと、
前記監視対象者の転倒が検出されたタイミングである検出タイミング前における前記撮像画像を少なくとも含む転倒時画像を表示領域内に表示するとともに、前記検出タイミング後における前記撮像画像を少なくとも含む転倒後画像を前記表示領域内に表示するステップBと、
前記撮像画像を構成する複数のフレームから前記転倒時画像を抽出するステップCと、
前記撮像画像を構成する複数のフレームから前記転倒後画像を抽出するステップDとを実行させ、
前記ステップCで抽出された前記転倒時画像のフレームの間隔である第1フレーム間隔は、前記ステップDで抽出された前記転倒後画像のフレームの間隔である第2フレーム間隔よりも短いことを特徴とする表示プログラム。
A display program for acquiring a captured image including a monitoring target person and providing the captured image to the monitor, the computer,
Step A for obtaining notification information indicating that the monitoring subject's fall has been detected;
A fall-time image including at least the captured image before the detection timing, which is a timing at which the monitoring subject's fall is detected, is displayed in a display area, and an after-fall image including at least the captured image after the detection timing is displayed. Displaying in the display area B;
Extracting the fall-time image from a plurality of frames constituting the captured image; and
Performing the step D of extracting the post-falling image from a plurality of frames constituting the captured image;
The first frame interval that is the frame interval of the image at the time of the fall extracted in the step C is shorter than the second frame interval that is the interval of the frame of the image after the fall extracted in the step D. Display program.
JP2007196458A 2007-07-27 2007-07-27 Display device and display program Withdrawn JP2009033564A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007196458A JP2009033564A (en) 2007-07-27 2007-07-27 Display device and display program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007196458A JP2009033564A (en) 2007-07-27 2007-07-27 Display device and display program

Publications (1)

Publication Number Publication Date
JP2009033564A true JP2009033564A (en) 2009-02-12

Family

ID=40403553

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007196458A Withdrawn JP2009033564A (en) 2007-07-27 2007-07-27 Display device and display program

Country Status (1)

Country Link
JP (1) JP2009033564A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014106636A (en) * 2012-11-26 2014-06-09 Paramount Bed Co Ltd Watching support device
WO2015093330A1 (en) * 2013-12-17 2015-06-25 シャープ株式会社 Recognition data transmission device
JP2016066308A (en) * 2014-09-25 2016-04-28 富士通株式会社 Method of monitoring behavior of person, behavior determination method, program of monitoring behavior of person, behavior determination program and information processor
JP2017163379A (en) * 2016-03-10 2017-09-14 株式会社五洋電子 Wireless communication terminal
JP2020030843A (en) * 2014-04-22 2020-02-27 日本電信電話株式会社 Video generating device, method thereof, and program
JP2020071717A (en) * 2018-10-31 2020-05-07 キヤノン株式会社 Information processing device, information processing method, and program

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014106636A (en) * 2012-11-26 2014-06-09 Paramount Bed Co Ltd Watching support device
WO2015093330A1 (en) * 2013-12-17 2015-06-25 シャープ株式会社 Recognition data transmission device
US20160335861A1 (en) * 2013-12-17 2016-11-17 Sharp Kabushiki Kaisha Recognition data transmission device
JPWO2015093330A1 (en) * 2013-12-17 2017-03-16 シャープ株式会社 Recognition data transmission device, recognition data recording device, and recognition data recording method
US10699541B2 (en) 2013-12-17 2020-06-30 Sharp Kabushiki Kaisha Recognition data transmission device
JP2020030843A (en) * 2014-04-22 2020-02-27 日本電信電話株式会社 Video generating device, method thereof, and program
JP2016066308A (en) * 2014-09-25 2016-04-28 富士通株式会社 Method of monitoring behavior of person, behavior determination method, program of monitoring behavior of person, behavior determination program and information processor
JP2017163379A (en) * 2016-03-10 2017-09-14 株式会社五洋電子 Wireless communication terminal
JP2020071717A (en) * 2018-10-31 2020-05-07 キヤノン株式会社 Information processing device, information processing method, and program
JP7214437B2 (en) 2018-10-31 2023-01-30 キヤノン株式会社 Information processing device, information processing method and program

Similar Documents

Publication Publication Date Title
JP6500785B2 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM
JP6390860B2 (en) Left object monitoring device, left object monitoring system including the same, and left object monitoring method
WO2015133195A1 (en) Information processing device, information processing method, and program
JP2009033564A (en) Display device and display program
JP2004021495A (en) Monitoring system and monitoring method
JP2014123261A (en) Information processor and recording medium
JP6780641B2 (en) Image analysis device, image analysis method, and image analysis program
KR20130094489A (en) System and method for monitoring emergency motion based image
US20180082413A1 (en) Image surveillance apparatus and image surveillance method
JP6119938B2 (en) Image processing system, image processing apparatus, image processing method, and image processing program
JP2008146583A (en) Attitude detector and behavior detector
JP2018151834A (en) Lost child detection apparatus and lost child detection method
CN110648500A (en) Tumbling remote processing method and device, robot, storage medium and processing system
JP2000207665A (en) Falling detecting device
JP5701657B2 (en) Anomaly detection device
JP2017194971A (en) Monitored person monitoring device and method thereof, as well as monitored person monitoring system
JP5074067B2 (en) Suspicious object monitoring device
JP2005143016A (en) Monitoring system and monitoring method
JP5691750B2 (en) Abandoned or taken away detection system and method for detecting a leaving or removed occurrence time in the detection system
JP2008152717A (en) Apparatus for detecting fall-down state
JP6645503B2 (en) Image analysis device, image analysis method, and image analysis program
JP7062753B2 (en) Monitoring system and monitoring method
KR102544147B1 (en) Image Analysis based One Person Fall Detection System and Method
JP7095870B2 (en) Information processing equipment
JP2001224011A (en) Abnormality supervisory method and system

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20101005