JP2009033564A - Display device and display program - Google Patents
Display device and display program Download PDFInfo
- Publication number
- JP2009033564A JP2009033564A JP2007196458A JP2007196458A JP2009033564A JP 2009033564 A JP2009033564 A JP 2009033564A JP 2007196458 A JP2007196458 A JP 2007196458A JP 2007196458 A JP2007196458 A JP 2007196458A JP 2009033564 A JP2009033564 A JP 2009033564A
- Authority
- JP
- Japan
- Prior art keywords
- image
- fall
- time
- display
- display area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Abstract
Description
本発明は、監視対象者を含む撮像画像を監視者に提供する表示装置及び表示プログラムに関する。 The present invention relates to a display device and a display program that provide a captured image including a monitoring target person to the monitoring person.
従来、見守られるべき高齢者などの監視対象者の動作を見守る生活見守りシステムや監視対象者の転倒を検出する転倒検出システムなどが知られている。 2. Description of the Related Art Conventionally, there are known life monitoring systems that watch over the actions of monitoring subjects such as elderly people to be watched over, and fall detection systems that detect falls of the monitoring subjects.
これらのシステムでは、監視対象者をカメラなどによって撮像した上で、カメラなどによって撮像された撮像画像が、高齢者などを見守る監視者側の表示装置(テレビのモニタやPCのモニタなど)に送信される。監視者側の表示装置は、撮像画像が表示される表示領域を有しており、監視者は、撮像画像によって監視対象者の動作(転倒)を把握する。 In these systems, the person to be monitored is imaged by a camera or the like, and then the captured image captured by the camera or the like is transmitted to a display device (such as a TV monitor or PC monitor) on the supervisor side who watches over the elderly or the like. Is done. The display device on the monitor side has a display area in which the captured image is displayed, and the monitor grasps the operation (falling) of the monitoring target person by the captured image.
これらのシステムに適用される画像表示方法としては、何らかの異常が発生した時点よりも前の画像(過去画像)と現在時刻における画像(現在画像、すなわち、リアルタイム画像)とを表示領域内に同時に表示する方法が提案されている(例えば、特許文献1)。 As an image display method applied to these systems, an image before the time when some abnormality occurs (past image) and an image at the current time (current image, that is, a real-time image) are simultaneously displayed in the display area. A method has been proposed (for example, Patent Document 1).
これによって、監視者は、過去画像と現在画像とを比較することができ、異常が発生した状況を把握することができる。
ここで、上述した背景技術のように、単に、過去画像と現在画像とを表示領域内に同時に表示するだけでは、何らかの異常が発生した状態を正確に把握することができないケースが考えられる。 Here, as in the background art described above, there may be a case where it is not possible to accurately grasp the state where some abnormality has occurred by simply displaying the past image and the current image simultaneously in the display area.
例えば、監視対象者の転倒を検出する転倒検出システムについて考える。上述した背景技術によれば、監視者は、過去画像によって転倒時点における監視対象者の状況をある程度把握することが可能である。一方で、監視者は、現在画像によって現在時刻における監視対象者の状況をある程度把握することが可能である。 For example, consider a fall detection system that detects the fall of the person being monitored. According to the background art described above, the monitoring person can grasp the situation of the monitoring target person at the time of the fall to some extent from the past image. On the other hand, the monitoring person can grasp the monitoring target person's situation at the current time to some extent from the current image.
しかしながら、表示装置は現在画像を表示しているに過ぎないため、転倒時点から時間が経過すると、転倒後の所定時間内における監視対象者の状況(例えば、監視対象者がどのように起き上がったか、監視対象者が倒れたまま、どの程度の時間間隔で動きがないかなど)を現在画像によって把握することができない。 However, since the display device is currently only displaying an image, when the time elapses from the time of falling, the situation of the monitoring target person within a predetermined time after the falling (for example, how the monitoring target person woke up, It is not possible to grasp from the current image (how much time interval there is no movement, etc.) while the monitoring subject falls down.
そこで、本発明は、上述した課題を解決するためになされたものであり、監視対象者の転倒時の状況、監視対象者の転倒後の状況を監視者に適切に伝達することを可能とする表示装置及び表示プログラムを提供することを目的する。 Therefore, the present invention has been made to solve the above-described problems, and enables the situation of the monitoring target person to fall and the situation after the monitoring person to fall can be appropriately transmitted to the monitoring person. An object is to provide a display device and a display program.
本発明の一の特徴では、監視対象者を含む撮像画像を取得して、前記撮像画像を監視者に提供する表示装置(監視者側端末200)は、前記監視対象者の転倒が検出されたことを示す通知情報を取得する取得部(通信部210)と、前記監視対象者の転倒が検出されたタイミングである検出タイミング前における前記撮像画像を少なくとも含む転倒時画像を表示領域(ディスプレイ240)内に表示するとともに、前記検出タイミング後における前記撮像画像を少なくとも含む転倒後画像を前記表示領域内に表示する表示制御部(表示制御部230)と、前記撮像画像を構成する複数のフレームから前記転倒時画像を抽出する転倒時画像抽出部(表示制御部230)と、前記撮像画像を構成する複数のフレームから前記転倒後画像を抽出する転倒後画像抽出部(表示制御部230)とを備え、前記転倒時画像抽出部によって抽出された前記転倒時画像のフレームの間隔である第1フレーム間隔は、前記転倒後画像抽出部によって抽出された前記転倒後画像のフレームの間隔である第2フレーム間隔よりも短い。 In one aspect of the present invention, the display device (monitorer-side terminal 200) that acquires a captured image including a monitoring target person and provides the captured image to the monitoring person detects a fall of the monitoring target person. An acquisition unit (communication unit 210) that acquires notification information indicating that the image is falling, and an image at the time of the fall including at least the captured image before the detection timing that is a timing at which the monitoring subject is detected to fall. And a display control unit (display control unit 230) that displays in the display area an image after the fall including at least the captured image after the detection timing, and a plurality of frames constituting the captured image A fall-time image extraction unit (display control unit 230) that extracts a fall-time image, and extracts the post-fall image from a plurality of frames constituting the captured image. An after-falling image extraction unit (display control unit 230), and a first frame interval that is a frame interval of the fall-down image extracted by the over-falling image extraction unit is extracted by the after-falling image extraction unit. It is shorter than the second frame interval which is the frame interval of the image after the fall.
本特徴では、表示制御部は、転倒時画像に加えて、転倒後画像を表示する。従って、転倒時点から時間が経過した場合であっても、監視者は、監視対象者の転倒後の状況を転倒後画像によって把握することができる。 In this feature, the display control unit displays the image after the fall in addition to the image at the fall. Therefore, even if time has elapsed since the time of the fall, the monitor can grasp the situation after the fall of the monitoring target person from the image after the fall.
ここで、一般的に、転倒時における監視対象者の動きは早く、転倒後における監視対象者の動きは遅いと想定される。 Here, in general, it is assumed that the movement of the monitoring target person at the time of the fall is fast and the movement of the monitoring target person after the fall is slow.
本特徴では、転倒時画像の第1フレーム間隔は、転倒後画像の第2フレーム間隔よりも短いため、監視対象者の転倒時の状況、監視対象者の転倒後の状況を監視者に適切に伝達することができる。 In this feature, since the first frame interval of the image at the time of the fall is shorter than the second frame interval of the image after the fall, the situation at the time of the fall of the monitoring target person and the situation after the fall of the monitoring target person are appropriately set to the supervisor. Can communicate.
本発明の上述した特徴において、前記転倒時画像は、前記検出タイミングよりも第1時間前から、前記検出タイミングの第2時間後までにおける前記撮像画像であることが好ましい。 In the above-described feature of the present invention, it is preferable that the fall-time image is the captured image from a first time before the detection timing to a second time after the detection timing.
本特徴では、転倒時画像の範囲は、監視対象者の転倒の検出タイミングよりも第1時間前から、監視対象者の転倒の検出タイミングの第2時間後までである。従って、監視者は、監視対象者の転倒時の状況を転倒時画像によって十分に把握することができる。 In this feature, the range of the image at the time of the fall is from the first time before the detection timing of the fall of the monitoring subject to the second time after the detection timing of the fall of the monitoring subject. Therefore, the supervisor can fully grasp the situation at the time of the fall of the monitoring subject by the image at the time of the fall.
本発明の上述した特徴において、前記転倒後画像は、前記検出タイミングの第3時間後から、前記監視対象者の転倒からの回復が検出されたタイミングである回復タイミングまでにおける前記撮像画像であることが好ましい。 In the above-described feature of the present invention, the post-fall image is the captured image from a third time after the detection timing to a recovery timing that is a timing when recovery from the monitoring subject's fall is detected. Is preferred.
本特徴では、転倒後画像の範囲は、監視対象者の転倒の検出タイミングの第3時間後から、監視対象者の転倒からの回復が検出された回復タイミングまでである。従って、監視者は、監視対象者の転倒後の状況を転倒後画像によって十分に把握することができる。 In this feature, the range of the after-fall image is from the third time after the detection timing of the monitoring subject's fall to the recovery timing at which recovery from the fall of the monitoring subject is detected. Therefore, the supervisor can fully grasp the situation after the fall of the monitoring subject by the image after the fall.
本発明の上述した特徴において、前記表示領域は、前記転倒時画像が表示される第1表示領域と、前記転倒後画像が表示される第2表示領域とを含み、前記第1表示領域は、前記転倒時画像を構成する単数のフレームを表示するように構成されており、又は、前記第2表示領域は、前記転倒後画像を構成する単数のフレームを表示するように構成されており、前記表示制御部は、前記第1表示領域において、前記転倒時画像を構成する単数のフレームを時系列順に切り替えて表示し、又は、前記第2表示領域において、前記転倒後画像を構成する単数のフレームを時系列順に切り替えて表示することが好ましい。 In the above-described feature of the present invention, the display area includes a first display area in which the image at the time of the fall is displayed, and a second display area in which the image after the fall is displayed. The single frame constituting the image at the time of the fall is configured to be displayed, or the second display area is configured to display the single frame constituting the image after the fall, and In the first display area, the display control unit switches and displays a single frame constituting the fall-time image in chronological order, or a single frame constituting the post-fall image in the second display area. Are preferably displayed in a time-series order.
本特徴では、転倒時画像を構成する単数のフレームが第1表示領域に時系列順で切り替えて表示され、又は、転倒後画像を構成する単数のフレームが第2表示領域に時系列順で切り替えて表示される。従って、1つのフレームに割り当て可能な表示面積を大きくすることができ、監視者は、転倒時画像又は転倒後画像をみやすい。 In this feature, a single frame composing the fall-time image is displayed in the first display area by switching in time series, or a single frame composing the image after the fall is switched to the second display area in time-series order Displayed. Therefore, the display area that can be assigned to one frame can be increased, and the monitor can easily see the image at the time of the fall or the image after the fall.
本発明の上述した特徴において、前記表示領域は、前記転倒時画像が表示される第1表示領域と、前記転倒後画像が表示される第2表示領域とを含み、前記第1表示領域は、前記転倒時画像を構成する複数のフレームを表示するように構成されており、又は、前記第2表示領域は、前記転倒後画像を構成する複数のフレームを表示するように構成されており、前記表示制御部は、前記第1表示領域において、前記転倒時画像を構成する複数のフレームを同時に時系列順に表示し、又は、前記第2表示領域において、前記転倒後画像を構成する複数のフレームを同時に時系列順に表示することが好ましい。 In the above-described feature of the present invention, the display area includes a first display area in which the image at the time of the fall is displayed, and a second display area in which the image after the fall is displayed. It is configured to display a plurality of frames constituting the image at the time of the fall, or the second display area is configured to display a plurality of frames constituting the image after the fall, The display control unit simultaneously displays a plurality of frames constituting the fall-time image in the first display area in chronological order, or displays a plurality of frames constituting the post-fall image in the second display area. It is preferable to display them in chronological order at the same time.
本特徴では、転倒時画像を構成する複数のフレームが第1表示領域に同時に時系列順で表示され、又は、転倒後画像を構成する複数のフレームが第2表示領域に同時に時系列順で表示される。従って、監視者は、監視対象者の転倒時の状況及び監視対象者の転倒後の状況を同時に見比べることができる。 In this feature, a plurality of frames constituting the fall-time image are simultaneously displayed in the first display area in chronological order, or a plurality of frames constituting the image after the fall are simultaneously displayed in the second display area in chronological order. Is done. Therefore, the supervisor can simultaneously compare the situation when the monitoring subject falls and the situation after the supervisor falls.
本発明の上述した特徴において、前記表示制御部は、前記転倒時画像を構成するフレームのオプティカルフローを前記表示領域内に表示することが好ましい。 In the above-described feature of the present invention, it is preferable that the display control unit displays an optical flow of frames constituting the fall-time image in the display area.
本特徴では、転倒時画像について、オプティカルフローが表示領域内に表示される。従って、監視者は、監視対象者の動作速度を容易に把握することができる。なお、オプティカルフローは、監視対象者の動きが大きいと想定される転倒時画像に適用されるとさらに有用である。 In this feature, the optical flow is displayed in the display area for the fall-down image. Accordingly, the monitor can easily grasp the operation speed of the monitoring target person. The optical flow is more useful when applied to a fall-down image that is assumed to have a large movement of the monitoring subject.
本発明の上述した特徴において、前記表示制御部は、前記転倒後画像を構成する対象フレームと前記転倒後画像を構成する参照フレームとの差分情報に基づいて、前記対象フレームから抽出された動き領域を前記表示領域内に表示することが好ましい。 In the above-described feature of the present invention, the display control unit is configured to extract a motion region extracted from the target frame based on difference information between the target frame constituting the post-falling image and a reference frame constituting the post-falling image. Is preferably displayed in the display area.
本特徴では、転倒後画像について、対象フレームから抽出された動き領域が表示領域内に表示される。従って、監視者は、監視対象者が転倒後に動いているか否かを容易に把握することができる。なお、対象フレームから抽出された動き領域は、監視対象者の動きが小さいと想定される転倒後画像に適用されるとさらに有用である。 In this feature, the motion area extracted from the target frame is displayed in the display area for the after-falling image. Therefore, the monitoring person can easily grasp whether or not the monitoring target person moves after the fall. It should be noted that the motion region extracted from the target frame is more useful when applied to an after-falling image in which the motion of the monitoring target person is assumed to be small.
本発明の上述した特徴において、前記表示制御部は、前記転倒時画像及び前記転倒後画像に加えて、現在時刻における前記撮像画像を前記表示領域内に表示し、前記通知情報の取得に応じて、前記監視対象者の転倒を報知するアラーム情報を前記表示領域内に表示し、前記転倒時画像を構成するフレームのオプティカルフロー、又は、前記転倒後画像を構成するフレーム間の差分情報に応じて、前記アラーム情報の表示方法を変更することが好ましい。 In the above-described feature of the present invention, the display control unit displays the captured image at the current time in the display area in addition to the image at the time of the fall and the image after the fall, and according to the acquisition of the notification information The alarm information for notifying the fall of the person to be monitored is displayed in the display area, and depending on the optical flow of the frames constituting the image at the time of the fall or the difference information between the frames constituting the image after the fall It is preferable to change the display method of the alarm information.
本特徴では、現在時刻における撮像画像(リアルタイム画像)が表示領域内に表示される。従って、監視者は、監視対象者の状況をさらに詳細に把握することができる。 In this feature, a captured image (real-time image) at the current time is displayed in the display area. Therefore, the supervisor can grasp the situation of the person to be monitored in more detail.
本特徴では、オプティカルフロー又はフレーム間の差分情報に応じて、アラーム情報の表示方法が変更される。従って、監視者は、緊急度を容易に把握することができる。 In this feature, the alarm information display method is changed according to the optical flow or the difference information between frames. Therefore, the supervisor can easily grasp the urgency level.
本発明の一の特徴は、監視対象者を含む撮像画像を取得して、前記撮像画像を監視者に提供する表示プログラムは、前記監視対象者の転倒が検出されたことを示す通知情報を取得するステップAと、前記監視対象者の転倒が検出されたタイミングである検出タイミング前における前記撮像画像を少なくとも含む転倒時画像を表示領域内に表示するとともに、前記検出タイミング後における前記撮像画像を少なくとも含む転倒後画像を前記表示領域内に表示するステップBと、前記撮像画像を構成する複数のフレームから前記転倒時画像を抽出するステップCと、前記撮像画像を構成する複数のフレームから前記転倒後画像を抽出するステップDとをコンピュータに実行させ、前記ステップCで抽出された前記転倒時画像のフレームの間隔である第1フレーム間隔は、前記ステップDで抽出された前記転倒後画像のフレームの間隔である第2フレーム間隔よりも短い。 One feature of the present invention is that a display program for acquiring a captured image including a monitoring target person and providing the captured image to the monitoring person acquires notification information indicating that the monitoring target person has fallen. Displaying a fall-time image including at least the captured image before the detection timing, which is a timing when the monitoring subject's fall is detected, in a display area, and at least the captured image after the detection timing. A step B for displaying the image after the fall within the display area, a step C for extracting the image at the time of the fall from the plurality of frames constituting the captured image, and the after the fall from the plurality of frames constituting the captured image Step D for extracting an image is executed by a computer, and the frame interval of the fallen image extracted in step C is calculated. The first frame interval, shorter than the second frame interval is an interval of the frame of the fall after the image extracted in the step D.
本発明によれば、監視対象者の転倒時の状況、監視対象者の転倒後の状況を監視者に適切に伝達することを可能とする表示装置及び表示プログラムを提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, the display apparatus and display program which enable it to transmit appropriately the situation at the time of the fall of a monitoring subject and the situation after the fall of a monitoring subject to a supervisor can be provided.
以下において、本発明の実施形態に係る転倒検出システムについて、図面を参照しながら説明する。なお、以下の図面の記載において、同一又は類似の部分には、同一又は類似の符号を付している。 Hereinafter, a fall detection system according to an embodiment of the present invention will be described with reference to the drawings. In the following description of the drawings, the same or similar parts are denoted by the same or similar reference numerals.
ただし、図面は模式的なものであり、各寸法の比率などは現実のものとは異なることに留意すべきである。従って、具体的な寸法などは以下の説明を参酌して判断すべきである。また、図面相互間においても互いの寸法の関係や比率が異なる部分が含まれていることは勿論である。 However, it should be noted that the drawings are schematic and ratios of dimensions and the like are different from actual ones. Therefore, specific dimensions and the like should be determined in consideration of the following description. Moreover, it is a matter of course that portions having different dimensional relationships and ratios are included between the drawings.
[第1実施形態]
(転倒検出システムの構成)
以下において、第1実施形態に係る転倒検出システムの構成について、図面を参照しながら説明する。図1は、第1実施形態に係る転倒検出システムの構成を示す図である。
[First Embodiment]
(Configuration of fall detection system)
Hereinafter, the configuration of the fall detection system according to the first embodiment will be described with reference to the drawings. FIG. 1 is a diagram illustrating a configuration of a fall detection system according to the first embodiment.
図1に示すように、転倒検出システムは、単数又は複数の監視対象者側システム100と、単数又は複数の監視者側端末200とによって構成される。監視対象者側システム100と監視者側端末200とは、有線回線や無線回線などによって接続されている。
As shown in FIG. 1, the fall detection system includes one or a plurality of monitoring
監視対象者側システム100は、見守られるべき高齢者などの監視対象者の居室などに設けられており、監視対象者を含む撮像画像を取得する。具体的には、監視対象者側システム100は、撮像部110と、入力データ処理部120と、判定基準格納部130と、判定部140と、出力データ処理部150と、通信部160とを有する。
The monitoring
撮像部110は、監視対象者を撮像することによって、監視対象者を含む撮像画像を取得する。なお、撮像部110は、単数のカメラによって構成されていてもよく、複数のカメラによって構成されていてもよい。
The
入力データ処理部120は、撮像部110から撮像画像を取得する。続いて、入力データ処理部120は、監視対象者の転倒を検出するために必要な処理を撮像画像に施す。
The input data processing unit 120 acquires a captured image from the
例えば、入力データ処理部120は、図2に示すように、撮像画像に含まれる監視対象者を抽出して、監視対象者を囲む直方体の幅(Lx)、高さ(Ly)、奥行き(Lz)を取得する。続いて、入力データ処理部120は、幅と高さとの比(Lx/Ly)と、奥行きと高さとの比(Lz/Ly)を取得する。 For example, as illustrated in FIG. 2, the input data processing unit 120 extracts the monitoring target person included in the captured image, and the width (Lx), height (Ly), and depth (Lz) of the rectangular parallelepiped surrounding the monitoring target person. ) To get. Subsequently, the input data processing unit 120 acquires the ratio between the width and the height (Lx / Ly) and the ratio between the depth and the height (Lz / Ly).
判定基準格納部130は、監視対象者の姿勢(立位、臥位、座位など)、監視対象者の動作モデル(前傾転倒、後傾転倒(しりもち)、座る、寝転ぶなど)などを記憶している。また、判定基準格納部130は、監視対象者の姿勢を判定するための判定基準を記憶している。
The determination
例えば、判定基準格納部130は、立位を判定するためのLx/Ly閾値(0.4)及びLz/Ly閾値(0.4)を記憶している。判定基準格納部130は、臥位を判定するためのLx/Ly閾値(1.5)及びLz/Ly閾値(1.5)を記憶している。判定基準格納部130は、動作の検出開始タイミング及び動作の検出終了タイミングを判定するためのLx/Ly閾値(0.7)及びLz/Ly閾値(0.7)を記憶している。判定基準格納部130は、動作の検出開始タイミングから動作の検出終了タイミングまでの間において、監視対象者を囲む直方体の幅(Lx)、高さ(Ly)及び奥行き(Lz)によって構成される時系列のデータ(以下、時系列の動作データと称する)と監視対象者の動作とを対応付ける動作モデル(隠れマルコフモデルなど)を記憶している。
For example, the determination
判定部140は、入力データ処理部120から取得する情報と判定基準格納部130に記憶された判定基準とに基づいて、監視対象者の動作(前傾転倒、後傾転倒(しりもち)、座る、寝転ぶなど)を判定する。
Based on the information acquired from the input data processing unit 120 and the determination criteria stored in the determination
例えば、判定部140は、判定基準格納部130から読み出された閾値と、入力データ処理部120から取得する幅と高さとの比(Lx/Ly)及び奥行きと高さとの比(Lz/Ly)とを比較して、監視対象者の姿勢を判定する。具体的には、監視対象者の姿勢は、以下のように判定される。
For example, the
(1)立位・・・Lx/Ly<0.4、又は、Lz/Ly<0.4
(2)臥位・・・Lx/Ly>1.5、又は、Lz/Ly>1.5
(3)座位・・・0.4≦Lx/Ly≦1.5、及び、0.4≦Lz/Ly≦1.5
判定部140は、Lx/Ly≧0.7又はLz/Ly≧0.7である状態が5フレーム又は1sec継続した場合に、監視対象者の動作検出を開始すると判定する。一方で、判定部140は、Lx/Ly<0.7かつLz/Ly<0.7である状態が7フレーム又は1.4sec継続した場合に、監視対象者の動作検出を終了すると判定する。または、判定部140は、監視対象者の動作検出を開始してから10〜15sec(後述するZ時間)が経過した場合に、監視対象者の動作検出を終了すると判定する。
(1) Standing position: Lx / Ly <0.4 or Lz / Ly <0.4
(2) Supine ... Lx / Ly> 1.5 or Lz / Ly> 1.5
(3) Sitting position: 0.4 ≦ Lx / Ly ≦ 1.5 and 0.4 ≦ Lz / Ly ≦ 1.5
The
以下において、上述した転倒検出方法については、直方体を用いた転倒検出方法と称する。 Hereinafter, the fall detection method described above is referred to as a fall detection method using a rectangular parallelepiped.
判定部140は、動作の検出開始タイミングから動作の検出終了タイミングまでの間に取得した時系列の動作データに基づいて、監視対象者の動作を判定する。具体的には、判定部140は、隠れマルコフモデルを参照して、時系列の動作データに対して最も高い尤度を出力した動作モデルが転倒モデルである場合に、監視対象者が転倒したと判定する。
The
なお、時系列の動作データは、上述したように、動作の検出開始タイミングから動作の検出終了タイミングまでの間において、監視対象者を囲む直方体の幅(Lx)、高さ(Ly)及び奥行き(Lz)によって構成される時系列のデータである。 As described above, the time-series motion data includes the width (Lx), the height (Ly), and the depth (Ly) of the rectangular parallelepiped surrounding the person to be monitored between the motion detection start timing and the motion detection end timing. Lz) is time-series data.
出力データ処理部150は、撮像部110から撮像画像を取得するとともに、判定部140から判定結果を取得する。続いて、出力データ処理部150は、監視者側端末200に送信すべき情報を生成する。
The output
具体的には、出力データ処理部150は、撮像部110から取得した撮像画像を通信部160に送信する。出力データ処理部150は、判定部140による判定結果が監視対象者の転倒を示す場合には、監視対象者の転倒が検出されたことを示す通知情報を生成する。
Specifically, the output
ここで、通知情報は、監視対象者の動作検出が開始した時刻を監視対象者の転倒が検出された時刻として含む。通知情報は、監視対象者の動作検出が終了した時刻を監視対象者の転倒からの回復が検出された時刻として含んでもよい。 Here, the notification information includes the time when the monitoring subject's motion detection is started as the time when the monitoring subject's fall was detected. The notification information may include a time when the monitoring target person's motion detection is completed as a time when the monitoring target person's recovery from falling is detected.
通信部160は、出力データ処理部150によって生成された情報(撮像画像や通知情報など)を監視者側端末200に送信する。
The
ここで、監視対象者の転倒検出方法としては、直方体を用いた転倒検出方法に関連した様々な方法を適用することが可能であることに留意すべきである(例えば、特願2006−336063号公報、特願2006−342654号公報)。また、監視対象者の転倒検出方法としては、直方体を用いた転倒検出方法以外にも、他の既存の方法を適用することが可能である。 Here, it should be noted that various methods related to the fall detection method using a rectangular parallelepiped can be applied as the fall detection method of the monitoring subject (for example, Japanese Patent Application No. 2006-336063). Gazette, Japanese Patent Application No. 2006-342654). In addition to the fall detection method using a rectangular parallelepiped, other existing methods can be applied as the fall detection method for the person being monitored.
以下においては、上述したいずれかの方法によって監視対象者の転倒が検出され、現実に監視対象者が転倒動作をしていたことを前提として説明を続ける。 In the following, the description will be continued on the assumption that the fall of the monitoring subject has been detected by any of the methods described above and that the monitoring subject has actually fallen.
なお、監視対象者の転倒は、監視対象者が立位(又は座位)から臥位となるまでのいずれかの時点で検出されればよい。従って、監視対象者の転倒は、直方体を用いて転倒検出方法で検出することができる。また、監視対象者の転倒は、監視対象者が立位から臥位となるまでの間において、監視対象者の動きが最も大きい時点で検出されてもよい。また、監視対象者の転倒は、監視対象者が臥位となった時点で検出されてもよい。さらに、監視対象者の転倒は、監視対象者の少なくとも一部が床などに触れた時点で検出されてもよい。 In addition, the fall of the monitoring subject may be detected at any time point from when the monitoring subject falls from the standing position (or sitting position) to the lying position. Therefore, the fall of the monitoring subject can be detected by the fall detection method using a rectangular parallelepiped. In addition, the fall of the monitoring subject may be detected at the time when the movement of the monitoring subject is the largest during the period from the standing position to the lying position. Moreover, the fall of the monitoring subject may be detected at the time when the monitoring subject becomes prone. Furthermore, the fall of the monitoring subject may be detected when at least a part of the monitoring subject touches the floor or the like.
監視者側端末200は、監視対象者を含む撮像画像を監視対象者側システム100から取得して、高齢者などを見守る監視者に撮像画像を提供する。具体的には、監視者側端末200は、通信部210と、画像格納部220と、表示制御部230と、ディスプレイ240とを有する。
The supervisor-
通信部210は、監視対象者を含む撮像画像を監視対象者側システム100から受信する。通信部210は、監視対象者の転倒が検出されたことを示す通知情報を監視対象者側システム100から受信する。
The
画像格納部220は、監視対象者側システム100から受信した撮像画像をフレーム単位で記憶している。
The
表示制御部230は、監視対象者を含む撮像画像をディスプレイ240に設けられた表示領域内に表示する。具体的には、表示制御部230は、撮像画像を構成する複数のフレームから下記3種類の画像を抽出した上で、下記3種類の画像を表示する。
The
(1) 転倒時画像・・・監視対象者の転倒が検出されたタイミング(以下、検出タイミング)前における撮像画像を少なくとも含む画像
(2) 転倒後画像・・・・・・検出タイミング後における撮像画像を少なくとも含む画像
(3) 現在画像(リアルタイム画像)・・・現在時刻における撮像画像
具体的には、転倒時画像及び転倒後画像について図3を参照しながら説明する。図3に示すように、「監視対象者の転倒時」とは、検出タイミングよりもX時間(第1時間)前から、検出タイミングのY時間(第2時間)後までの期間である。「監視対象者の転倒後」とは、検出タイミングのY時間(第3時間)後から、監視対象者の転倒からの回復が検出されたタイミング(以下、回復タイミング)までの期間である。
(1) Image at the time of falling: an image including at least a captured image before the timing (hereinafter referred to as detection timing) when the monitoring subject's falling is detected. An image including at least an image (3) Current image (real-time image) ... a captured image at the current time Specifically, an image at the time of a fall and an image after the fall will be described with reference to FIG. As shown in FIG. 3, “when the monitoring subject falls” is a period from X hours (first time) before the detection timing to Y hours (second time) after the detection timing. “After the fall of the monitoring subject” is a period from the Y time (third time) of the detection timing to the timing when the recovery from the fall of the monitoring subject is detected (hereinafter, recovery timing).
ここで、X時間は、例えば、つまずきや卒倒などの原因で監視対象者の立位が崩れ始めた状態が「監視対象者の転倒時」に含まれるように定められる。 Here, the X time is determined such that, for example, a state where the standing position of the monitoring subject starts to collapse due to a stumbling or a fall is included in “when the monitoring subject falls”.
Y時間は、監視対象者の全身が床などに伏せた状態が「監視対象者の転倒時」に含まれるように定められる。 The Y time is determined so that the state where the whole body of the monitoring subject is lying on the floor is included in “when the monitoring subject falls”.
Z時間は、検出タイミングから動作の検出時間がタイムアウトするまでの時間である。また、Z時間は、監視対象者の動作判定を開始して、監視対象者の転倒後の状態を監視者に通知するのに充分な時間が得られるように定められる。 The Z time is the time from the detection timing until the operation detection time times out. In addition, the Z time is determined so that sufficient time can be obtained to start the operation determination of the monitoring subject and notify the monitoring person of the state after the monitoring subject falls.
なお、監視対象者の動作検出を開始したタイミングは、検出タイミングであり、監視対象者の動作検出を終了したタイミングは、回復タイミングである。 Note that the timing at which the monitoring target person's motion detection is started is a detection timing, and the timing at which the monitoring target person's motion detection is completed is a recovery timing.
図3に示すように、転倒時画像は、検出タイミングよりもX時間(第1時間)前から、検出タイミングのY時間(第2時間)後までにおける撮像画像である。表示制御部230は、転倒時画像を第1フレーム間隔で表示する。なお、第1フレーム間隔とは、撮像画像を構成する複数のフレームから、転倒時画像として抽出するフレームの間隔である。
As shown in FIG. 3, the overturned image is a captured image from X time (first time) before the detection timing to Y time (second time) after the detection timing. The
一方で、転倒後画像は、検出タイミングのY時間(第3時間)後から回復タイミングまでにおける撮像画像である。表示制御部230は、転倒後画像を第2フレーム間隔で表示する。なお、第2フレーム間隔とは、撮像画像を構成する複数のフレームから、転倒後画像として抽出するフレームの間隔である。
On the other hand, the after-fall image is a captured image from the time Y after detection time (third time) to the recovery timing. The
ここで、転倒時画像には、重力方向に従って監視対象者が転倒する動作が含まれると想定される。すなわち、単位時間における監視対象者の動きが大きいと想定されるため、転倒時画像のフレーム間隔(第1フレーム間隔)は短いことが好ましい。 Here, it is assumed that the image at the time of falling includes an action in which the monitoring subject falls according to the direction of gravity. That is, since it is assumed that the movement of the monitoring subject is large in unit time, it is preferable that the frame interval (first frame interval) of the image at the time of the fall is short.
一方で、転倒後画像には、重力方向に逆らって監視対象者が立ち上がる動作又は監視対象者が静止している動作が含まれると想定される。また、監視対象者が高齢者のため動作が緩慢であること、監視対象者が体を打ち付けてダメージを受けて、監視対象者の動作が緩慢であることなどが想定される。すなわち、単位時間における監視対象者の動きが小さいと想定されるため、転倒後画像のフレーム間隔(第2フレーム間隔)は長いことが好ましい。 On the other hand, it is assumed that the image after the fall includes an operation in which the monitoring subject stands up against the direction of gravity or an operation in which the monitoring subject is stationary. In addition, it is assumed that the operation is slow because the monitoring target is an elderly person, and that the monitoring target is struck by the body and damaged, and the monitoring target is performing slowly. That is, since it is assumed that the movement of the monitoring subject in the unit time is small, it is preferable that the frame interval (second frame interval) of the image after the fall is long.
従って、転倒時画像のフレーム間隔(第1フレーム間隔)は、転倒後画像のフレーム間隔(第2フレーム間隔)よりも短く設定されている。 Accordingly, the frame interval (first frame interval) of the image at the time of the fall is set shorter than the frame interval (second frame interval) of the image after the fall.
ここで、表示制御部230は、検出タイミングを以下のように特定する。例えば、表示制御部230は、監視対象者の転倒が検出された時刻、すなわち、通知情報に含まれる動作検出の開始時刻を検出タイミングとして特定する。
Here, the
一方で、表示制御部230は、回復タイミングを以下のように特定する。例えば、表示制御部230は、監視対象者の転倒からの回復が検出された時刻、すなわち、通知情報に含まれる動作検出の終了時刻を回復タイミングとして特定する。
On the other hand, the
なお、表示制御部230は、監視対象者の動作検出の終了時刻(転倒からの回復が検出された時刻)が通知情報に含まれていない場合には、検出タイミングのZ時間(>Y時間)後のタイミングを回復タイミングとして特定してもよい。
Note that if the notification information does not include the end time of the motion detection of the monitoring target person (the time when recovery from the fall is detected), the
さらに、表示制御部230は、通知情報の受信に応じて、監視対象者の転倒が検出されたことを示すアラーム情報(例えば、“転倒発生”の文字列)を表示領域内に表示する。
Further, in response to receiving the notification information, the
なお、アラーム情報は、監視対象者が複数である場合には、監視対象者を識別するための情報(例えば、監視対象者の名前、監視対象者の居室番号など)を含んでもよい。また、アラーム情報は、監視対象者の転倒が検出された日時を含んでもよい。 Note that when there are a plurality of monitoring target persons, the alarm information may include information for identifying the monitoring target persons (for example, the name of the monitoring target person, the room number of the monitoring target person, etc.). The alarm information may include the date and time when the monitoring subject's fall was detected.
ここで、上述したX時間は、例えば、0.5〜2secの範囲であることが好ましい。上述したY時間は、例えば、0.5〜2secの範囲内であることが好ましい。上述したZ時間は、例えば、10〜15secの範囲であることが好ましい。 Here, the above-described X time is preferably in the range of 0.5 to 2 seconds, for example. The Y time described above is preferably in the range of 0.5 to 2 seconds, for example. The Z time described above is preferably in the range of 10 to 15 seconds, for example.
また、現在画像(リアルタイム画像)のフレーム間隔が0.033sec(30フレーム/sec)であるケースについて例示すると、転倒時画像のフレーム間隔(第1フレーム間隔)は、例えば、0.033〜0.5secの範囲内であることが好ましい。一方で、転倒後画像のフレーム間隔(第2フレーム間隔)は、例えば、0.5〜2secの範囲内であることが好ましい。 Further, in the case where the frame interval of the current image (real-time image) is 0.033 sec (30 frames / sec), the frame interval (first frame interval) of the image at the time of falling is, for example, 0.033-0. It is preferably within a range of 5 seconds. On the other hand, the frame interval (second frame interval) of the after-falling image is preferably in the range of 0.5 to 2 seconds, for example.
ディスプレイ240は、撮像画像などが表示される表示領域を有する。具体的には、図4に示すように、表示領域は、転倒時画像が表示される転倒時画像表示領域、転倒後画像が表示される転倒後画像表示領域、現在画像(リアルタイム画像)が表示されるリアルタイム画像表示領域、アラーム情報が表示されるアラーム情報表示領域を含む。
The
ここで、転倒時画像表示領域は、複数のフレームを表示するように構成されている。表示制御部230は、転倒時画像表示領域において、転倒時画像を構成する複数のフレームを同時に時系列順に表示する。
Here, the fall-time image display area is configured to display a plurality of frames. The
転倒後画像表示領域は、複数のフレームを表示するように構成されている。表示制御部230は、転倒後画像表示領域において、転倒後画像を構成する複数のフレームを同時に時系列順に表示する。
The after-falling image display area is configured to display a plurality of frames. The
リアルタイム画像表示領域は、単数のフレームを表示するように構成されている。表示制御部230は、リアルタイム画像表示領域において現在画像を構成する単数のフレームを時系列順に切り替えて表示する。
The real-time image display area is configured to display a single frame. The
なお、監視者は、転倒時画像表示領域に表示される転倒時画像によって、以下のような情報を得ることが可能である。 Note that the supervisor can obtain the following information from the fall-time image displayed in the fall-time image display area.
(1) 監視対象者がつまずいた物及びつまずきや卒倒が発生した場所
(2) 監視対象者がつまずき又は卒倒が開始してから臥位になるまでの時間(速度)
(3) 監視対象者がつまずき又は卒倒が開始してから臥位になるまでに、居室に設けられた物などに打ち付けられた体の部位
(4) 監視対象者が臥位となった際に、床などに打ち付けられた体の部位
(5) 監視対象者が臥位となった際における姿勢
また、監視者は、転倒後画像表示領域に表示される転倒後画像によって、以下のような情報を得ることが可能である。
(1) Things that the monitoring subject stumbles and the place where the trip or collapse occurred (2) Time (speed) from when the monitoring subject starts to stumble or fall into the decubitus
(3) The part of the body that was struck against an object, etc., placed in the living room after the person to be monitored stumbled or started to fall down and became supine (4) When the person to be monitored became supine The body part struck against the floor, etc. (5) The posture when the person to be monitored is placed in the prone position. Also, the observer uses the post-fall image displayed in the post-fall image display area to provide the following information: It is possible to obtain
(1) 監視対象者の動きの有無
(2) 監視対象者が立ち上がろうとしているか否か
(3) 監視対象者が出血しているか否か
(転倒検出システムの動作)
以下において、第1実施形態に係る転倒検出システムの動作について、図面を参照しながら説明する。図5は、第1実施形態に係る転倒検出システムの動作を示すシーケンス図である。
(1) Presence or absence of movement of monitored person (2) Whether monitored person is going to stand up (3) Whether monitored person is bleeding (operation of fall detection system)
Hereinafter, the operation of the fall detection system according to the first embodiment will be described with reference to the drawings. FIG. 5 is a sequence diagram showing the operation of the fall detection system according to the first embodiment.
図5に示すように、ステップ10において、監視対象者側システム100は、監視対象者を含む撮像画像を取得する。
As shown in FIG. 5, in step 10, the monitoring
ステップ20において、監視対象者側システム100は、監視対象者を含む撮像画像を監視者側端末200に送信する。なお、監視対象者側システム100は、撮像画像を継続的に監視者側端末200に送信し続ける。
In step 20, the monitoring
ステップ30において、監視者側端末200は、監視対象者を含む撮像画像を画像格納部220に記憶する。続いて、監視者側端末200は、現在時刻における撮像画像である現在画像(リアルタイム画像)をリアルタイム画像表示領域に表示する。
In step 30, the supervisor-
ステップ40において、監視対象者側システム100は、監視対象者の動作検出を開始する。例えば、監視対象者側システム100は、監視対象者側システム100は、Lx/Ly≧0.7又はLz/Ly≧0.7である状態が5フレーム又は1sec継続した場合に、監視対象者の動作検出を開始すると判定する。
In step 40, the monitoring
ステップ50において、監視対象者側システム100は、監視対象者の動作検出を終了する。例えば、監視対象者側システム100は、Lx/Ly<0.7かつLz/Ly<0.7である状態が7フレーム又は1.4sec継続した場合に、監視対象者の動作検出を終了すると判定する。
In step 50, the monitoring subject
ステップ60において、監視対象者側システム100は、監視対象者の動作検出を開始してから監視対象者の動作検出を終了するまでに取得した時系列の動作データに基づいて、監視対象者の動作を判定する。具体的には、監視対象者側システム100は、隠れマルコフモデルを参照して、時系列の動作データに対して最も高い尤度を出力した動作モデルが転倒モデルである場合に、監視対象者が転倒したと判定する。
In step 60, the monitoring target
なお、以下においては、監視対象者が転倒したとステップ60で判定されたものとして説明を続ける。 In the following, the description will be continued assuming that it is determined in step 60 that the monitoring subject has fallen.
ステップ70において、監視対象者側システム100は、監視対象者の転倒が検出されたことを示す通知情報を監視者側端末200に送信する。ここでは、通知情報は、監視対象者の動作検出が開始した時刻を監視対象者の転倒が検出された時刻として含み、監視対象者の動作検出が終了した時刻を監視対象者の転倒からの回復が検出された時刻として含むものとする。
In
ステップ80において、監視者側端末200は、監視対象者の転倒が検出されたことを示すアラーム情報を表示するとともに、画像格納部220に格納された撮像画像を用いて転倒時画像及び転倒後画像の表示を開始する。
In
ここで、監視者側端末200は、検出タイミングよりもX時間(第1時間)前から、検出タイミングのY時間(第2時間)後までにおける転倒時画像を表示する。また、監視者側端末200は、検出タイミングのY時間(第3時間)後から回復タイミングまでにおける転倒後画像を表示する。
Here, the supervisor-
(表示装置の動作)
以下において、第1実施形態に係る表示装置の動作について、図面を参照しながら説明する。図6は、第1実施形態に係る監視者側端末200(表示装置)の動作を示すフロー図である。
(Operation of display device)
Hereinafter, the operation of the display device according to the first embodiment will be described with reference to the drawings. FIG. 6 is a flowchart showing the operation of the supervisor side terminal 200 (display device) according to the first embodiment.
図6に示すように、ステップ110において、監視者側端末200は、監視対象者を含む撮像画像を監視対象者側システム100から受信する。
As shown in FIG. 6, in
ステップ120において、監視者側端末200は、監視対象者を含む撮像画像を画像格納部220に記憶する。
In step 120, the
ステップ130において、監視者側端末200は、リアルタイム画像表示領域において現在画像(リアルタイム画像)の表示を開始する。
In
ステップ140において、監視者側端末200は、監視対象者の転倒が検出されたことを示す通知情報を受信したか否かを判定する。監視者側端末200は、通知情報を受信した場合にはステップ150の処理に移る。
In
ステップ150において、監視者側端末200は、監視対象者の転倒が検出されたことを示すアラーム情報をアラーム情報表示領域に表示する。
In
ステップ160において、監視者側端末200は、画像格納部220に記憶された撮像画像を用いて、転倒時画像表示領域において転倒時画像を表示する。なお、転倒時画像の範囲は、検出タイミングよりもX時間(第1時間)前から、検出タイミングのY時間(第2時間)後までである。
In
ステップ170において、監視者側端末200は、転倒後画像表示領域において転倒後画像の表示を開始する。なお、転倒後画像の範囲は、検出タイミングよりもY時間(第3時間)後から回復タイミングまでである。
In step 170, the supervisor-
(作用及び効果)
第1実施形態では、表示制御部230は、転倒時画像に加えて、転倒後画像を表示する。従って、転倒時点から所定時間が経過した場合であっても、監視者は、監視対象者の転倒後の状況を転倒後画像によって把握することができる。
(Function and effect)
In the first embodiment, the
また、転倒時画像の第1フレーム間隔は、転倒後画像の第2フレーム間隔よりも短いため、監視対象者の転倒時の状況、監視対象者の転倒後の状況を監視者に適切に伝達することができる。 In addition, since the first frame interval of the image at the time of the fall is shorter than the second frame interval of the image after the fall, the situation when the monitoring subject falls and the situation after the fall of the monitoring subject are appropriately transmitted to the supervisor. be able to.
第1実施形態では、転倒時画像の範囲は、検出タイミングよりもX時間(第1時間)前から、検出タイミングのY時間(第2時間)後までである。従って、監視者は、監視対象者の転倒時の状況を転倒時画像によって十分に把握することができる。 In the first embodiment, the range of the image at the time of falling is from X hours (first time) before the detection timing to Y hours (second time) after the detection timing. Therefore, the supervisor can fully grasp the situation at the time of the fall of the monitoring subject by the image at the time of the fall.
第1実施形態では、転倒後画像の範囲は、検出タイミングよりもY時間(第3時間)後から回復タイミングまでである。従って、監視者は、監視対象者の転倒後の状況を転倒後画像によって十分に把握することができる。 In the first embodiment, the range of the after-falling image is from Y time (third time) after the detection timing to the recovery timing. Therefore, the supervisor can fully grasp the situation after the fall of the monitoring subject by the image after the fall.
第1実施形態では、転倒時画像を構成する複数のフレームが転倒時画像表示領域に同時に表示され、転倒後画像を構成する複数のフレームが転倒後画像表示領域に同時に表示される。従って、監視者は、監視対象者の転倒時の状況及び監視対象者の転倒後の状況を同時に見比べることができる。 In the first embodiment, a plurality of frames constituting the fall-time image are simultaneously displayed in the fall-time image display area, and a plurality of frames constituting the after-fall image are simultaneously displayed in the after-fall image display area. Therefore, the supervisor can simultaneously compare the situation when the monitoring subject falls and the situation after the supervisor falls.
第1実施形態では、現在時刻における現在画像(リアルタイム画像)がリアルタイム画像表示領域に表示される。従って、監視者は、監視対象者の状況をさらに詳細に把握することができる。 In the first embodiment, the current image (real-time image) at the current time is displayed in the real-time image display area. Therefore, the supervisor can grasp the situation of the person to be monitored in more detail.
[第2実施形態]
以下において、第2実施形態について図面を参照しながら説明する。以下においては、上述した第1実施形態と第2実施形態との相違点について主として説明する。
[Second Embodiment]
The second embodiment will be described below with reference to the drawings. In the following, differences between the first embodiment and the second embodiment described above will be mainly described.
具体的には、上述した第1実施形態では、転倒時画像表示領域及び転倒後画像表示領域は、複数のフレームを表示するように構成されている。これに対して、第2実施形態では、転倒時画像表示領域及び転倒後画像表示領域は、単数のフレームを表示するように構成されている。 Specifically, in the first embodiment described above, the image display area at the time of fall and the image display area after the fall are configured to display a plurality of frames. In contrast, in the second embodiment, the image display area at the time of the fall and the image display area after the fall are configured to display a single frame.
(表示領域の構成)
以下において、第2実施形態に係る表示領域の構成について、図面を参照しながら説明する。図7は、第2実施形態に係るディスプレイ240に設けられた表示領域の構成を示す図である。
(Configuration of display area)
The configuration of the display area according to the second embodiment will be described below with reference to the drawings. FIG. 7 is a diagram illustrating a configuration of a display area provided in the
図7に示すように、転倒時画像表示領域は、単数のフレームを表示するように構成されている。表示制御部230は、転倒時画像表示領域において、転倒時画像を構成する単数のフレームを時系列順に切り替えて表示する(コマ送り)。
As shown in FIG. 7, the fall-time image display area is configured to display a single frame. The
転倒後画像表示領域は、単数のフレームを表示するように構成されている。表示制御部230は、転倒後画像表示領域において、転倒後画像を構成する単数のフレームを時系列順に切り替えて表示する(コマ送り)。
The after-falling image display area is configured to display a single frame. The
なお、転倒時画像のフレーム間隔(第1フレーム間隔)は、第1実施形態と同様に、転倒後画像のフレーム間隔(第2フレーム間隔)よりも短く設定されていることに留意すべきである。 It should be noted that the frame interval (first frame interval) of the image at the time of the fall is set shorter than the frame interval (second frame interval) of the image after the fall, as in the first embodiment. .
(作用及び効果)
第2実施形態では、転倒時画像を構成する単数のフレームが転倒時画像表示領域に時系列順に切り替えられて表示され、転倒後画像を構成する単数のフレームが転倒後画像表示領域に時系列順に切り替えられて表示される。従って、第1実施形態よりも、1つのフレームに割り当て可能な表示面積を大きくすることができ、監視者は、転倒時画像及び転倒後画像を見やすい。
(Function and effect)
In the second embodiment, a single frame constituting the fall-time image is switched and displayed in the time-sequential image display area, and a single frame constituting the post-fall image is displayed in the time-sequential order in the post-fall image display area. Switched and displayed. Therefore, the display area that can be assigned to one frame can be increased as compared with the first embodiment, and the monitor can easily view the fall-time image and the after-fall image.
[第3実施形態]
以下において、第3実施形態について図面を参照しながら説明する。以下においては、上述した第1実施形態と第3実施形態との相違点について主として説明する。
[Third Embodiment]
Hereinafter, a third embodiment will be described with reference to the drawings. In the following, differences between the first embodiment and the third embodiment described above will be mainly described.
具体的には、上述した第1実施形態では特に触れていないが、第3実施形態では、転倒時画像を構成するフレームのオプティカルフローが転倒時画像表示領域に表示される。一方で、転倒後画像を構成する対象フレームと転倒後画像を構成する参照フレームとの差分情報に基づいて、対象フレームから抽出された動き領域が転倒後画像表示領域に表示される。 Specifically, although not particularly mentioned in the first embodiment described above, in the third embodiment, the optical flow of the frames constituting the fall-time image is displayed in the fall-time image display area. On the other hand, based on the difference information between the target frame constituting the post-fall image and the reference frame constituting the post-fall image, the motion area extracted from the target frame is displayed in the post-fall image display area.
(表示装置の構成)
以下において、第3実施形態に係る表示装置の構成について、図面を参照しながら説明する。図8は、第3実施形態に係る監視者側端末200(表示装置)の構成を示すブロック図である。
(Configuration of display device)
The configuration of the display device according to the third embodiment will be described below with reference to the drawings. FIG. 8 is a block diagram showing a configuration of the supervisor-side terminal 200 (display device) according to the third embodiment.
図8に示すように、監視者側端末200は、図1に示した構成に加えて、オプティカルフロー算出部250と、フレーム間差分算出部260とを有する。
As shown in FIG. 8, the supervisor-
オプティカルフロー算出部250は、転倒時画像を構成するフレームのオプティカルフローを算出する。オプティカルフローの算出方法としては、ブロックマッチング法や勾配法などが挙げられる。
The optical
フレーム間差分算出部260は、転倒後画像を構成するフレーム間の差分情報を算出する。例えば、フレーム間差分算出部260は、対象フレームと参照フレームとの差分を画素単位で取得した上で、画素単位で取得した差分を二値化する。続いて、フレーム間差分算出部260は、二値化された差分に対して収縮膨張処理を施した上で、対象フレームと参照フレームとの差分情報(差分領域)を動き領域として算出する。
The inter-frame
表示制御部230は、図9に示すように、オプティカルフロー算出部250によって算出されたオプティカルフローを転倒時画像表示領域に表示する。表示制御部230は、転倒時画像とともにオプティカルフローを表示することが好ましい。
As shown in FIG. 9, the
なお、表示制御部230は、フロー長が所定閾値を超えるオプティカルフローのみを表示してもよく、フロー長が最大であるオプティカルフローのみを表示してもよい。
The
一方で、表示制御部230は、転倒後画像を構成する対象フレームから、フレーム間差分算出部260によって算出された差分領域を抽出する。続いて、表示制御部230は、図9に示すように、対象フレームから抽出された差分領域である動き領域を転倒後画像として転倒後画像表示領域に表示する。
On the other hand, the
なお、表示制御部230は、面積が所定閾値を超える動き領域のみを表示してもよく、面積が最大である動き領域のみを表示してもよい。
Note that the
(作用及び効果)
第3実施形態では、単位時間における監視対象者の動きが大きいと想定される転倒時画像について、転倒時画像表示領域にオプティカルフローが表示される。従って、監視者は、監視対象者の転倒速度を容易に把握することができる。
(Function and effect)
In the third embodiment, an optical flow is displayed in the fall-time image display area for an fall-time image that is assumed to have a large movement of the monitoring subject in a unit time. Therefore, the monitoring person can easily grasp the falling speed of the monitoring target person.
第3実施形態では、単位時間における監視対象者の動きが小さいと想定される転倒後画像について、フレーム間の差分情報に基づいて対象フレームから抽出された動き領域が転倒後画像表示領域に表示される。従って、監視者は、監視対象者が転倒後に動けずにいるか否かを容易に把握することができる。 In the third embodiment, for a post-fall image that is assumed to have a small movement of the monitoring subject in a unit time, a motion area extracted from the target frame based on difference information between frames is displayed in the post-fall image display area. The Therefore, the monitoring person can easily grasp whether or not the monitoring target person cannot move after the fall.
[第4実施形態]
以下において、第1実施形態について図面を参照しながら説明する。以下においては、上述した第1実施形態と第4実施形態との相違点について主として説明する。
[Fourth Embodiment]
Hereinafter, a first embodiment will be described with reference to the drawings. In the following, differences between the first embodiment and the fourth embodiment described above will be mainly described.
具体的には、上述した第1実施形態では特に触れていないが、第4実施形態では、表示制御部230は、転倒時画像を構成するフレームのオプティカルフロー又は転倒後画像を構成するフレーム間の差分情報(差分領域)に応じて、アラーム情報の表示方法を変更する。
Specifically, although not particularly mentioned in the first embodiment described above, in the fourth embodiment, the
なお、監視者側端末200は、第3実施形態と同様に、オプティカルフロー算出部250及びフレーム間差分算出部260を有するものとする。
Note that the supervisor-
具体的には、表示制御部230は、フロー長が最大であるオプティカルフローが所定閾値よりも小さい場合には、緊急度が低い色(例えば、青色)でアラーム情報を表示する。一方で、表示制御部230は、フロー長が最大であるオプティカルフローが所定閾値よりも大きい場合には、緊急度が高い色(例えば、赤色)でアラーム情報を表示する。
Specifically, when the optical flow having the maximum flow length is smaller than a predetermined threshold, the
なお、緊急度とは、監視者に対して監視対象者の動作がどの程度緊急な対処が必要かを示す度合いである。 The urgency level is a degree indicating how urgent the action of the monitoring target person is necessary for the monitoring person.
ここで、オプティカルフローが大きいケースでは、監視対象者の転倒速度が大きいと考えられる。従って、オプティカルフローが大きいケースでは、緊急度が高いと考えられる。 Here, in the case where the optical flow is large, it is considered that the fall speed of the monitoring subject is large. Therefore, it is considered that the degree of urgency is high when the optical flow is large.
表示制御部230は、面積が最大である差分領域が所定閾値よりも大きい場合には、緊急度が低い色(例えば、青色)でアラーム情報を表示する。一方で、表示制御部230は、面積が最大である差分領域が所定閾値よりも小さい場合には、緊急度が高い色(例えば、赤色)でアラーム情報を表示する。
The
ここで、差分領域が小さいケースでは、監視対象者が転倒後に動けないでいる可能性が高いと考えられる。従って、差分領域が小さいケースでは、緊急度が高いと考えられる。 Here, in a case where the difference area is small, it is considered that there is a high possibility that the monitoring target person cannot move after the fall. Therefore, it is considered that the degree of urgency is high in the case where the difference area is small.
なお、表示制御部230は、オプティカルフローのフロー長及び差分領域の面積の双方を考慮して、アラーム情報の表示方法を変更してもよい。アラーム情報の表示方法は、アラーム情報の色だけではなくて、アラーム情報の文字の大きさ、アラーム情報の点滅の有無、アラーム情報の点滅間隔、アラーム情報に対応する音声の有無、撮像画像のズームの有無などによって変更されてもよい。
The
(作用及び効果)
第4実施形態では、オプティカルフロー又はフレーム間の差分情報に応じて、アラーム情報の表示方法が変更される。従って、監視者は、緊急度を容易に把握することができる。
(Function and effect)
In the fourth embodiment, the alarm information display method is changed according to optical flow or difference information between frames. Therefore, the supervisor can easily grasp the urgency level.
[その他の実施形態]
本発明は上述した実施形態によって説明したが、この開示の一部をなす論述及び図面は、この発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施形態、実施例及び運用技術が明らかとなろう。
[Other Embodiments]
Although the present invention has been described with reference to the above-described embodiments, it should not be understood that the descriptions and drawings constituting a part of this disclosure limit the present invention. From this disclosure, various alternative embodiments, examples and operational techniques will be apparent to those skilled in the art.
例えば、上述した実施形態では、転倒時画像の範囲は、検出タイミングよりもX時間前から、検出タイミングのY時間後までであるが、これに限定されるものではない。転倒時画像の範囲は、検出タイミングよりもX時間前から検出タイミングまでであってもよい。 For example, in the above-described embodiment, the range of the image at the time of falling is from X hours before the detection timing to Y hours after the detection timing, but is not limited thereto. The range of the image at the time of falling may be from X hours before the detection timing to the detection timing.
同様に、転倒後画像の範囲は、検出タイミングのY時間後から回復タイミングまでであるが、これに限定されるものではない。転倒後画像の範囲は、検出タイミングから回復タイミングまでであってもよい。 Similarly, the range of the after-falling image is from the time Y after the detection timing to the recovery timing, but is not limited to this. The range of the image after the fall may be from the detection timing to the recovery timing.
上述した実施形態では、第2時間及び第3時間がともにY時間であり、転倒時画像の範囲は転倒後画像の範囲と重複していないが、これに限定されるものではない。転倒時画像の範囲は転倒後画像の範囲と重複していてもよい。 In the embodiment described above, both the second time and the third time are the Y time, and the range of the image at the time of the fall does not overlap with the range of the image after the fall, but is not limited to this. The range of the image at the time of the fall may overlap with the range of the image after the fall.
上述した実施形態では、監視対象者の転倒の検出は、監視対象者側システム100によって行われるが、これに限定されるものではない。監視対象者の転倒の検出は、監視者側端末200で行われてもよい。このようなケースでは、監視対象者側システム100は、監視者側端末200に撮像画像を単に送信するだけでよく、監視者側端末200は、入力データ処理部120〜出力データ処理部150を有している。
In the embodiment described above, the monitoring target person's fall detection is performed by the monitoring target
上述した実施形態では、転倒時画像に対応するオプティカルフローが転倒時画像表示領域に表示されるが、これに限定されるものではない。転倒後画像に対応するオプティカルフローが転倒後画像表示領域に表示されてもよい。 In the above-described embodiment, the optical flow corresponding to the image at the time of falling is displayed in the image display area at the time of falling, but the present invention is not limited to this. An optical flow corresponding to the after-falling image may be displayed in the after-falling image display area.
同様に、転倒後画像に対応するフレーム間の差分情報が転倒後画像表示領域に表示されるが、これに限定されるものではない。転倒時画像に対応するフレーム間の差分情報が転倒時画像表示領域に表示されてもよい。 Similarly, the difference information between frames corresponding to the after-falling image is displayed in the after-falling image display area, but is not limited thereto. The difference information between the frames corresponding to the fall-time image may be displayed in the fall-time image display area.
上述した実施形態では、現在画像がリアルタイム画像表示領域に表示されるが、これに限定されるものではない。プライバシー保護の観点から、現在画像が表示されなくてもよい。また、現在画像を閲覧するためにパスワードが必要であってもよい。 In the above-described embodiment, the current image is displayed in the real-time image display area, but the present invention is not limited to this. From the viewpoint of privacy protection, the current image may not be displayed. Also, a password may be required to view the current image.
上述した第1実施形態と第2実施形態とを組み合わせてもよい。具体的には、転倒時画像表示領域が、単数のフレームを表示するように構成されており、転倒後画像表示領域が、複数のフレームを表示するように構成されていてもよい。逆に、転倒時画像表示領域が、複数のフレームを表示するように構成されており、転倒後画像表示領域が、単数のフレームを表示するように構成されていてもよい。 The first embodiment and the second embodiment described above may be combined. Specifically, the fall-time image display area may be configured to display a single frame, and the after-fall image display area may be configured to display a plurality of frames. Conversely, the image display area at the time of the fall may be configured to display a plurality of frames, and the image display area after the fall may be configured to display a single frame.
上述した実施形態では特に触れていないが、監視者側端末200(表示装置)の動作は、図6に示すフローを実現するプログラム(表示プログラム)として提供されてもよい。 Although not particularly mentioned in the above-described embodiment, the operation of the supervisor-side terminal 200 (display device) may be provided as a program (display program) that realizes the flow shown in FIG.
100・・・監視対象者側システム、110・・・撮像部、120・・・入力データ処理部、130・・・判定基準格納部、140・・・判定部、150・・・出力データ処理部、160・・・通信部、200・・・監視者側端末、210・・・通信部、220・・・画像格納部、230・・・表示制御部、240・・・ディスプレイ、250・・・オプティカルフロー算出部、260・・・フレーム間差分算出部
DESCRIPTION OF
Claims (9)
前記監視対象者の転倒が検出されたことを示す通知情報を取得する取得部と、
前記監視対象者の転倒が検出されたタイミングである検出タイミング前における前記撮像画像を少なくとも含む転倒時画像を表示領域内に表示するとともに、前記検出タイミング後における前記撮像画像を少なくとも含む転倒後画像を前記表示領域内に表示する表示制御部と、
前記撮像画像を構成する複数のフレームから前記転倒時画像を抽出する転倒時画像抽出部と、
前記撮像画像を構成する複数のフレームから前記転倒後画像を抽出する転倒後画像抽出部とを備え、
前記転倒時画像抽出部によって抽出された前記転倒時画像のフレームの間隔である第1フレーム間隔は、前記転倒後画像抽出部によって抽出された前記転倒後画像のフレームの間隔である第2フレーム間隔よりも短いことを特徴とする表示装置。 A display device that obtains a captured image including a monitoring target person and provides the captured image to the monitoring person,
An acquisition unit that acquires notification information indicating that the monitoring subject's fall has been detected;
A fall-time image including at least the captured image before the detection timing, which is a timing at which the monitoring subject's fall is detected, is displayed in a display area, and an after-fall image including at least the captured image after the detection timing is displayed. A display controller for displaying in the display area;
A fall-time image extraction unit that extracts the fall-time image from a plurality of frames constituting the captured image;
An after-falling image extraction unit that extracts the after-falling image from a plurality of frames constituting the captured image;
The first frame interval that is the frame interval of the image at the time of the fall extracted by the image extraction unit at the time of fall is the second frame interval that is the interval of the frames of the image after the fall extracted by the image extraction unit after the fall A display device characterized by being shorter than that.
前記第1表示領域は、前記転倒時画像を構成する単数のフレームを表示するように構成されており、又は、前記第2表示領域は、前記転倒後画像を構成する単数のフレームを表示するように構成されており、
前記表示制御部は、前記第1表示領域において、前記転倒時画像を構成する単数のフレームを時系列順に切り替えて表示し、又は、前記第2表示領域において、前記転倒後画像を構成する単数のフレームを時系列順に切り替えて表示することを特徴とする請求項1乃至請求項3のいずれかに記載の表示装置。 The display area includes a first display area in which the image at the time of the fall is displayed, and a second display area in which the image after the fall is displayed,
The first display area is configured to display a single frame constituting the image at the time of the fall, or the second display area is configured to display a single frame constituting the image after the fall. Is composed of
In the first display area, the display control unit switches and displays a single frame constituting the fall-time image in chronological order, or a single frame constituting the post-fall image in the second display area. The display device according to any one of claims 1 to 3, wherein the frames are switched and displayed in chronological order.
前記第1表示領域は、前記転倒時画像を構成する複数のフレームを表示するように構成されており、又は、前記第2表示領域は、前記転倒後画像を構成する複数のフレームを表示するように構成されており、
前記表示制御部は、前記第1表示領域において、前記転倒時画像を構成する複数のフレームを同時に時系列順に表示し、又は、前記第2表示領域において、前記転倒後画像を構成する複数のフレームを同時に時系列順に表示することを特徴とする請求項1乃至請求項3のいずれかに記載の表示装置。 The display area includes a first display area in which the image at the time of the fall is displayed, and a second display area in which the image after the fall is displayed,
The first display area is configured to display a plurality of frames constituting the fall-time image, or the second display area is configured to display a plurality of frames constituting the post-fall image. Is composed of
The display control unit simultaneously displays a plurality of frames constituting the fall-time image in time series in the first display area, or a plurality of frames constituting the post-fall image in the second display area. The display device according to claim 1, wherein the display devices are simultaneously displayed in chronological order.
前記転倒時画像及び前記転倒後画像に加えて、現在時刻における前記撮像画像を前記表示領域内に表示し、
前記通知情報の取得に応じて、前記監視対象者の転倒を報知するアラーム情報を前記表示領域内に表示し、
前記転倒時画像を構成するフレームのオプティカルフロー、又は、前記転倒後画像を構成するフレーム間の差分情報に応じて、前記アラーム情報の表示方法を変更することを特徴とする請求項1乃至請求項7のいずれかに記載の表示装置。 The display control unit
In addition to the image at the time of the fall and the image after the fall, the captured image at the current time is displayed in the display area,
In response to the acquisition of the notification information, alarm information for notifying the fall of the monitoring subject is displayed in the display area,
The display method of the alarm information is changed according to an optical flow of a frame constituting the image at the time of the fall or difference information between frames constituting the image after the fall. 8. The display device according to any one of 7.
前記監視対象者の転倒が検出されたことを示す通知情報を取得するステップAと、
前記監視対象者の転倒が検出されたタイミングである検出タイミング前における前記撮像画像を少なくとも含む転倒時画像を表示領域内に表示するとともに、前記検出タイミング後における前記撮像画像を少なくとも含む転倒後画像を前記表示領域内に表示するステップBと、
前記撮像画像を構成する複数のフレームから前記転倒時画像を抽出するステップCと、
前記撮像画像を構成する複数のフレームから前記転倒後画像を抽出するステップDとを実行させ、
前記ステップCで抽出された前記転倒時画像のフレームの間隔である第1フレーム間隔は、前記ステップDで抽出された前記転倒後画像のフレームの間隔である第2フレーム間隔よりも短いことを特徴とする表示プログラム。 A display program for acquiring a captured image including a monitoring target person and providing the captured image to the monitor, the computer,
Step A for obtaining notification information indicating that the monitoring subject's fall has been detected;
A fall-time image including at least the captured image before the detection timing, which is a timing at which the monitoring subject's fall is detected, is displayed in a display area, and an after-fall image including at least the captured image after the detection timing is displayed. Displaying in the display area B;
Extracting the fall-time image from a plurality of frames constituting the captured image; and
Performing the step D of extracting the post-falling image from a plurality of frames constituting the captured image;
The first frame interval that is the frame interval of the image at the time of the fall extracted in the step C is shorter than the second frame interval that is the interval of the frame of the image after the fall extracted in the step D. Display program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007196458A JP2009033564A (en) | 2007-07-27 | 2007-07-27 | Display device and display program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007196458A JP2009033564A (en) | 2007-07-27 | 2007-07-27 | Display device and display program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009033564A true JP2009033564A (en) | 2009-02-12 |
Family
ID=40403553
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007196458A Withdrawn JP2009033564A (en) | 2007-07-27 | 2007-07-27 | Display device and display program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009033564A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014106636A (en) * | 2012-11-26 | 2014-06-09 | Paramount Bed Co Ltd | Watching support device |
WO2015093330A1 (en) * | 2013-12-17 | 2015-06-25 | シャープ株式会社 | Recognition data transmission device |
JP2016066308A (en) * | 2014-09-25 | 2016-04-28 | 富士通株式会社 | Method of monitoring behavior of person, behavior determination method, program of monitoring behavior of person, behavior determination program and information processor |
JP2017163379A (en) * | 2016-03-10 | 2017-09-14 | 株式会社五洋電子 | Wireless communication terminal |
JP2020030843A (en) * | 2014-04-22 | 2020-02-27 | 日本電信電話株式会社 | Video generating device, method thereof, and program |
JP2020071717A (en) * | 2018-10-31 | 2020-05-07 | キヤノン株式会社 | Information processing device, information processing method, and program |
-
2007
- 2007-07-27 JP JP2007196458A patent/JP2009033564A/en not_active Withdrawn
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014106636A (en) * | 2012-11-26 | 2014-06-09 | Paramount Bed Co Ltd | Watching support device |
WO2015093330A1 (en) * | 2013-12-17 | 2015-06-25 | シャープ株式会社 | Recognition data transmission device |
US20160335861A1 (en) * | 2013-12-17 | 2016-11-17 | Sharp Kabushiki Kaisha | Recognition data transmission device |
JPWO2015093330A1 (en) * | 2013-12-17 | 2017-03-16 | シャープ株式会社 | Recognition data transmission device, recognition data recording device, and recognition data recording method |
US10699541B2 (en) | 2013-12-17 | 2020-06-30 | Sharp Kabushiki Kaisha | Recognition data transmission device |
JP2020030843A (en) * | 2014-04-22 | 2020-02-27 | 日本電信電話株式会社 | Video generating device, method thereof, and program |
JP2016066308A (en) * | 2014-09-25 | 2016-04-28 | 富士通株式会社 | Method of monitoring behavior of person, behavior determination method, program of monitoring behavior of person, behavior determination program and information processor |
JP2017163379A (en) * | 2016-03-10 | 2017-09-14 | 株式会社五洋電子 | Wireless communication terminal |
JP2020071717A (en) * | 2018-10-31 | 2020-05-07 | キヤノン株式会社 | Information processing device, information processing method, and program |
JP7214437B2 (en) | 2018-10-31 | 2023-01-30 | キヤノン株式会社 | Information processing device, information processing method and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6500785B2 (en) | INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM | |
JP6390860B2 (en) | Left object monitoring device, left object monitoring system including the same, and left object monitoring method | |
WO2015133195A1 (en) | Information processing device, information processing method, and program | |
JP2009033564A (en) | Display device and display program | |
JP2004021495A (en) | Monitoring system and monitoring method | |
JP2014123261A (en) | Information processor and recording medium | |
JP6780641B2 (en) | Image analysis device, image analysis method, and image analysis program | |
KR20130094489A (en) | System and method for monitoring emergency motion based image | |
US20180082413A1 (en) | Image surveillance apparatus and image surveillance method | |
JP6119938B2 (en) | Image processing system, image processing apparatus, image processing method, and image processing program | |
JP2008146583A (en) | Attitude detector and behavior detector | |
JP2018151834A (en) | Lost child detection apparatus and lost child detection method | |
CN110648500A (en) | Tumbling remote processing method and device, robot, storage medium and processing system | |
JP2000207665A (en) | Falling detecting device | |
JP5701657B2 (en) | Anomaly detection device | |
JP2017194971A (en) | Monitored person monitoring device and method thereof, as well as monitored person monitoring system | |
JP5074067B2 (en) | Suspicious object monitoring device | |
JP2005143016A (en) | Monitoring system and monitoring method | |
JP5691750B2 (en) | Abandoned or taken away detection system and method for detecting a leaving or removed occurrence time in the detection system | |
JP2008152717A (en) | Apparatus for detecting fall-down state | |
JP6645503B2 (en) | Image analysis device, image analysis method, and image analysis program | |
JP7062753B2 (en) | Monitoring system and monitoring method | |
KR102544147B1 (en) | Image Analysis based One Person Fall Detection System and Method | |
JP7095870B2 (en) | Information processing equipment | |
JP2001224011A (en) | Abnormality supervisory method and system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20101005 |