JP2014182409A - 監視装置 - Google Patents

監視装置 Download PDF

Info

Publication number
JP2014182409A
JP2014182409A JP2013054425A JP2013054425A JP2014182409A JP 2014182409 A JP2014182409 A JP 2014182409A JP 2013054425 A JP2013054425 A JP 2013054425A JP 2013054425 A JP2013054425 A JP 2013054425A JP 2014182409 A JP2014182409 A JP 2014182409A
Authority
JP
Japan
Prior art keywords
monitoring
unit
input
marker
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013054425A
Other languages
English (en)
Other versions
JP6182917B2 (ja
Inventor
Toru Yasukawa
徹 安川
Shoichi Detachi
祥一 出立
Masayoshi Kamitsuji
雅義 上辻
Takeshi Murai
猛 村井
Shuichi Matsumoto
修一 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Noritsu Precision Co Ltd
Original Assignee
NK Works Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NK Works Co Ltd filed Critical NK Works Co Ltd
Priority to JP2013054425A priority Critical patent/JP6182917B2/ja
Priority to US14/213,143 priority patent/US9998712B2/en
Publication of JP2014182409A publication Critical patent/JP2014182409A/ja
Application granted granted Critical
Publication of JP6182917B2 publication Critical patent/JP6182917B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0407Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis
    • G08B21/0423Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis detecting deviation from an expected pattern of behaviour or schedule
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0407Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis
    • G08B21/043Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis detecting an emergency event, e.g. a fall
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0438Sensor means for detecting
    • G08B21/0476Cameras to detect unsafe condition, e.g. video cameras
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/18Status alarms
    • G08B21/22Status alarms responsive to presence or absence of persons

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Emergency Management (AREA)
  • Business, Economics & Management (AREA)
  • Multimedia (AREA)
  • Gerontology & Geriatric Medicine (AREA)
  • General Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Psychology (AREA)
  • Psychiatry (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Alarm Systems (AREA)
  • Emergency Alarm Devices (AREA)
  • Invalid Beds And Related Equipment (AREA)
  • Accommodation For Nursing Or Treatment Tables (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】撮影部の設置位置が制限されず、設定の変更を容易に行うことができる監視装置を提供する。
【解決手段】撮影部2で撮影された前記監視対象者Xをリアルタイムで表示するとともに、当該監視対象者の位置を特定するためのマーカーを表示する表示部3と、監視対象者に対する前記撮影部の相対的な設置位置の入力を受け付ける第1入力部と、前記設置位置に応じて前記撮影部で撮影される前記監視対象者の置かれた環境を予め規定した監視環境データが記憶された第1記憶部と、前記第1入力部に入力された設置位置に基づいて前記第1記憶部から前記監視環境データを読み出して監視環境条件を設定する第1設定制御部と、前記設置位置において前記撮影部の位置及び向きの少なくとも一方を変化させることで、前記表示部に表示された前記監視対象者と前記マーカーとを位置合わせした後に、前記監視対象者の監視基準位置として記憶する。
【選択図】図1

Description

本発明は、監視装置に関する。
近年、入院患者、施設入居者、要介護者等がベッドから転倒、転落する事故、及び、認知症患者の徘徊による事故が年々増加する傾向にある。このような事故を防止する方法として、例えば、病院では、荷重センサ、体動式ワイヤ、赤外線センサ等の器具を用いて、起き上がり、端座位、離床等の見守り対象者の行動を検出する監視システムが導入されている。例えば、特許文献1には、ベッドに寝ている患者が起床挙動を行ったことを判定するための見守り領域を、ベッドに就寝している患者を含むベッドの直上の領域に設定することが開示されている。そして、ベッドの横方向から見守り領域を含む撮像画像の見守り領域に占める患者と思われる画像領域の大きさを示す変動値が、患者がベッドに寝ている状態でカメラから得られた撮像画像の見守り領域に占める患者と思われる画像領域の大きさを示す初期値未満である場合に、患者が起床挙動を行っていると判断している。
特開2011−005171号公報
ところが、特許文献1に記載の技術では、カメラを含む撮影部の位置を固定しているため、その位置を簡単に変更することはできなかった。これは、カメラの位置と、撮像画像の見守り領域とが対応しているため、カメラの位置を変更すると、見守り領域の設定も変更しなければならないからである。したがって、従来の技術で患者を見守るには、カメラを固定しなければならず、病室やベッドの形態に起因してカメラの位置を変更を要する場合には、そもそもカメラによる見守りを行うことができなかった。あるいはカメラの位置の変更を行う場合には、これに伴って見守り領域の設定変更などを行う必要があり、システムの設定に多大な労力を要するという問題があった。なお、このような問題は、介護における現場のみならず、特定の監視対象者の行動を監視する場合に起こりうる問題である。
本発明は、上記問題を解決するためになされたものであり、撮影部の設置位置が制限されず、設定の変更を容易に行うことができ、しかも、監視対象者の動作を正確に分析することが可能な監視装置を提供することを目的とする。
本発明は、監視対象者の動作を監視する監視装置であって、撮影部と、前記撮影部で撮影された前記監視対象者をリアルタイムで表示するとともに、当該監視対象者または監視対象基準物の位置を特定するためのマーカーを表示する表示部と、監視対象者または監視対象基準物に対する前記撮影部の相対的な設置位置の入力を受け付ける第1入力部と、前記設置位置に応じて前記撮影部で撮影される前記監視対象者の置かれた環境を予め規定した監視環境データが記憶された第1記憶部と、前記第1入力部に入力された設置位置に基づいて前記第1記憶部から前記監視環境データを読み出して監視環境条件を設定する第1設定制御部と、前記設置位置において前記撮影部の位置及び向きの少なくとも一方を変化させることで、前記表示部に表示された前記監視対象者または監視対象基準物と前記マーカーとを位置合わせした後に、当該位置合わせの完了の入力を受け付ける第2入力部と、前記位置合わせが完了した前記マーカーの位置を、前記監視対象者または監視対象基準物の監視基準位置として記憶する第2記憶部と、前記監視環境条件、及び前記第2入力部に入力された前記監視基準位置に基づいて、前記撮影部で撮影された前記監視対象者の画像から当該監視対象者の動作を分析するための基準となる監視基準条件を設定する第2設定制御部と、前記監視基準条件に基づいて、前記撮影部により撮影された前記監視対象者の画像を分析し、前記監視対象者の動作を検知する画像分析部と、を備えている。なお、監視対象基準物とは、例えば、監視対象者の周囲にある家具などの構造物とすることができる。
この構成によれば、次の効果を得ることができる。まず、撮影部で撮影された監視対象者の画像を分析するにあたっては、監視対象者の基準位置などを特定する必要があり、この基準位置と、監視対象者の画像とを対比することで、監視対象者の動作を分析する。このとき、表示部に表示される監視対象者は、装置の位置によって表示のされ方が相違するという問題が生じる。例えば、監視対象者を正面から撮影する場合と、側面から撮影する場合とでは、同じ監視対象者であっても、表示部に表示される監視対象者の形状、向き、大きさが相違することがある。したがって、撮影部の設置位置が変わると、同じ動作であっても、撮影される監視対象者の画像の形状等が異なるため、監視対象者の動作を正確に分析できない可能性があった。そのため、従来は撮影部の位置や向きを固定せざるを得なかった。
そこで、本発明では、撮影部の設置位置に応じて、撮影される監視対象者の置かれた環境を予め規定した監視環境データを記憶しておく。この監視環境データにより、撮影部の設置位置に応じた画像の分析が可能となる。すなわち、撮影部によって撮影される画像は、上述したように、撮影部の設置位置によって異なるため、このような監視環境データを参照すれば、撮影部の設置位置ごとに監視対象者の置かれた環境が監視環境条件として設定されるため、その環境を基準として監視対象者の動作の分析を正確に行うことができる。さらに、表示部に表示される監視対象者または監視対象基準物とマーカーとの位置合わせを行い、位置合わせされたマーカーの位置を監視基準位置として記憶しているので、撮影された画像の中での監視対象者または監視対象基準物の位置を正確に特定することができる。こうして設定された監視環境データ及び監視基準位置に基づいて、前記撮影部で撮影された前記監視対象者の画像から当該監視対象者の動作を分析するための基準となる監視基準条件を生成すれば、設置位置に応じた監視対象者の周囲の環境、つまり動作の基準を設けることができるため、撮影部により撮影された監視対象者の画像を正確に分析することができる。
上述した監視装置では、撮影部を支持する支持部をさらに備えることができる。そして、撮影部は、支持部に対する向き及び位置の少なくとも一方が調整可能に構成することができる。このような構成によれば、まず、支持部の位置を決めることで、上述した撮影部の設置位置が決まる。その後、支持部に対する撮影部の角度や上下方向などの位置を調整することで、マーカーの位置合わせを行うことができる。
上述した監視装置において、上記マーカーの位置合わせは、手動で行うこともできるが、機械的に行うこともできる。例えば、前記表示部に表示される前記監視対象者または監視対象基準物の位置の入力を受け付ける第3入力部と、前記支持部に対する前記撮影部の位置及び向きの少なくとも一方を変化させる駆動部と、をさらに備え、前記第2設定制御部が、前記第3入力部により受け付けられた前記表示部上の前記監視対象者または監視対象基準物の位置へ、前記マーカーを位置合わせするように、前記駆動部の制御を行うように構成することができる。これにより、マーカーと監視対象者との位置合わせを自動で行うことができる。駆動部は、例えば、機械的な機構やモータなどを組み合わせることで、撮影部の角度や位置を調整することができる。
上述した監視装置において、前記表示部は、前記設置位置の候補を示す複数の設置位置候補を表示するとともに、前記第1入力部から前記設置位置候補の1つの入力を促す表示を行うことができる。このようにすると、設置位置の入力が容易になる。
上述した監視装置においては、前記マーカーを、人の形状または監視対象基準物の形状をなすように構成し、前記設置位置に応じて、前記表示部に表示される前記マーカーの向き及び形状の少なくとも一方が相違するように構成することができる。このようにすると、表示部に表示される監視対象者とマーカーとの位置合わせが容易になる。
上述した監視装置において、前記監視環境データは、少なくとも、前記監視対象者の周囲に配置されるとともに前記撮影部により撮影された画像に含まれる前記監視対象基準物の形態を有することができる。監視対象基準物の形態とは、撮影された画像に含まれる基準物の大きさ、形状、向きなどとすることができる。
上述した監視装置は、前記画像分析部により検知された前記監視対象者の動作を通知する通知部、をさらに備えることができる。こうすることで、監視対象者の動作を容易に知ることができる。
本発明によれば、監視対象者の動作を正確に分析することが可能となる。
本発明の第1実施形態に係る監視装置の概略図である。 図1の情報処理装置のハードウェア構成を示すブロック図である。 図1の情報処理装置の機能構成を示すブロック図である。 液晶ディスプレイの操作画面の一例を示す図である。 液晶ディスプレイの操作画面の一例を示す図である。 撮影された画像における環境領域と動体領域を示す図である。 撮影された画像における環境領域と動体領域を示す図である。 画像分析部による画像分析の手順を示すフローチャートである。 患者の起き上がりを示す画像である。 第1実施形態に係る監視装置の監視手順を示すフローチャートである。 本発明の第2実施形態に係る情報処理装置のブロック図である。 本発明の第2実施形態に係る操作画面の一例を示す図である。 第2実施形態に係る監視装置の監視手順を示すフローチャートである。 マーカーの他の例を示す図である。 マーカーとしてベッドを示した場合の操作画面の一例を示す図である。
<1.第1実施形態>
以下、本発明に係る監視装置を、病院における入院患者(監視対象者)の行動を見守る場面に適用した第1実施形態について、図面を参照しつつ説明する。
<1−1.監視装置の概要>
本実施形態に係る監視装置は、入院患者の行動を見守るため、病室における入院患者Xのベッド100の近傍に配置される。具体的には、この監視装置は、床面から上方に延びる支持部1を備えており、この支持部1によってカメラ(撮影部)2と液晶ディスプレイ(表示部)3が支持されている。また、この監視装置には、カメラ2及び液晶ディスプレイ3の動作を制御する情報処理装置4が設けられている。
支持部1は、上下方向に延びる棒状部材11と、この棒状部材11の下端部に取付けられる基台12とを備えている。基台12は、床面に載置されるものであり、棒状部材11を支持している。棒状部材11は、伸縮可能に構成されており、その上端部には上述したカメラ2が取付けられている。また、このカメラ2は棒状部材11に対して角度を調整可能となっている。これにより、カメラ2は、棒状部材11の伸縮により上下方向にその位置を変更することができ、さらに角度も調整することができる。そのため、ベッド100にいる入院患者Xに対するカメラ2の位置合わせを容易に行うことができる。
液晶ディスプレイ3は、タッチパネル式とすることができ、カメラ2で撮影される画像をリアルタイムで表示するとともに、操作者(典型的には医療従事者)により操作される。また、この液晶ディスプレイ3は、棒状部材11の中間部に着脱自在に取付けられており、操作時には、棒状部材11から取り外して使用することもできる。カメラ2及び液晶ディスプレイ3は、情報処理装置4に対して無線で接続されており、例えばブルートゥース(Bluetooth:登録商標)方式、UWB(Ultra Wide Band)方式、無線LAN(Local Area Network)などによる近距離無線通信により接続することができる。但し、これらをケーブル等の有線で接続することもできる。
<1−2.情報処理装置のハードウェア構成>
次に、情報処理装置4について説明する。まず、情報処理装置4のハードウェア構成について、図2を参照しつつ説明する。図2は、本実施形態に係る情報処理装置4のハードウェア構成を例示する。同図に示すように、この情報処理装置4は、CPU、RAM(Random Access Memory)、及び、ROM(Read Only Memory)等を含む制御部41、制御部41で実行するプログラム51や監視用の監視環境データ52等を記憶する記憶部42、ネットワークを介して通信を行うための通信インタフェース43、記憶媒体6に記憶されたプログラムを読み込むためのドライブ44、及び、外部装置と接続するための外部インタフェース45が電気的に接続されたコンピュータである。このほか、情報処理装置4として、例えば、提供されるサービス専用に設計された装置の他、PC(Personal Computer)、タブレット端末等の汎用の装置が用いられてよい。また、情報処理装置4は、1又は複数のコンピュータにより実装されてもよい。
なお、情報処理装置4の具体的なハードウェア構成に関して、実施形態に応じて、適宜、構成要素の省略、置換、及び、追加が可能である。例えば、制御部41は、複数のプロセッサを含んでもよい。また、情報処理装置4は、ディスプレイ等の出力装置、及び、マウス、キーボード等の入力を行うための入力装置を備えてもよい。なお、図2では、通信インタフェース及び外部インタフェースは、それぞれ、「通信I/F」及び「外部I/F」と記載される。
また、この情報処理装置4は、複数の外部インタフェース45を備え、複数の外部装置と接続されてもよい。本実施形態の情報処理装置4は、通信インタフェース43を介して上述したカメラ2と液晶ディスプレイ3とが無線で接続されている。また、外部インタフェース45を介して、ナースコール等の施設に設置された設備に接続することもできる。これにより、入院患者に危険の迫る予兆があることを知らせるための通知を当該設備と連携することができる。なお、カメラ2や液晶ディスプレイ3を有線で接続する場合には、これらは外部インタフェース45に接続される。
上述した制御部41により実行されるプログラム5は、情報処理装置4に後述する動作に含まれるステップを実行させるプログラムであるが、記憶部42に記憶されるほか、記憶媒体6に記録されていてもよい。記憶媒体6は、コンピュータその他装置、機械等が記録されたプログラム等の情報を読み取り可能なように、当該プログラム等の情報を、電気的、磁気的、光学的、機械的、又は、化学的作用によって蓄積する媒体である。図2では、記憶媒体6の一例として、CD(Compact Disk)、DVD(Digital Versatile Disk)等のディスク型の記憶媒体を例示しているが、記憶媒体6の種類は、ディスク型に限定される訳ではなく、ディスク型以外であってもよい。ディスク型以外の記憶媒体として、例えば、フラッシュメモリ等の半導体メモリを挙げることができる。
<1−3.情報処理装置の機能構成>
図3は、本実施形態に係る情報処理装置4の機能構成の一例を示す。本実施形態に係る情報処理装置4が備えるCPUは、記憶部42に記憶されたプログラム5をRAMに展開する。そして、CPUは、RAMに展開されたプログラム5を解釈及び実行して、各構成要素を制御する。これにより、本実施形態に係る情報処理装置4は、表示制御部71、第1設定制御部72、第2設定制御部73、及び画像分析部74を備えるコンピュータとして機能する。以下、これらを説明する。
表示制御部71は、液晶ディスプレイ3に表示される操作画面の制御を行うものである。例えば、操作画面の表示の制御、カメラ2で撮影された画像を受信し、これをリアルタイムで液晶ディスプレイ3に表示させるための制御、液晶ディスプレイ3の表示設定など、液晶ディスプレイ3に表示される各種の表示状態の制御を行う。ここで、液晶ディスプレイ3に表示される操作画面30の例について,図4を参照しつつ説明する。同図に示すように、操作画面30の左側には、監視装置の設置位置を設定する設置位置設定領域31が設けられ、右側にはカメラ2で撮影された画像をリアルタイムで表示する画像表示領域32が設けられている。また、操作画面30の下部の右側には、後述するように入院患者の位置を確定させる確定ボタン33、操作画面30の下部の左側には、確定ボタン33の操作をキャンセルするためのキャンセルボタン34が設けられている。上述したように、この液晶ディスプレイ3にはタッチパネルが設けられているため、ボタン33,34の押下などの入力操作は、液晶ディスプレイ3をタッチすることで行うことができる。
操作画面30に設けられた設置位置設定領域31の上部には、「(1)カメラの位置をタッチしてください」との、設置位置の入力を促す表示311がなされている。また、この表示の下方には、入院患者が就寝するための矩形状のベッド310が入院患者313の頭側が上方になるように表示され、その周囲の8箇所にカメラの設置位置312a〜312hの候補(円形の表示)が表示されている。より詳細に説明すると、カメラの設置位置の候補312a〜312hは、ベッド310の4つの角部近傍、及びベッド310の上下左右の各辺の中央付近に設けられており、いずれかをタッチすることで、カメラ2の設置位置が入力される。なお、図4の例では、右上の設置位置312cの色が変化しているが、これは、この設置位置312cが選択されたことが示されている。
カメラ2の設置位置が入力されると、第1設定制御部72は、画像分析のための監視環境条件を設定する。カメラ2で撮影される画像は、例えば、入院患者を上方から撮影する場合と、側方から撮影する場合とでは、同じ入院患者であっても、液晶ディスプレイ3に表示される患者やその周囲の構造物の形状、向き、大きさが相違する。すなわち、カメラ2の位置によって画像分析を行う前提となる患者の画像、あるいは患者の周囲の構造物などの画像が相違する。そこで、本実施形態では、上記のように、カメラ2の位置を入力させ、画像分析の前提となる監視環境条件を設定する。
より詳細に説明すると、図4の操作画面の画像表示領域32には、カメラ2が斜め上方に配置されている場合の画像が示されているが、例えば、図5に示すように、カメラ2をベッド100の足下側(設置位置312g)に配置すると、画像表示領域32に表示される画像が全く相違する。つまり、図4の画像と図5の画像とでは、入院患者X及びベッド100の向き、形状、大きさが異なる。したがって、入院患者Xの動作を画像によって分析するためには、少なくとも、ベッド100を含めた入院患者Xの周囲の環境を特定する必要がある。そのため、本実施形態では、カメラ2の設置位置ごとに設定された監視環境データを記憶部42に記憶している。監視環境データとは、入院患者Xの置かれた周囲の環境を予め規定されたものであり、例えば、撮影画像におけるベッド100の位置、大きさ、形状や、入院患者Xの動き得る領域を規定したものである。例えば、図4で示した例の監視環境データは、図6に示されている。すなわち、設置位置ごとの撮影された画像の中のベッドを示す環境領域200、及び患者が動き得る動体領域300であり、これらの画像の座標などが監視環境データとなる。同様に、図5で示した例の監視環境データは、図7に、ベッドを示す環境領域200、及び患者が動き得る動体領域300として示されている。このように、監視の前提となる入院患者Xの置かれた環境となる画像は、カメラ2の位置によって全く相違するため、本実施形態では、カメラ2の位置が入力されると、第1設定制御部72が、入力されたカメラ2の位置に対応する監視環境データを記憶部42から読み出し、これを監視環境条件として設定する。このような監視環境データは、カメラ2の配置される位置ごとに、予めベッドの大きさや形状などに基づいて決定される。
上記のように、カメラ2の位置が入力されると、第1設定制御部72は、図4に示すように、画像表示領域32にマーカーMを表示させる。マーカーMは、人の形状(点線で示された輪郭)をしており、カメラ2の設置位置ごとに、監視環境データの1つとして設定されている。すなわち、マーカーMで示される人の形状は、カメラ2の位置によって異なるからである。例えば、図4の画像表示領域32には、表示されたベッド100に適合するような人の形状をなしたマーカーMが表示される。なお、マーカーMの表示は、第2設定制御部73が行ってもよい。
図4に示す例では、マーカーMの位置と、画像表示領域32に表示された入院患者の位置が相違している。そのため、操作者は、カメラ2を動かすことで、マーカーMの位置と入院患者Xの位置とを一致させる。この点については、画像表示領域32の上部に、「(2)頭の位置がマーカーの頭と合うようにカメラの方向を調整してください」との表示により、操作者に調整を促している。上記のように、カメラ2は、棒状部材11に対して角度や高さを変更することができるため、操作者は、画像表示領域32を見ながら、両者の位置を一致させる。そして、位置合わせが完了すると、操作者は確定ボタン33を押下する。こうして、確定ボタン33が押下されると、第2設定制御部73は、画像におけるマーカーMの位置を監視基準位置として設定する。すなわち、画像上の入院患者Xの位置(画像上の座標など)が決定される。
これに続いて、第2設定制御部73は、上記のように読み出した監視環境条件と、設定された監視基準位置に基づいて、監視基準条件を設定する。上述の監視環境条件は、カメラ2の位置に基づいて決定されているベッド100などの形態であるが、正確な位置までは設定されてないため、上記のように、マーカーMを位置合わせすることで、画像中のベッド100の位置を特定する。これに基づいて、監視基準条件が設定される。すなわち、監視基準条件とは、最初に設定された監視環境条件、つまり撮影画像の中で患者Xの周囲に配置されたベッド(監視対象基準物)の位置を、マーカーMにより設定された監視基準位置に基づいて修正したものであり、これにより、画像の中でのベッド100の正確な位置が特定される。
こうして、第2設定制御部73は、監視基準条件が設定されると、入院患者Xの監視の準備が整う。入院患者Xの動作の分析は、画像分析部74により行われる。画像分析部74は、種々の構成を取ることができるが、以下に、画像分析部74による画像分析の例を示す。
<1−4.画像分析の例>
図8は、本実施形態に係る情報処理装置4の動作例を示すフローチャートである。なお、以下で説明する動作例の処理手順は一例に過ぎず、各処理は、可能な限り入れ替えられてよい。また、以下で説明する動作例の処理手順について、実施の形態に応じて、適宜、処理の省略、置換、及び、追加が可能である。
ステップS101では、画像分析部74は、患者Xとこの患者の行動の基準となる監視対象基準物(ここではベッド100)とを撮影した動画像を取得する。本実施形態では、画像分析部74は、入院患者Xとベッド100とを撮影した動画像をカメラ2から取得する。
この場合、画像分析部74は、カメラ2に対するビデオ信号に同期させて画像を取得してもよい。そして、画像分析部74は、後述するステップS102〜S103までの処理を取得した画像に対して即座に実行してもよい。情報処理装置4は、当該動作を連続して絶え間なく実行することで、リアルタイム画像処理を実現し、リアルタイムに入院患者又は施設入居者の行動を見守ることを可能にする。
ステップS102では、画像分析部74は、ステップS101で取得した動画像中から、上述した動きが生じている動体領域300、換言すると、動体が存在する領域を検出する。動体を検出する方法として、例えば、差分画像を用いる方法及びオプティカルフローを用いる方法を挙げることができる。
差分画像を用いる方法とは、異なる時間に撮影された複数の画像の差を観察することで、動体を検出する方法である。当該方法の具体例として、背景画像と入力画像との差分から動体領域300を検出する背景差分法、異なる3枚の画像を用いて動体領域300を検出するフレーム間差分法、及び、統計的モデルを適用して動体領域300を検出する統計的背景差分法を挙げることができる。
また、オプティカルフローを用いる方法とは、物体の動きをベクトルで表現したオプティカルフローに基づいて動体を検出する方法である。オプティカルフローは、具体的には、異なる時間に撮影された2枚の画像間で対応付けられた同じ対象の移動量をベクトルデータとして表現する。当該オプティカルフローを求める方法の一例として、例えば、テンプレートマッチングを用いてオプティカルフローを求めるブロックマッチング法、及び、時空間微分の拘束を利用してオプティカルフローを求める勾配法を挙げることができる。当該オプティカルフローは物体の移動量を表現するため、当該方法では、オプティカルフローのベクトル値が零ではない画素を集めることで動体領域を検出することができる。
画像分析部74は、これらの方法からいずれかの方法を選択して、動体を検出してもよい。また、動体を検出する方法は、以上のいずれかの方法からユーザによって選択されてもよい。動体を検出する方法は、以上のいずれかの方法に限定されず、実施の形態に応じて、適宜、選択されてよい。
ステップS103では、画像分析部74は、ベッド100が存在する領域として動画像内に設定された環境領域200とステップS102において検出された動体領域300との位置関係に応じて、患者Xのベッド100に関する行動を推定する。本実施形態では、画像分析部74は、患者Xのベッド100に関する行動として、ベッド100上での起き上がり、ベッド100における端座位、ベッド100の柵越え、ベッド100からの落下、及び、ベッド100からの離床、のうちの少なくともいずれかの行動を推定する。以下では、このうちベッド100からの起き上がりについて説明する。なお、本実施形態では、患者の行動の基準となる監視対象基準物としてベッド100が選択されているため、環境領域200は、ベッド領域、ベッドエリア等と称されてもよい。
患者Xが、図7で例示されるような状態、換言すると、ベッド100上で仰向けに寝ている状態(仰臥位)から図9で例示されるように起き上がったとする。この場合、情報処理装置4の画像分析部74は、ステップS101において、ベッド100の足下側のカメラ2から、図9でその一場面が例示されるような動画像を取得することができる。
このとき、患者Xは仰臥位の状態から上半身を起こすため、ステップS101において取得される動画像では、ベッド100上方の領域であって、患者の上半身部分が映る領域に、動きが生じると想定される。すなわち、ステップS102において、図9で例示される位置付近に動体領域300が検出されると想定される。
ここで、図9に例示されるように、動画像内にベッド100が映る領域を含むように環境領域200が設定されていると仮定する。そうすると、患者Xがベッド100上で起き上がった場合には、ステップS102では、環境領域200の上端周辺の動体領域300に、動体が検出されると想定される。
そこで、ステップS103において、画像分析部74は、環境領域200と図9で例示されるような位置関係で動体領域300に、動体が検出される場合に、換言すると、環境領域200の上端周辺の動体領域300に動体が検出される場合に、患者Xがベッド100上で起き上がったと推定する。こうして、起き上がりが推定されると、必要に応じてこれを通知する(ステップS104)。すなわち、ナースコールなどの設備で、患者の起き上がりを知らせるようにする。
なお、図9では、動きが生じている動体領域300の形状は矩形で例示されている。しかしながら、当該例示は、動体領域が矩形状に行われなければならないことを示すものではない。以上のような起き上がりの動作の検出と同様に、ベッドにおける端座位、ベッドの柵越え、ベッドからの落下、及び、ベッドからの離床についても、同様に各動作に応じた環境領域200及び動体領域300を設定することで、検知することができる。
但し、以上は一例であり、少なくとも画像上で環境領域200としてベッド100の位置が特定されていればよい。そして、動体領域200は、検出すべき患者の動作に応じて決定すればよい。例えば、上記の動体領域200は起き上がりを想定したものであるが、ベッドの側部に動体領域を設定すれば、端座位を検出することができる。また、動体領域を特に設定せず、検出した動体とベッド100との位置関係から、上述した端座位、ベッドの柵越え、ベッドからの落下、及び、ベッドからの離床などを検知することもできる。
<1−5.監視手順>
次に、上記のように構成された監視装置を用いた監視の手順について、図10に示すフローチャートを参照しつつ説明する。まず、患者Xがベッド100上にいることを確認した上で、情報処理装置4を含めた監視装置の電源をONにする。これにより、液晶ディスプレイ3に図4に示すような操作画面が表示される。次に、監視装置の支持部1を入院患者のベッド100の周囲のいずれかの位置に配置する(ステップS201)。ここでは、図4と同じく、ベッド100の頭側の右の角に配置する。この状態で、操作画面の設置位置設定領域31に表示されたカメラ位置の候補から、支持部1が設置された位置を押下する(ステップS202)。これにより、第1設定制御部72は、入力されたカメラ2の位置から、これに対応する環境基準データを記憶部42から読み出し、環境基準条件として設定する(ステップS203)。同時に、画像表示領域32には、図4に示すように、カメラ2の位置に対応したマーカーMが表示される。
次に、操作者は、画像表示領域32に表示されたマーカーMと患者Xとを位置合わせする。具体的には、画像表示領域32の上部の説明文に記載のように、人の形状をなしているマーカーMの頭の部分を、患者Xの頭に位置決めする。そのために、操作者は、カメラ2の角度を調整したり、あるいは棒状部材11を伸縮させつつ、液晶ディスプレイ3を見ながら、位置合わせを行う。このとき、液晶ディスプレイ3を棒状部材11から取り外し、操作者が見やすい位置に液晶ディスプレイ3を置いた状態で、位置合わせを行ってもよい。こうして、位置合わせが完了すると(ステップS204のYES)、操作画面の完了ボタンを押下する(ステップS205)。これにより、第2設定制御部73は、位置合わせが行われたマーカーMの位置が監視基準位置として設定し、この監視基準位置に基づいて、環境基準条件のベッド100の位置を修正した監視基準条件を設定する(ステップS206)。ここで、再度の位置合わせや、あるいは監視装置の設置位置を変更したい場合には(ステップS207のYES)、操作画面のキャンセルボタン34を押下する(ステップS208)。これにより、設置位置を再度設定することができる。そして、再度の設定が必要ない場合には(ステップS207のNO)、上述したような画像分析部74による監視が開始される(ステップS209)。
以上のように、本実施形態によれば、カメラ2の設置位置に応じて、撮影される患者Xの置かれた環境を予め規定した監視環境データを記憶いるので、この監視環境データにより、カメラ2の設置位置に応じた画像の分析が可能となる。すなわち、カメラ2によって撮影される画像は、上述したように、カメラ2の設置位置によって異なるため、このような監視環境データを参照すれば、カメラ2の設置位置ごとに患者Xの置かれた環境が監視環境条件として設定されるため、その環境を基準として患者Xの動作の分析を正確に行うことができる。さらに、液晶ディスプレイ3に表示される患者XとマーカーMとの位置合わせを行い、位置合わせされたマーカーMの位置を監視基準位置として記憶しているので、これに基づいて、撮影された画像の中でのベッド100の位置を正確に特定することができる。すなわち、最初に設定されたベッド100の位置等である監視環境条件が、監視基準位置に基づいて修正され、画像中でのベッド100の正確な位置が特定された監視基準条件が生成される。これにより患者Xの周囲の環境、つまり動作の基準を設けることができるため、カメラ2により撮影された患者Xの画像を正確に分析することができる。
<2.第2実施形態>
次に、本発明の第2実施形態に係る監視装置について、図面を参照しつつ説明する。ここでは、主として第1実施形態との相違部分について説明を行う。したがって、同一構成には同一の符号を付し、その説明を省略する。
本実施形態が、第1実施形態と相違するのは、液晶ディスプレイに表示されるマーカーと患者Xとの位置合わせの機構であり、第1実施形態では、これを操作者が手動で行っていたのに対し、本実施形態に係る監視装置では、これ機械により行う。そのための構成について、第1実施形態と相違する点について説明する。
まず、カメラ2は、棒状部材11に対し、駆動部20によって角度を調整することができるようになっている。駆動部20は、カメラ2の角度を調整するための歯車、リンク機構などの角度調整機構(図示省略)と、これを駆動するサーボモータなどのモータ(図示省略)とで構成されている。また、棒状部材11の伸縮についても、モータで行うことができる。図11に示すように、駆動部20は、情報処理装置に対し、無線または有線で接続されている。
また、第1実施形態において、情報処理装置4の機能構成の1つとして説明した第2設定制御部の機能が第1実施形態とは相違する。この点について、図12を参照しつつ説明する。第1実施形態では、画像表示領域32にマーカーMが表示されると、これを手動で患者Xに位置合わせしたが、第2実施形態では、画像表示領域32に表示された患者Xの位置を入力する。すなわち、画像表示領域32の上部の文字321により促すように、マーカーMが表示された後、画像表示領域32に表示された患者Xの頭をタッチする。これにより、第2設定制御部73は、マーカーMの頭の部分が、タッチされた患者Xの頭と一致するような、カメラ2の調整角度(またはこれに加えて棒状部材の伸縮長さ)を算出し、モータを駆動する。
以上のような構成を備えた監視装置による監視の手順について、図13のフローチャートを参照しつつ説明する。ここでは、主として、第1実施形態と相違する点について説明する。ステップS301〜S303を経ると、画像表示領域32には、カメラ2の位置に対応したマーカーMが表示される。これに対して、操作者は、画像表示領域32に表示されたマーカーMと患者Xとを位置合わせするため、画像表示領域32に表示された患者Xの頭をタッチする(ステップS304)。これにより、患者の頭の位置が情報処理装置4に入力され、その位置から第2設定制御部73はカメラ2の調整角度を算出し、駆動部20に制御信号を送信する。駆動部20は制御信号に基づいて、カメラ2の角度を調整する。そして、操作者は、液晶ディスプレイ3を見てマーカーMの位置の確認を行い、位置合わせが完了したと判断すると(ステップS305のYES)、操作画面の完了ボタンを押下する(ステップS306)。これにより、第2設定制御部73は、位置合わせが行われたマーカーMの位置が監視基準位置として設定され、この監視基準位置と環境基準条件とにより、監視基準条件が設定される(ステップS307)。その後、ステップは、第1実施形態と同じである。
以上のように、本実施形態によれば、マーカーと患者との位置合わせを自動で行うことができるため、作業が容易になり、操作者の負担を軽減することができる。
<3.変形例>
以上、本発明の実施形態について説明したが、本発明はこれら実施形態に限定される者ではなく、その趣旨を逸脱しない限りにおいて、種々の変更が可能である。
<3.1>
上記実施形態では、マーカーMは、患者の全身の形状を示しているが、患者の少なくとも一部が表されていればよく、例えば、図14に示すような人の上半身の一部を正面から見た形態(a)、または人の上半身の一部を側面から見た形態(b)とすることもできる。
<3.2>
上記実施形態では、患者とマーカーMとの位置合わせを行っているが、患者ではなく、監視対象基準物であるベッド100とマーカーMとを位置合わせするように構成することもできる。すなわち、患者ではなく、ベッド100の画像内での位置を正確に特定することでも、そこから患者の動作を分析することができる。例えば、図15に示すように、マーカーMとして、ベッド100の輪郭の少なくとも一部を表示し、このマーカーMと画像内のベッド100とを位置合わせしてもよい。このとき位置合わせされたベッドの位置が監視基準位置となる。こうすることで、ベッド100の位置が正確に特定でき、この位置に基づいて監視環境条件のベッドの位置が修正された監視基準条件が生成される。これにより、患者の動作を正確に分析することができる。この場合、マーカーMは、ベッドの少なくとも一部を表していればよい。
<3.3>
例えば、支持部1、カメラ2、及び液晶ディスプレイ3の形態は、上記実施形態に限定されず、種々の態様が可能である。すなわち、支持部は、カメラ、液晶ディスプレイを支持できる形態であれば、特には限定されない。また、液晶ディスプレイは、タッチパネルを備えているが、入力部としては、キーボード、マウスのほか、専用のボタンなど、種々の態様にすることができる。また、本発明の第1から第3入力部は、上記実施形態では、タッチパネルとなっているが、各入力部は別個に設けられた入力部であってもよい。
<3.4>
上述した監視環境データに含まれる監視対象基準物は、ベッド以外でももちろんよく、患者の周囲にある構造物であれば、特には限定されない。
<3.5>
上記実施形態では、本発明に係る監視装置を患者の見守り装置として用いた例を示したが、病院などの患者を見守る以外にも、特定の監視対象者を監視するための装置として使用することもできる。
1 支持部
2 カメラ(撮影部)
3 液晶ディスプレイ(表示部、第1〜第3入力部)
42 記憶部
72 第1設定制御部
73 第2設定制御部

Claims (7)

  1. 監視対象者の動作を監視する監視装置であって、
    撮影部と、
    前記撮影部で撮影された前記監視対象者をリアルタイムで表示するとともに、当該監視対象者または監視対象基準物の位置を特定するためのマーカーを表示する表示部と、
    監視対象者または監視対象基準物に対する前記撮影部の相対的な設置位置の入力を受け付ける第1入力部と、
    前記設置位置に応じて前記撮影部で撮影される前記監視対象者の置かれた環境を予め規定した監視環境データが記憶された第1記憶部と、
    前記第1入力部に入力された設置位置に基づいて前記第1記憶部から前記監視環境データを読み出して監視環境条件を設定する第1設定制御部と、
    前記設置位置において前記撮影部の位置及び向きの少なくとも一方を変化させることで、前記表示部に表示された前記監視対象者または監視対象基準物と前記マーカーとを位置合わせした後に、当該位置合わせの完了の入力を受け付ける第2入力部と、
    前記位置合わせが完了した前記マーカーの位置を、前記監視対象者または監視対象基準物の監視基準位置として記憶する第2記憶部と、
    前記監視環境条件、及び前記第2入力部に入力された前記監視基準位置に基づいて、前記撮影部で撮影された前記監視対象者の画像から当該監視対象者の動作を分析するための基準となる監視基準条件を設定する第2設定制御部と、
    前記監視基準条件に基づいて、前記撮影部により撮影された前記監視対象者の画像を分析し、前記監視対象者の動作を検知する画像分析部と、
    を備えている、監視装置。
  2. 前記撮影部を支持する支持部をさらに備えており、
    前記撮影部は、前記支持部に対する向き及び位置の少なくとも一方が調整可能に構成されている、請求項1に記載の監視装置。
  3. 前記表示部に表示される前記監視対象者または監視対象基準物の位置の入力を受け付ける第3入力部と、
    前記支持部に対する前記撮影部の位置及び向きの少なくとも一方を変化させる駆動部と、を備え、
    前記第2設定制御部は、前記第3入力部により受け付けられた前記表示部上の前記監視対象者または監視対象基準物の位置へ、前記マーカーを位置合わせするように、前記駆動部の制御を行う、請求項1または2に記載の監視装置。
  4. 前記表示部は、前記設置位置の候補を示す複数の設置位置候補を表示するとともに、前記第1入力部から前記設置位置候補の1つの入力を促す表示を行う、請求項1から3のいずれかに記載の監視装置。
  5. 前記マーカーは、人の形状または監視対象基準物の形状をなしており、
    前記第1設定制御部は、前記設置位置に応じた形態の前記マーカーを、前記表示部に表示する、請求項1から4のいずれかに記載の監視装置。
  6. 前記監視環境データは、少なくとも、前記監視対象者の周囲に配置されるとともに前記撮影部により撮影された画像に含まれる前記監視対象基準物の形態、及び当該監視対象基準物を基準として監視対象者が動作すると推定される領域を有している、請求項1から5のいずれかに記載の監視装置。
  7. 前記画像分析部により検知された前記監視対象者の動作を通知する通知部と、
    をさらに備えている、請求項1から5のいずれかに記載の監視装置。
JP2013054425A 2013-03-15 2013-03-15 監視装置 Active JP6182917B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013054425A JP6182917B2 (ja) 2013-03-15 2013-03-15 監視装置
US14/213,143 US9998712B2 (en) 2013-03-15 2014-03-14 Monitoring apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013054425A JP6182917B2 (ja) 2013-03-15 2013-03-15 監視装置

Publications (2)

Publication Number Publication Date
JP2014182409A true JP2014182409A (ja) 2014-09-29
JP6182917B2 JP6182917B2 (ja) 2017-08-23

Family

ID=51525623

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013054425A Active JP6182917B2 (ja) 2013-03-15 2013-03-15 監視装置

Country Status (2)

Country Link
US (1) US9998712B2 (ja)
JP (1) JP6182917B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016199495A1 (ja) * 2015-06-11 2016-12-15 コニカミノルタ株式会社 行動検知装置、該方法および該プログラム、ならびに、被監視者監視装置
WO2019009377A1 (ja) * 2017-07-06 2019-01-10 オムロン株式会社 見守り支援システム及びその制御方法
JP2019153094A (ja) * 2018-03-02 2019-09-12 Necライティング株式会社 照明装置、生体移動検出システム、生体移動検出方法、プログラム、および記録媒体
JP2019153095A (ja) * 2018-03-02 2019-09-12 Necライティング株式会社 照明装置、生体移動検出システム、生体移動検出方法、プログラム、および記録媒体
WO2019240197A1 (ja) * 2018-06-15 2019-12-19 エイアイビューライフ株式会社 情報処理装置
WO2020084824A1 (ja) * 2018-10-22 2020-04-30 株式会社アルファブレイン・ワールド ヘアーアイロン用カバー部材及びヘアーアイロン
US10842414B2 (en) 2016-05-25 2020-11-24 Sony Corporation Information processing device, information processing method, program, and watching system

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106575464B (zh) * 2014-07-07 2020-07-24 皇家飞利浦有限公司 检测要被监测的对象的运动和/或位置
WO2016199748A1 (ja) * 2015-06-11 2016-12-15 コニカミノルタ株式会社 動作検出システム、動作検出装置、動作検出方法、および動作検出プログラム
JP6150028B1 (ja) 2015-08-10 2017-06-21 コニカミノルタ株式会社 被監視者監視システムの表示装置および表示方法ならびに被監視者監視システム
WO2017026282A1 (ja) * 2015-08-10 2017-02-16 コニカミノルタ株式会社 被監視者監視システム、監視情報画面表示装置および監視情報画面表示方法
WO2017025546A1 (en) * 2015-08-10 2017-02-16 Koninklijke Philips N.V. Occupancy detection
US10074184B2 (en) * 2015-08-10 2018-09-11 Koniklijke Philips N.V. Occupancy detection
JP6815104B2 (ja) * 2015-12-28 2021-01-20 大和ハウス工業株式会社 映像表示装置及び映像表示方法
KR101714938B1 (ko) * 2015-12-31 2017-03-10 가톨릭대학교 산학협력단 방사선 치료시 환자 고정이 가능한 복셀형 카우치 시스템 및 이를 이용한 방사선 조사 방법
US10565441B2 (en) * 2016-12-19 2020-02-18 Rohde & Schwarz Gmbh & Co. Kg Positioning device and method for positioning persons to be scanned
JP6635074B2 (ja) * 2017-03-02 2020-01-22 オムロン株式会社 見守り支援システム及びその制御方法
JP6717235B2 (ja) * 2017-03-02 2020-07-01 オムロン株式会社 見守り支援システム及びその制御方法
JP2022501664A (ja) * 2019-03-25 2022-01-06 エムエックス・テクノロジーズ・インコーポレーテッドMX Technologies, Inc. アクセス可能な遠隔預け入れキャプチャ
CN110432909B (zh) * 2019-07-24 2022-03-22 佛山市第一人民医院(中山大学附属佛山医院) 一种基于医用智能手环的医用智能监护系统及方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10243274A (ja) * 1997-02-25 1998-09-11 Sanyo Electric Co Ltd 画像撮影装置
JP2002094838A (ja) * 2000-09-13 2002-03-29 Casio Comput Co Ltd 電子スチルカメラ及びその画像記録方法、並びに記録媒体
JP2006175082A (ja) * 2004-12-24 2006-07-06 Hitachi Engineering & Services Co Ltd 起床監視方法および装置
JP2008282219A (ja) * 2007-05-10 2008-11-20 Chudenko Corp 離床検知システム及び方法
JP2012170483A (ja) * 2011-02-17 2012-09-10 Fujitsu Ltd 状態検知装置および状態検知方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5850352A (en) * 1995-03-31 1998-12-15 The Regents Of The University Of California Immersive video, including video hypermosaicing to generate from multiple video views of a scene a three-dimensional video mosaic from which diverse virtual video scene images are synthesized, including panoramic, scene interactive and stereoscopic images
EP1748387B1 (en) * 2004-05-21 2018-12-05 Asahi Kasei Kabushiki Kaisha Devices for classifying the arousal state of the eyes of a driver, corresponding method and computer readable storage medium
DK1815794T3 (en) * 2006-02-01 2016-02-01 Dental Imaging Technologies Corp Dental X-ray device and method for positioning a patient therein
JP5517285B2 (ja) 2009-06-29 2014-06-11 株式会社ケアコム 起床監視装置
US20130222583A1 (en) * 2012-02-28 2013-08-29 Research In Motion Limited System and Method for Obtaining Images from External Cameras Using a Mobile Device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10243274A (ja) * 1997-02-25 1998-09-11 Sanyo Electric Co Ltd 画像撮影装置
JP2002094838A (ja) * 2000-09-13 2002-03-29 Casio Comput Co Ltd 電子スチルカメラ及びその画像記録方法、並びに記録媒体
JP2006175082A (ja) * 2004-12-24 2006-07-06 Hitachi Engineering & Services Co Ltd 起床監視方法および装置
JP2008282219A (ja) * 2007-05-10 2008-11-20 Chudenko Corp 離床検知システム及び方法
JP2012170483A (ja) * 2011-02-17 2012-09-10 Fujitsu Ltd 状態検知装置および状態検知方法

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016199495A1 (ja) * 2015-06-11 2016-12-15 コニカミノルタ株式会社 行動検知装置、該方法および該プログラム、ならびに、被監視者監視装置
JP6115692B1 (ja) * 2015-06-11 2017-04-19 コニカミノルタ株式会社 行動検知装置、該方法および該プログラム、ならびに、被監視者監視装置
JP2017168105A (ja) * 2015-06-11 2017-09-21 コニカミノルタ株式会社 行動検知装置、該方法および該プログラム、ならびに、被監視者監視装置
US10842414B2 (en) 2016-05-25 2020-11-24 Sony Corporation Information processing device, information processing method, program, and watching system
WO2019009377A1 (ja) * 2017-07-06 2019-01-10 オムロン株式会社 見守り支援システム及びその制御方法
JP2019016120A (ja) * 2017-07-06 2019-01-31 オムロン株式会社 見守り支援システム及びその制御方法
JP2019153095A (ja) * 2018-03-02 2019-09-12 Necライティング株式会社 照明装置、生体移動検出システム、生体移動検出方法、プログラム、および記録媒体
JP2019153094A (ja) * 2018-03-02 2019-09-12 Necライティング株式会社 照明装置、生体移動検出システム、生体移動検出方法、プログラム、および記録媒体
JP7028442B2 (ja) 2018-03-02 2022-03-02 株式会社ホタルクス 照明装置、生体移動検出システム、生体移動検出方法、プログラム、および記録媒体
WO2019240197A1 (ja) * 2018-06-15 2019-12-19 エイアイビューライフ株式会社 情報処理装置
JP2019219171A (ja) * 2018-06-15 2019-12-26 エイアイビューライフ株式会社 情報処理装置
JP7090328B2 (ja) 2018-06-15 2022-06-24 エイアイビューライフ株式会社 情報処理装置
WO2020084824A1 (ja) * 2018-10-22 2020-04-30 株式会社アルファブレイン・ワールド ヘアーアイロン用カバー部材及びヘアーアイロン

Also Published As

Publication number Publication date
US9998712B2 (en) 2018-06-12
JP6182917B2 (ja) 2017-08-23
US20140267663A1 (en) 2014-09-18

Similar Documents

Publication Publication Date Title
JP6182917B2 (ja) 監視装置
JP6167563B2 (ja) 情報処理装置、情報処理方法、及び、プログラム
JP6115335B2 (ja) 情報処理装置、情報処理方法、及び、プログラム
JP6432592B2 (ja) 情報処理装置、情報処理方法、及び、プログラム
JP6504156B2 (ja) 情報処理装置、情報処理方法、及び、プログラム
JP2014174627A (ja) 情報処理装置、情報処理方法、及び、プログラム
JP6489117B2 (ja) 情報処理装置、情報処理方法、及び、プログラム
US20140104404A1 (en) System and Methods for Monitoring and Entrapment Prevention for a Person Disposed in a Bed
JP2016123004A (ja) 撮像装置の設置支援装置、撮像装置の設置支援方法および映像記録再生装置
JP7090327B2 (ja) 情報処理装置、情報処理方法、プログラム
CN107016688B (zh) 图像处理装置和图像处理方法
EP4002365A1 (en) Device and method for controlling a camera
WO2018030024A1 (ja) 見守りシステム、見守り装置、見守り方法、および見守りプログラム
JP2014048775A (ja) 注視位置特定装置、および注視位置特定プログラム
JPWO2016185738A1 (ja) 画像解析装置、画像解析方法、及び、画像解析プログラム
US20160106514A1 (en) Medical imaging apparatus with image projecting units
JP2022010581A (ja) 検知装置、検知方法、画像処理方法、およびプログラム
JP6565468B2 (ja) 呼吸検知装置、呼吸検知方法、及び呼吸検知プログラム
JP7090328B2 (ja) 情報処理装置
JP2022126070A (ja) 画像処理方法
JP2023051151A (ja) ナースコールシステム
WO2019163561A1 (ja) 情報処理装置
JP2009261541A (ja) 画像処理装置
JP6635074B2 (ja) 見守り支援システム及びその制御方法
JP2022126069A (ja) 画像処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170627

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170710

R150 Certificate of patent or registration of utility model

Ref document number: 6182917

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250