JPWO2018012432A1 - 行動判定装置及び行動判定方法 - Google Patents

行動判定装置及び行動判定方法 Download PDF

Info

Publication number
JPWO2018012432A1
JPWO2018012432A1 JP2018527582A JP2018527582A JPWO2018012432A1 JP WO2018012432 A1 JPWO2018012432 A1 JP WO2018012432A1 JP 2018527582 A JP2018527582 A JP 2018527582A JP 2018527582 A JP2018527582 A JP 2018527582A JP WO2018012432 A1 JPWO2018012432 A1 JP WO2018012432A1
Authority
JP
Japan
Prior art keywords
area
action
image
bed
monitored
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018527582A
Other languages
English (en)
Other versions
JP7183788B2 (ja
Inventor
保理江 大作
大作 保理江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Publication of JPWO2018012432A1 publication Critical patent/JPWO2018012432A1/ja
Application granted granted Critical
Publication of JP7183788B2 publication Critical patent/JP7183788B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/01Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
    • G08B25/04Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using a single signalling line, e.g. in a closed loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Emergency Management (AREA)
  • Business, Economics & Management (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)

Abstract

抽出部は、第1の画像及び第2の画像から人体領域を抽出する。判定部は、第1の行動をしたか否かの判定に用いられる複数の第1の注目領域を、距離間隔をあけて第1の画像に設定し、複数の注目領域及び人体領域を基にして、被監視者が第1の行動をしたか否かを判定する。判定部は、第2の行動をしたか否かの判定に用いられる第2の注目領域を、第2の画像に設定し、第2の注目領域及び人体領域を基にして、被監視者が第2の行動をしたか否かを判定する。

Description

本発明は、例えば、看護を必要とする者や介護を必要とする者(以下、要看護者等)の行動を判定する技術に関する。
近年の我が国(日本)のような高齢化社会では、病気や怪我や高齢等による要看護者等の数の増加が、今後さらに見込まれる。
このような要看護者等は、病院や、老人福祉施設等の施設に入所し、その看護や介護を受ける。このような病院や老人福祉施設等の施設では、要看護者等の看護や介護をする者(以下、看護師等)が、定期的に巡視することによってその安否を確認している。しかしながら、日勤の時間帯に較べ、準夜勤や夜勤の時間帯では、看護師等の人数が減り、一人当たりの業務負荷が増大するので、業務負荷の軽減が要請される。このため、近年では、要看護者等を、被監視者として監視(モニタ)する被監視者監視装置が研究、開発されている。
被監視者監視に関する技術の1つとして、被監視者の行動を判定する技術がある。例えば、特許文献1は、ベッド領域、床面領域、及び、これらの領域の境界辺を、画像に設定し、境界辺を通過して、床面領域からベッド領域へ人体の移動を検知したとき、入床事象と判断し、境界辺を通過して、ベッド領域から床面領域へ人体の移動を検知したとき、離床事象と判断する装置を開示している。
この技術によれば、被監視者の行動のうち、入床と離床とを判定することができる。
被監視者が離床する動作には、ベッドの側部に座って床に足をつき、立ち上がる動作が含まれる。被監視者の中には、ベッドからの離床に長い時間をかける者もおり、このような者による一連の離床動作の最中に、ベッドに手をついたり、体を捻ったりする動作によって、ベッドから出たり入ったりを何度が繰り返すように見える場合がある。被監視者がこのような動作をした場合、上記特許文献1の技術によれば、入床と離床の判定を繰り返す可能性がある(すなわち、誤判定が発生する可能性がある)。
特開2002−230533号公報
本発明の目的は、誤判定を少なくすることができる行動判定装置及び行動判定方法を提供することである。
本発明の第1の局面に係る行動判定装置は、取得部と、抽出部と、判定部と、を備える。取得部は、監視対象となる被監視者を含む所定の範囲の第1の画像及び第2の画像を取得する。抽出部は、前記第1の画像及び前記第2の画像から人体領域を抽出する。判定部は、予め定められた第1の行動をしたか否かの判定に用いられる複数の第1の注目領域を、距離間隔をあけて前記第1の画像に設定する第1の設定をし、複数の前記第1の注目領域及び前記人体領域を基にして、前記被監視者が前記第1の行動をしたか否かを判定し、予め定められた第2の行動をしたか否かの判定に用いられる第2の注目領域を、前記第2の画像に設定する第2の設定をし、前記第2の注目領域及び前記人体領域を基にして、前記被監視者が前記第2の行動をしたか否かを判定する。
上記並びにその他の本発明の目的、特徴及び利点は、以下の詳細な記載と添付図面から明らかになるであろう。
実施形態に係る被監視者監視システムの構成を説明する説明図である。 センサ装置が配置された居室を示す模式図である。 センサ装置の構成を示すブロック図である。 被監視者が部屋にいない状態で、撮像部が撮像した画像を説明する説明図である。 注目領域が設定された画像を説明する説明図である。 第1の行動をしたか否かの判定に用いられる注目領域の平面図である。 第2の行動をしたか否かの判定に用いられる注目領域の平面図である。 被監視者が第1の行動をしている状態の画像を説明する説明図である。 被監視者が第2の行動をしている状態の画像を説明する説明図である。 第1の行動の判定に用いる3つの注目領域が設定された態様を説明する説明図である。 センサ装置が行動判定装置として動作するとき、この動作を説明するフローチャートである。 寝床の斜め上側に配置された撮像部によって撮像された画像を説明する説明図である。 注目領域が設定された画像を説明する説明図である。 被監視者が寝床の手前に立っているときに、撮像部によって撮像されたフレーム(画像)を説明する説明図である。 被監視者が寝床の側部に座ったときに、撮像部によって撮像されたフレーム(画像)を説明する説明図である。 被監視者が寝床に脚部を入れたときに、撮像部によって撮像されたフレーム(画像)を説明する説明図である。 被監視者が離床したと推定される動作をしているときに、撮像部によって撮像されたフレーム(画像)を説明する説明図である。
以下、図面に基づいて本発明の実施形態を詳細に説明する。各図において、同一符号を付した構成は、同一の構成であることを示し、その構成について、既に説明している内容については、その説明を省略する。本明細書において、総称する場合には添え字を省略した参照符号で示し、個別の構成を指す場合には添え字を付した参照符号で示す。
実施形態に係る被監視者監視システムは、監視すべき監視対象である被監視者(言い換えれば、見守るべき見守り対象である見守り対象者)を複数の装置を用いて監視するシステムであり、端末装置と、前記端末装置と通信可能に接続され、被監視者に関わる所定のイベント(事象)を検知して前記イベントを前記端末装置へ通知する被監視者監視装置と、を備える。前記被監視者監視装置は、1個の装置で一体に構成されて良いが、本明細書では、被監視者監視装置は、センサ装置と、前記センサ装置及び前記端末装置それぞれと通信可能に接続される管理サーバ装置とを備えることで、2種類の各装置で別体に構成される。前記センサ装置は、被監視者に関わる前記所定のイベントを検知して前記管理サーバ装置へ通知(報知、送信)する。前記管理サーバ装置は、前記センサ装置から前記通知を受けると、前記通知を受けた前記イベントを管理するとともに前記イベントを前記センサ装置に対応付けられた所定の端末装置へ再通知(再報知、再送信)する。前記端末装置は、1種類の装置であって良いが、本明細書では、前記端末装置は、固定端末装置と携帯端末装置との2種類の装置である。これら固定端末装置と携帯端末装置との主な相違は、固定端末装置が固定的に運用され、携帯端末装置が例えば看護師や介護士等の監視者(ユーザ)に携行されて運用される点である。これら固定端末装置と携帯端末装置とは、略同様であるので、以下では、携帯端末装置を主に説明する。
図1は、実施形態に係る被監視者監視システムMSの構成を説明する説明図である。被監視者監視システムMSは、より具体的には、例えば、1または複数のセンサ装置SU(SU−1〜SU−4)と、管理サーバ装置SVと、固定端末装置SPと、1または複数の携帯端末装置TA(TA−1、TA−2)と、構内交換機(PBX、Private Branch eXchange)CXとを備え、これらは、有線や無線で、LAN(Local Area Network)等の網(ネットワーク、通信回線)NWを介して通信可能に接続される。ネットワークNWには、通信信号を中継する例えばリピーター、ブリッジ及びルーター等の中継機が備えられても良い。図1に示す例では、これら複数のセンサ装置SU−1〜SU−4、管理サーバ装置SV、固定端末装置SP、複数の携帯端末装置TA−1、TA−2及び構内交換機CXは、L2スイッチの集線装置(ハブ、HUB)LS及びアクセスポイントAPを含む有線及び無線の混在したLAN(例えばIEEE802.11規格に従ったLAN等)NWによって互いに通信可能に接続されている。より詳しくは、複数のセンサ装置SU−1〜SU−4、管理サーバ装置SV、固定端末装置SP及び構内交換機CXは、集線装置LSに接続され、複数の携帯端末装置TA−1、TA−2は、アクセスポイントAPを介して集線装置LSに接続されている。そして、ネットワークNWは、TCP(Transimission Control Protocol)及びIP(Internet Protocol)等のインターネットプロトコル群が用いられることによっていわゆるイントラネットを構成する。構内交換機CXは、公衆電話網PNによって電話TLと接続されている。
被監視者監視システムMSは、被監視者Obに応じて適宜な場所に配設される。被監視者Obは、例えば、病気や怪我等によって看護を必要とする者や、身体能力の低下等によって介護を必要とする者や、一人暮らしの独居者等である。特に、早期発見と早期対処とを可能にする観点から、被監視者Obは、例えば異常状態等の所定の不都合なイベントがその者に生じた場合にその発見を必要としている者であることが好ましい。このため、被監視者監視システムMSは、被監視者Obの種類に応じて、病院、老人福祉施設及び住戸等の建物に好適に配設される。図1に示す例では、被監視者監視システムMSは、複数の被監視者Obが入居する複数の居室RMや、ナースステーション等の複数の部屋を備える介護施設の建物に配設されている。
センサ装置SUは、ネットワークNWを介して他の装置SV、SP、TAと通信する通信機能等を備え、被監視者Obに関わる所定のイベントを検知してこの検知した前記イベントを管理サーバ装置SVへ通知し、端末装置SP、TAとの間で音声通話を行い、そして、動画を含む画像を生成して端末装置SP、TAへ動画を配信する装置である。前記所定のイベントは、好ましくは、対処が必要なイベントを含む。
図1には、一例として、4個の第1ないし第4センサ装置SU−1〜SU−4が示されており、第1センサ装置SU−1は、被監視者Obの一人であるAさんOb−1の居室RM−1(不図示)に配設され、第2センサ装置SU−2は、被監視者Obの一人であるBさんOb−2の居室RM−2(不図示)に配設され、第3センサ装置SU−3は、被監視者Obの一人であるCさんOb−3の居室RM−3(不図示)に配設され、そして、第4センサ装置SU−4は、被監視者Obの一人であるDさんOb−4の居室RM−4(不図示)に配設されている。
管理サーバ装置SVは、ネットワークNWを介して他の装置SU、SP、TAと通信する通信機能等を備え、センサ装置SUから、被監視者Obに関わる所定のイベントの通知を受信すると被監視者Obに対する監視に関する情報(監視情報)を管理する装置である。管理サーバ装置SVは、センサ装置SUから前記イベントの通知として第1イベント通知通信信号を受信すると、前記第1イベント通知通信信号に収容された各情報に基づいて、被監視者Obに対する監視に関する前記監視情報を記憶(記録)し、そして、被監視者Obに対する監視に関する前記監視情報を収容した通信信号(第2イベント通知通信信号)を、前記センサ装置SUに予め対応付けられた所定の端末装置SP、TAに送信する。このために、管理サーバ装置SVは、センサ装置SUから送信された第1イベント通知通信信号等の通知先(再通知先、再報知先、送信先)を示す、送信元であるセンサIDと通知先(再通知先)である端末IDとの対応関係(通知先対応関係)、及び、その通信アドレスを記憶する。端末ID(端末装置識別子)は、端末装置SP、TAを特定し識別するための識別子である。そして、管理サーバ装置SVは、クライアント(本実施形態では固定端末装置SP及び携帯端末装置TA等)の要求に応じたデータを前記クライアントに提供する。このような管理サーバ装置SVは、例えば、通信機能付きのコンピュータによって構成可能である。
固定端末装置SPは、被監視者監視システムMSのユーザインターフェース(UI)として機能する装置である。この機能を達成するために、固定端末装置SPは、ネットワークNWを介して他の装置SU、SV、TAと通信する通信機能、所定の情報を表示する表示機能、及び、所定の指示及びデータを入力する入力機能等を備え、管理サーバ装置SV及び携帯端末装置TAに与える所定の指示及びデータが入力されたり、センサ装置SUで得られた監視情報を表示したりする。このような固定端末装置SPは、例えば、通信機能付きのコンピュータによって構成可能である。
携帯端末装置TAは、監視者NSが携帯している。携帯端末装置TAは、ネットワークNWを介して他の装置SV、SP、SUと通信する通信機能、所定の情報を表示する表示機能、所定の指示やデータを入力する入力機能、及び、音声通話を行う通話機能等を備え、管理サーバ装置SV及びセンサ装置SUに与える所定の指示及びデータを入力したり、管理サーバ装置SVからの通知によってセンサ装置SUで得られた監視情報(動画を含む)を表示したり、センサ装置SUとの間で音声通話によってナースコールの応答や声かけしたり等をするための機器である。
センサ装置SUは、上述した機能(例えば、被監視者Obの動画を撮像する機能、端末装置SP、TAとの間で音声通話をする機能)に加えて、被監視者Obの行動を判定する装置(行動判定装置)の機能を有する。この機能の観点からセンサ装置SUについて詳しく説明する。図2は、センサ装置SUが配置された居室RMを示す模式図である。居室RMには、被監視者Obの寝床1が設けられている。寝床1は、ベッド3に敷かれた布団5である。寝床1は、これに限らず、例えば、畳みに敷かれた布団5でもよいし、床に敷かれた布団5でもよい。図2は、被監視者Obが、寝床1で寝ている状態を示しており、被監視者Obの身体のうち、被監視者Obの頭部のみが表れている。居室RMの天井7には、センサ装置SUが取り付けられている。
図3は、センサ装置SU(行動判定装置)の構成を示すブロック図である。センサ装置SUは、撮像部10、抽出部11、判定部12、センサ側制御処理部(SU制御処理部)13、及び、センサ側通信インターフェース部(SU通信IF部)14を備える。図2では、センサ装置SUを構成するブロックのうち、撮像部10が示され、他のブロックは省略されている。
図2及び図3を参照して、撮像部10は、撮像対象を撮像し、撮像対象の画像を生成する装置である。画像には、静止画及び動画が含まれる。撮像部10は、被監視者Obが所在を予定している空間(所在空間、図1に示す例では配設場所の居室RM)を監視可能に配置され、所在空間を撮像対象としてその上方から撮像し、撮像対象を俯瞰した画像を生成する。好ましくは、被監視者Ob全体を撮像できる蓋然性が高いことから、撮像部10は、被監視者Obが横臥する寝具(例えばベッド等)における、被監視者Obの頭部が位置すると予定されている予め設定された頭部予定位置(通常、枕の配設位置)の直上から撮像対象を撮像できるように配設される。センサ装置SUは、この撮像部10によって、被監視者Obを、被監視者Obの上方から撮像した画像、好ましくは前記頭部予定位置の直上から撮像した画像を取得する。
このような撮像部10は、可視光の画像を生成する装置であって良いが、比較的暗がりでも被監視者Obを監視できるように、実施形態では、赤外線の画像を生成する装置である。このような撮像部10は、例えば、実施形態では、撮像対象における赤外の光学像を所定の結像面上に結像する結像光学系、前記結像面に受光面を一致させて配置され、前記撮像対象における赤外の光学像を電気的な信号に変換するイメージセンサ、及び、イメージセンサの出力を画像処理することで前記撮像対象における赤外の画像を表すデータである画像データを生成する画像処理部等を備えるデジタル赤外線カメラである。撮像部10の前記結像光学系は、実施形態では、その配設された居室RM全体を撮像できる画角を持つ広角な光学系(いわゆる広角レンズ(魚眼レンズを含む))であることが好ましい。
撮像部10は、赤外線カメラのようなカメラに限定されず、例えば、サーモグラフィ、3次元センサでもよい。
撮像部10は、被監視者Obを含む所定の範囲の第1の画像及び第2の画像を取得する取得部として機能する。撮像部10で撮像された画像が動画MIを例にして、実施形態を説明するが、動画MIに限らず、時系列に並べられた複数の画像でもよい。
抽出部11は、撮像部10で撮像された動画MIを構成する各フレーム(画像)に対して、動体領域を抽出し、抽出した動体領域を人体領域とする。動体領域は、例えば、背景差分、オプティカルフロー等の手法によって、フレームから抽出される。
抽出部11は、例えば、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)、及び、HDD(Hard Disk Drive)等のハードウェア、並びに、抽出部11の機能を実行するためのプログラムおよびデータ等によって実現される。抽出部11の機能について、各機能の一部又は全部は、CPUによる処理に替えて、又は、これと共に、DSP(Digital Signal Processor)による処理によって実現されてもよい。又、同様に、抽出部11の機能の一部又は全部は、ソフトウェアによる処理に替えて、又は、これと共に、専用のハードウェア回路による処理によって実現されてもよい。以上説明したことは、後述する判定部12及びSU制御処理部13についても同様である。
判定部12は、被監視者Obが第1の行動をしたか否かを判定する機能、及び、被監視者Obが第2の行動をしたか否かを判定する機能を有する。判定部12の詳細は、後で説明する。
SU通信IF部14は、SU制御処理部13に接続され、SU制御処理部13の制御に従って通信を行うための通信回路である。SU通信IF部14は、SU制御処理部13から入力された転送すべきデータを収容した通信信号を、この被監視者監視システムMSのネットワークNWで用いられる通信プロトコルに従って生成し、この生成した通信信号を、ネットワークNWを介して他の装置SV、SP、TAへ送信する。SU通信IF部14は、ネットワークNWを介して他の装置SV、SP、TAから通信信号を受信し、この受信した通信信号からデータを取り出し、この取り出したデータをSU制御処理部13が処理可能な形式のデータに変換してSU制御処理部13へ出力する。SU通信IF部14は、例えば、IEEE802.11規格等に従った通信インターフェース回路を備えて構成される。
SU制御処理部13は、センサ装置SUの各部(撮像部10、抽出部11、判定部12、SU通信IF部14)を当該各部の機能に応じてそれぞれ制御し、被監視者Obに関わる所定のイベントを検知してこの検知した前記イベントを管理サーバ装置SVへ通知し、端末装置SP、TAとの間で音声通話を行い、そして、動画を含む画像を端末装置SP、TAへ動画を配信するための装置である。
図4は、図2に示す被監視者Obが部屋RMにいない状態で、撮像部10が撮像した画像30−1を説明する説明図である。撮像部10は、寝床1(図2)の真上に位置している。撮像部10は、部屋RMの全体を写している。画像30−1は、寝床1を示す領域(以下、寝床領域22)を含む。寝床領域22は、矩形形状を有する。
画像30−1に注目領域が設定される。図5は、注目領域24が設定された画像30−1を説明する説明図である。判定部12は、寝床領域22上での注目領域24(注目領域24−1〜24−3)の位置情報を予め記憶している。設定者(被監視者監視装置MSのユーザ、販売者等)は、寝床領域22(ベッドの像)を含む居室RMの画像30−1を見て、寝床領域22の位置を指定する。これにより、判定部12は、画像30−1上での注目領域24の位置を自動的に設定し、その位置情報を記憶する。判定部12は、その位置情報を利用して、撮像部10が撮像した動画を構成する各フレーム(画像)に注目領域24を自動的に設定する。なお、設定者が画像30−1を見て、注目領域24の位置を指定することにより、画像30−1上での注目領域24の位置を設定してもよいし、設定者が画像30−1を見て、判定部12が自動的に設定した注目領域24の位置を修正することにより、画像30−1上での注目領域24の位置を修正する設定をしてもよい。判定部12は、その位置情報を記憶する。判定部12は、その位置情報を利用して、撮像部10が撮像した動画を構成する各フレーム(画像)に注目領域24を自動的に設定する。
2つの注目領域24(注目領域24−1,24−2)が、画像30−1に設定されている。図6は、注目領域24−1,24−2の平面図である。図5及び図6を参照して、注目領域24−1,24−2は、複数の第1の注目領域の一例であり、第1の行動をしたか否かの判定に用いられる。第1の行動として、被監視者Obが寝床1で寝ている姿勢をとることを例に説明するが、第1の行動は、これに限定されない。被監視者Obが寝床1で寝ているとは、被監視者Obが睡眠の状態でもよいし、覚醒の状態でもよい。
注目領域24−1,24−2は、矩形形状を有しており、寝床領域22の長手方向に沿って距離間隔をあけて設定される。注目領域24−1,24−2の長辺は、寝床領域22の短辺と平行である。注目領域24−1,24−2の短辺は、寝床領域22の長辺と平行であり、寝床領域22の長辺上に位置する。注目領域24−1は、被監視者Obの頭部(言い換えれば、枕)が位置する部分を含む領域である。注目領域24−2は、布団5(図2)のうち、被監視者Obの脚部を覆う部分を含む領域である。
注目領域24−3が、画像30−1に設定されている。図7は、注目領域24−3の平面図である。図5及び図7を参照して、注目領域24−3は、第2の注目領域の一例であり、第2の行動をしたか否かの判定に用いられる。第2の行動として、被監視者Obが寝床1から体の一部分(脚部)を出したことを例にして説明するが、第2の行動は、これに限定されない。
注目領域24−3は、矩形形状を有しており、寝床領域22と重なる。図5では、寝床領域22を規定する線上に、注目領域24−3を規定する線が位置している。しかしながら、これに限定されず、寝床領域22を規定する線に対して、注目領域24−3を規定する線が多少ずれていてもよい。例えば、寝床領域22の多少内側に注目領域24−3が位置してもよいし、寝床領域22の多少外側に注目領域24−3が位置してもよい。
複数の第1の注目領域(注目領域24−1,24−2)と、第2の注目領域(注目領域24−3)とが、同じ画像30−1に設定されている例を説明したが、異なる画像に設定してもよい。
図3及び図5を参照して、判定部12は、画像30−1上において、注目領域24−1,24−2,24−3のそれぞれの位置を示す位置情報を予め記憶している。撮像部10で撮像された動画MIを構成する各フレームの寝床領域22の位置は、画像30−1の寝床領域22の位置と同じである。従って、判定部12が、各フレームに対して、注目領域24−1,24−2,24−3を設定したとき、図5に示す設定と同様となる。
判定部12は、撮像部10が撮像した動画MIの各フレームに対して、注目領域24−1,24−2,24−3を設定し、これらの注目領域24、及び、抽出部11によって抽出された人体領域を用いて、被監視者Obが第1の行動(被監視者Obが寝床1で寝ている姿勢をとる)をしたか否かを判定し、被監視者Obが第2の行動(被監視者Obが寝床1から体の一部分を出す)をしたか否かを判定する。図8は、被監視者Obが第1の行動をしている状態の画像30−2を説明する説明図である。図9は、被監視者Obが第2の行動をしている状態の画像30−3を説明する説明図である。図8及び図9において、被監視者Obを示す領域を被監視者領域26とする。図8に示す被監視者領域26−1は、被監視者Obの頭部の像に対応する。図9に示す被監視者領域26−2は、被監視者Obがベッド3(図2)の側部に座り、片脚がベッド3から出ている像に対応する。被監視者領域26−2は、注目領域24−3内に位置する被監視者領域26−21と、注目領域24−3外に位置する被監視者領域26−22とにより構成される。
第1の行動の判定アルゴリズムについて説明する。図3及び図8を参照して、注目領域24−1に、被監視者Obの頭部(すなわち、被監視者領域26−1)が位置した状態で、被監視者Obの頭部が動いたとき、抽出部11は、これにより動いた領域を人体領域として抽出する。この場合、被監視者領域26−1が人体領域として抽出される。
注目領域24−2に、被監視者Obの脚が位置した状態で(脚は、図2に示す布団5の下にある)、被監視者Obの脚が動いたとき、抽出部11は、これにより動いた領域を人体領域として抽出する。この場合、脚部を示す領域でなく、布団5のうち、被監視者Obの脚部が動くことにより動いた部分が、人体領域として抽出される。
なお、人体領域の面積が小さければ、ノイズの可能性がある。そこで、判定部12は、以下の手法を用いて、人体領域を確定してもよい。判定部12は、抽出部11によって抽出された人体領域を人体領域候補とする。判定部12は、注目領域24−1に位置する人体領域候補について、注目領域24−1の面積に対する人体領域候補の面積の割合(人体領域候補の画素数÷注目領域24−1の画素数)が、所定の第1の閾値を超えているか否かを判定する。判定部12は、この割合が第1の閾値を超えているとき、人体領域候補を人体領域と確定する。注目領域24−2に位置する人体領域候補についても同様の処理をする。なお、注目領域24−1に対して適用される第1の閾値と注目領域24−2に対して適用される第1の閾値とは、同じでもよし、異なっていてもよい。最適な第1の閾値が、注目領域24−1の場合と注目領域24−2の場合とで同じであれば、前者となり、異なれば、後者となる。
人が寝床1で寝る姿勢をとるとき、注目領域24−1,24−2のそれぞれに(すなわち、注目領域24−1,24−2の全てに)人体領域が存在する。そこで、判定部12は、注目領域24−1,24−2のそれぞれに人体領域が存在するとき、被監視者Obが第1の行動をしたと判定する。
なお、通常、人が寝床1に入り、寝床1で寝ている姿勢をとるとき、頭及び脚部を同時に寝床1につけるのではなく、先に、脚部を寝床1につけ、後で、頭部を寝床1につける。よって、判定部12は、脚部に対応する注目領域24−2に人体領域(脚部)が存在する判定をした後、頭部に対応する注目領域24−1に人体領域(頭部)が存在すると判定する。以上を考慮すると、判定部12は、所定期間(例えば、10秒)内に、注目領域24−1,24−2のそれぞれに人体領域が存在する判定をしたとき、被監視者Obが第1の行動をしたと判定する。言い換えれば、判定部12は、注目領域24−1,24−2の一方に人体領域があると判定し、このときから所定の期間(例えば、10秒)内に、注目領域24−1,24−2の他方に人体領域があると判定したとき、注目領域24−1,24−2のそれぞれに人体領域が存在するとし、被監視者Obが第1の行動をしたと判定する。
注目領域24−1が被監視者Obの頭部を含む領域に位置し、注目領域24−2が被監視者Obの脚部を含む領域に位置する例で説明しているが、被監視者Obが寝ている姿勢をとっていることを判定できれば、これらの位置に限定されない。例えば、注目領域24−1が被監視者Obの頭部を含む領域に位置し、注目領域24−2が被監視者Obの腹部を含む領域に位置する態様でもよいし、注目領域24−1が被監視者Obの複部を含む領域に位置し、注目領域24−2が被監視者Obの脚部を含む領域に位置する態様でもよい。
注目領域24−1,24−2の形状が矩形を例にしているが、被監視者Obが寝ている姿勢をとっていることを判定できれば、矩形に限定されない。例えば、注目領域24−1,24−2の形状が正方形でもよい。
注目領域24−1,24−2の面積が同じ場合を例にしているが、被監視者Obが寝ている姿勢をとっていることを判定できれば、これに限定されない。
第1の行動の判定に用いる注目領域24が、2つの場合(注目領域24−1,24−2)を例にしているが、複数であればよい。被監視者Obが寝ている姿勢をとっていることを判定できれば、2つに限定されない。注目領域24が3つの態様を例にして説明する。図10は、第1の行動の判定に用いる3つの注目領域24が設定された態様を説明する説明図である。寝床領域22の長手方向に沿って、距離間隔をあけて、注目領域24−1、注目領域24−4、注目領域24−2が設定されている。注目領域24−4は、被監視者Obの腹部を含む領域である。注目領域24−4に、被監視者Obの腹部が位置した状態で(腹部は、図2に示す布団5の下にある)、被監視者Obの腹部が動いたとき、抽出部11(図3)は、これにより動いた領域を人体領域として抽出する。
判定部12は、注目領域24−1,24−2,24−4のいずれか1つに人体領域があると判定し、このときから所定の期間(例えば、10秒)内に、残りの注目領域24に人体領域があると判定したとき、被監視者Obが第1の行動をしたと判定する。
第2の行動の判定アルゴリズムを説明する。図3及び図9を参照して、判定部12は、注目領域24−3内に人体領域があり、かつ、この人体領域と連続する人体領域が注目領域24−3外にあるか否かを判定する。被監視者領域26−21は、注目領域24−3内に位置する人体領域であり、被監視者領域26−22は、注目領域24−3外に位置する人体領域である。
判定部12は、例えば、被監視者領域26−22の画素数÷(被監視者領域26−21の画素数+被監視者領域26−22の画素数)が、所定の第2の閾値を超えたとき、第2の行動をしたと判定する。第2の行動をしたか否かの判定の手法は、これに限定されず、例えば、被監視者領域26−22の画素数が所定の第3の閾値を超えたとき、第2の行動をしたと判定してもよい。
センサ装置SUは、行動判定装置として機能する。このときのセンサ装置SUの動作を説明する。図11は、この動作を説明するフローチャートである。図3及び図11を参照して、判定部12は、「i」を「1」に設定する(ステップS1)。「i」は、撮像部10によって撮像されている動画MIを構成するフレームの順番を示す。「1」は、1番目のフレームを意味する。
判定部12は、1番目のフレームに対して第1の行動判定アルゴリズムの処理をする。これにより、判定部12は、1番目のフレームが撮像された時点で、被監視者Obが第1の行動をしたか否かを判定する(ステップS2)。被監視者Obが寝床1(図2)に入り、寝床1に寝ている姿勢をとったとき、判定部12は、被監視者Obが第1の行動をしたと判定する。
判定部12が、1番目のフレームが撮像された時点で、被監視者Obが第1の行動をしていないと判定したとき(ステップS2でNo)、判定部12は、「i+1」を「i」に設定する(ステップS3)。ここでは、「i」が「2」に設定される。
判定部12は、2番目のフレームに対して第1の行動判定アルゴリズムの処理をする。これにより、判定部12は、2番目のフレームが撮像された時点で、被監視者Obが第1の行動をしたか否かを判定する(ステップS2)。
判定部12が、2番目のフレームが撮像された時点で、被監視者Obが第1の行動をしていないと判定したとき(ステップS2でNo)、判定部12は、「i+1」を「i」に設定する(ステップS3)。ここでは、「i」が「3」に設定される。以下、被監視者Obが第1の行動をするまで、判定部12は、ステップS2及びステップS3の処理を繰り返す。
判定部12が、例えば、j番目のフレームが撮像された時点で、被監視者Obが第1の行動をしたと判定したとき(ステップS2でYes)、判定部12は、「i+1」を「i」に設定する(ステップS4)。ここでは、「i」が「j+1」に設定される。
判定部12は、i番目(j+1番目)のフレームに対して第2の行動判定アルゴリズムの処理をする。これにより、判定部12は、i番目(j+1番目)のフレームが撮像された時点で、被監視者Obが第2の行動をしたか否かを判定する(ステップS5)。
判定部12が、i番目(j+1番目)のフレームが撮像された時点で、被監視者Obが第2の行動をしていないと判定したとき(ステップS5でNo)、判定部12は、「i+1」を「i」に設定する(ステップS6)。ここでは、「i」が「j+2」に設定される。以下、被監視者Obが第2の行動をするまで、判定部12は、ステップS5及びステップS6の処理を繰り返す。
判定部12が、例えば、k番目のフレームが撮像された時点で、被監視者Obが第2の行動をしたと判定したとき(ステップS5でYes)、判定部12は、被監視者Obが起床したと判定する(ステップS7)。
実施形態の主な効果を説明する。実施形態は、人が起床するとき、この前提として寝床1(図2)で寝ている姿勢をとっていることに着目する。図3及び図11を参照して、判定部12は、被監視者Obが寝床1で寝ている姿勢をとっている判定(第1の行動をした判定)をし(ステップS2でYes)、次に、被監視者Obが寝床1から体の一部分(例えば、脚部)を出す判定(第2の行動をした判定)をしたとき(ステップS5でYes)、被監視者Obが起床したと判定する(ステップS7)。
寝床1に寝ている被監視者Obが起床するとき、被監視者Obは、一連の動作として、上半身を起こす動作をし、寝床1の側部に座って床に足をつく動作をし、そして、立ち上がる動作をする。寝床1の側部に座って床に足をつく動作が、実施形態の第2の行動に対応する。被監視者Obが第2の行動をした判定のみで起床と判定する手法を考える。被監視者Obの中には、筋力が弱いので、寝床1の側部に座って床に足をつき、立ち上がる動作をスムーズにできない者がある。このような者は、寝床1の側部に座った状態で体を揺らし、この反動を利用して、立ち上がる。被監視者Obがこのような行動をした場合、第2の行動の判定アルゴリズムだけでは、起床の判定を繰り返す可能性がある(すなわち、誤判定が発生する可能性がある)。図1を参照して、センサ装置SUが、被監視者Obの起床を判定する毎に、携帯端末装置TAに報知すれば、起床の報知が繰り返され、そのたびに、監視者NSは携帯端末装置TAを確認しなければならず、監視者NSの負担が大きくなる。
これに対して、実施形態は、上述したように、被監視者Obが寝床1で寝ている姿勢をとっている判定(第1の行動をした判定)をした後、被監視者Obが寝床1から体の一部分を出す判定(第2の行動をした判定)をしたとき、被監視者Obが起床したと判定する。実施形態によれば、被監視者Obが第2の行動をした判定のみで、起床と判定する手法と比較して、起床の誤判定を少なくすることができる。
実施形態には、変形例1及び変形例2がある。変形例1から説明する。実施形態は、被監視者Obが第1の行動をした後、第2の行動をしたとき、被監視者Obが起床したと判定する。変形例1は、被監視者Obが第1の行動をした後、第2の行動をしたとき、被監視者Obが離床したと判定する。
変形例1では、図2に示す撮像部10が寝床1の斜め上に配置されている。図12は、寝床1の斜め上側に配置された撮像部10によって撮像された画像30−4を説明する説明図である。画像30−4には、寝床領域22が含まれる。寝床領域22は、立体的に写されている。図4に示す画像30−1は、画像30−1を規定する線が示されているが、図12に示す画像30−4は、画像30−4を規定する線を省略している。
画像30−4に注目領域が設定される。図13は、注目領域24が設定された画像30−4を説明する説明図である。注目領域24−3が、画像30−4に設定されている。注目領域24−3は、図5に示す注目領域24−3と同じである。注目領域24−3は、第2の行動をしたか否かの判定に用いられる。変形例1において、第2の行動は、被監視者Obが離床したと推定される動作である。
3つの注目領域24(注目領域24−5,24−6,24−7)が、画像30−4に設定されている。注目領域24−5,24−6,24−7は、複数の第1の注目領域の一例であり、第1の行動をしたか否かの判定に用いられる。変形例1において、第1の行動は、被監視者Obが寝床1に入る動作である。
注目領域24−5,24−6,24−7は、矩形形状を有しており、注目領域24−5,24−6,24−7の長手方向は、寝床領域22の長手方向と同じである。注目領域24−5,24−6,24−7は、これらの長手方向と直交する方向に沿って、距離間隔をあけて設定される。注目領域24−5と注目領域24−7との間に、注目領域24−6が設定される。
注目領域24−6は、画像30−4において寝床領域22と重なる中間注目領域である。注目領域24−6は、寝床領域22の側部において、注目領域24−3と重なっている。注目領域24−6は、被監視者Obが寝床1の側部に座る場所と対応する。注目領域24−5は、画像30−4において中間注目領域の下に位置する下側注目領域である。注目領域24−7は、画像30−4において中間注目領域の上に位置する上側注目領域である。
図14は、被監視者Obが寝床1の手前に立っているときに、撮像部10によって撮像されたフレーム(画像30−5)を説明する説明図である。図15は、被監視者Obが寝床1の側部に座ったときに、撮像部10によって撮像されたフレーム(画像30−6)を説明する説明図である。図16は、被監視者Obが寝床1に脚部を入れたときに、撮像部10によって撮像されたフレーム(画像30−7)を説明する説明図である。これらの画像は、図12に示す画像30−4と同様に、画像を規定する線を省略している。図14〜図16において、被監視者領域26−3は、被監視者Obの全身の像に対応する。
図14を参照して、注目領域24−5(下側注目領域)及び注目領域24−6(中間注目領域)は、被監視者Obが寝床1の手前に立っているときに、被監視者Obの体の一部分を含む領域である。ここでは、注目領域24−5は、被監視者Obの脚部の一部分を含む領域である。この領域と注目領域24−5とが重なる領域が、被監視者領域26−31である。注目領域24−6は、被監視者Obの腕部の一部分及び背中の一部分を含む領域である。この領域と注目領域24−6とが重なる領域が、被監視者領域26−32である。
図15を参照して、注目領域24−6(中間注目領域)及び注目領域24−7(上側注目領域)は、被監視者Obが寝床1の側部に座ったときに、被監視者Obの体の一部分を含む領域である。ここでは、注目領域24−6は、被監視者Obの脚部の一部分及び腰部を含む領域である。この領域と注目領域24−6とが重なる領域が、被監視者領域26−33である。注目領域24−7は、被監視者Obの頭部の一部分を含む領域である。この領域と注目領域24−7とが重なる領域が、被監視者領域26−34である。
図16を参照して、注目領域24−6(中間注目領域)は、被監視者Obが寝床1に脚部を入れるときに、被監視者Obの体の一部分を含む領域である。ここでは、注目領域24−6は、被監視者Obの腕部の一部分及び脚部の一部分を含む領域である。この領域と注目領域24−6とが重なる領域が、被監視者領域26−35である。
第1の行動の判定アルゴリズムについて説明する。図3及び図14を参照して、被監視者Obが寝床1に近づく動作をしたとき、抽出部11は、注目領域24−5に位置する被監視者領域26−31を人体領域として抽出し、注目領域24−6に位置する被監視者領域26−32を人体領域として抽出する。
図3及び図15を参照して、被監視者Obが寝床1の側部に座る動作をしたとき、抽出部11は、注目領域24−6に位置する被監視者領域26−33を人体領域として抽出し、注目領域24−7に位置する被監視者領域26−34を人体領域として抽出する。
図3及び図16を参照して、被監視者Obが寝床1に脚部を入れる動作をしたとき、抽出部11は、注目領域24−6に位置する被監視者領域26−35を人体領域として抽出する。
図14〜図16で説明した人体領域の抽出の手法は、実施形態と同じである。
判定部12が、最初に、注目領域24−5,24−6に人体領域がある判定をし、かつ、注目領域24−7に人体領域がない判定をし(図14)、次に、注目領域24−6,24−7に人体領域がある判定をし、かつ、注目領域24−5に人体領域がない判定をし(図15)、最後に、注目領域24−6に人体領域がある判定をし、かつ、注目領域24−5,24−7に人体領域がない判定をしたとする(図16)。判定部12が、これら3つの判定を所定の期間(例えば、60秒)内にしたとき、判定部12は、被監視者Obが寝床1に入る動作(第1の行動)をしたことを判定する。
第2の行動の判定アルゴリズムを説明する。図17は、被監視者Obが離床したと推定される動作をしているときに、撮像部10によって撮像されたフレーム(画像30−8)を説明する説明図である。注目領域24−3外の領域と被監視者Obとが重なる領域が、被監視者領域26−36となる(斜線で示す領域)。判定部12は、例えば、被監視者領域26−36の面積(画素数)が所定の第4の閾値を超えたとき、被監視者Obが第2の行動(離床したと推定される動作)をしたことを判定する。
変形例1の主な効果を説明する。変形例1は、人が離床するとき、この前提として寝床1に入る動作をすることに着目する。変形例1は、被監視者Obが寝床1に入る動作(第1の行動)をした判定をし、次に、被監視者Obが離床したと推定される動作(第2の行動)をした判定をしたとき、被監視者Obが離床したと判定する。変形例1によれば、被監視者Obが第2の行動をした判定のみで、離床と判定する手法と比較して、離床の誤判定を少なくすることができる。
変形例2を説明する。図3を参照して、実施形態において、抽出部11及び判定部12が、センサ装置SUに備えられる。これに対して、変形例2において、これらは、図1に示す管理サーバ装置SVに備えられる。変形例に備えられるSU制御処理部13は、SU通信IF部14に対して、撮像部10が撮像した動画MIを、管理サーバ装置SVに送信する命令をする。SU通信IF部14は、その動画MIを、管理サーバ装置SVの通信部(不図示)と通信可能な通信信号に変更して、管理サーバ装置SVに送信する。
実施形態では、撮像部10が、被監視者Obを含む所定の範囲の第1の画像及び第2の画像を取得する取得部として機能する。これに対して、変形例2では、管理サーバ装置SVの上記通信部が取得部の機能を有する。
(実施形態の纏め)
実施形態の第1の局面に係る行動判定装置は、監視対象となる被監視者を含む所定の範囲の第1の画像及び第2の画像を取得する取得部と、前記第1の画像及び前記第2の画像から人体領域を抽出する抽出部と、予め定められた第1の行動をしたか否かの判定に用いられる複数の第1の注目領域を、距離間隔をあけて前記第1の画像に設定する第1の設定をし、複数の前記第1の注目領域及び前記人体領域を基にして、前記被監視者が前記第1の行動をしたか否かを判定し、予め定められた第2の行動をしたか否かの判定に用いられる第2の注目領域を、前記第2の画像に設定する第2の設定をし、前記第2の注目領域及び前記人体領域を基にして、前記被監視者が前記第2の行動をしたか否かを判定する判定部と、を備える。
実施形態の第1の局面に係る行動判定装置では、第1の行動の判定に用いる注目領域(距離間隔をあけて設定された複数の第1の注目領域)と第2の行動の判定に用いる注目領域(第2の注目領域)とを別々にしている。従って、判定したい行動に応じて、画像に設定する注目領域を変えることができる。例えば、第1の行動の判定に最適な注目領域を、第1の行動の判定に用いる注目領域にすることができ、第2の行動の判定に最適な注目領域を、第2の行動の判定に用いる注目領域にすることができる。よって、実施形態の第1の局面に係る行動判定装置によれば、誤判定を少なくすることができる。
第1の画像と第2の画像とは、同じ画像でもよいし、異なる画像でもよい。
上記構成において、前記判定部は、前記被監視者が前記第1の行動をした判定をした後、前記被監視者が前記第2の行動をした判定をしたとき、前記被監視者が所定の行動をしたと判定する。
この構成は、第1の行動と第2行動とを組み合わせて、所定の行動を判定する。この構成には、以下の第1の態様及び第2の態様がある。
第1の態様において、前記第1の画像及び前記第2の画像は、寝床を示す領域である寝床領域を含み、前記第1の行動は、前記被監視者が前記寝床で寝ている姿勢をとることであり、前記第2の行動は、前記被監視者が前記寝床から体の一部分を出すことであり、前記判定部は、前記第1の設定として、複数の前記第1の注目領域を、前記寝床領域の長手方向に沿って距離間隔をあけて前記寝床領域に並べる設定をし、複数の前記第1の注目領域のそれぞれに前記人体領域が存在するとき、前記被監視者が前記第1の行動をしたと判定し、前記判定部は、前記第2の設定として、前記第2の注目領域を、前記寝床領域を規定する線に沿って設定をし、前記第2の注目領域外に位置する前記人体領域の面積を基にして、前記被監視者が前記第2の行動をしたか否かを判定し、前記判定部は、前記被監視者が前記第1の行動をした判定をした後、前記被監視者が前記第2の行動をした判定をしたとき、前記被監視者が起床したと判定する。
第1の態様は、人が起床するとき、この前提として寝床で寝ている姿勢をとっていることに着目する。判定部は、被監視者が寝床で寝ている姿勢をとっている判定(第1の行動をした判定)をし、次に、被監視者が寝床から体の一部分(例えば、脚部)を出す判定(第2の行動をした判定)をしたとき、被監視者が起床したと判定する。第1の態様によれば、被監視者が第2の行動をした判定のみで、起床と判定する手法と比較して、起床の誤判定を少なくすることができる。
人が寝床で寝る姿勢をとるとき、複数の第1の注目領域のそれぞれに(すなわち、複数の第1の注目領域の全てに)人体領域が存在する。そこで、判定部は、複数の第1の注目領域のそれぞれに人体領域が存在するとき、被監視者が第1の行動をしたと判定する。なお、通常、人が寝床に入り、寝床で寝ている姿勢をとるとき、頭及び脚部を同時に寝床につけるのではなく、いずれかを順番に、あるいは、少しずつ交互に動かしながら寝て、最終的に頭及び脚部の両方を寝床につける。よって、判定部は、第1の注目領域の少なくともいずれかに人体領域が存在する判定をした後、残りの注目領域についても人体領域が存在することを判定する。以上を考慮すると、好ましくは、判定部は、所定期間(例えば、10秒)内に、複数の第1の注目領域のそれぞれに人体領域が存在する判定をしたとき、被監視者が第1の行動をしたと判定する。
第2の注目領域外に位置する人体領域の面積(画素数)を基にして、被監視者が第2の行動をしたか否かを判定する手法としては、様々あるが、一例は、以下の通りである。判定部は、第2の注目領域外に位置する人体領域の画素数÷(第2の注目領域内に位置する人体領域の画素数+第2の注目領域外に位置する人体領域の画素数)が、所定の閾値を超えたとき、第2の行動をしたと判定する。
第2の態様において、前記第1の画像及び前記第2の画像は、寝床を示す領域である寝床領域を含み、前記第1の画像及び前記第2の画像を撮像する撮像部は、前記寝床の斜め上側に配置されており、前記第1の行動は、前記被監視者が前記寝床に入る動作であり、前記第2の行動は、前記被監視者が離床したと推定される動作であり、複数の前記第1の注目領域は、前記第1の画像において前記寝床領域と重なる中間注目領域、前記画像において前記中間注目領域の下に位置する下側注目領域、前記画像において前記中間注目領域の上に位置する上側注目領域により構成されており、前記判定部は、前記第1の設定として、前記下側注目領域、前記中間注目領域、及び、前記上側注目領域を設定し、前記下側注目領域及び前記中間注目領域に前記人体領域が存在し、かつ、前記上側注目領域に前記人体領域が存在しない第1の状態と、前記中間注目領域及び前記上側注目領域に前記人体領域が存在し、かつ、前記下側注目領域に前記人体領域が存在しない第2の状態と、前記中間注目領域に前記人体領域が存在し、かつ、前記下側注目領域及び前記上側注目領域に前記人体領域が存在しない第3の状態とが、前記第1の状態、前記第2の状態、前記第3の状態の順で発生したと判断したとき、前記被監視者が前記第1の行動をしたと判定し、前記判定部は、前記第2の設定として、前記第2の注目領域を、前記寝床領域を規定する線に沿って設定をし、前記第2の注目領域外に位置する前記人体領域の面積を基にして、前記被監視者が前記第2の行動をしたか否かを判定し、前記判定部は、前記被監視者が前記第1の行動をした判定をした後、前記被監視者が前記第2の行動をした判定をしたとき、前記被監視者が離床したと判定する。
第2の態様は、人が離床するとき、この前提として寝床に入る動作をすることに着目する。第2の態様は、被監視者が寝床に入る動作(第1の行動)をした判定をし、次に、被監視者が離床したと推定される動作(第2の行動)をした判定をしたとき、被監視者が離床したと判定する。第2の態様によれば、被監視者が第2の行動をした判定のみで、離床と判定する手法と比較して、離床の誤判定を少なくすることができる。
第2の注目領域外に位置する人体領域の面積(画素数)を基にして、被監視者が第2の行動をしたか否かを判定する手法としては、様々あるが、一例は、以下の通りである。判定部は、第2の注目領域外に位置する人体領域の画素数が、所定の閾値を超えたとき、第2の行動をしたと判定する。
実施形態の第2の局面に係る行動判定方法は、監視対象となる被監視者を含む所定の範囲の第1の画像及び第2の画像を取得する取得ステップと、前記第1の画像及び前記第2の画像から人体領域を抽出する抽出ステップと、予め定められた第1の行動をしたか否かの判定に用いられる複数の第1の注目領域を、距離間隔をあけて前記第1の画像に設定する第1の設定をし、複数の前記第1の注目領域及び前記人体領域を基にして、前記被監視者が前記第1の行動をしたか否かを判定し、予め定められた第2の行動をしたか否かの判定に用いられる第2の注目領域を、前記第2の画像に設定する第2の設定をし、前記第2の注目領域及び前記人体領域を基にして、前記被監視者が前記第2の行動をしたか否かを判定する判定ステップと、を備える。
実施形態の第2の局面に係る行動判定方法は、実施形態の第1の局面にかかる行動判定装置を方法の観点から規定しており、実施形態の第1の局面にかかる行動判定装置と同様の作用効果を有する。
この出願は、2016年7月12日に出願された日本国特許出願特願2016−137422を基礎とするものであり、その内容は、本願に含まれるものである。
本発明を表現するために、上述において図面を参照しながら実施形態を通して本発明を適切且つ十分に説明したが、当業者であれば上述の実施形態を変更および/または改良することは容易に為し得ることであると認識すべきである。したがって、当業者が実施する変更形態または改良形態が、請求の範囲に記載された請求項の権利範囲を離脱するレベルのものでない限り、当該変更形態または当該改良形態は、当該請求項の権利範囲に包括されると解釈される。
本発明によれば、行動判定装置及び行動判定方法を提供することができる。

Claims (5)

  1. 監視対象となる被監視者を含む所定の範囲の第1の画像及び第2の画像を取得する取得部と、
    前記第1の画像及び前記第2の画像から人体領域を抽出する抽出部と、
    予め定められた第1の行動をしたか否かの判定に用いられる複数の第1の注目領域を、距離間隔をあけて前記第1の画像に設定する第1の設定をし、複数の前記第1の注目領域及び前記人体領域を基にして、前記被監視者が前記第1の行動をしたか否かを判定し、予め定められた第2の行動をしたか否かの判定に用いられる第2の注目領域を、前記第2の画像に設定する第2の設定をし、前記第2の注目領域及び前記人体領域を基にして、前記被監視者が前記第2の行動をしたか否かを判定する判定部と、を備える行動判定装置。
  2. 前記判定部は、前記被監視者が前記第1の行動をした判定をした後、前記被監視者が前記第2の行動をした判定をしたとき、前記被監視者が所定の行動をしたと判定する請求項1に記載の行動判定装置。
  3. 前記第1の画像及び前記第2の画像は、寝床を示す領域である寝床領域を含み、
    前記第1の行動は、前記被監視者が前記寝床で寝ている姿勢をとることであり、
    前記第2の行動は、前記被監視者が前記寝床から体の一部分を出すことであり、
    前記判定部は、前記第1の設定として、複数の前記第1の注目領域を、前記寝床領域の長手方向に沿って距離間隔をあけて前記寝床領域に並べる設定をし、複数の前記第1の注目領域のそれぞれに前記人体領域が存在するとき、前記被監視者が前記第1の行動をしたと判定し、
    前記判定部は、前記第2の設定として、前記第2の注目領域を、前記寝床領域を規定する線に沿って設定をし、前記第2の注目領域外に位置する前記人体領域の面積を基にして、前記被監視者が前記第2の行動をしたか否かを判定し、
    前記判定部は、前記被監視者が前記第1の行動をした判定をした後、前記被監視者が前記第2の行動をした判定をしたとき、前記被監視者が起床したと判定する請求項2に記載の行動判定装置。
  4. 前記第1の画像及び前記第2の画像は、寝床を示す領域である寝床領域を含み、
    前記第1の画像及び前記第2の画像を撮像する撮像部は、前記寝床の斜め上側に配置されており、
    前記第1の行動は、前記被監視者が前記寝床に入る動作であり、
    前記第2の行動は、前記被監視者が離床したと推定される動作であり、
    複数の前記第1の注目領域は、前記第1の画像において前記寝床領域と重なる中間注目領域、前記画像において前記中間注目領域の下に位置する下側注目領域、前記画像において前記中間注目領域の上に位置する上側注目領域により構成されており、
    前記判定部は、前記第1の設定として、前記下側注目領域、前記中間注目領域、及び、前記上側注目領域を設定し、前記下側注目領域及び前記中間注目領域に前記人体領域が存在し、かつ、前記上側注目領域に前記人体領域が存在しない第1の状態と、前記中間注目領域及び前記上側注目領域に前記人体領域が存在し、かつ、前記下側注目領域に前記人体領域が存在しない第2の状態と、前記中間注目領域に前記人体領域が存在し、かつ、前記下側注目領域及び前記上側注目領域に前記人体領域が存在しない第3の状態とが、前記第1の状態、前記第2の状態、前記第3の状態の順で発生したと判断したとき、前記被監視者が前記第1の行動をしたと判定し、
    前記判定部は、前記第2の設定として、前記第2の注目領域を、前記寝床領域を規定する線に沿って設定をし、前記第2の注目領域外に位置する前記人体領域の面積を基にして、前記被監視者が前記第2の行動をしたか否かを判定し、
    前記判定部は、前記被監視者が前記第1の行動をした判定をした後、前記被監視者が前記第2の行動をした判定をしたとき、前記被監視者が離床したと判定する請求項2に記載の行動判定装置。
  5. 監視対象となる被監視者を含む所定の範囲の第1の画像及び第2の画像を取得する取得ステップと、
    前記第1の画像及び前記第2の画像から人体領域を抽出する抽出ステップと、
    予め定められた第1の行動をしたか否かの判定に用いられる複数の第1の注目領域を、距離間隔をあけて前記第1の画像に設定する第1の設定をし、複数の前記第1の注目領域及び前記人体領域を基にして、前記被監視者が前記第1の行動をしたか否かを判定し、予め定められた第2の行動をしたか否かの判定に用いられる第2の注目領域を、前記第2の画像に設定する第2の設定をし、前記第2の注目領域及び前記人体領域を基にして、前記被監視者が前記第2の行動をしたか否かを判定する判定ステップと、を備える行動判定方法。
JP2018527582A 2016-07-12 2017-07-07 行動判定装置及び行動判定方法 Active JP7183788B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016137422 2016-07-12
JP2016137422 2016-07-12
PCT/JP2017/024999 WO2018012432A1 (ja) 2016-07-12 2017-07-07 行動判定装置及び行動判定方法

Publications (2)

Publication Number Publication Date
JPWO2018012432A1 true JPWO2018012432A1 (ja) 2019-05-09
JP7183788B2 JP7183788B2 (ja) 2022-12-06

Family

ID=60951771

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018527582A Active JP7183788B2 (ja) 2016-07-12 2017-07-07 行動判定装置及び行動判定方法

Country Status (3)

Country Link
EP (1) EP3486868A4 (ja)
JP (1) JP7183788B2 (ja)
WO (1) WO2018012432A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7160932B2 (ja) * 2018-02-20 2022-10-25 アップリフト ラブズ インコーポレイテッド 動作の識別および動作情報を用いた規範的な分析の生成
JP2020109582A (ja) * 2019-01-07 2020-07-16 エイアイビューライフ株式会社 情報処理装置
CN113255606A (zh) * 2021-06-30 2021-08-13 深圳市商汤科技有限公司 行为识别方法、装置、计算机设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120140068A1 (en) * 2005-05-06 2012-06-07 E-Watch, Inc. Medical Situational Awareness System
JP2012170483A (ja) * 2011-02-17 2012-09-10 Fujitsu Ltd 状態検知装置および状態検知方法
JP2015139550A (ja) * 2014-01-29 2015-08-03 シャープ株式会社 離床判定装置および離床判定方法
WO2015118953A1 (ja) * 2014-02-07 2015-08-13 Nkワークス株式会社 情報処理装置、情報処理方法、及び、プログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4590745B2 (ja) 2001-01-31 2010-12-01 パナソニック電工株式会社 画像処理装置
JP6167563B2 (ja) * 2013-02-28 2017-07-26 ノーリツプレシジョン株式会社 情報処理装置、情報処理方法、及び、プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120140068A1 (en) * 2005-05-06 2012-06-07 E-Watch, Inc. Medical Situational Awareness System
JP2012170483A (ja) * 2011-02-17 2012-09-10 Fujitsu Ltd 状態検知装置および状態検知方法
JP2015139550A (ja) * 2014-01-29 2015-08-03 シャープ株式会社 離床判定装置および離床判定方法
WO2015114902A1 (ja) * 2014-01-29 2015-08-06 シャープ株式会社 離床判定装置および離床判定方法
WO2015118953A1 (ja) * 2014-02-07 2015-08-13 Nkワークス株式会社 情報処理装置、情報処理方法、及び、プログラム

Also Published As

Publication number Publication date
WO2018012432A1 (ja) 2018-01-18
EP3486868A1 (en) 2019-05-22
EP3486868A4 (en) 2019-07-17
JP7183788B2 (ja) 2022-12-06

Similar Documents

Publication Publication Date Title
CN107925748B (zh) 显示控制装置、显示控制系统、显示控制方法、记录介质
JP6852733B2 (ja) 生体監視装置及び生体監視方法
JP6806145B2 (ja) 被監視者監視システムおよび被監視者監視方法
JP6115692B1 (ja) 行動検知装置、該方法および該プログラム、ならびに、被監視者監視装置
JP7021634B2 (ja) 被監視者監視システムの中央処理装置および中央処理方法ならびに被監視者監視システム
JPWO2018012432A1 (ja) 行動判定装置及び行動判定方法
WO2018003752A1 (ja) 呼吸異常検出装置及び呼吸異常検出方法
WO2017183603A1 (ja) 被監視者監視システムおよび被監視者監視方法
JP2024038108A (ja) 情報処理装置、見守りシステム、および制御プログラム
JP6908028B2 (ja) 被監視者監視装置、該方法、該システムおよびプログラム
WO2018016392A1 (ja) 姿勢検出装置及び姿勢検出方法
JP7137155B2 (ja) 被監視者監視支援システム、被監視者監視支援方法およびプログラム
JP6673382B2 (ja) 端末装置、プログラムおよび方法
WO2018096805A1 (ja) 被監視者監視装置用設定装置および該方法ならびに被監視者監視システム
JP2020052808A (ja) 見守り装置、見守りシステム、見守りプログラム、および見守り方法
JP7425413B2 (ja) 被監視者監視支援装置、被監視者監視支援方法、被監視者監視支援システムおよび被監視者監視支援サーバ装置
JP7327396B2 (ja) 制御プログラム、レポート出力方法、およびレポート出力装置
JPWO2018096806A1 (ja) 被監視者監視装置用設定装置および該方法ならびに被監視者監視システム
JP6737089B2 (ja) 被監視者監視システム及び被監視者監視方法
WO2019130732A1 (ja) 被監視者監視支援装置、被監視者監視支援システム、被監視者監視支援方法、および、被監視者監視支援プログラム
WO2018003751A1 (ja) 生体監視装置、生体監視方法及び生体監視システム
JP2021060730A (ja) 制御プログラム、情報処理装置、および情報処理システム
JP2020140418A (ja) 携帯端末の制御プログラム、携帯端末および見守りシステム
JPWO2020031531A1 (ja) 移動行動異常判定装置および該方法ならびに被監視者監視支援システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200624

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210727

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210922

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211124

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220901

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220901

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220912

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220913

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221025

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221107

R150 Certificate of patent or registration of utility model

Ref document number: 7183788

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150