以下、本発明にかかる実施の一形態を図面に基づいて説明する。なお、各図において同一の符号を付した構成は、同一の構成であることを示し、適宜、その説明を省略する。本明細書において、総称する場合には添え字を省略した参照符号で示し、個別の構成を指す場合には添え字を付した参照符号で示す。
実施形態における被監視者監視システムは、監視すべき(見守るべき)監視対象(見守り対象)である被監視者(見守り対象者)Obを監視するシステムである。この被監視者監視システムは、センサ装置と、前記センサ装置と通信可能に接続される端末装置とを備え、前記撮像部で撮像された画像に基づいて監視対象である被監視者における所定の行動を検知して検知結果を前記端末装置に報知する。このような被監視者監視システムにおける前記センサ装置は、通信を行う第1通信部と、撮像を行う撮像部と、前記撮像部で撮像した画像に写る人物の前記画像での位置に関する人物位置データを生成する人物位置処理部と、前記撮像部で撮像された前記画像に基づいて監視対象である被監視者における所定の行動を検知し、検知結果、前記撮像部で撮像した画像の画像データ、および、前記人物位置処理部で生成した人物位置データを収容する監視情報通信信号を前記第1通信部で送信する第1監視処理部とを備える。前記被監視者監視システムにおける前記端末装置は、前記監視情報通信信号を受信する第2通信部と、表示を行う表示部と、前記第2通信部で受信した監視情報通信信号に収容された前記検知結果および前記画像データの画像を前記表示部に表示し、前記監視情報通信信号に収容された前記人物位置データに基づく前記人物の位置を表す人物位置標識を前記表示部に表示した画像中に表示する表示処理部を有する第2監視処理部とを備える。前記監視情報通信信号は、前記センサ装置から前記端末装置へ直接的に送信されて良く、また、前記センサ装置から他の装置(例えば以下の管理サーバ装置)を介して前記端末装置へ間接的に送信されて良い。なお、前記端末装置は、1種類の装置であって良いが、以下の説明では、前記端末装置は、固定端末装置と携帯端末装置との2種類の装置である。これら固定端末装置と携帯端末装置との主な相違は、固定端末装置が固定的に運用される一方、携帯端末装置が例えば看護師や介護士等の監視者(ユーザ)に携行されて運用される点であり、これら固定端末装置と携帯端末装置とは、略同様であるので、以下、携帯端末装置を主に説明する。
図1は、実施形態における被監視者監視システムの構成を示す図である。図2は、実施形態の被監視者監視システムにおけるセンサ装置の構成を示す図である。図3は、第1態様の人物位置データおよび人物位置標識を説明するための図である。図4は、第2態様の人物位置データ(人物領域データ)および人物位置標識を説明するための図である。図5は、第3態様の人物位置データ(人物領域データ)および人物位置標識を説明するための図である。図6は、第4態様の人物位置データ(人物領域データ)および人物位置標識を説明するための図である。図7は、第5態様の人物位置データ(人物領域データ)および人物位置標識を説明するための図である。図8は、実施形態の被監視者監視システムにおける携帯端末装置の構成を示す図である。
より具体的には、被監視者監視システムMSは、例えば、図1に示すように、1または複数のセンサ装置SU(SU−1〜SU−4)と、管理サーバ装置SVと、固定端末装置SPと、1または複数の携帯端末装置TA(TA−1、TA−2)と、構内交換機(PBX、Private branch exchange)CXとを備え、これらは、有線や無線で、LAN(Local Area Network)等の網(ネットワーク、通信回線)NWを介して通信可能に接続される。ネットワークNWは、通信信号を中継する例えばリピーター、ブリッジおよびルーター等の中継機が備えられても良い。図1に示す例では、これら複数のセンサ装置SU−1〜SU−4、管理サーバ装置SV、固定端末装置SP、複数の携帯端末装置TA−1、TA−2および構内交換機CXは、L2スイッチの集線装置(ハブ、HUB)LSおよびアクセスポイントAPを含む有線および無線の混在したLAN(例えばIEEE802.11規格に従ったLAN等)NWによって互いに通信可能に接続されている。より詳しくは、複数のセンサ装置SU−1〜SU−4、管理サーバ装置SV、固定端末装置SPおよび構内交換機CXは、集線装置LSに接続され、複数の携帯端末装置TA−1、TA−2は、アクセスポイントAPを介して集線装置LSに接続されている。そして、ネットワークNWは、TCP(Transmission control protocol)およびIP(Internet protocol)等のインターネットプロトコル群が用いられることによっていわゆるイントラネットを構成する。
被監視者監視システムMSは、被監視者Obに応じて適宜な場所に配設される。被監視者(見守り対象者)Obは、例えば、病気や怪我等によって看護を必要とする者や、身体能力の低下等によって介護を必要とする者や、一人暮らしの独居者等である。特に、早期発見と早期対処とを可能にする観点から、被監視者Obは、例えば異常状態等の所定の不都合な事象がその者に生じた場合にその発見を必要としている者であることが好ましい。このため、被監視者監視システムMSは、被監視者Obの種類に応じて、病院、老人福祉施設および住戸等の建物に好適に配設される。図1に示す例では、被監視者監視システムMSは、複数の被監視者Obが入居する複数の居室RMや、ナースステーション等の複数の部屋を備える介護施設の建物に配設されている。
構内交換機(回線切換機)CXは、ネットワークNWに接続され、携帯端末装置TA同士における発信、着信および通話等の内線電話の制御を行って前記携帯端末装置TA同士の内線電話を実施し、そして、例えば固定電話網や携帯電話網等の公衆電話網PNを介して例えば固定電話機や携帯電話機等の外線電話機TLに接続され、外線電話機TLと携帯端末装置TAとの間における発信、着信および通話等の外線電話の制御を行って外線電話機TLと携帯端末装置TAとの間における外線電話を実施する装置である。構内交換機CXは、例えば、デジタル交換機や、IP−PBX(Internet Protocol Private Branch eXchange)等である。
センサ装置SUは、ネットワークNWを介して他の装置SV、SP、TAと通信する通信機能等を備え、被監視者Obにおける所定の行動を検知してその検知結果を管理サーバ装置SVへ報知し、ナースコールを受付けてその旨を管理サーバ装置SVへ通知し、端末装置SP、TAとの間で音声通話を行い、動画を含む画像を生成して端末装置SP、TAへ動画を配信する装置である。そして、本実施形態では、画像を端末装置SP、TAへ送信する際に、センサ装置SUは、端末装置SP、TAへ送信するために、前記画像に写る人物の前記画像上での位置に関する人物位置データを生成して前記画像と共に管理サーバ装置SVへ送信する。このようなセンサ装置SUは、例えば、図2に示すように、撮像部11と、センサ側音入出力部(SU音入出力部)12と、ナースコール受付操作部13と、センサ側制御処理部(SU制御処理部)14と、センサ側通信インターフェース部(SU通信IF部)15と、センサ側記憶部(SU記憶部)16とを備える。
撮像部11は、SU制御処理部14に接続され、SU制御処理部14の制御に従って、撮像を行い、画像(画像データ)を生成する装置である。前記画像には、静止画(静止画データ)および動画(動画データ)が含まれる。撮像部11は、監視すべき監視対象である被監視者Obが所在を予定している空間(所在空間、図1に示す例では配設場所の居室RM)を監視可能に配置され、前記所在空間を撮像対象としてその上方から撮像し、前記撮像対象を俯瞰した画像(画像データ)を生成し、前記撮像対象の画像(対象画像)をSU制御処理部14へ出力する。好ましくは、被監視者Ob全体を撮像できる蓋然性が高いことから、撮像部11は、被監視者Obが横臥する寝具(例えばベッド等)における、被監視者Obの頭部が位置すると予定されている予め設定された頭部予定位置(通常、枕の配設位置)の直上から撮像対象を撮像できるように配設される。センサ装置SUは、この撮像部11によって、被監視者Obを、被監視者Obの上方から撮像した画像、好ましくは前記頭部予定位置の直上から撮像した画像を取得する。
このような撮像部11は、可視光の画像を生成する装置であって良いが、比較的暗がりでも被監視者Obを監視できるように、本実施形態では、赤外線の画像を生成する装置である。このような撮像部11は、例えば、本実施形態では、撮像対象における赤外の光学像を所定の結像面上に結像する結像光学系、前記結像面に受光面を一致させて配置され、前記撮像対象における赤外の光学像を電気的な信号に変換するイメージセンサ、および、イメージセンサの出力を画像処理することで前記撮像対象における赤外の画像を表すデータである画像データを生成する画像処理部等を備えるデジタル赤外線カメラである。撮像部11の前記結像光学系は、本実施形態では、その配設された居室RM全体を撮像できる画角を持つ広角な光学系(いわゆる広角レンズ(魚眼レンズを含む))であることが好ましい。
SU音入出力部12は、音を入出力する回路である。すなわち、SU音入出力部12は、SU制御処理部14に接続され、SU制御処理部14の制御に従って音を表す電気信号に応じた音を生成して出力するための回路であって、外部の音を取得してセンサ装置SUに入力するための回路である。SU音入出力部12は、例えば、音の電気信号(音データ)を音の機械振動信号(音響信号)に変換するスピーカ等と、可聴領域の音の機械振動信号を電気信号に変換するマイクロフォン等とを備えて構成される。SU音入出力部12は、外部の音を表す電気信号をSU制御処理部14へ出力し、また、SU制御処理部14から入力された電気信号を音の機械振動信号に変換して出力する。
ナースコール受付操作部13は、SU制御処理部14に接続され、ナースコールを当該センサ装置SUに入力するための例えば押しボタン式スイッチ等のスイッチ回路である。なお、ナースコール受付操作部13は、有線でSU制御処理部14に接続されて良く、また、例えばBluetooth(登録商標)規格等の近距離無線通信でSU制御処理部14に接続されて良い。
SU通信IF部15は、SU制御処理部14に接続され、SU制御処理部14の制御に従って通信を行うための通信回路である。SU通信IF部15は、SU制御処理部14から入力された転送すべきデータを収容した通信信号を、この被監視者監視システムMSのネットワークNWで用いられる通信プロトコルに従って生成し、この生成した通信信号をネットワークNWを介して他の装置SV、SP、TAへ送信する。SU通信IF部15は、ネットワークNWを介して他の装置SV、SP、TAから通信信号を受信し、この受信した通信信号からデータを取り出し、この取り出したデータをSU制御処理部14が処理可能な形式のデータに変換してSU制御処理部14へ出力する。SU通信IF部15は、例えば、IEEE802.11規格等に従った通信インターフェース回路を備えて構成される。
SU記憶部16は、SU制御処理部14に接続され、SU制御処理部14の制御に従って、各種の所定のプログラムおよび各種の所定のデータを記憶する回路である。前記各種の所定のプログラムには、例えば、センサ装置SUの各部を当該各部の機能に応じてそれぞれ制御するSU制御プログラムや、撮像部11で撮像した画像に写る人物の前記画像での位置に関する人物位置データを生成する人物位置処理プログラムや、被監視者Obにおける所定の行動を検知して検知結果を、撮像部11で撮像した画像(画像データ)および前記人物位置処理プログラムで生成した人物位置データと共に、管理サーバ装置SVを介して所定の端末装置SP、TAへ通知するSU監視処理プログラムや、ナースコール受付操作部13でナースコールを受付けた場合にその旨を管理サーバ装置SVへ通知し、SU音入出力部12等を用いることで端末装置SP、TAとの間で音声通話を行うナースコール処理プログラムや、撮像部11で生成した動画を、その動画を要求した端末装置SP、TAへストリーミングで配信するSUストリーミング処理プログラム等の制御処理プログラムが含まれる。前記各種の所定のデータには、自機の、センサ装置SUを特定し識別するための識別子であるセンサ装置識別子(センサID)、および、管理サーバ装置SVの通信アドレス等の、各プログラムを実行する上で必要なデータ等が含まれる。SU記憶部16は、例えば不揮発性の記憶素子であるROM(Read Only Memory)や書き換え可能な不揮発性の記憶素子であるEEPROM(Electrically Erasable Programmable Read Only Memory)等を備える。そして、SU記憶部16は、前記所定のプログラムの実行中に生じるデータ等を記憶するいわゆるSU制御処理部14のワーキングメモリとなるRAM(Random Access Memory)等を含む。
SU制御処理部14は、センサ装置SUの各部を当該各部の機能に応じてそれぞれ制御し、被監視者Obにおける所定の行動を検知してその検知結果を前記画像(画像データ)および人物位置データと共に管理サーバ装置SVへ報知し、ナースコールを受付けてその旨を管理サーバ装置SVへ通知し、端末装置SP、TAとの間で音声通話を行い、そして、動画を含む画像を生成して端末装置SP、TAへ動画を配信するための回路である。SU制御処理部14は、例えば、CPU(Central Processing Unit)およびその周辺回路を備えて構成される。SU制御処理部14は、前記制御処理プログラムが実行されることによって、センサ側制御部(SU制御部)141、センサ側監視処理部(SU監視処理部)142、人物位置処理部143、ナースコール処理部(ナースコール処理部)144およびセンサ側ストリーミング処理部(SUストリーミング処理部)145を機能的に備える。
SU制御部141は、センサ装置SUの各部を当該各部の機能に応じてそれぞれ制御し、センサ装置SUの全体制御を司るものである。
SU監視処理部142は、被監視者Obにおける、予め設定された所定の行動(状態、状況)を画像に基づいて検知して、前記画像および後述のように人物位置処理部143で生成した人物位置データと共に、管理サーバ装置SVへ報知(通知、送信)するものである。
より具体的には、本実施形態では、前記所定の行動は、例えば、被監視者Obが起きた起床、被監視者Obが寝具から離れた離床、被監視者Obが寝具から落ちた転落、および、被監視者Obが倒れた転倒の4つの行動である。SU監視処理部142は、例えば、撮像部11で撮像した対象画像に基づいて被監視者Obの頭部を検出し、この検出した被監視者Obの頭部における大きさの時間変化に基づいて被監視者Obの起床、離床、転倒および転落を検知する。より詳しくは、まず、寝具の所在領域、および、第1ないし第3閾値Th1〜Th3が前記各種の所定のデータの1つとして予めSU記憶部16に記憶される。前記第1閾値Th1は、寝具の所在領域内における横臥姿勢の頭部の大きさと座位姿勢の頭部の大きさとを識別するための値である。前記第2閾値Th2は、寝具の所在領域を除く居室RM内における立位姿勢の頭部の大きさであるか否かを識別するための値である。前記第3閾値Th3は、寝具の所在領域を除く居室RM内における横臥姿勢の頭部の大きさであるか否かを識別するための値である。そして、SU監視処理部142は、対象画像から例えば背景差分法やフレーム差分法によって被監視者Obの人物の領域として動体領域を抽出する。次に、SU監視処理部142は、この抽出した動体領域から、例えば円形や楕円形のハフ変換によって、また例えば予め用意された頭部のモデルを用いたパターンマッチングによって、また例えば頭部検出用に学習したニューラルネットワークによって、被監視者Obの頭部領域を抽出する。次に、SU監視処理部142は、この抽出した頭部の位置および大きさから起床、離床、転倒および転落を検知する。例えば、SU監視処理部142は、この抽出した頭部の位置が寝具の所在領域内であって、前記抽出した頭部の大きさが前記第1閾値Th1を用いることによって横臥姿勢の大きさから座位姿勢の大きさへ時間変化した場合には、起床と判定し、前記起床を検知する。例えば、SU監視処理部142は、この抽出した頭部の位置が寝具の所在領域内から寝具の所在領域外へ時間変化した場合であって、前記抽出した頭部の大きさが前記第2閾値Th2を用いることによって或る大きさから立位姿勢の大きさへ時間変化した場合には、離床と判定し、前記離床を検知する。例えば、SU監視処理部142は、この抽出した頭部の位置が寝具の所在領域内から寝具の所在領域外へ時間変化した場合であって、前記抽出した頭部の大きさが前記第3閾値Th3を用いることによって或る大きさから横臥姿勢の大きさへ時間変化した場合には、転落と判定し、前記転落を検知する。例えば、SU監視処理部142は、この抽出した頭部の位置が寝具の所在領域を除く居室RM内であって、前記抽出した頭部の大きさが前記第3閾値Th3を用いることによって或る大きさから横臥姿勢の大きさへ時間変化した場合には、転倒と判定し、前記転倒を検知する。
なお、画像上での人物の領域は、所定の大きさ(広さ、サイズ)の範囲内となるので、人物の領域として抽出する動体領域も所定の大きさ(広さ、サイズ)の範囲内となる。このため、動体領域として抽出する範囲が予め設定され、動体領域を抽出する際に、前記対象画像から例えば背景差分法やフレーム差分法によって抽出された動体領域が前記範囲外である場合には、この対象画像から例えば背景差分法やフレーム差分法によって抽出された動体領域は、人物の領域として抽出する動体領域から除外されてよい。
このように前記所定の行動を検知すると、SU監視処理部142は、この検知結果とこの検知結果を得る際に用いられた前記対象画像と、前記対象画像に対する人物位置データとを、SU通信IF部15で管理サーバ装置SVへ報知する。より詳しくは、SU監視処理部142は、自機のセンサID、検知結果(本実施形態では、起床、離床、転落および転倒のうちの1または複数)、前記所定の行動の検知に用いられた対象画像、および、この対象画像に対する人物位置データを収容した通信信号(第1監視情報通信信号)を、SU通信IF部15を介して管理サーバ装置SVへ送信する。前記画像は、静止画および動画のうちの少なくとも一方であって良く、本実施形態では、後述するように、まず、静止画が報知され、ユーザの要求に応じて動画が配信される。なお、まず、動画が配信されても良く、また、静止画および動画が送信され、画面分割で静止画および動画が端末装置SP、TAに表示されても良い。
前記人物位置データは、後述のように人物位置処理部143で生成され、前記対象画像の画像データにおけるメタデータとして前記第1監視情報通信信号に収容される。例えば、前記画像データおよび前記人物位置データは、Exif(Exchangeable image file format)ファイルに収容される。より具体的には、Exifファイルは、JPEG(Joint Photographic Experts Group)ファイルフォーマットに準拠したファイルであり、アプリケーションマーカセグメントに、撮影条件等のいわゆるExif情報が格納される。前記人物位置データは、このアプリケーションマーカセグメントに格納される。また例えば、前記画像データおよび前記人物位置データは、HTTP(Hypertext Transfer Protocol)におけるマルチパート形式のファイルにフォームデータとして収容される。より具体的には、前記画像データは、マルチパート形式のファイルにおける1つのフォームデータとして収容され、前記人物位置データは、マルチパート形式の前記ファイルにおける他の1つのフォームデータとして収容される。
人物位置処理部143は、撮像部11で撮像した画像に写る人物の前記画像での位置に関する人物位置データを生成するものである。本実施形態では、前記画像は、被監視者における所定の行動を検知するために用いられた前記対象画像である。前記人物位置データとして、例えば、次の第1ないし第5態様のデータを用いることができる。
第1態様の人物位置データは、前記画像に写る人物の前記画像上での位置そのものの座標データである。この第1態様の人物位置データが用いられる場合では、より具体的には、人物位置処理部143は、まず、SU監視処理部142と同様に、撮像部11で撮像した対象画像から例えば背景差分法やフレーム差分法によって人物の領域として動体領域MBを抽出する。そして、人物位置処理部143は、図3に示すように、この抽出した動体領域MBにおける重心位置P1を求め、この求めた重心位置P1の座標データ(x、y)を第1態様の人物位置データとして求める(前記画像に写る人物の前記画像上での位置=重心位置P1)。前記座標データ(x、y)は、以下の第2ないし第5態様の人物位置データも同様に、例えば、対象画像の左上頂点を座標原点とする画素位置で与えられる。なお、第1態様の人物位置データが用いられる場合では、後述するように携帯端末装置TAに表示される人物位置標識は、重心位置P1の座標データ(x、y)で表される点の画像HP1となる。
第2態様の人物位置データは、前記画像に写る人物の前記画像上での位置(例えば前記重心位置P1等)を含む前記人物の領域に関する人物領域データであり、前記人物領域データは、前記人物の領域の全部または一部を含む矩形を表す座標データである。この第2態様の人物位置データが用いられる場合では、より具体的には、人物位置処理部143は、上述と同様に、人物の領域として動体領域MBを抽出し、図4に示すように、この動体領域MBの全部または一部を含む矩形(例えば動体領域MBに対する外接矩形等)を求め、この求めた矩形を表す座標データを第2態様の人物位置データ(人物領域データ)として求める。この矩形を表す座標データは、例えば、矩形における1つの対角線の両端点P20、P21の各座標データ(x0、y0)、(x1、y1)から成る。また例えば、前記矩形を表す座標データは、矩形における4頂点の各座標データから成る(図略)。なお、第2態様の人物位置データが用いられる場合では、後述するように携帯端末装置TAに表示される人物位置標識は、前記人物領域データ(x0、y0)、(x1、y1)で表される画像、すなわち、矩形の画像(矩形の輪郭線の画像)HP2となる。
第3態様の人物位置データは、前記画像に写る人物の前記画像上での位置(例えば前記重心位置P1等)を含む前記人物の領域に関する人物領域データであり、前記人物領域データは、前記人物の領域の輪郭線を表す座標データである。この第3態様の人物位置データが用いられる場合では、より具体的には、人物位置処理部143は、上述と同様に、人物の領域として動体領域MBを抽出し、図5に示すように、この動体領域MBの輪郭線を求め、この求めた輪郭線を表す座標データを第3態様の人物位置データ(人物領域データ)として求める。この動体領域MBの輪郭線を表す座標データは、動体領域MBの輪郭線における各頂点P30、P31、P32、・・・、P3Cの各座標データ(x0、y0)、(x1、y1)、(x2、y2)、・・・、(xpc、ypc)から成る。より詳しくは、動体領域MBが比較的複雑な形状である場合には、動体領域MBの輪郭線における各頂点の個数が多数となり、第1監視情報通信信号における人物位置データに与えられているデータ容量(例えば数個〜十数個分の座標データのデータ容量)を超える場合が有り得る。このため、人物位置処理部143は、人物の領域としての動体領域MBを構成する画素を、隣接する複数の画素で纏めてモザイクを形成することで、動体領域MBを複数のモザイクで構成する(動体領域MBをモザイク化する)。このモザイクを大きくすることで、動体領域MBを構成するモザイクの個数が低減し、この結果、この複数のモザイクで構成される動体領域MBの輪郭線における頂点の個数も低減する。したがって、人物位置処理部143は、第1監視情報通信信号における人物位置データに与えられているデータ容量以下となるまで、モザイクの大きさを順次に大きくし、モザイクの大きさを調整する。なお、第3態様の人物位置データが用いられる場合では、後述するように携帯端末装置TAに表示される人物位置標識は、前記人物領域データ(x0、y0)、(x1、y1)、(x2、y2)、・・・、(xpc、ypc)で表される画像、すなわち、人物の領域における輪郭線の画像HP3となる。
第4態様の人物位置データは、前記画像に写る人物の前記画像上での位置(例えば前記重心位置P1等)を含む前記人物の領域に関する人物領域データであり、前記人物領域データは、前記人物の領域の全部または一部を含む円形を表す座標データである。この第4態様の人物位置データが用いられる場合では、より具体的には、人物位置処理部143は、上述と同様に、人物の領域として動体領域MBを抽出し、図6に示すように、この動体領域MBの全部または一部を含む円形(例えば動体領域MBに対する外接円等)を求め、この求めた円形を表す座標データを第4態様の人物位置データ(人物領域データ)として求める。この円形を表す座標データは、例えば、円形における中心点P4の座標データ(x、y)および半径rから成る。また例えば、前記円形を表す座標データは、動体領域MBにおける重心位置P4の座標データ(x、y)および予め設定された固定値の半径rから成る。なお、第4態様の人物位置データが用いられる場合では、後述するように携帯端末装置TAに表示される人物位置標識は、前記人物領域データ(x、y)、rで表される画像、すなわち、円形の画像(円形の輪郭線の画像)HP4となる。
第5態様の人物位置データは、前記画像に写る人物の前記画像上での位置(例えば前記重心位置P1等)を含む前記人物の領域に関する人物領域データであり、前記人物領域データは、前記人物の領域の全部または一部を含む楕円形を表す座標データである。この第5態様の人物位置データが用いられる場合では、より具体的には、人物位置処理部143は、上述と同様に、人物の領域として動体領域MBを抽出し、図7に示すように、この動体領域MBの全部または一部を含む楕円形を求め、この求めた楕円形を表す座標データを第5態様の人物位置データ(人物領域データ)として求める。より詳しくは、人物位置処理部143は、人物の領域としての動体領域MBにおける輪郭線上に適当な1個の第1設定点P51を設け、この第1設定点P51から最も離れた前記輪郭線上の点を第2設定点P53として求め、これら第1設定点P51と第2設定点P53とを結ぶ線分P51P53を楕円形の長軸とする。次に、人物位置処理部143は、前記長軸とした第1設定点P51と第2設定点P53とを結ぶ線分P51P53の中央点P50を通り、前記線分P51P53と直交する直線と前記輪郭線との2交点を求め、これら求めた2交点それぞれと中央点P50との長さを求め、前記2交点のうちから、より長い長さを与える交点を、短軸と楕円との交点P52とする。これによって長軸、短軸および長軸と短軸との交点が求められ、楕円が求められる。この楕円形を表す座標データは、例えば、長軸と短軸との交点P50、楕円上の長軸との1交点(第1設定点)P51、および、楕円上の短軸との1交点P52の各座標データ(x0、y0)、(x1、y1)、(x2、y2)から成る。また例えば、前記楕円形を表す座標データは、長軸と短軸との交点P50の座標データ(x0、y0)、長軸(または短軸)とx軸(またはy軸)とのなす角度、長軸の長さおよび短軸の長さから成る。なお、第5態様の人物位置データが用いられる場合では、携帯端末装置TAに表示される人物位置標識は、前記人物領域データ(x0、y0)、(x1、y1)、(x2、y2)で表される画像、すなわち、楕円形の画像(楕円形の輪郭線の画像)HP5となる。
そして、人物位置処理部143は、このように生成した人物位置データをSU監視処理部142へ通知する。例えば、本実施形態では、第2態様の人物位置データが用いられ、人物位置処理部143は、この第2態様の人物位置データをSU監視処理部142へ通知する。以下、第2態様の人物位置データが用いられる場合について説明するが、他の態様の人物位置データが用いられる場合も同様に説明できる。
ナースコール処理部144は、ナースコール受付操作部13でナースコールを受付けた場合にその旨を管理サーバ装置SVへ通報し、SU音入出力部12等を用いることで端末装置SP、TAとの間で音声通話を行うものである。より具体的には、ナースコール処理部144は、ナースコール受付操作部13が入力操作されると、自機のセンサID、および、ナースコールを受付けた旨を表すナースコール受付情報を収容した第1ナースコール通知通信信号を、SU通信IF部15を介して管理サーバ装置SVへ送信する。そして、ナースコール処理部144は、SU音入出力部12等を用い、端末装置SP、TAとの間で例えばVoIP(Voice over Internet Protocol)によって音声通話を行う。
SUストリーミング処理部145は、SU通信IF部15を介して固定端末装置SPまたは携帯端末装置TAから動画の配信の要求があった場合に、この要求のあった固定端末装置SPまたは携帯端末装置TAへ、撮像部11で生成した動画(例えばライブの動画)をストリーミング再生でSU通信IF部15を介して配信するものである。
図1には、一例として、4個の第1ないし第4センサ装置SU−1〜SU−4が示されており、第1センサ装置SU−1は、被監視者Obの一人であるAさんOb−1の居室RM−1(不図示)に配設され、第2センサ装置SU−2は、被監視者Obの一人であるBさんOb−2の居室RM−2(不図示)に配設され、第3センサ装置SU−3は、被監視者Obの一人であるCさんOb−3の居室RM−3(不図示)に配設され、そして、第4センサ装置SU−4は、被監視者Obの一人であるDさんOb−4の居室RM−4(不図示)に配設されている。
管理サーバ装置SVは、ネットワークNWを介して他の装置SU、TA、SPと通信する通信機能を備え、センサ装置SUから被監視者Obに関する前記検知結果、前記対象画像および前記人物位置データを受信して被監視者Obに対する監視に関する情報(監視情報)を管理し、これら受信した被監視者Obに関する前記検知結果、前記対象画像および前記人物位置データを所定の端末装置SP、TAへ報知(再報知、送信)する機器である。より具体的には、管理サーバ装置SVは、報知元のセンサ装置SU(センサID)と報知先(再報知先)の端末装置SP、TA(端末ID)との対応関係(報知先対応関係)、および、各装置SU、SP、TA(各ID)とその通信アドレスとの対応関係(通信アドレス対応関係)を予め記憶している。端末IDは、端末装置SP、TAを特定し識別するための識別子である。まず、管理サーバ装置SVは、第1監視情報通信信号を受信すると、この受信した第1監視情報通信信号における報知元(送信元)のセンサ装置と前記受信した第1監視情報通信信号に収容されたデータとを互いに対応付けて被監視者Obの監視情報として記憶(記録)する。そして、管理サーバ装置SVは、前記報知先対応関係から、前記受信した第1監視情報通信信号における報知元のセンサ装置SUに対応する報知先の端末装置SP、TAを特定し、この報知先の端末装置SP、TAへ第2監視情報通信信号を送信する。この第2監視情報通信信号には、前記受信した第1監視情報通信信号に収容されたセンサID、前記検知結果、前記対象画像および前記人物位置データ、ならびに、動画のダウンロード先として、前記受信した第1監視情報通信信号に収容されたセンサIDを持つセンサ装置SUに対応する通信アドレスが収容される。通信アドレスは、前記通信アドレス対応関係から取得される。また、管理サーバ装置SVは、第1ナースコール通知通信信号を受信すると、この受信した第1ナースコール通知通信信号における報知元のセンサ装置と前記受信した第1ナースコール通知通信信号に収容されたデータとを互いに対応付けて被監視者Obの監視情報として記憶(記録)する。そして、管理サーバ装置SVは、前記報知先対応関係から、前記受信した第1ナースコール通知通信信号における報知元のセンサ装置に対応する報知先の端末装置SP、TAを特定し、この報知先の端末装置SP、TAへ第2ナースコール通知通信信号を送信する。この第2ナースコール通知通信信号には、前記受信した第1ナースコール通知通信信号に収容されたセンサIDおよびナースコール受付情報が収容される。なお、第2ナースコール通知通信信号に動画のダウンロード先として、前記受信した第1ナースコール通知通信信号に収容されたセンサIDを持つセンサ装置SUに対応する通信アドレスが収容されても良い。管理サーバ装置SVは、クライアント(本実施形態では端末装置SP、TA等)の要求に応じたデータを前記クライアントに提供する。このような管理サーバ装置SVは、例えば、通信機能付きのコンピュータによって構成可能である。
固定端末装置SPは、ネットワークNWを介して他の装置SU、SV、TAと通信する通信機能、所定の情報を表示する表示機能、および、所定の指示やデータを入力する入力機能等を備え、管理サーバ装置SVや携帯端末装置TAに与える所定の指示やデータを入力したり、センサ装置SUで得られた監視情報を表示したり等することによって、被監視者監視システムMSのユーザインターフェース(UI)として機能する機器である。このような固定端末装置SPは、例えば、通信機能付きのコンピュータによって構成可能である。なお、前記端末装置の一例としての固定端末装置SPは、携帯端末装置TAと同様に動作するが、本明細書では、前記端末装置の他の一例である携帯端末装置TAについて説明される。
携帯端末装置TAは、ネットワークNWを介して他の装置SV、SP、SUと通信する通信機能、所定の情報を表示する表示機能、所定の指示やデータを入力する入力機能、および、音声通話を行う通話機能等を備え、管理サーバ装置SVやセンサ装置SUに与える所定の指示やデータを入力したり、管理サーバ装置SVからの通報によってセンサ装置SUで得られた監視情報(動画を含む)を表示したり、センサ装置SUとの間で音声通話によってナースコールの応答や声かけしたり等するための機器である。
このような携帯端末装置TAは、本実施形態では、例えば、図8に示すように、端末側通信インターフェース部(TA通信IF部)31と、端末側制御処理部(TA制御処理部)32と、端末側記憶部(TA記憶部)33と、端末側音入出力部(TA音入出力部)34と、端末側入力部(TA入力部)35と、端末側表示部(TA表示部)36と、端末側インターフェース部(TAIF部)37とを備える。
TA通信IF部31は、SU通信IF部15と同様に、TA制御処理部32に接続され、TA制御処理部32の制御に従って通信を行うための通信回路である。TA通信IF部31は、例えば、IEEE802.11規格等に従った通信インターフェース回路を備えて構成される。
TA音入出力部34は、SU音入出力部12と同様に、TA制御処理部32に接続され、TA制御処理部32の制御に従って音を表す電気信号に応じた音を生成して出力するための回路であって、外部の音を取得して携帯端末装置TAに入力するための回路である。
TA入力部35は、TA制御処理部32に接続され、例えば、所定の操作を受け付け、携帯端末装置TAに入力する回路であり、例えば、所定の機能を割り付けられた複数の入力スイッチ等である。前記所定の操作には、例えば、ログインするためのIDの入力操作や、音声通話の要求操作およびその終了操作や、ライブでの動画の要求操作およびその終了操作や、前記報知された被監視者Obに対する例えば救命、看護、介護および介助等の対応(対処、応対)を実行する意思がある旨(“対応する”)の入力操作や、画像に写る人物を拡大して表示する指示(命令、コマンド)である拡大表示指示の入力操作等の、監視する上で必要な各種操作等が含まれる。TA表示部36は、TA制御処理部32に接続され、TA制御処理部32の制御に従って、TA入力部35から入力された所定の操作内容や、被監視者監視システムMSによって監視されている被監視者Obに対する監視に関する前記監視情報(例えばセンサ装置SUで検知した所定の行動の種類や、被監視者Obの画像(静止画および動画)や、人物位置データに基づく人物の位置を表す人物位置標識や、ナースコールの受付等)等を表示する回路であり、例えばLCD(液晶ディスプレイ)および有機ELディスプレイ等の表示装置である。そして、本実施形態では、TA入力部35およびTA表示部36からタッチパネルが構成されている。この場合において、TA入力部35は、例えば抵抗膜方式や静電容量方式等の操作位置を検出して入力する位置入力デバイスである。このタッチパネルでは、TA表示部36の表示面上に位置入力デバイスが設けられ、TA表示部36に入力可能な1または複数の入力内容の候補が表示され、例えば看護師や介護士等のユーザ(監視者)が、入力したい入力内容を表示した表示位置を触れると、位置入力デバイスによってその位置が検出され、検出された位置に表示された表示内容がユーザの操作入力内容として携帯端末装置TAに入力される。
TAIF部37は、TA制御処理部32に接続され、TA制御処理部32の制御に従って、外部機器との間でデータの入出力を行う回路であり、例えば、Bluetooth(登録商標)規格を用いたインターフェース回路、IrDA規格等の赤外線通信を行うインターフェース回路、および、USB規格を用いたインターフェース回路等である。
TA記憶部33は、TA制御処理部32に接続され、TA制御処理部32の制御に従って、各種の所定のプログラムおよび各種の所定のデータを記憶する回路である。前記各種の所定のプログラムには、例えば、携帯端末装置TAの各部を当該各部の機能に応じてそれぞれ制御するTA制御プログラムや、センサ装置SUから管理サーバ装置SVを介して受信した前記検知結果や前記ナースコール等の被監視者Obに対する監視に関する監視情報を記憶(記録)し、前記検知結果や前記ナースコールを表示するTA監視処理プログラムや、TA音入出力部34等を用いることでセンサ装置SUとの間で音声通話を行うTA通話処理プログラムや、センサ装置SUから動画の配信を受け、前記配信を受けた動画をストリーミング再生でTA表示部36に表示するストリーミング処理プログラム等の制御処理プログラムが含まれる。TA監視処理プログラムには、第2監視情報通信信号に収容された検知結果および画像データの画像をTA表示部36に表示し、前記第2監視情報通信信号に収容された人物位置データに基づく人物位置標識をTA表示部36に表示した画像中に表示する表示処理プログラムが含まれる。前記各種の所定のデータでは、自機の端末ID、TA表示部36に表示される画面情報、および、被監視者Obに対する監視に関する前記監視情報等の各プログラムを実行する上で必要なデータ等が含まれる。TA記憶部33は、例えばROMやEEPROM等を備える。TA記憶部33は、前記所定のプログラムの実行中に生じるデータ等を記憶するいわゆるTA制御処理部32のワーキングメモリとなるRAM等を含む。そして、TA記憶部33は、前記監視情報を記憶するための端末側監視情報記憶部(TA監視情報記憶部)331を機能的に備える。
TA監視情報記憶部331は、各装置SV、SP、SUそれぞれとの間で送受信した被監視者Obの監視情報を記憶するものである。より具体的には、TA監視情報記憶部331は、本実施形態では、前記監視情報として、管理サーバ装置SVから受信した第2監視情報通信信号に収容されたセンサID、検知結果、対象画像、人物位置データおよび動画のダウンロード先のセンサ装置SUの通信アドレス、ならびに、当該第2監視情報通信信号の受信時刻等を互いに対応付けて記憶し、管理サーバ装置SVから受信した第2ナースコール通知通信信号に収容されたセンサIDおよびナースコール受付情報、ならびに、当該第2ナースコール通知通信信号の受信時刻等を互いに対応付けて記憶する。
TA制御処理部32は、携帯端末装置TAの各部を当該各部の機能に応じてそれぞれ制御し、被監視者Obに対する前記監視情報を受け付けて表示し、ナースコールの応答や声かけするための回路である。TA制御処理部32は、例えば、CPUおよびその周辺回路を備えて構成される。TA制御処理部32は、制御処理プログラムが実行されることによって、端末側制御部(TA制御部)321、端末側監視処理部(TA監視処理部)322、通話処理部323および端末側ストリーミング処理部(TAストリーミング処理部)324を機能的に備える。TA監視処理部322は、表示処理部3221を機能的に備える。
TA制御部321は、携帯端末装置TAの各部を当該各部の機能に応じてそれぞれ制御し、携帯端末装置TAの全体制御を司るものである。
TA監視処理部322は、センサ装置SUから管理サーバ装置SVを介して受信した前記検知結果や前記ナースコール等の被監視者Obに対する監視に関する監視情報を記憶(記録)し、前記検知結果や前記ナースコールを表示するものである。より具体的には、TA監視処理部322は、管理サーバ装置SVから第2監視情報通信信号を受信すると、この受信した第2監視情報通信信号に収容された、被監視者Obの監視情報をTA監視情報記憶部331に記憶(記録)する。TA監視処理部322は、表示処理部3221によって、前記受信した第2監視情報通信信号に収容された各情報に応じた画面をTA表示部36に表示する。より詳しくは、表示処理部3221は、前記受信した第2監視情報通信信号に収容された前記検知結果および前記対象画像をTA表示部36に表示し、前記受信した第2監視情報通信信号に収容された前記人物位置データに基づく人物位置標識を、TA表示部36に表示した前記対象画像中に表示する。そして、本実施形態では、表示処理部3221は、TA入力部35で前記拡大表示指示を受け付けた場合に、TA表示部36に表示中の前記人物の領域の大きさよりも拡大して前記人物の領域を表示する。TA監視処理部322は、管理サーバ装置SVから第2ナースコール通知通信信号を受信すると、この受信した第2ナースコール通知通信信号に収容された、被監視者Obの監視情報をTA監視情報記憶部331に記憶(記録)する。TA監視処理部322は、前記受信した第2ナースコール通知通信信号に収容されたナースコール受付情報に応じて、TA記憶部33に予め記憶されたナースコール受付画面をTA表示部36に表示する。そして、TA監視処理部322は、TA入力部35から所定の入力操作を受け付けると、その入力操作に応じた所定の処理を実行する。
通話処理部323は、TA音入出力部34等を用いることでセンサ装置SUとの間で音声通話を行うものである。より具体的には、通話処理部323は、TA音入出力部34等を用い、第1監視情報通信信号や第1ナースコール通報通信信号を管理サーバ装置SVへ送信した報知元のセンサ装置SUや、携帯端末装置TAのユーザ(監視者)によって選択され指定されたセンサ装置SU等との間で例えばVoIPによって音声通話を行う。
TAストリーミング処理部324は、センサ装置SUから動画の配信を受け、前記配信を受けた動画をストリーミング再生でTA表示部36に表示するものである。
このような携帯端末装置TAは、例えば、いわゆるタブレット型コンピュータやスマートフォンや携帯電話機等の、持ち運び可能な通信端末装置によって構成可能である。
なお、本実施形態では、タッチパネルを構成するTA入力部35およびTA表示部36が、前記画像に写る人物を拡大して表示する指示である拡大表示指示を受け付ける指示入力部(第1指示入力部)の一例に相当し、そして、所定の操作を行う指示である操作指示を受け付ける第2指示入力部の一例にも相当する。
次に、本実施形態の動作について説明する。図9は、実施形態の被監視者監視システムにおけるセンサ装置の監視情報に関する動作を示すフローチャートである。図10は、実施形態の被監視者監視システムにおける携帯端末装置の監視情報に関する動作を示すフローチャートである。図11は、実施形態の被監視者監視システムにおける携帯端末装置に表示される待受け画面の一例を示す図である。図12は、実施形態の被監視者監視システムにおける携帯端末装置に表示される監視情報画面の一例を示す図である。図13は、実施形態の被監視者監視システムにおける携帯端末装置に表示される、人物の領域を拡大した監視情報画面の一例を示す図である。
このような被監視者監視システムMSでは、各装置SU、SV、SP、TAは、電源が投入されると、必要な各部の初期化を実行し、その稼働を始める。センサ装置SUでは、その制御処理プログラムの実行によって、SU制御処理部14には、SU制御部141、SU監視処理部142、人物位置処理部143、ナースコール処理部144およびSUストリーミング処理部145が機能的に構成される。携帯端末装置TAでは、その制御処理プログラムの実行によって、TA制御処理部32には、TA制御部321、TA監視処理部322、通話処理部323およびTAストリーミング処理部324が機能的に構成され、TA監視処理部322には、表示処理部3221が機能的に構成される。
センサ装置SUの動作について説明する。センサ装置SUは、各フレームごとに、あるいは、数フレームおきに、次のように動作することで、被監視者Obにおける所定の動作を検知し、ナースコールの受付の有無を判定している。
図9において、まず、センサ装置SUは、SU制御処理部14のSU制御部141によって、撮像部11から1フレーム分の画像(画像データ)を前記対象画像として取得する(S11)。
次に、センサ装置SUは、SU制御処理部14のSU監視処理部142によって、被監視者Obにおける所定の行動を検知する行動検知処理を前記取得した対象画像に基づいて実行する(S12)。
次に、センサ装置SUは、SU監視処理部142によって、前記行動検知処理S12で被監視者Obにおける所定の行動が検知されたか否かを判定する。この判定の結果、前記行動が検知されていない場合(No)には、センサ装置SUは、次に、処理S16を実行し、一方、前記行動が検知されている場合(Yes)には、センサ装置SUは、次の処理S14および処理S15を順次に実行した後に、処理S16を実行する。
この処理S14では、センサ装置SUは、SU制御処理部14の人物位置処理部143によって、前記取得した対象画像に写る人物の前記画像での位置に関する人物位置データを生成する。人物位置データは、上述の第1ないし第5態様の人物位置データのうちのいずれであって良いが、本実施形態では、例えば、第2態様の人物位置データが採用されている。この場合では、人物位置処理部143は、まず、前記取得した対象画像から例えば背景差分法やフレーム差分法によって人物の領域として動体領域MBを抽出する。あるいは、人物位置処理部143は、処理S12でSU監視処理部142によって抽出された動体領域MBをSU監視処理部142から取得する。次に、人物位置処理部143は、この動体領域MBの全部または一部を含む矩形を求め、この求めた矩形を表す座標データを人物位置データ(人物領域データ)として求める。前記矩形を表す座標データは、例えば、矩形における1つの対角線の両端点の各座標データから成る(図4に示す例ではP20(x0、y0)、P21(x1、y1))。そして、人物位置処理部143は、この求めた人物位置データ(人物領域データ)をSU監視処理部142へ通知する。なお、動体領域MBが複数である場合には、人物位置データは、前記複数の動体領域MBそれぞれに対応する複数であって良い。
前記処理S14の次の処理S15では、処理S12および処理S13で検知した所定の行動を管理サーバ装置SVを介して所定の端末装置SP、TAへ報知するために、センサ装置SUは、SU監視処理部142によって、第1監視情報通信信号を管理サーバ装置SVへ送信する。より具体的には、SU監視処理部142は、自機のセンサID、前記検知結果、前記対象画像および前記人物位置データ(この例では矩形の人物領域データ)を収容した第1監視情報通信信号を、SU通信IF部15を介して管理サーバ装置SVへ送信する。したがって、検知結果を報知するための第1監視情報通信信号には、被監視者Obの画像として対象画像が前記検知結果と共に含まれ、前記対象画像に写る人物の位置に関する人物位置データが前記対象画像と共に含まれる。
前記処理S16では、センサ装置SUは、SU制御処理部14のナースコール処理部144によって、ナースコールを受け付けているか否かを判定する。すなわち、図9に示す処理S11ないし処理S17は、各フレームごとに、あるいは、数フレームおきに、繰り返し実行されるが、前回における処理S16の実行から今般における処理S16の実行までの間に、ナースコール受付操作部13が操作されたか否かが判定される。この判定の結果、ナースコール受付操作部13が操作されず、ナースコールを受け付けていない場合(No)には、センサ装置SUは、今回の本処理を終了し、一方、ナースコール受付操作部13が操作され、ナースコールを受け付けている場合(Yes)には、センサ装置SUは、次の処理S17を実行した後に、今回の本処理を終了する。
この処理S17では、処理S16でその受付が判明したナースコールを管理サーバ装置SVを介して所定の端末装置SP、TAへ報知するために、センサ装置SUは、ナースコール処理部144によって、第1ナースコール通知通信信号を管理サーバ装置SVへ送信する。より具体的には、ナースコール処理部144は、自機のセンサIDおよびナースコール受付情報を収容した第1ナースコール通知通信信号を、SU通信IF部15を介して管理サーバ装置SVへ送信する。
被監視者Obにおける所定の行動の検知やナースコールの受け付けに関し、センサ装置SUは、以上のように動作している。
管理サーバ装置SVは、第1監視情報通信信号をネットワークNWを介してセンサ装置SUから受信すると、この第1監視情報通信信号に収容されたセンサID、判定結果、対象画像および人物位置データ(本実施形態では矩形の人物領域データ)等を、このセンサIDを持つセンサ装置SUで監視されている被監視者Obの監視情報として記憶(記録)する。そして、管理サーバ装置SVは、前記報知先対応関係から、前記受信した第1監視情報通信信号における報知元のセンサ装置SUに対応する報知先の端末装置SP、TAを特定し、この報知先の端末装置SP、TAへ第2監視情報通信信号を送信する。また、管理サーバ装置SVは、第1ナースコール通知通信信号をネットワークNWを介してセンサ装置SUから受信すると、この第1ナースコール通知通信信号に収容されたセンサIDおよびナースコール受付情報等を、このセンサIDを持つセンサ装置SUで監視されている被監視者Obの監視情報として記憶(記録)する。そして、管理サーバ装置SVは、前記報知先対応関係から、前記受信した第1ナースコール通知通信信号における報知元のセンサ装置SUに対応する報知先の端末装置SP、TAを特定し、この報知先の端末装置SP、TAへ第2ナースコール通知通信信号を送信する。
固定端末装置SPおよび携帯端末装置TAは、前記第2監視情報通信信号をネットワークNWを介して管理サーバ装置SVから受信すると、この第2監視情報通信信号に収容された被監視者Obの監視に関する前記監視情報を表示する。携帯端末装置TAによるこの監視情報を表示する動作については、以下で詳述する。また、固定端末装置SPおよび携帯端末装置TAは、前記第2ナースコール通知通信信号をネットワークNWを介して管理サーバ装置SVから受信すると、この第2ナースコール通知通信信号に収容されたセンサIDを持つセンサ装置SUで監視されている被監視者Obからナースコールを受け付けたことを表示する。このような動作によって、被監視者監視システムMSは、各センサ装置SU、管理サーバ装置SV、固定端末装置SPおよび携帯端末装置TAによって、大略、各被監視者Obにおける所定の行動を検知して各被監視者Obを監視している。
次に、端末装置SP、TAにおける、被監視者Obの監視に関する前記監視情報を表示する動作およびそれに関連する動作について、説明する。ここでは、代表的に、携帯端末装置TAの動作について説明する。
上述したように、電源が投入され、その稼働を始めると、携帯端末装置TAでは、例えば看護師や介護士等の監視者(ユーザ)によるログイン操作が受け付けられ、TA監視処理部322の表示処理部3221によって、自機宛の通信信号を待ち受ける待受け画面がTA表示部36に表示される。この待受け画面51は、例えば、図11に示すように、メニューバーを表示するメニューバー領域511と、待ち受け中であることを表すメッセージ(例えば「通知はありません」)およびアイコンを表示する待受けメイン領域512と、現在時刻を表示する時刻領域513と、今日の年月日曜日を表示する年月日曜日領域514と、今、当該携帯端末装置TAにログインしているユーザ名を表示するユーザ名領域515とを備える。メニューバー領域511には、他の携帯端末装置TAとの内線通話や外線電話機TLとの外線電話の発信の指示を入力するためのオフフックボタン5111が備えられている。
そして、図10において、携帯端末装置TAは、TA制御処理部32のTA制御部321によって、TA通信IF部31で通信信号を受信したか否かを判定する(S21)。この判定の結果、通信信号を受信していない場合(No)には、携帯端末装置TAは、処理をS21に戻し、前記判定の結果、通信信号を受信している場合(Yes)には、携帯端末装置TAは、次の処理S22を実行する。すなわち、携帯端末装置TAは、通信信号の受信を待ち受けている。
処理S22では、携帯端末装置TAは、TA制御部321によって、この受信した通信信号の種類を判定する。この判定の結果、携帯端末装置TAは、前記受信した通信信号が第2監視情報通信信号である場合(第2監視情報)には、次の処理S23および処理S24を順次に実行した後に処理S27を実行し、前記受信した通信信号が第2ナースコール通知通信信号である場合(第2NC通知)には、次の処理S25および処理S26を順次に実行した後に処理S27を実行し、前記受信した通信信号が第2監視情報通信信号および第2ナースコール通知通信信号ではない場合(その他)には、処理S21で受信した通信信号に応じた適宜な処理を行う処理S29を実行した後に本処理を終了する。
処理S23では、携帯端末装置TAは、TA制御処理部32のTA監視処理部322によって、処理S21で管理サーバ装置SVから受信した第2監視情報通信信号に収容された、被監視者Obに対する監視に関する監視情報をTA監視情報記憶部331に記憶(記録)する。
この処理S23の次に、TA監視処理部322は、表示処理部3221によって、処理S21で受信した第2監視情報通信信号に収容された各情報に応じた画面を、例えば図12に示す監視情報画面52をTA表示部36に表示する(S24)。
この監視情報画面52は、被監視者Obの監視に関する前記監視情報を表示するための画面である。前記監視情報画面52は、例えば、図12に示すように、メニューバー領域511と、処理S21で受信した第2監視情報通信信号に収容されたセンサIDを持つセンサ装置SUの配設場所および前記センサIDを持つ前記センサ装置SUによって監視される被監視者Obの名前を表示する被監視者名領域521と、処理S21で受信した第2監視情報通信信号の受信時刻(または前記所定の行動の検知時刻)からの経過時間、および、処理S21で受信した第2監視情報通信信号に収容された前記検知結果を表示する検知情報表示領域522と、処理S21で受信した第2監視情報通信信号に収容された画像(すなわち、前記センサIDを持つ前記センサ装置SUによって撮像された対象画像)(ここでは静止画)、および、処理S21で受信した第2監視情報通信信号に収容された前記人物位置データ(この例では矩形の人物領域データ)に基づく人物位置標識HP2を表示する画像領域523と、「対応する」ボタン524と、「話す」ボタン525と、「LIVEを見る」ボタン526とを備える。
被監視者名領域521に、センサ装置SUの配設場所および被監視者Obの名前を表示するために、TA記憶部33には、センサID、前記センサIDを持つセンサ装置SUの配設場所および前記センサIDを持つ前記センサ装置SUによって監視される被監視者Obの名前が互いに対応付けられて予め記憶される。
検知情報表示領域522には、処理S21で受信した第2監視情報通信信号に収容された検知結果(本実施形態では、起床、離床、転落および転倒の各名称)がそのまま表示されても良いが、本実施形態では、前記検知結果を象徴的に表すアイコンで表示されている。このアイコンで表示するために、TA記憶部33には、各行動およびその行動を象徴的に表すアイコンが互いに対応付けられて予め記憶される。図12に示す例では、検知情報表示領域522には、起床を象徴的に表す起床アイコンが表示されている。
画像領域523には、表示中の対象画像中に、人物位置データに基づく人物位置標識HP2が表示される。この図12に示す例では、対象画像には、寝具BDおよび被監視者Obが写っている。本実施形態では、処理S21で受信した第2監視情報通信信号に収容された人物位置データは、矩形の人物領域データであり、表示処理部3221は、表示中の対象画像における正面視にて左上頂点を座標原点として、人物領域データ(ここでは対角線の両端点の各座標データ(x0、y0)、(x1、y1))で表される矩形の画像HP2を人物位置標識HP2として表示中の対象画像に重畳して表示する。そして、本実施形態では、人物位置標識HP2で囲まれた領域は、表示中の対象画像に写る人物を拡大して表示する指示である前記拡大表示指示を、当該携帯端末装置TAに入力するためのボタンになっている。
なお、表示処理部3221は、前記対象画像の表示方法(第1表示方法)と異なる第2表示方法で人物の領域内の画像を表示しても良い。前記人物の領域内外を互いに異なる表示方法で表示することで、携帯端末装置TAのユーザ(監視者)は、画像中の人物の領域、言い換えれば、画像中の被監視者Obを見つけ易くなる。例えば、第1表示方法は、通常の表示であり、第2表示方法は、モザイク表示であり、表示処理部3221は、矩形の人物位置標識HP内の画像を前記人物の領域内の画像として、矩形の人物位置標識HP外の画像を通常の通りに表示し、矩形の人物位置標識HP内の画像をモザイク化して表示する。また例えば、第1表示方法は、カラー表示であり、第2表示方法は、モノクロ表示(単色化表示)であり、表示処理部3221は、矩形の人物位置標識HP内の画像を前記人物の領域内の画像として、矩形の人物位置標識HP外の画像をカラーで表示し、矩形の人物位置標識HP内の画像をモノクロで表示する。また例えば、第1表示方法は、モノクロ表示であり、第2表示方法は、カラー表示であり、表示処理部3221は、矩形の人物位置標識HP内の画像を前記人物の領域内の画像として、矩形の人物位置標識HP外の画像をモノクロで表示し、矩形の人物位置標識HP内の画像をカラーで表示する。また例えば、第1表示方法は、ポジ表示であり、第2表示方法は、ネガ表示であり、表示処理部3221は、矩形の人物位置標識HP内の画像を前記人物の領域内の画像として、矩形の人物位置標識HP外の画像をポジで表示し、矩形の人物位置標識HP内の画像をネガで表示する。また例えば、第1表示方法は、ネガ表示であり、第2表示方法は、ポジ表示であり、表示処理部3221は、矩形の人物位置標識HP内の画像を前記人物の領域内の画像として、矩形の人物位置標識HP外の画像をネガで表示し、矩形の人物位置標識HP内の画像をポジで表示する。
「対応する」ボタン524は、監視情報画面52では、この監視情報画面52に表示された検知結果に対し例えば救命、看護、介護および介助等の所定の対応(応対、対処)を実施する意思が当該携帯端末装置TAのユーザにある旨を表す実施意思情報を、当該携帯端末装置TAに入力するためのボタンである。「話す」ボタン525は、音声通話を要求するためのボタンであって、前記センサIDの前記センサ装置SUと当該携帯端末装置TAとをネットワークNWを介して通話可能に接続する指示を入力するためのボタンである。「LIVEを見る」ボタン526は、ライブでの動画を要求するためのボタンであって、前記センサIDの前記センサ装置SUによって撮像される動画を表示させる指示を入力するためのボタンである。
図10に戻って、一方、処理S25では、携帯端末装置TAは、TA制御処理部32のTA監視処理部322によって、処理S21で管理サーバ装置SVから受信した第2ナースコール通知通信信号に収容された、被監視者Obに対する監視に関する監視情報をTA監視情報記憶部331に記憶(記録)する。
この処理S25の次に、TA監視処理部322は、処理S21で受信した第2ナースコール通知通信信号に収容されたナースコール受付情報に応じて、TA記憶部33に予め記憶されたナースコールを受け付けた旨を表す図略のナースコール受付画面をTA表示部36に表示する(S26)。
そして、これら処理S24および処理S26それぞれの後に実行される前記処理S27では、携帯端末装置TAは、TA制御処理部32によって、TA入力部35およびTA表示部36を備えて成るタッチパネルで入力操作を受け付けたか否かを判定する。この判定の結果、入力操作を受け付けていない場合(No)には、携帯端末装置TAは、処理を処理S27に戻し、一方、前記判定の結果、入力操作を受け付けている場合には、携帯端末装置TAは、次の処理S28を実行する。
この処理S28では、携帯端末装置TAは、TA制御処理部32によって、入力操作の内容に応じた適宜な処理を実行し、本処理を終了する。
例えば、携帯端末装置TAは、TA制御処理部32によって、拡大表示指示を入力するためのボタンとしても機能している、人物位置標識HP2で囲まれた領域の入力操作(例えばタップ操作等)を受け付けると、表示処理部3221によって、TA表示部36に表示中の人物の領域の大きさよりも拡大して前記人物の領域を表示する。例えば、図12に示す人物位置標識HP2で囲まれた領域は、約4倍に拡大され(縦方向および横方向それぞれ2倍ずつ拡大され)、図13に示す人物位置標識HPEで囲まれた領域で表示される。なお、拡大によって生じる画素の画素値は、例えば、これに隣接する画素の画素値から補間されて生成される。このように人物の領域が拡大表示されるので、携帯端末装置TAのユーザ(監視者)は、画像中の被監視者Obを見つけ易くなり、被監視者Obの様子を画像で認識し易くなる。
また例えば、携帯端末装置TAは、TA制御処理部32によって、「対応する」ボタン524の入力操作を受け付けると(すなわち、前記対応意思を受け付けると)、現在、TA表示部36に表示している被監視者Obの監視情報に、「対応する」を受け付けた旨を付してTA監視情報記憶部331に記憶し、TA表示部36に表示している被監視者Obの監視情報に対応するセンサIDおよび「対応する」を受け付けた旨を表す情報(対応受付情報)を収容した通信信号(対応受付通知通信信号)を管理サーバ装置SVへ送信する。この対応受付通知通信信号を受信した管理サーバ装置SVは、この受信した対応受付通知通信信号に収容されたセンサIDおよび対応受付情報を収容した通信信号(対応受付周知通信信号)を同報通信で端末装置SP、TAへ送信する。これによって、TA表示部36に表示している被監視者Obの監視情報に対応するセンサIDに関し、「対応する」を受け付けた旨が各端末装置SP、TA間で同期される。
また例えば、携帯端末装置TAは、TA制御処理部32によって、「話す」ボタン525の入力操作を受け付けると、通話処理部323によって、TA表示部36に表示している被監視者Obを監視するセンサ装置SUへ、音声通話を要求する旨等の情報を収容した通信信号(通話要求通信信号)を送信し、これに応じたセンサ装置SUとネットワークNWを介して音声通話可能に接続する。これによって携帯端末装置TAとセンサ装置SUとの間で音声通話が可能となる。なお、携帯端末装置TAは、TA制御処理部32によって、音声通話の終了の指示を入力するためのボタンである図略の「終了」ボタンの入力操作を受け付けると、通話処理部323によって、TA表示部36に表示している被監視者Obを監視するセンサ装置SUへ、音声通話の終了を要求する旨等の情報を収容した通信信号(通話終了通信信号)を送信する。これによって携帯端末装置TAとセンサ装置SUとの間での音声通話が終了される。
また例えば、携帯端末装置TAは、TA制御処理部32によって、「LIVEを見る」ボタン526の入力操作を受け付けると、TAストリーミング処理部324によって、現在、TA表示部36に表示している被監視者Obを監視するセンサ装置SUへ、ライブでの動画の配信を要求する旨等の情報を収容した通信信号(動画配信要求通信信号)を送信し、これに応じたセンサ装置SUとネットワークNWを介して動画のダウンロード可能に接続し、前記センサ装置SUからライブでの動画の配信を受け、この配信を受けた動画をストリーミング再生でTA表示部36に表示する。このライブでの動画を表示する監視情報画面52では、画像領域523に静止画に代え動画が表示され、そして、「LIVEを見る」ボタン526に代え図略の「LIVE終了」ボタンが表示される。これによって携帯端末装置TAには、ライブでの動画が表示される。前記図略の「LIVE終了」ボタンは、動画の終了を要求するためのボタンであって、前記センサIDの前記センサ装置SUによって撮像される動画の配信を終了(停止)させ表示を終了(停止)させる指示を入力するためのボタンである。携帯端末装置TAは、TA制御処理部32によって、「LIVE終了」ボタンの入力操作を受け付けると、TAストリーミング処理部324によって、現在、TA表示部36に表示している被監視者Obを監視するセンサ装置SUへ、動画配信の終了を要求する旨等の情報を収容した通信信号(動画配信終了通信信号)を送信し、静止画をTA表示部36に表示する。これによって携帯端末装置TAは、ライブでの動画の表示を終了する。
センサ装置SUから管理サーバ装置SVを介して報知を受けた検知結果やナースコール受付の各報知(各再報知)に関し、携帯端末装置TAは、以上のように動作している。
以上説明したように、本実施形態における被監視者監視システムMS、端末装置SP、TAおよびこれに実装された表示方法は、TA通信IF部31で受信した、第1監視情報通信信号に基づく第2監視情報通信信号に収容された画像データの画像をTA表示部36に表示し、前記第2監視情報通信信号に収容された人物位置データに基づく人物位置標識HP2を、TA表示部に表示した画像中に表示する表示処理部3221を備える。したがって、上記被監視者監視システムMS、上記端末装置SP、TAおよび上記表示方法では、表示中の画像に人物位置標識HP2が表示されるので、そのユーザ(監視者)は、人物位置標識HP2を手がかりに、画像中の被監視者Obを見つけことができ、画像中の被監視者Obを見つけ易くなる。本実施形態におけるセンサ装置SUは、画像だけでなく人物位置データ(本実施形態では人物領域データ)も第1監視情報通信信号に収容するので、前記第2監視情報通信信号を受信した端末装置SP、TAは、表示中の画像に人物位置標識HP2を表示できる。したがって、上記端末装置SP、TAのユーザは、上述のように、人物位置標識HP2を手がかりに、画像中の被監視者Obを見つけことができ、画像中の被監視者Obを見つけ易くなる。
なお、上述の実施形態では、対象画像に写る人物の前記対象画像上での位置によっては、例えば図14に示すように、人物の領域(図14に示す例では人物位置標識HP2内の領域)の一部しか、TA表示部36に表示されない場合がある。あるいは、「対応する」ボタン524、「話す」ボタン525および「LIVEを見る」ボタン526等の、所定の操作を行う指示である操作指示を当該携帯端末装置TAに入力するためのボタンが画像領域523内に表示される場合、対象画像に写る人物の前記対象画像上での位置によっては、例えば図14に示すように、人物の領域(図14に示す例では人物位置標識HP2内の領域)の一部または全部と前記ボタンと重なって、前記人物の領域の一部または全部がTA表示部36に表示される場合がある。このような場合を解消するために、表示処理部3221は、次の第1および第2変形形態のように構成されても良い。図14は、実施形態の被監視者監視システムにおける携帯端末装置に表示される、人物の領域と「対応する」ボタンとが重なった監視情報画面の一例を示す図である。図15は、実施形態の被監視者監視システムにおける携帯端末装置に表示される、画像表示領域の中央位置に人物の領域を表示する監視情報画面の一例を示す図である。図16は、実施形態の被監視者監視システムにおける携帯端末装置に表示される、互いに重ならないように人物の領域と「対応する」ボタンを表示する監視情報画面の一例を示す図である。
第1変形形態では、表示処理部3221は、TA表示部36における対象画像を表示するための画像領域523の中央位置SCと、前記対象画像に写る人物の前記対象画像上での位置HPCとが互いに一致するように(SC=HPC)、前記対象画像および前記人物位置標識HPをTA表示部36に表示する。前記位置HPCは、例えば、動体領域MBにおける重心位置P1である。また例えば、人物位置データが矩形の人物領域データである場合、前記位置HPCは、前記矩形における対角線の交点の位置である。また例えば、人物位置データが円形の人物領域データである場合、前記位置HPCは、前記円形における中心点である。また例えば、人物位置データが楕円形の人物領域データである場合、前記位置HPCは、前記楕円形における長軸と短軸との交点の位置である。より具体的には、前記中央位置SCの画素位置(座標データ)がTA記憶部33に予め記憶されており、表示処理部3221は、例えば図15に示すように、このTA記憶部33に記憶された前記中央位置SCの画素位置に、前記位置HPC(この例では矩形における対角線の交点の位置)が位置するように、前記対象画像および前記人物位置標識HPそれぞれの表示位置を調整してこれらをTA表示部36に表示する。これによれば、上記携帯端末装置TAのユーザ(監視者)は、画像領域523の中央位置を注視すれば良いので、画像中の被監視者Obを見つけ易くなる。
第2変形形態では、表示処理部3221は、TA表示部36の表示領域における人物の領域を除いた残余の領域に、所定の操作を行う指示である操作指示を当該携帯端末装置TAに入力するための前記ボタンを表示する。好ましくは、表示処理部3221は、TA表示部36の前記対象画像を表示するための画像領域523における前記人物の領域を除いた残余の領域に、前記ボタンを表示する。例えば、前記ボタンが画像領域523内に表示される場合、例えば図14に示すように、人物の領域(図14に示す例では人物位置標識HP2内の領域)の一部が「対応する」ボタン524と重なっている場合、表示処理部3221は、図16に示すように、人物の領域(この例では人物位置標識HP2内の領域)を除いた残余の領域、例えば画像領域523の上端部の領域に、「対応する」ボタン524を表示する。「対応する」ボタン524、「話す」ボタン525および「LIVEを見る」ボタン526等の、前記ボタンの表示位置は、予め既定されているので、前記人物の領域と前記ボタンとの重なる領域は、予め既知である。このため、前記人物の領域を除いた前記残余の領域は、予測でき、予めTA記憶部33に記憶される。表示処理部3221は、前記人物の領域の全部または一部が前記ボタンと重なった場合、TA記憶部33に予め記憶された前記残余の領域に、前記ボタンを表示すればよい。これによれば、前記ボタンによって前記人物の領域が隠れることが無く、携帯端末装置TAのユーザ(監視者)は、画像中の被監視者Obを見つけ易くなる。
本明細書は、上記のように様々な態様の技術を開示しているが、そのうち主な技術を以下に纏める。
一態様にかかる端末装置は、監視対象である被監視者の画像の画像データ、および、前記画像に写る人物の前記画像上での位置に関する人物位置データを収容する監視情報通信信号を受信する通信部と、表示を行う表示部と、前記通信部で受信した監視情報通信信号に収容された画像データの画像を前記表示部に表示し、前記監視情報通信信号に収容された人物位置データに基づく前記人物の位置を表す人物位置標識を、前記表示部に表示した画像中に表示する表示処理部とを備える。好ましくは、上述の端末装置において、前記人物位置データは、前記画像データのメタデータとして前記監視情報通信信号に収容される。好ましくは、上述の端末装置において、前記画像データおよび前記人物位置データは、Exif(Exchangeable image file format)ファイルに収容される。好ましくは、上述の端末装置において、前記画像データおよび前記人物位置データは、HTTP(Hypertext Transfer Protocol)におけるマルチパート形式のファイルにフォームデータとして収容される。好ましくは、上述の端末装置において、前記人物位置データは、前記画像に写る人物の前記画像上での位置を含む前記人物の領域の人物領域データである。好ましくは、上述の端末装置において、前記人物位置データは、前記画像に写る人物の前記画像上での位置を含む前記人物の領域に関する人物領域データであり、前記人物領域データは、前記人物の領域の全部または一部を含む矩形、円形および楕円のうちのいずれか1つを表す座標データであり、前記人物位置標識は、前記人物領域データで表される画像である。好ましくは、上述の端末装置において、前記人物位置データは、前記画像に写る人物の前記画像上での位置を含む前記人物の領域に関する人物領域データであり、前記人物領域データは、前記人物の領域の輪郭線を表す座標データであり、前記人物位置標識は、前記人物領域データで表される画像である。
このような端末装置は、通信部で受信した監視情報通信信号に収容された画像データの画像を表示部に表示し、前記監視情報通信信号に収容された人物位置データに基づく前記人物の位置を表す人物位置標識を、前記表示部に表示した画像中に表示する表示処理部を備える。したがって、上記端末装置では、表示中の画像に人物位置標識が表示されるので、上記端末装置のユーザは、前記人物位置標識を手がかりに、画像中の被監視者を見つけことができ、画像中の被監視者を見つけ易くなる。
他の一態様では、上述の端末装置において、前記人物位置データは、前記画像に写る人物の前記画像上での位置を含む前記人物の領域に関する人物領域データであり、前記人物位置標識は、前記人物領域データで表される画像であり、前記表示処理部は、前記画像の表示方法と異なる第2表示方法で前記人物の領域内の画像を表示する。好ましくは、上述の端末装置において、前記第2表示方法は、前記人物の領域内の画像をモザイクで表示する方法である。好ましくは、上述の端末装置において、前記画像の表示方法は、前記画像をカラーでまたはモノクロで表示する方法であり、前記第2表示方法は、前記人物の領域内の画像をモノクロでまたはカラーで表示する方法である。好ましくは、上述の端末装置において、前記画像の表示方法は、前記画像をポジでまたはネガで表示する方法であり、前記第2表示方法は、前記人物の領域内の画像をネガでまたはポジで表示する方法である。
このような端末装置は、表示処理部によって、画像の表示方法(第1表示方法)と異なる第2表示方法で人物の領域内の画像を表示する。このため、上記端末装置のユーザは、画像中の人物の領域、言い換えれば、画像中の被監視者を見つけ易くなる。
他の一態様では、これら上述の端末装置において、前記表示処理部は、前記表示部における前記画像を表示するための画像表示領域の中央位置と、前記画像に写る人物の前記画像上での位置とが互いに一致するように、前記画像および前記人物位置標識を前記表示部に表示する。
このような端末装置は、表示処理部によって、画像表示領域の中央位置に人物位置標識を表示する。このため、上記端末装置のユーザは、画像表示領域の中央位置を注視すれば良いので、画像中の被監視者を見つけ易くなる。
他の一態様では、これら上述の端末装置において、前記画像に写る人物を拡大して表示する指示である拡大表示指示を受け付ける指示入力部をさらに備え、前記人物位置データは、前記画像に写る人物の前記画像上での位置を含む前記人物の領域に関する人物領域データであり、前記人物位置標識は、前記人物領域データで表される画像であり、前記表示処理部は、前記指示入力部で前記拡大表示指示を受け付けた場合に、前記表示部に表示中の前記人物の領域の大きさよりも拡大して前記人物の領域を表示する。
このような端末装置は、指示入力部をさらに備え、表示処理部によって、前記指示入力部で拡大表示指示を受け付けた場合に、表示部に表示中の人物の領域の大きさよりも拡大して前記人物の領域を表示する。したがって、人物の領域が拡大表示されるので、上記端末装置のユーザは、画像中の被監視者を見つけ易くなる。
他の一態様では、これら上述の端末装置において、所定の操作を行う指示である操作指示を受け付ける第2指示入力部をさらに備え、前記第2指示入力部は、前記表示部とでタッチパネルを構成し、前記表示部にボタンで表示され、前記人物位置データは、前記画像に写る人物の前記画像上での位置を含む前記人物の領域に関する人物領域データであり、前記人物位置標識は、前記人物領域データで表される画像であり、前記表示処理部は、前記表示部の表示領域における前記人物の領域を除いた残余の領域に、前記ボタンを表示する。好ましくは、上述の端末装置において、前記表示処理部は、前記表示部の前記画像を表示するための画像表示領域における前記人物の領域を除いた残余の領域に、前記ボタンを表示する。
このような端末装置は、表示処理部によって、人物の領域を除いた残余の領域に操作指示を受け付けるボタンを表示する。このため、前記ボタンによって前記人物の領域が隠れることが無く、上記端末装置のユーザは、画像中の被監視者を見つけ易くなる。
他の一態様にかかる端末装置の表示方法は、監視対象である被監視者の画像の画像データ、および、前記画像に写る人物の前記画像上での位置に関する人物位置データを収容する監視情報通信信号を受信する受信工程と、前記受信工程で受信した監視情報通信信号に収容された画像データの画像を、表示を行う表示部に表示し、前記監視情報通信信号に収容された人物位置データに基づく前記人物の位置を表す人物位置標識を前記表示部に表示した画像中に表示する表示処理工程とを備える。
このような端末装置の表示方法は、受信工程で受信した監視情報通信信号に収容された画像データの画像を表示部に表示し、前記監視情報通信信号に収容された人物位置データに基づく前記人物の位置を表す人物位置標識を前記表示部に表示した画像中に表示する表示制御工程を備える。したがって、上記端末装置の表示方法では、表示中の画像に人物位置標識が表示されるので、上記端末装置のユーザは、前記人物位置標識を手がかりに、画像中の被監視者を見つけことができ、画像中の被監視者を見つけ易くなる。
他の一態様にかかるセンサ装置は、通信を行う通信部と、撮像を行う撮像部と、前記撮像部で撮像した画像に写る人物の前記画像での位置に関する人物位置データを生成する人物位置処理部と、前記撮像部で撮像した画像の画像データ、および、前記人物位置処理部で生成した人物位置データを収容する監視情報通信信号を前記通信部で送信する監視処理部とを備える。
このようなセンサ装置は、画像だけでなく人物位置データも監視情報通信信号に収容するので、前記監視情報通信信号を受信した端末装置は、表示中の画像に人物位置標識を表示できる。したがって、上記端末装置のユーザは、前記人物位置標識を手がかりに、画像中の被監視者を見つけことができ、画像中の被監視者を見つけ易くなる。
他の一態様にかかる被監視者監視システムは、上述のセンサ装置と、これら上述のいずれかの端末装置とを備える。
このような被監視者監視システムは、上述のセンサ装置と、これら上述のいずれかの端末装置とを備えるので、画像中の被監視者を見つけ易くできる。
この出願は、2016年2月15日に出願された日本国特許出願特願2016−25856を基礎とするものであり、その内容は、本願に含まれるものである。
本発明を表現するために、上述において図面を参照しながら実施形態を通して本発明を適切且つ十分に説明したが、当業者であれば上述の実施形態を変更および/または改良することは容易に為し得ることであると認識すべきである。したがって、当業者が実施する変更形態または改良形態が、請求の範囲に記載された請求項の権利範囲を離脱するレベルのものでない限り、当該変更形態または当該改良形態は、当該請求項の権利範囲に包括されると解釈される。