JP6354444B2 - Evaluation method, evaluation program, and information processing apparatus - Google Patents
Evaluation method, evaluation program, and information processing apparatus Download PDFInfo
- Publication number
- JP6354444B2 JP6354444B2 JP2014166170A JP2014166170A JP6354444B2 JP 6354444 B2 JP6354444 B2 JP 6354444B2 JP 2014166170 A JP2014166170 A JP 2014166170A JP 2014166170 A JP2014166170 A JP 2014166170A JP 6354444 B2 JP6354444 B2 JP 6354444B2
- Authority
- JP
- Japan
- Prior art keywords
- randomness
- output
- sensor
- information
- predetermined
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、評価方法、評価プログラムおよび情報処理装置に関する。 The present invention relates to an evaluation method, an evaluation program, and an information processing apparatus.
近年、高齢者向けの介護付き入居施設の需要が増加している。当該入居施設では、入居者に対してスタッフによるケアが提供される場合がある。スタッフによるケアの実施状況の確認としては、介護作業動作の不正の可能性について、動作の見本データと撮像されたデータとの相違に基づいて介護作業動作をチェックする技術がある。 In recent years, there has been an increase in demand for nursing homes for elderly people. In the tenant facility, care may be provided to the resident by the staff. As the confirmation of the care implementation status by the staff, there is a technique for checking the care work operation based on the difference between the sample data of the operation and the imaged data for the possibility of the fraud of the care work operation.
しかしながら、入居施設の全ての入居者に対するケアの実施状況を、管理者が目視や監視カメラによって確認することは困難である。例えば、整理作業がケアプランに従って実施されているか否かを確認する場合には、管理者が当該入居者の居室に出向いて目視によって確認するか、監視カメラの画像を確認する。この場合、目視では、整理作業が行われる前と行われた後とでの室内の乱雑度の比較が困難であり、監視カメラでは、全ての入居者に対する確認作業が膨大となって現実的でない場合がある。 However, it is difficult for an administrator to confirm the implementation status of care for all tenants in the tenant facility by visual observation or a monitoring camera. For example, when confirming whether or not the organization work is performed according to the care plan, the manager goes to the resident's room and confirms it visually, or confirms the image of the surveillance camera. In this case, it is difficult to compare the degree of messiness in the room before and after the arrangement work is visually performed, and it is not realistic for the surveillance camera to have a huge amount of confirmation work for all residents. There is a case.
一つの側面では、本発明は、乱雑度の比較結果を出力できる評価方法、評価プログラムおよび情報処理装置を提供することにある。 In one aspect, the present invention provides an evaluation method, an evaluation program, and an information processing apparatus that can output a comparison result of randomness.
一つの態様では、評価方法は、特定の領域の状態を検出するセンサから出力されるセンサ情報であって、所定の退出イベントが発生した際のセンサ情報を取得する処理をコンピュータが実行する。また、評価方法は、取得した該センサ情報を解析して得られた乱雑度と基準乱雑度との比較結果を出力する処理をコンピュータが実行する。 In one aspect, in the evaluation method, the computer executes a process of acquiring sensor information that is output from a sensor that detects a state of a specific area and that is generated when a predetermined exit event occurs. In the evaluation method, the computer executes a process of outputting a comparison result between the randomness obtained by analyzing the acquired sensor information and the reference randomness.
スタッフの作業を評価できる。 Evaluate staff work.
以下、図面に基づいて、本願の開示する評価方法、評価プログラムおよび情報処理装置の実施例を詳細に説明する。なお、本実施例により、開示技術が限定されるものではない。また、以下の実施例は、矛盾しない範囲で適宜組みあわせてもよい。 Hereinafter, embodiments of an evaluation method, an evaluation program, and an information processing apparatus disclosed in the present application will be described in detail based on the drawings. The disclosed technology is not limited by the present embodiment. Further, the following embodiments may be appropriately combined within a consistent range.
図1は、実施例の評価システムの構成の一例を示すブロック図である。図1に示す評価システム1は、例えば、入居施設10の一例である高齢者向けの介護付き入居施設において、スタッフによるケア、特に居室のちらかりを片付ける整理作業の実施状況を評価するための情報を提供する。図1に示す評価システム1は、カメラ11a〜11eと、管理者端末50と、サーバ装置100とを有する。カメラ11a〜11eは、入居施設10の区画10aの各所に設置される。なお、以下の説明では、カメラ11a〜11eを区別しない場合には、単にカメラ11と称する。
FIG. 1 is a block diagram illustrating an example of the configuration of the evaluation system according to the embodiment. The
入居施設10は、区画10aと類似する間取りの複数の区画を有し、各区画には、区画10aと同様に複数のカメラ11が各所に設置される。なお、以下の説明では、複数の区画のうち、区画10aを例として説明するが、区画の数は限定されず、評価システム1は、任意の数の区画に設置されたカメラ11を有してもよい。また、図1には、システムが1つの管理者端末50を有する場合を示したが、管理者端末50の数は限定されず、評価システム1は、任意の数の管理者端末50を有してもよい。
The
カメラ11、管理者端末50およびサーバ装置100の間は、ネットワークNを介して相互に通信可能に接続される。かかるネットワークNには、有線または無線を問わず、インターネット(Internet)を始め、LAN(Local Area Network)やVPN(Virtual Private Network)などの任意の種類の通信網を採用できる。
The camera 11, the
評価システム1は、高齢者が入居する区画10aの各居室に設置されたカメラ11で撮像された画像に基づいて、乱雑度を算出し、高齢者が入居する区画10aの居室内の散らかり具合を判定する。評価システム1は、居室内が清掃、すなわち整理されている状態の乱雑度を基準乱雑度として、ケアを実施するスタッフであるケアスタッフの退出前後の乱雑度を、基準乱雑度と比較する。評価システム1は、ケアスタッフの退出後の乱雑度が基準乱雑度から所定範囲内である場合には、ケアスタッフによる整理作業が適切に行われたと判定する。評価システム1は、ケアスタッフの退出後の乱雑度が基準乱雑度から所定範囲外である場合には、ケアスタッフによる整理作業が適切に行われていないと判定する。評価システム1は、乱雑度と基準乱雑度との比較結果に基づいて判定された整理作業が適切に行われたか否かの判定結果を、例えば、管理者端末50に送信して図示しない表示部に表示させる。これにより、評価システム1は、ケアスタッフによる整理作業が適切に行われているか否かを入居施設10の管理者に提示できるので、管理者はケアスタッフによる居室内の整理作業を評価できる。
The
カメラ11は、例えば、通信機能を有するネットワークカメラであり、ネットワークNに接続されることで、サーバ装置100に撮像した画像を送信する。すなわち、カメラ11は、撮像センサであり、特定の領域の状態を検出するセンサである。カメラ11は、例えば、撮像素子としてCMOS(Complementary Metal Oxide Semiconductor)イメージセンサまたはCCD(Charge Coupled Device)イメージセンサ等を用いて、画像を撮像する。カメラ11は、撮像素子が受光した光を光電変換しA/D(Analog/Digital)変換を行って画像を生成する。カメラ11は、生成した画像を、ネットワークNを介してサーバ装置100に送信する。なお、カメラ11は、サーバ装置100から撮影方向等の指示を受信して、撮影方向を変化させるようにしてもよい。また、カメラ11は、例えば、区画10aの各居室の天井の中央または隅等に設置される。
The camera 11 is a network camera having a communication function, for example, and transmits a captured image to the
管理者端末50は、例えば、入居施設10の管理者が用いるコンピュータである。管理者端末50は、サーバ装置100から受信した入居施設10内の各区画の整理作業に関する情報等を表示させて、管理者に提示する。かかる管理者端末50の一例としては、可搬型のパーソナルコンピュータを採用できる。管理者端末50には、上記のパーソナルコンピュータなどの可搬型の端末のみならず、据置型のパーソナルコンピュータを管理者端末50として採用することもできる。また、管理者端末50は、可搬型の端末としては、上記のパーソナルコンピュータの他にも、例えば、タブレット端末、スマートフォン、携帯電話機やPHS(Personal Handyphone System)などの移動体通信端末等を採用することもできる。
The
次に、サーバ装置100の構成について説明する。図1に示すように、サーバ装置100は、通信部110と、記憶部120と、制御部130とを有する。なお、サーバ装置100は、図1に示す機能部以外にも既知のコンピュータが有する各種の機能部、例えば各種の入力デバイスや音声出力デバイスなどの機能部を有することとしてもかまわない。
Next, the configuration of the
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。通信部110は、ネットワークNを介してカメラ11および管理者端末50と有線または無線で接続され、カメラ11および管理者端末50との間で情報の通信を司る通信インタフェースである。通信部110は、カメラ11から画像を受信し、管理者端末50から制御情報を受信する。通信部110は、受信した画像または制御情報を制御部130に出力する。また、通信部110は、制御部130から入力された部屋ID(IDentifier)の選択画面、出力画面等を管理者端末50に送信する。
The communication unit 110 is realized by, for example, a NIC (Network Interface Card). The communication unit 110 is a communication interface that is connected to the camera 11 and the
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、ハードディスクや光ディスク等の記憶装置によって実現される。記憶部120は、入居者データベース121と、カメラ設置テーブル122と、センシング情報データベース123と、メッセージデータベース124と、判定ワークテーブル125とを有する。なお、以下の説明では、データベースをDBと省略して示す。また、記憶部120は、制御部130での処理に用いる情報を記憶する。
The
入居者DB121は、各区画に入居する入居者を、ケアスタッフ、管理者等と対応付けて記憶する。図2は、入居者データベースの一例を示す図である。図2に示すように、入居者DB121は、「部屋ID」、「入居者名」、「ケアスタッフ」、「管理者名」、「管理者連絡先」といった項目を有する。入居者DB121の各項目は、予め管理者端末50等を用いて登録される。
The
「部屋ID」は、入居施設10の各区画を識別する。「入居者名」は、入居施設10の各区画に入居する入居者を示す。「ケアスタッフ」は、各区画の各居室に対して整理作業を実施するスタッフを示す。「管理者名」は、ケアスタッフを管理する管理者、つまりケアマネージャを示す。「管理者連絡先」は、管理者の連絡先として、例えば、メールアドレス等を示す。
“Room ID” identifies each section of the
カメラ設置テーブル122は、入居施設10の区画ごとに、設置されるカメラ11の設置数と、各カメラ11のID、設置場所および標準エッジライン数とを対応付けて記憶する。図3は、カメラ設置テーブルの一例を示す図である。図3に示すように、カメラ設置テーブル122は、「部屋ID」、「カメラ設置数」、カメラ11ごとの「カメラID」、「設置場所」および「標準エッジライン数」といった項目を有する。
The camera installation table 122 stores the number of cameras 11 to be installed, the ID of each camera 11, the installation location, and the number of standard edge lines in association with each section of the
「部屋ID」は、入居施設10の各区画を識別する。「カメラ設置数」は、部屋IDで識別される各区画に設置されるカメラ11の数を示す。「カメラID」は、区画ごとの各居室に設置されるカメラ11を識別する。「設置場所」は、各カメラ11が設置される区画内の居室等を示す。「標準エッジライン数」は、基準乱雑度を示し、居室内が整理されている状態の乱雑度である。エッジラインは、例えば、居室内を撮像した画像に対してエッジフィルタを適用して輝度勾配を検出し、輝度勾配に基づいて直線成分を算出し、直線成分に基づいて算出されたラインである。例えば、本であれば、各辺が直線成分を有するので、エッジラインを4本算出できる。「標準エッジライン数」は、入居者ごとに異なるので、例えば、毎朝の乱雑度を取得して、平均値を求めるようにしてもよい。
“Room ID” identifies each section of the
センシング情報DB123は、所定の時間ごとの各居室の乱雑度であるエッジライン数と、ケアスタッフが入室中であるか否かを示すケアスタッフ入室フラグとを対応付けて記憶する。図4は、センシング情報データベースの一例を示す図である。図4に示すように、センシング情報DB123は、「日時」、「エッジライン数」、「ケアスタッフ入室フラグ」といった項目を有する。なお、センシング情報DB123は、例えば、区画10aの居室ごとに設けてもよいし、区画10aの各居室のエッジライン数の合計値と、区画10a内にケアスタッフが入室中であるか否かを示すケアスタッフ入室フラグとを有するようにしてもよい。
The
「日時」は、カメラ11から画像を受信した日時、または、カメラ11が画像を撮像した日時を示し、例えば、10秒ごとに1枚撮像される場合には、10秒ごとに1つのレコードとする。「エッジライン数」は、居室内の乱雑度を示す。「ケアスタッフ入室フラグ」は、ケアスタッフが居室に入室している場合を「1」で示し、ケアスタッフが居室に入室していない場合を「0」で示す。 “Date and time” indicates the date and time when an image is received from the camera 11 or the date and time when the camera 11 captures an image. For example, when one image is captured every 10 seconds, one record is recorded every 10 seconds. To do. “Number of edge lines” indicates the degree of randomness in the room. The “care staff entry flag” indicates “1” when the care staff enters the room, and indicates “0” when the care staff does not enter the room.
メッセージDB124は、ケアスタッフの退出前後の乱雑度の比較結果を示す各フラグと、各フラグの組み合わせに応じて出力画面に表示するメッセージとを対応付けて記憶する。図5は、メッセージデータベースの一例を示す図である。図5に示すように、メッセージDB124は、「ID」、「ケア前フラグ」、「ケア後フラグ」、「ケア後所定時間後フラグ」、「メッセージ」といった項目を有する。
The
「ID」は、出力画面に表示するメッセージを識別する。「ケア前フラグ」、「ケア後フラグ」および「ケア後所定時間後フラグ」は、判定ワークテーブル125の同一の項目、つまり同一のフラグに対応する。なお、各フラグが「*」の欄は、判定ワークテーブル125の各フラグが「1」、「0」のいずれの場合でも該当することを示す。「メッセージ」は、各フラグの組み合わせに応じて出力画面に表示するメッセージの内容を示す。 “ID” identifies a message to be displayed on the output screen. The “pre-care flag”, “post-care flag” and “pre-care post-predetermined time flag” correspond to the same item in the determination work table 125, that is, the same flag. The column “*” for each flag indicates that the flag is applicable regardless of whether the flag of the determination work table 125 is “1” or “0”. “Message” indicates the content of the message displayed on the output screen in accordance with the combination of the flags.
判定ワークテーブル125は、ケアスタッフの入室または退出のイベント発生時、あるいは、ケア後所定時間が経過した時点における、乱雑度と基準乱雑度との比較結果に基づく散らかり具合に関するフラグを、部屋IDおよびカメラIDと対応付けて記憶する。図6は、判定ワークテーブルの一例を示す図である。図6に示すように、判定ワークテーブル125は、「部屋ID」、「カメラID」、「ケア前フラグ」、「ケア後フラグ」、「ケア後所定時間後フラグ」といった項目を有する。また、「ケア前フラグ」、「ケア後フラグ」および「ケア後所定時間後フラグ」は、それぞれ「フラグ」および「時刻」といった項目を有する。 The determination work table 125 includes a flag relating to the degree of scattering based on the comparison result between the randomness and the reference randomness at the time when an event of entering or leaving the care staff occurs or when a predetermined time has elapsed after the care. It is stored in association with the camera ID. FIG. 6 is a diagram illustrating an example of the determination work table. As shown in FIG. 6, the determination work table 125 includes items such as “room ID”, “camera ID”, “pre-care flag”, “post-care flag”, and “post-care predetermined time flag”. The “pre-care flag”, “post-care flag” and “pre-care post-predetermined flag” have items such as “flag” and “time”, respectively.
「部屋ID」は、入居施設10の各区画を識別する。「カメラID」は、区画ごとの各居室に設置されるカメラ11を識別する。「ケア前フラグ」は、ケアスタッフが居室内に入室した時点の乱雑度が基準乱雑度から所定範囲内であるか否かを示す。「ケア前フラグ」は、「フラグ」が「0」の場合には、ケアスタッフが居室内に入室した時点の乱雑度が基準乱雑度から所定範囲内である、すなわち、居室内が整理されていることを示す。「ケア前フラグ」は、「フラグ」が「1」の場合には、ケアスタッフが居室内に入室した時点の乱雑度が基準乱雑度から所定範囲外である、すなわち、居室内が乱雑であることを示す。「時刻」は、フラグが立った時点の時刻を示す。
“Room ID” identifies each section of the
「ケア後フラグ」は、ケアスタッフが居室から退出した時点の乱雑度が基準乱雑度から所定範囲内であるか否かを示す。「ケア後フラグ」は、「フラグ」が「0」の場合には、ケアスタッフが居室から退出した時点の乱雑度が基準乱雑度から所定範囲内である、すなわち、居室内が整理されていることを示す。「ケア後フラグ」は、「フラグ」が「1」の場合には、ケアスタッフが居室から退出した時点の乱雑度が基準乱雑度から所定範囲外である、すなわち、居室内が乱雑であることを示す。「時刻」は、フラグが立った時点の時刻を示す。 The “post-care flag” indicates whether or not the degree of disorder when the care staff leaves the room is within a predetermined range from the standard degree of disorder. In the “post-care flag”, when the “flag” is “0”, the messiness level when the care staff leaves the room is within a predetermined range from the standard messiness level, that is, the room is arranged. It shows that. The “post-care flag” indicates that when the “flag” is “1”, the messiness level when the care staff leaves the room is out of the predetermined range from the standard messiness level, that is, the room is messy. Indicates. “Time” indicates the time when the flag is set.
「ケア後所定時間後フラグ」は、ケアスタッフが居室から退出した後、所定時間が経過した時点の乱雑度が基準乱雑度から所定範囲内であるか否かを示す。「ケア後所定時間後フラグ」は、「フラグ」が「0」の場合には、ケアスタッフが居室から退出した後、所定時間が経過した時点の乱雑度が基準乱雑度から所定範囲内である、すなわち、居室内が整理されていることを示す。「ケア後所定時間後フラグ」は、「フラグ」が「1」の場合には、ケアスタッフが居室から退出した後、所定時間が経過した時点の乱雑度が基準乱雑度から所定範囲外である、すなわち、居室内が乱雑であることを示す。ここで、所定時間は、例えば、10分、30分、1時間、半日等、入居者に応じて適宜変更できる。「時刻」は、フラグが立った時点の時刻を示す。 The “after-care-after-predetermined-time flag” indicates whether or not the degree of randomness at the time when the predetermined time has elapsed after the care staff leaves the room is within a predetermined range from the reference randomness. When the “flag” is “0”, the “post-care post-predetermined flag” is within a predetermined range from the reference randomness when the predetermined time has elapsed after the care staff leaves the room. That is, it shows that the living room is arranged. The “post-care post-predetermined time flag” indicates that when the “flag” is “1”, the randomness at the time when the predetermined time has elapsed after the care staff leaves the room is out of the predetermined range from the reference randomness. That is, the room is messy. Here, the predetermined time can be appropriately changed according to the resident, for example, 10 minutes, 30 minutes, 1 hour, half day, or the like. “Time” indicates the time when the flag is set.
図1の説明に戻って、制御部130は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、内部の記憶装置に記憶されているプログラムがRAMを作業領域として実行されることにより実現される。また、制御部130は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されるようにしてもよい。制御部130は、取得部131と、算出部132と、判定部133と、出力制御部134とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図1に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。
Returning to the description of FIG. 1, the
取得部131は、カメラ11から通信部110を介して居室の画像、すなわちセンサ情報を取得する。取得部131は、例えば、10秒ごとに居室の状態を撮像した撮像画像を取得する。取得部131は、取得した画像を算出部132に出力する。なお、取得部131は、センサ情報として他の情報を取得してもよい。取得部131は、例えば、居室内に照射光を照射し、照射光の反射光を含む撮像画像を取得してもよい。また、取得部131は、例えば、レーザ光を照射して距離を計測する距離センサから距離情報を取得してもよい。なお、取得部131は、取得した撮像画像を記憶部120に記憶してもよい。
The
算出部132は、取得部131から画像が入力されると、画像に対して画像解析を行う。算出部132は、例えば、エッジフィルタにて画像の輝度勾配を検出する。算出部132は、画像の各画素について、周囲の輝度勾配の強度が一定範囲で、かつ隣接している画素をエッジ成分として結合して直線成分を算出する。算出部132は、例えば、居室内に長方形の机が設置され、仮に天井方向から撮影した場合には、机の縁と床面との境界は直線であり、机と床面との輝度が異なるので、当該境界の画素をエッジ成分として結合して直線成分を算出する。また、算出部132は、例えば、床に衣服が置かれている場合には、衣服の縁と床面との境界の画素について同様の処理を行うが、衣服の縁は曲線である場合がある。このとき、算出部132は、曲線を所定の長さの直線で近似して直線成分を算出する。算出部132は、算出した直線成分に基づいて、直線成分の本数、すなわち、エッジライン数を算出する。算出部132は、画像の撮像日時と、算出したエッジライン数とを対応付けて、センシング情報DB123に記録する。すなわち、算出部132は、エッジライン数により、乱雑度を算出する。
When an image is input from the
また、算出部132は、入力された画像に対して、例えば、記憶部120に記憶されている頭部のテンプレート画像とのマッチングを取ることにより、人物の頭を検出する。算出部132は、例えば、区画10a内で検出した人物の頭が1つであり、入居者の頭部のテンプレート画像とマッチングした場合には、ケアスタッフは入室していない(退出している)と判定する。算出部132は、ケアスタッフが退出していると判定した場合には、画像の撮像日時と対応するケアスタッフ入室フラグを「0」に設定して、センシング情報DB123に記録する。
In addition, the
算出部132は、例えば、区画10a内で検出した人物の頭部と、ケアスタッフの頭部のテンプレート画像とがマッチングした場合には、ケアスタッフが入室していると判定する。算出部132は、ケアスタッフが入室していると判定した場合には、画像の撮像日時と対応するケアスタッフ入室フラグを「1」に設定して、センシング情報DB123に記録する。なお、算出部132は、ケアスタッフが入室しているか否かの判定について、例えば、ケアスタッフのユニホームにケアスタッフを表すマーカを印刷し、撮像画像において当該マーカを検出した場合にケアスタッフ入室フラグを「1」に設定するようにしてもよい。また、算出部132は、ケアスタッフが入室しているか否かの判定について、例えば、IDカードをケアスタッフに所持させて、各区画への入室時と退出時に、各区画の玄関に設置した図示しないカードリーダに読ませるようにしてもよい。IDカードをカードリーダに読ませる場合、算出部132は、IDカードの情報と、入室または退出を表す情報とを取得して、ケアスタッフ入室フラグを設定することができる。なお、居室へ入室する人間が、入居者とケアスタッフのみと考えられる場合には、単純に頭部が2つ検出された際に、ケアスタッフが入室したと判断してもよい。
For example, when the head of the person detected in the
判定部133は、管理者端末50から判定処理を実行する指示を受信すると、センシング情報DB123を参照して、ケアスタッフの入室等のイベントと、当該イベント発生時の居室内の状態とに応じて、ケアスタッフの整理作業が適切に行われたか否かを判定する。判定部133は、入居者DB121を参照して、入居者の部屋ID等を取得する。判定部133は、部屋IDの選択画面を生成し、通信部110を介して管理者端末50に送信する。ここで、判定部133は、例えば、部屋IDの選択画面に含める入居者の部屋IDとして、健常者を除いたケアが必要な入居者を抽出する。また、判定部133は、部屋IDの選択画面として、入居施設10の見取り図を用いてもよい。
When the
判定部133は、管理者端末50から部屋IDの選択情報を受信すると、比較処理を実行する。判定部133は、センシング情報DB123から、指定された部屋IDに対応するセンシング情報を所定期間分取得する。つまり、判定部133は、部屋IDの選択情報に基づいて、日時、エッジライン数およびケアスタッフ入室フラグを所定期間分について取得する。ここで、判定部133は、例えば、1日分の指定された部屋IDに対応する情報を取得することができる。ここで、判定部133は、対象となる部屋IDの全てが選択されてもよいし、一部の部屋IDが選択されてもよい。
Upon receiving the room ID selection information from the
判定部133は、取得したセンシング情報のうち、先頭から順にセンシング情報を選択し、ケアスタッフ入室フラグが「1」であるか否かを判定する。判定部133は、選択したセンシング情報のケアスタッフ入室フラグが「1」でない場合には、次のセンシング情報、すなわち、次のレコードに記憶されているセンシング情報を選択し、ケアスタッフ入室フラグが「1」であるか否かの判定を繰り返す。判定部133は、選択したセンシング情報のケアスタッフ入室フラグが「1」である場合には、カメラ設置テーブル122を参照して、選択されたセンシング情報のエッジライン数と、対応する標準エッジライン数とを比較する。
The
判定部133は、選択されたセンシング情報のエッジライン数が標準エッジライン数から所定範囲内であるか否かを判定する。ここで、所定範囲内は、例えば、標準エッジライン数を中心として、例えば、「±50」等の固定値としてもよいし、さらに、プラス側「70」、マイナス側「30」等のように所定範囲をオフセットしてもよい。また、所定範囲内は、例えば、標準エッジライン数を中心として、例えば、標準エッジライン数の「±20%」等のように割合で示してもよい。ただし、マイナス側に範囲が超えたときは、設定値の再設定を促すようなメッセージとなる。下に記載の実施例で、範囲外とは、プラス方向の範囲を超えた場合を想定している。なお、マイナス側の範囲を超えた場合は、標準エッジラインの再設定を促すことが望ましい。
The
判定部133は、選択されたセンシング情報のエッジライン数が標準エッジライン数から所定範囲内である場合には、判定ワークテーブル125に、時刻、部屋IDおよびケア前フラグ「0」を記録する。判定部133は、選択されたセンシング情報のエッジライン数が標準エッジライン数から所定範囲内でない場合には、判定ワークテーブル125に、時刻、部屋IDおよびケア前フラグ「1」を記録する。すなわち、判定部133は、ケアスタッフが居室内に入室した時点における居室内の状態、つまり散らかり具合を判定する。なお、時刻は、センシング情報DB123から取得した日時のうち、例えば、時刻を用いることができるが、日時の全てを用いてもよい。
When the number of edge lines of the selected sensing information is within a predetermined range from the standard edge line number, the
ここで、図3のカメラ設置テーブル122のカメラID「601−1」と、図4のセンシング情報DB123の4行目とを例として、エッジライン数と、対応する標準エッジライン数との比較を説明する。判定部133は、選択したセンシング情報のケアスタッフ入室フラグが「1」であるので、対応するエッジライン数「299」を取得する。また、判定部133は、カメラ設置テーブル122を参照して、対応する標準エッジライン数として「120」を取得する。判定部133は、選択されたセンシング情報のエッジライン数「299」と、対応する標準エッジライン数「120」とを比較する。
Here, using the camera ID “601-1” in the camera installation table 122 in FIG. 3 and the fourth line of the
判定部133は、選択されたセンシング情報のエッジライン数「299」が、標準エッジライン数「120」から所定範囲内であるか否かを判定する。なお、所定範囲は、例えば「±50」とする。判定部133は、エッジライン数「299」が、所定範囲の上限値「170」から下限値「70」の範囲内ではないので、判定ワークテーブル125に、時刻、部屋IDおよびケア前フラグ「1」を記録する。
The
次に、判定部133は、ケアスタッフが居室内に入室した時点における居室内の状態を判定すると、選択したセンシング情報の次のセンシング情報を順に選択し、ケアスタッフ入室フラグが「0」であるか否かを判定する。判定部133は、選択したセンシング情報のケアスタッフ入室フラグが「0」でない場合には、次のセンシング情報、すなわち、次のレコードに記憶されているセンシング情報を選択し、ケアスタッフ入室フラグが「0」であるか否かの判定を繰り返す。判定部133は、選択したセンシング情報のケアスタッフ入室フラグが「0」である場合には、カメラ設置テーブル122を参照して、選択されたセンシング情報のエッジライン数と、対応する標準エッジライン数とを比較する。
Next, when the
判定部133は、選択されたセンシング情報のエッジライン数が標準エッジライン数から所定範囲内であるか否かを判定する。判定部133は、選択されたセンシング情報のエッジライン数が標準エッジライン数から所定範囲内である場合には、判定ワークテーブル125に、部屋IDに対応付けて、時刻、部屋IDおよびケア前フラグ「0」を記録する。判定部133は、選択されたセンシング情報のエッジライン数が標準エッジライン数から所定範囲内でない場合には、判定ワークテーブル125に、部屋IDに対応付けて、時刻、部屋IDおよびケア前フラグ「1」を記録する。すなわち、判定部133は、ケアスタッフが居室内から退出した時点における居室内の状態、つまり散らかり具合を判定する。
The
判定部133は、ケアスタッフが居室内から退出した時点における居室内の状態を判定すると、ケアスタッフ入室フラグが「0」となってから所定時間後のセンシング情報を選択する。判定部133は、カメラ設置テーブル122を参照して、選択されたセンシング情報のエッジライン数と、対応する標準エッジライン数とを比較する。判定部133は、選択されたセンシング情報のエッジライン数が標準エッジライン数から所定範囲内であるか否かを判定する。判定部133は、選択されたセンシング情報のエッジライン数が標準エッジライン数から所定範囲内である場合には、判定ワークテーブル125に、部屋IDに対応付けて、時刻、部屋IDおよびケア後所定時間後フラグ「0」を記録する。判定部133は、選択されたセンシング情報のエッジライン数が標準エッジライン数から所定範囲内でない場合には、判定ワークテーブル125に、部屋IDに対応付けて、時刻、部屋IDおよびケア後所定時間後フラグ「1」を記録する。すなわち、判定部133は、ケアスタッフが居室内から退出した時点から所定時間経過後における居室内の状態、つまり散らかり具合を判定する。判定部133は、ケアスタッフが居室内から退出した時点から所定時間経過後における居室内の状態を判定すると、出力制御部134に判定結果の出力を指示する。
When the
出力制御部134は、判定部133から判定結果の出力を指示されると、判定ワークテーブル125のフラグに対応するメッセージを、メッセージDB124から取得する。出力制御部134は、取得したメッセージに基づいて出力画面を生成し、通信部110を介して管理者端末50に送信する。すなわち、出力制御部134は、判定結果を出力する。また、出力制御部134は、メッセージの送信後に、部屋IDの選択画面を生成し、通信部110を介して管理者端末50に送信する。出力制御部134は、部屋IDの選択画面で終了ボタンが押下された情報を受信したか否かを判定する。出力制御部134は、部屋IDの選択画面で終了ボタンが押下された情報を受信しない場合には、判定部133に部屋IDの選択情報の受信を待機するように指示する。出力制御部134は、部屋IDの選択画面で終了ボタンが押下された情報を受信した場合には、処理を終了する。
When the
ここで、図7を用いて、出力画面の一例を説明する。図7は、出力画面の一例を示す図である。図7に示すように、出力制御部134は、例えば、ケアスタッフの入室時点で、居室内が散らかっており、ケアスタッフの退出時点でも居室内が散らかっている場合には、ケアが終了したが散らかりが十分にケアされていない旨のメッセージを含む出力画面25を生成する。すなわち、出力制御部134は、例えば、判定ワークテーブル125のケア前フラグが「1」、ケア後フラグが「1」の場合に、メッセージDB124のID「002」のメッセージを取得して出力画面25を生成する。
Here, an example of the output screen will be described with reference to FIG. FIG. 7 is a diagram illustrating an example of an output screen. As shown in FIG. 7, for example, when the care staff enters the room, the
次に、図8から図10を用いて、居室内の状態変化のパターンについて説明する。図8は、居室内の状態の一例を示す図である。図8に示すように、居室内は、ケアスタッフが入室する前の状態21a、および、ケアスタッフが入室した時点の状態22aは、散らかった状態である。ケアスタッフが退出した時点の状態23aは、ケアスタッフが居室内の整理作業を適切に行うことで、整理された状態となる。その後、居室内は、例えば、ケアスタッフの退出30分後には、入居者が雑誌を読む等の動作を行うことで多少散らかるが、散らかりが適切にケアされた状態24aである。図8のパターンでは、管理者端末50には、例えば、「リビングでのケアが終了しました。散らかりが適切にケアされています。」といったメッセージが表示される。
Next, the state change pattern in the living room will be described with reference to FIGS. FIG. 8 is a diagram illustrating an example of a state in the living room. As shown in FIG. 8, the
図9は、居室内の状態の他の一例を示す図である。図9に示すように、居室内は、ケアスタッフが入室する前の状態21b、および、ケアスタッフが入室した時点の状態22bは、散らかった状態である。居室内は、ケアスタッフが適切に整理作業を行っていないと、ケアスタッフが退出した時点の状態23bは、十分に整理がされていない状態となる。その後、居室内は、例えば、ケアスタッフの退出30分後には、十分に整理がされていない状態、つまり散らかった状態24bとなる。図9のパターンでは、管理者端末50には、例えば、「リビングでのケアが終了しました。散らかりが十分にケアされていません。」といったメッセージが表示される。
FIG. 9 is a diagram illustrating another example of a state in the living room. As shown in FIG. 9, in the living room, the state 21b before the care staff enters the room and the state 22b when the care staff enters the room are in a messy state. In the living room, if the care staff is not properly organizing, the
図10は、居室内の状態の他の一例を示す図である。図10に示すように、居室内は、ケアスタッフが入室する前の状態21c、および、ケアスタッフが入室した時点の状態22cは、散らかった状態である。ケアスタッフが退出した時点の状態23cは、ケアスタッフが居室内の整理作業を適切に行うことで、整理された状態となる。その後、居室内は、例えば、ケアスタッフの退出30分後には、入居者が故意に散らかした状態24cとなる。図10のパターンでは、管理者端末50には、例えば、「リビングでのケアが終了し、所定時間(30分)経過しました。散らかりがひどくなっており、入居者が故意に散らかしている可能性があります。」といったメッセージが表示される。
FIG. 10 is a diagram illustrating another example of a state in the living room. As shown in FIG. 10, the
なお、他の状態変化のパターンとしては、例えば、居室内についてケアスタッフが入室した時点で整理されており、ケアスタッフが退出した時点でも整理されている場合がある。この場合には、管理者端末50には、例えば、「リビングでは、ケアスタッフ入室前から十分に綺麗な状態です。」といったメッセージが表示される。また、例えば、居室内についてケアスタッフが入室した時点で整理されており、ケアスタッフが退出した時点で散らかっている場合がある。この場合には、管理者端末50には、例えば、「リビングでは、ケアスタッフが故意に散らかしている可能性があります。」といったメッセージが表示される。
In addition, as another pattern of state change, for example, there is a case where the care staff is arranged when the care staff enters the room, and the arrangement is also arranged when the care staff leaves. In this case, for example, a message such as “In the living room, it is in a sufficiently beautiful state before entering the care staff” is displayed. Also, for example, there are cases where the living room is arranged when the care staff enters the room and is scattered when the care staff leaves. In this case, for example, a message such as “There is a possibility that care staff is intentionally scattered in the living room” is displayed on the
次に、実施例の評価システム1の動作について説明する。まず、居室の状態をセンシング情報DB123に記録する記録処理について説明する。図11は、記録処理の一例を示すフローチャートである。サーバ装置100の取得部131は、カメラ11から通信部110を介して居室の画像を、例えば、10秒ごとに取得する(ステップS1)。取得部131は、取得した画像を算出部132に出力する。
Next, the operation of the
算出部132は、取得部131から画像が入力されると、画像に対して画像解析を行う。算出部132は、例えば、エッジフィルタにて画像の輝度勾配を検出する(ステップS2)。算出部132は、画像の各画素について、周囲の輝度勾配の強度が一定範囲で、かつ隣接している画素をエッジ成分として結合して直線成分を算出する(ステップS3)。算出部132は、算出した直線成分に基づいてエッジライン数を算出する(ステップS4)。算出部132は、画像の撮像日時と、算出したエッジライン数とを対応付けて、センシング情報DB123に記録する(ステップS5)。
When an image is input from the
算出部132は、ケアスタッフが入室しているか否かを判定する(ステップS6)。算出部132は、ケアスタッフが入室している場合には(ステップS6:肯定)、画像の撮像日時と対応するケアスタッフ入室フラグを「1」に設定して(ステップS7)、センシング情報DB123に記録する。算出部132は、ケアスタッフが入室していない場合には(ステップS6:否定)、画像の撮像日時と対応するケアスタッフ入室フラグを「0」に設定して(ステップS8)、センシング情報DB123に記録する。算出部132は、センシング情報DB123へのケアスタッフ入室フラグの記録が終了すると、ステップS1に戻り、次のタイミングで取得された画像に対して同様の処理を繰り返す。これにより、居室内の状態と、ケアスタッフの入室または退出とを対応付けて記録することができる。
The
続いて、センシング情報に基づいて、ケアスタッフの整理作業を判定する判定処理について説明する。なお、判定処理は、例えば、1日1回等の所定の間隔でバッチ処理として実行することができる。図12は、判定処理の一例を示すフローチャートである。サーバ装置100の判定部133は、入居者DB121を参照して、入居者の部屋ID等を取得する(ステップS51)。判定部133は、部屋IDの選択画面を生成し、通信部110を介して管理者端末50に送信する。管理者端末50は、受信した部屋IDの選択画面を図示しない表示部に表示させる(ステップS52)。管理者端末50は、例えば、管理者によって、部屋IDが選択されると、部屋IDの選択情報をサーバ装置100に送信する。
Next, determination processing for determining care staff organization work based on sensing information will be described. The determination process can be executed as a batch process at a predetermined interval such as once a day. FIG. 12 is a flowchart illustrating an example of the determination process. The
判定部133は、部屋が選択されたか否かを判定する(ステップS53)。すなわち、判定部133は、管理者端末50から部屋IDの選択情報を受信したか否かを判定する。判定部133は、管理者端末50から部屋IDの選択情報を受信していない場合には(ステップS53:否定)、部屋IDの選択情報を受信するまでステップS53の判定を繰り返して待機する。判定部133は、管理者端末50から部屋IDの選択情報を受信した場合には(ステップS53:肯定)、比較処理を実行する(ステップS54)。
The
ここで、図13および図14を用いて比較処理について説明する。図13および図14は、比較処理の一例を示すフローチャートである。判定部133は、センシング情報DB123から、指定された部屋IDに対応するセンシング情報を所定期間分取得する(ステップS541)。判定部133は、取得したセンシング情報のうち、先頭から順にセンシング情報を選択し(ステップS542)、ケアスタッフ入室フラグが「1」であるか否かを判定する(ステップS543)。判定部133は、選択したセンシング情報のケアスタッフ入室フラグが「1」でない場合には(ステップS543:否定)、ステップS542に戻り、次のセンシング情報を選択する。すなわち、判定部133は、センシング情報について、ケアスタッフ入室フラグが「1」であるか否かの判定を繰り返す。
Here, the comparison process will be described with reference to FIGS. 13 and 14. 13 and 14 are flowcharts illustrating an example of the comparison process. The
判定部133は、選択したセンシング情報のケアスタッフ入室フラグが「1」である場合には(ステップS543:肯定)、カメラ設置テーブル122を参照して、選択されたセンシング情報のエッジライン数と、対応する標準エッジライン数とを比較する(ステップS544)。判定部133は、選択されたセンシング情報のエッジライン数が標準エッジライン数から所定範囲内であるか否かを判定する(ステップS545)。判定部133は、選択されたセンシング情報のエッジライン数が標準エッジライン数から所定範囲内である場合には(ステップS545:肯定)、判定ワークテーブル125に、時刻、部屋IDおよびケア前フラグ「0」を記録する(ステップS546)。判定部133は、選択されたセンシング情報のエッジライン数が標準エッジライン数から所定範囲内でない場合には(ステップS545:否定)、判定ワークテーブル125に、時刻、部屋IDおよびケア前フラグ「1」を記録する(ステップS547)。
When the care staff entry flag of the selected sensing information is “1” (step S543: Yes), the
判定部133は、選択したセンシング情報の次のセンシング情報を順に選択し(ステップS548)、ケアスタッフ入室フラグが「0」であるか否かを判定する(ステップS549)。判定部133は、ケアスタッフ入室フラグが「0」でない場合には(ステップS549:否定)、ステップS548に戻り、次のセンシング情報を選択する。すなわち、判定部133は、センシング情報について、ケアスタッフ入室フラグが「0」であるか否かの判定を繰り返す。
The
判定部133は、ケアスタッフ入室フラグが「0」である場合には(ステップS549:肯定)、カメラ設置テーブル122を参照して、選択されたセンシング情報のエッジライン数と、対応する標準エッジライン数とを比較する(ステップS550)。判定部133は、選択されたセンシング情報のエッジライン数が標準エッジライン数から所定範囲内であるか否かを判定する(ステップS551)。判定部133は、エッジライン数が標準エッジライン数から所定範囲内である場合には(ステップS551:肯定)、判定ワークテーブル125に、部屋IDに対応付けて、時刻およびケア後フラグ「0」を記録する(ステップS552)。判定部133は、エッジライン数が標準エッジライン数から所定範囲内でない場合には(ステップS551:否定)、判定ワークテーブル125に、部屋IDに対応付けて、時刻およびケア後フラグ「1」を記録する(ステップS553)。
When the care staff entry flag is “0” (Yes at step S549), the
判定部133は、ケアスタッフ入室フラグが「0」となってから所定時間後のセンシング情報を選択する(ステップS554)。判定部133は、カメラ設置テーブル122を参照して、選択されたセンシング情報のエッジライン数と、対応する標準エッジライン数とを比較する(ステップS555)。判定部133は、選択されたセンシング情報のエッジライン数が標準エッジライン数から所定範囲内であるか否かを判定する(ステップS556)。判定部133は、エッジライン数が標準エッジライン数から所定範囲内である場合には(ステップS556:肯定)、判定ワークテーブル125に、部屋IDに対応付けて、時刻およびケア後所定時間後フラグ「0」を記録する(ステップS557)。判定部133は、選択されたセンシング情報のエッジライン数が標準エッジライン数から所定範囲内でない場合には(ステップS556:否定)、判定ワークテーブル125に、部屋IDに対応付けて、時刻およびケア後所定時間後フラグ「1」を記録する(ステップS558)。判定部133は、ケアスタッフが居室内から退出した時点から所定時間経過後における居室内の状態を判定すると、出力制御部134に判定結果の出力を指示する。
The
出力制御部134は、判定部133から判定結果の出力を指示されると、判定ワークテーブル125のフラグに対応するメッセージを、メッセージDB124から取得する。出力制御部134は、取得したメッセージ、つまり判定結果を出力する(ステップS559)。すなわち、出力制御部134は、メッセージに基づいて出力画面を生成し、通信部110を介して管理者端末50に送信する。これにより、センシング情報DB123のセンシング情報に基づいて、ケアスタッフの入室または退出等のイベントに応じた乱雑度、すなわち散らかり具合に係るメッセージを出力できる。
When the
図12の説明に戻って、出力制御部134は、メッセージの送信後に、部屋IDの選択画面を生成し、通信部110を介して管理者端末50に送信する。管理者端末50は、受信した部屋IDの選択画面を図示しない表示部に表示させる(ステップS55)。出力制御部134は、部屋IDの選択画面で終了ボタンが押下された情報を受信したか否かを判定する(ステップS56)。出力制御部134は、部屋IDの選択画面で終了ボタンが押下された情報を受信しない場合には(ステップS56:否定)、判定部133に部屋IDの選択情報の受信を待機するように指示する。出力制御部134は、部屋IDの選択画面で終了ボタンが押下された情報を受信した場合には(ステップS56:肯定)、判定処理を終了する。これにより、入居者ごとのケアスタッフの入室または退出等のイベントに応じた乱雑度に係るメッセージを出力できる。
Returning to the description of FIG. 12, after the message is transmitted, the
このように、評価システム1は、特定の領域の状態を検出するセンサから出力されるセンサ情報であって、所定の退出イベントが発生した際のセンサ情報を取得し、取得した該センサ情報を解析して得られた乱雑度と基準乱雑度との比較結果を出力する。その結果、乱雑度の比較結果を出力できる。また、乱雑度の比較結果に基づいて、スタッフの作業を評価できる。
As described above, the
また、評価システム1は、特定の領域に対して所定の作業を行うスタッフが特定の領域から退出したことを検出した時点でセンサから出力されたセンサ情報を解析して得られた乱雑度と基準乱雑度とを比較する。評価システム1は、比較結果に基づいて、スタッフによる所定の作業が適切に行われたか否かを判定し、判定結果を出力する。その結果、スタッフが居室内から退出した時点において、スタッフが適切に所定の作業を行ったか否かを評価することができる。
Further, the
また、評価システム1は、特定の領域から退出したことを検出した第一の時点でセンサから出力されたセンサ情報を解析して得られた第一の乱雑度と基準乱雑度とを比較する。また、評価システム1は、第一の時点から所定の時間が経過した第二の時点でセンサから出力されたセンサ情報を解析して得られた第二の乱雑度と基準乱雑度とを比較する。また、評価システム1は、これらの比較結果に基づいて、特定の領域を利用する利用者に対する注意の必要の有無を判定し、判定結果を出力する。その結果、入居者がスタッフの退出後に故意に散らかすことを検出して注意を要することを判定できるので、入居者の故意の散らかしの影響を抑制して、スタッフの所定の作業の評価を適切に行うことができる。
Further, the
また、評価システム1は、さらに、特定の領域に対して所定の作業を行うスタッフが特定の領域に入ったことを検出した第三の時点でセンサから出力されたセンサ情報を解析して得られた第三の乱雑度と基準乱雑度とを比較する。また、評価システム1は、第三の乱雑度と基準乱雑度との比較結果、および、第一の乱雑度と基準乱雑度との比較結果に基づいて、スタッフによる所定の作業が適切に行われたか否かを判定し、判定結果を出力する。その結果、スタッフの入室時点の散らかり具合と、スタッフの退出時点の散らかり具合とに基づいて、スタッフの所定の作業を評価することができる。
Further, the
また、評価システム1は、特定の領域の画像を撮像する撮像装置であるセンサから出力される撮像画像であるセンサ情報を画像解析し、物体のエッジに基づくエッジライン数である乱雑度を得る。その結果、容易に乱雑度を求めることができる。
In addition, the
また、評価システム1は、乱雑度が基準乱雑度から所定量以上乖離した場合に、特定の領域について、スタッフによる所定の作業が適切に行われていないと判定し、判定結果を出力する。その結果、入居者の日常生活に伴う居室内の配置変更等により、散らかり具合が増加したと誤判定することを抑制できる。
Moreover, the
また、評価システム1は、乱雑度が基準乱雑度から所定量以上増加した場合に、特定の領域について、スタッフによる所定の作業が適切に行われていないと判定し、判定結果を出力する。その結果、入居者の日常生活に伴う居室内の配置変更等により、散らかり具合が増加したと誤判定することを抑制できる。
Moreover, the
また、評価システム1は、撮像装置であるセンサで特定の領域を撮像した撮像画像において人物の頭が増加することで、所定の入室イベントが発生したことを検出する。その結果、簡易に所定の入室イベントを検出することができる。
In addition, the
また、評価システム1は、撮像装置であるセンサで特定の領域を撮像した撮像画像においてスタッフを表すマーカを検出しない状態からマーカを検出した状態に遷移することで、所定の入室イベントが発生したことを検出する。また、評価システム1は、撮像画像においてマーカを検出した状態からマーカを検出しない状態に遷移することで、所定の退出イベントが発生したことを検出する。その結果、入居者の家族等のケアを実施しない人物とスタッフとを容易に判別できる。
In addition, the
また、評価システム1は、センサはIDカードリーダを有し、スタッフが所持するIDカードの情報を、入室を表す情報とともに検出することで、所定の入室イベントが発生したことを検出する。また、評価システム1は、IDカードの情報を、退出を表す情報とともに検出することで、所定の退出イベントが発生したことを検出する。その結果、入居者の家族等のケアを実施しない人物とスタッフとを容易に判別できる。
The
なお、上記実施例では、居室内の全範囲について乱雑度を算出したが、これに限定されない。例えば、居室内の一部分について乱雑度を算出して、基準乱雑度と比較するようにしてもよい。図15は、居室内の一部分について比較する場合の一例を示す図である。図15に示すように、評価システム1は、居室26内のうち、例えば、タンス等の容易に動かすことができない家具が配置されている部分を除いて、範囲27について乱雑度を算出して、基準乱雑度と比較することができる。これにより、乱雑度の算出処理を低減することができる。
In the above embodiment, the messiness is calculated for the entire range in the room, but the present invention is not limited to this. For example, the randomness may be calculated for a part of the room and compared with the reference randomness. FIG. 15 is a diagram illustrating an example of a case where a part of a living room is compared. As shown in FIG. 15, the
また、上記実施例では、乱雑度としてエッジライン数を用いたが、これに限定されない。例えば、距離センサで計測した居室内の高さを乱雑度の指標としてもよい。図16は、高さを乱雑度の指標とする場合の乱雑度の算出の一例を示す図である。図16に示すように、サーバ装置100は、基準状態28と、基準状態28に基づく高さ情報30とを予め取得する。また、サーバ装置100は、散らかっている状態である比較対象29と、比較対象29に基づく高さ情報31とを取得する。ここで、比較対象29および高さ情報31と、基準状態28および高さ情報30とを比較すると、物体29aおよび物体29aに係る高さ情報29bが増加しているとする。続いて、高さ情報30と、高さ情報31との差分32を取ると、高さ情報29bに相当する面積29cが乱雑度として算出できる。
Moreover, in the said Example, although the number of edge lines was used as a randomness degree, it is not limited to this. For example, the height of the room measured by the distance sensor may be used as an indicator of the degree of randomness. FIG. 16 is a diagram illustrating an example of calculation of the randomness when the height is used as an index of randomness. As illustrated in FIG. 16, the
ここで、高さ情報30および31は、例えば、天井に設置された光源から居室内に光を照射して、照射光の反射光、ならびに、照射光および反射光の位相情報を含む画像を撮像して画像解析し、位相情報に基づき撮像画像の画素ごとに距離を算出して求める。すなわち、高さ情報30および31は、TOF(Time Of Flight)によって距離を算出することで求めることができる。また、高さ情報30および31は、例えば、光源から居室内に特定のパターンを含む照射光を照射し、特定のパターンに基づいて距離を算出して求めることができる。さらに、高さ情報30および31は、例えば、居室内にレーザ光を照射して距離を計測する距離センサを用いて計測した距離に基づいて求めることができる。ここで、距離センサは、例えば、ライダー(LIDAR:Light Detection and Ranging、または、Laser Imaging Detection and Ranging、もしくは、LADAR:Laser Detection and Ranging)を用いることができる。
Here, for example, the
高さを居室内の乱雑度の指標とする場合には、評価システム1は、入居施設10の区画ごとに、例えば、端末装置を設け、端末装置が居室内の高さに基づいて乱雑度を算出する。端末装置は、例えば、サーバ装置100の算出部132の処理の一部であるセンシング情報として、エッジライン数に代えて高さに基づく乱雑度を算出し、サーバ装置100に送信する。
When the height is used as an indicator of the degree of messiness in the room, the
このように、評価システム1は、特定の領域に対して照射光を照射して照射光の反射光、ならびに、照射光および反射光の位相情報を含む特定の領域の画像を撮像する撮像装置であるセンサから出力される撮像画像であるセンサ情報を画像解析し、位相情報に基づき撮像画像の画素ごとに算出された距離に基づいて乱雑度を得る。その結果、高さ方向の要素を考慮した乱雑度を求めることができる。
As described above, the
また、評価システム1は、特定のパターンを含む照射光の特定のパターンに基づいて距離を算出することで乱雑度を得る。その結果、容易に高さ方向の要素を考慮した乱雑度を求めることができる。
Moreover, the
また、評価システム1は、特定の領域に対してレーザ光を照射して距離を計測する距離センサであるセンサから出力される距離情報であるセンサ情報に含まれる距離情報に基づいて乱雑度を得る。その結果、高さ方向の要素を考慮した乱雑度を求めることができる。
In addition, the
また、図示した各部の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各部の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、算出部132のセンシング情報を算出する処理をカメラ11側で行うようにしてもよい。
In addition, each component of each part illustrated does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution / integration of each unit is not limited to that shown in the figure, and all or a part thereof may be functionally or physically distributed / integrated in arbitrary units according to various loads or usage conditions. Can be configured. For example, the process of calculating the sensing information of the
さらに、各装置で行われる各種処理機能は、CPU(またはMPU、MCU(Micro Controller Unit)等のマイクロ・コンピュータ)上で、その全部または任意の一部を実行するようにしてもよい。また、各種処理機能は、CPU(またはMPU、MCU等のマイクロ・コンピュータ)で解析実行されるプログラム上、またはワイヤードロジックによるハードウェア上で、その全部または任意の一部を実行するようにしてもよいことは言うまでもない。 Furthermore, various processing functions performed by each device may be executed entirely or arbitrarily on a CPU (or a microcomputer such as an MPU or MCU (Micro Controller Unit)). In addition, various processing functions may be executed in whole or in any part on a program that is analyzed and executed by a CPU (or a microcomputer such as an MPU or MCU) or on hardware based on wired logic. Needless to say, it is good.
ところで、上記の実施例で説明した各種の処理は、予め用意されたプログラムをコンピュータで実行することで実現できる。そこで、以下では、上記の実施例と同様の機能を有するプログラムを実行するコンピュータの一例を説明する。図17は、評価プログラムを実行するコンピュータの一例を示す図である。 By the way, the various processes described in the above embodiments can be realized by executing a program prepared in advance by a computer. Therefore, in the following, an example of a computer that executes a program having the same function as in the above embodiment will be described. FIG. 17 is a diagram illustrating an example of a computer that executes an evaluation program.
図17が示すように、コンピュータ200は、各種演算処理を実行するCPU201と、データ入力を受け付ける入力装置202と、モニタ203とを有する。また、コンピュータ200は、記憶媒体からプログラム等を読み取る媒体読取装置204と、各種装置と接続するためのインタフェース装置205と、他の情報処理装置等と有線または無線により接続するための通信装置206とを有する。また、コンピュータ200は、各種情報を一時記憶するRAM207と、ハードディスク装置208とを有する。また、各装置201〜208は、バス209に接続される。
As illustrated in FIG. 17, the
ハードディスク装置208には、図1に示した取得部131、算出部132、判定部133および出力制御部134の各処理部と同様の機能を有する評価プログラムが記憶される。また、ハードディスク装置208には、入居者DB121、カメラ設置テーブル122、センシング情報DB123、メッセージDB124、判定ワークテーブル125、および、評価プログラムを実現するための各種データが記憶される。入力装置202は、例えば、コンピュータ200の管理者から管理情報等の各種情報の入力を受け付ける。モニタ203は、例えば、コンピュータ200の管理者に対して管理情報の画面や各種画面を表示する。インタフェース装置205は、例えば印刷装置等が接続される。通信装置206は、例えば、図1に示した通信部110と同様の機能を有しネットワークNと接続され、管理者端末50、カメラ11や他の装置と各種情報をやりとりする。
The
CPU201は、ハードディスク装置208に記憶された各プログラムを読み出して、RAM207に展開して実行することで、各種の処理を行う。また、これらのプログラムは、コンピュータ200を図1に示した取得部131、算出部132、判定部133および出力制御部134として機能させることができる。
The
なお、上記の評価プログラムは、必ずしもハードディスク装置208に記憶されている必要はない。例えば、コンピュータ200が読み取り可能な記憶媒体に記憶されたプログラムを、コンピュータ200が読み出して実行するようにしてもよい。コンピュータ200が読み取り可能な記憶媒体は、例えば、CD−ROMやDVDディスク、USB(Universal Serial Bus)メモリ等の可搬型記録媒体、フラッシュメモリ等の半導体メモリ、ハードディスクドライブ等が対応する。また、公衆回線、インターネット、LAN等に接続された装置にこの評価プログラムを記憶させておき、コンピュータ200がこれらから評価プログラムを読み出して実行するようにしてもよい。
Note that the above evaluation program is not necessarily stored in the
以上、本実施例を含む実施の形態に関し、さらに以下の付記を開示する。 As described above, the following supplementary notes are further disclosed regarding the embodiment including the present example.
(付記1)特定の領域の状態を検出するセンサから出力されるセンサ情報であって、所定の退出イベントが発生した際のセンサ情報を取得し、
取得した該センサ情報を解析して得られた乱雑度と基準乱雑度との比較結果を出力する、
処理をコンピュータが実行することを特徴とする評価方法。
(Additional remark 1) It is sensor information output from the sensor which detects the state of a specific area, Comprising: Sensor information at the time of a predetermined leaving event occurs,
Outputting a comparison result between the randomness obtained by analyzing the acquired sensor information and the standard randomness,
An evaluation method, wherein a computer executes processing.
(付記2)前記出力する処理は、前記特定の領域に対して所定の作業を行うスタッフが前記特定の領域から退出したことを検出した時点で前記センサから出力された前記センサ情報を解析して得られた乱雑度と基準乱雑度との比較結果に基づいて、前記スタッフによる前記所定の作業が適切に行われたか否かを判定し、判定結果を出力することを特徴とする付記1に記載の評価方法。
(Additional remark 2) The said process to output analyzes the said sensor information output from the said sensor at the time of detecting that the staff who performs a predetermined | prescribed operation | work with respect to the said specific area withdrew from the said specific area. The
(付記3)前記出力する処理は、前記特定の領域から退出したことを検出した第一の時点で前記センサから出力された前記センサ情報を解析して得られた第一の乱雑度と前記基準乱雑度との比較結果、および、前記第一の時点から所定の時間が経過した第二の時点で前記センサから出力された前記センサ情報を解析して得られた第二の乱雑度と前記基準乱雑度との比較結果に基づいて、前記特定の領域を利用する利用者に対する注意の必要の有無を判定し、判定結果を出力することを特徴とする付記2に記載の評価方法。
(Additional remark 3) The said process to output is the 1st randomness obtained by analyzing the said sensor information output from the said sensor at the 1st time which detected having withdraw | exited from the said specific area | region, and the said reference | standard The result of comparison with the degree of randomness, and the second degree of randomness obtained by analyzing the sensor information output from the sensor at a second time when a predetermined time has elapsed from the first time and the reference The evaluation method according to
(付記4)前記出力する処理は、さらに、前記特定の領域に対して所定の作業を行うスタッフが前記特定の領域に入ったことを検出した第三の時点で前記センサから出力された前記センサ情報を解析して得られた第三の乱雑度と前記基準乱雑度との比較結果、および、前記第一の乱雑度と前記基準乱雑度との比較結果に基づいて、前記スタッフによる前記所定の作業が適切に行われたか否かを判定し、判定結果を出力することを特徴とする付記3に記載の評価方法。
(Additional remark 4) The said process to output is further the said sensor output from the said sensor at the 3rd time which detected that the staff who performs predetermined work with respect to the said specific area entered into the said specific area Based on the comparison result between the third randomness degree obtained by analyzing information and the reference randomness degree, and the comparison result between the first randomness degree and the reference randomness degree, the predetermined number by the staff The evaluation method according to
(付記5)前記出力する処理は、前記特定の領域の画像を撮像する撮像装置である前記センサから出力される撮像画像である前記センサ情報を画像解析し、物体のエッジに基づくエッジライン数である前記乱雑度を得ることを特徴とする付記2〜4のいずれか1つに記載の評価方法。
(Additional remark 5) The said process to output carries out image analysis of the said sensor information which is the picked-up image output from the said sensor which is an imaging device which images the image of the said specific area, and is the number of edge lines based on the edge of an object. The evaluation method according to any one of
(付記6)前記出力する処理は、前記特定の領域に対して照射光を照射して前記照射光の反射光、ならびに、前記照射光および前記反射光の位相情報を含む前記特定の領域の画像を撮像する撮像装置である前記センサから出力される撮像画像である前記センサ情報を画像解析し、前記位相情報に基づき前記撮像画像の画素ごとに算出された距離に基づいて前記乱雑度を得ることを特徴とする付記2〜4のいずれか1つに記載の評価方法。
(Additional remark 6) The said process to output is the image of the said specific area | region which irradiates irradiation light with respect to the said specific area | region, and includes the reflected light of the said irradiation light, and the phase information of the said irradiation light and the said reflected light The sensor information that is a captured image output from the sensor that is an imaging device that captures the image is subjected to image analysis, and the randomness is obtained based on the distance calculated for each pixel of the captured image based on the phase information. The evaluation method according to any one of
(付記7)前記出力する処理は、特定のパターンを含む前記照射光の前記特定のパターンに基づいて距離を算出することで前記乱雑度を得ることを特徴とする付記6に記載の評価方法。 (Supplementary note 7) The evaluation method according to supplementary note 6, wherein the output process obtains the degree of randomness by calculating a distance based on the specific pattern of the irradiation light including a specific pattern.
(付記8)前記出力する処理は、前記特定の領域に対してレーザ光を照射して距離を計測する距離センサである前記センサから出力される距離情報である前記センサ情報に含まれる前記距離情報に基づいて前記乱雑度を得ることを特徴とする付記2〜4のいずれか1つに記載の評価方法。
(Supplementary Note 8) The distance information included in the sensor information that is the distance information output from the sensor that is a distance sensor that measures the distance by irradiating the specific region with laser light. The evaluation method according to any one of
(付記9)前記出力する処理は、前記乱雑度が前記基準乱雑度から所定量以上乖離した場合に、前記特定の領域について、前記スタッフによる前記所定の作業が適切に行われていないと判定し、判定結果を出力することを特徴とする付記2〜8のいずれか1つに記載の評価方法。
(Additional remark 9) The said process to output determines that the said predetermined | prescribed operation | work by the said staff is not performed appropriately about the said specific area | region when the said randomness deviates more than the predetermined amount from the said reference randomness. The evaluation method according to any one of
(付記10)前記出力する処理は、前記乱雑度が前記基準乱雑度から所定量以上増加した場合に、前記特定の領域について、前記スタッフによる前記所定の作業が適切に行われていないと判定し、判定結果を出力することを特徴とする付記9に記載の評価方法。 (Additional remark 10) The said process to output determines that the said predetermined | prescribed operation | work by the said staff is not performed appropriately about the said specific area | region, when the said randomness increases more than the reference | standard randomness more than predetermined amount. The evaluation method according to appendix 9, wherein a determination result is output.
(付記11)前記出力する処理は、撮像装置である前記センサで前記特定の領域を撮像した撮像画像において人物の頭が増加することで、所定の入室イベントが発生したことを検出することを特徴とする付記2〜10のいずれか1つに記載の評価方法。
(Additional remark 11) The said process to output detects that the predetermined | prescribed entrance event generate | occur | produced because the head of a person increases in the picked-up image which imaged the said specific area | region with the said sensor which is an imaging device. The evaluation method according to any one of
(付記12)前記出力する処理は、撮像装置である前記センサで前記特定の領域を撮像した撮像画像において前記スタッフを表すマーカを検出しない状態から前記マーカを検出した状態に遷移することで、所定の入室イベントが発生したことを検出し、前記撮像画像において前記マーカを検出した状態から前記マーカを検出しない状態に遷移することで、前記所定の退出イベントが発生したことを検出することを特徴とする付記2〜10のいずれか1つに記載の評価方法。
(Additional remark 12) The said process to output is predetermined by changing from the state which does not detect the marker showing the said staff in the captured image which imaged the said specific area | region with the said sensor which is an imaging device to the state which detected the said marker. It is detected that the predetermined exit event has occurred by transitioning from a state in which the marker is detected in the captured image to a state in which the marker is not detected. The evaluation method according to any one of
(付記13)前記出力する処理は、前記センサはIDカードリーダを有し、前記スタッフが所持するIDカードの情報を、入室を表す情報とともに検出することで、所定の入室イベントが発生したことを検出し、前記IDカードの情報を、退出を表す情報とともに検出することで、前記所定の退出イベントが発生したことを検出することを特徴とする付記2〜10のいずれか1つに記載の評価方法。
(Supplementary note 13) In the output process, the sensor has an ID card reader, and the information on the ID card possessed by the staff is detected together with the information indicating the entry, whereby a predetermined entry event has occurred. The evaluation according to any one of
(付記14)特定の領域の状態を検出するセンサから出力されるセンサ情報であって、所定の退出イベントが発生した際のセンサ情報を取得し、
取得した該センサ情報を解析して得られた乱雑度と基準乱雑度との比較結果を出力する、
処理をコンピュータに実行させることを特徴とする評価プログラム。
(Additional remark 14) It is sensor information output from the sensor which detects the state of a specific area | region, Comprising: The sensor information when a predetermined leaving event generate | occur | produces,
Outputting a comparison result between the randomness obtained by analyzing the acquired sensor information and the standard randomness,
An evaluation program for causing a computer to execute processing.
(付記15)前記出力する処理は、前記特定の領域に対して所定の作業を行うスタッフが前記特定の領域から退出したことを検出した時点で前記センサから出力された前記センサ情報を解析して得られた乱雑度と基準乱雑度との比較結果に基づいて、前記スタッフによる前記所定の作業が適切に行われたか否かを判定し、判定結果を出力することを特徴とする付記14に記載の評価プログラム。 (Additional remark 15) The said process to output analyzes the said sensor information output from the said sensor at the time of detecting that the staff who performs a predetermined | prescribed operation | work with respect to the said specific area withdraws from the said specific area. The supplementary note 14 is characterized in that, based on a comparison result between the obtained randomness and a reference randomness, it is determined whether or not the predetermined work by the staff is appropriately performed, and a determination result is output. Evaluation program.
(付記16)前記出力する処理は、前記特定の領域から退出したことを検出した第一の時点で前記センサから出力された前記センサ情報を解析して得られた第一の乱雑度と前記基準乱雑度との比較結果、および、前記第一の時点から所定の時間が経過した第二の時点で前記センサから出力された前記センサ情報を解析して得られた第二の乱雑度と前記基準乱雑度との比較結果に基づいて、前記特定の領域を利用する利用者に対する注意の必要の有無を判定し、判定結果を出力することを特徴とする付記14に記載の評価プログラム。 (Supplementary Note 16) The output processing includes the first randomness obtained by analyzing the sensor information output from the sensor at the first time point when the exit from the specific area is detected, and the reference The result of comparison with the degree of randomness, and the second degree of randomness obtained by analyzing the sensor information output from the sensor at a second time when a predetermined time has elapsed from the first time and the reference 15. The evaluation program according to appendix 14, characterized in that, based on a result of comparison with the degree of randomness, it is determined whether or not a user who uses the specific area needs attention, and a determination result is output.
(付記17)前記出力する処理は、さらに、前記特定の領域に対して所定の作業を行うスタッフが前記特定の領域に入ったことを検出した第三の時点で前記センサから出力された前記センサ情報を解析して得られた第三の乱雑度と前記基準乱雑度との比較結果、および、前記第一の乱雑度と前記基準乱雑度との比較結果に基づいて、前記スタッフによる前記所定の作業が適切に行われたか否かを判定し、判定結果を出力することを特徴とする付記15に記載の評価プログラム。 (Additional remark 17) The said process to output is further the said sensor output from the said sensor at the 3rd time which detected that the staff who performs predetermined work with respect to the said specific area entered into the said specific area | region Based on the comparison result between the third randomness degree obtained by analyzing information and the reference randomness degree, and the comparison result between the first randomness degree and the reference randomness degree, the predetermined number by the staff The evaluation program according to appendix 15, wherein it is determined whether or not the work has been appropriately performed, and a determination result is output.
(付記18)前記出力する処理は、前記特定の領域の画像を撮像する撮像装置である前記センサから出力される撮像画像である前記センサ情報を画像解析し、物体のエッジに基づくエッジライン数である前記乱雑度を得ることを特徴とする付記15〜17のいずれか1つに記載の評価プログラム。 (Additional remark 18) The said process to output carries out image analysis of the said sensor information which is the picked-up image output from the said sensor which is an imaging device which images the image of the said specific area, and is the number of edge lines based on the edge of an object. The evaluation program according to any one of supplementary notes 15 to 17, wherein the degree of randomness is obtained.
(付記19)前記出力する処理は、前記特定の領域に対して照射光を照射して前記照射光の反射光、ならびに、前記照射光および前記反射光の位相情報を含む前記特定の領域の画像を撮像する撮像装置である前記センサから出力される撮像画像である前記センサ情報を画像解析し、前記位相情報に基づき前記撮像画像の画素ごとに算出された距離に基づいて前記乱雑度を得ることを特徴とする付記15〜17のいずれか1つに記載の評価プログラム。 (Additional remark 19) The process of outputting is the image of the said specific area | region which irradiates irradiation light with respect to the said specific area, and includes the reflected light of the said irradiation light, and the phase information of the said irradiation light and the said reflected light The sensor information that is a captured image output from the sensor that is an imaging device that captures the image is subjected to image analysis, and the randomness is obtained based on the distance calculated for each pixel of the captured image based on the phase information. The evaluation program according to any one of supplementary notes 15 to 17, characterized by:
(付記20)前記出力する処理は、特定のパターンを含む前記照射光の前記特定のパターンに基づいて距離を算出することで前記乱雑度を得ることを特徴とする付記19に記載の評価プログラム。 (Supplementary note 20) The evaluation program according to supplementary note 19, wherein the output process obtains the degree of randomness by calculating a distance based on the specific pattern of the irradiation light including a specific pattern.
(付記21)前記出力する処理は、前記特定の領域に対してレーザ光を照射して距離を計測する距離センサである前記センサから出力される距離情報である前記センサ情報に含まれる前記距離情報に基づいて前記乱雑度を得ることを特徴とする付記15〜17のいずれか1つに記載の評価プログラム。 (Supplementary note 21) The distance information included in the sensor information that is the distance information output from the sensor that is a distance sensor that measures the distance by irradiating the specific region with laser light. The evaluation program according to any one of appendices 15 to 17, wherein the degree of randomness is obtained based on the score.
(付記22)前記出力する処理は、前記乱雑度が前記基準乱雑度から所定量以上乖離した場合に、前記特定の領域について、前記スタッフによる前記所定の作業が適切に行われていないと判定し、判定結果を出力することを特徴とする付記15〜21のいずれか1つに記載の評価プログラム。 (Additional remark 22) The said process to output determines that the said predetermined | prescribed operation | work by the said staff is not performed appropriately about the said specific area | region when the said randomness deviates more than the predetermined amount from the said reference randomness. The evaluation program according to any one of supplementary notes 15 to 21, wherein a determination result is output.
(付記23)前記出力する処理は、前記乱雑度が前記基準乱雑度から所定量以上増加した場合に、前記特定の領域について、前記スタッフによる前記所定の作業が適切に行われていないと判定し、判定結果を出力することを特徴とする付記22に記載の評価プログラム。 (Additional remark 23) The said process to output determines that the said predetermined | prescribed operation | work by the said staff is not performed appropriately about the said specific area | region when the said randomness increases more than the reference | standard randomness more than predetermined amount. The evaluation program according to attachment 22, wherein the determination result is output.
(付記24)前記出力する処理は、撮像装置である前記センサで前記特定の領域を撮像した撮像画像において人物の頭が増加することで、所定の入室イベントが発生したことを検出することを特徴とする付記15〜23のいずれか1つに記載の評価プログラム。 (Additional remark 24) The said process to output detects that the predetermined | prescribed entrance event generate | occur | produced when the head of a person increases in the picked-up image which imaged the said specific area | region with the said sensor which is an imaging device. The evaluation program according to any one of Supplementary notes 15 to 23.
(付記25)前記出力する処理は、撮像装置である前記センサで前記特定の領域を撮像した撮像画像において前記スタッフを表すマーカを検出しない状態から前記マーカを検出した状態に遷移することで、所定の入室イベントが発生したことを検出し、前記撮像画像において前記マーカを検出した状態から前記マーカを検出しない状態に遷移することで、前記所定の退出イベントが発生したことを検出することを特徴とする付記15〜23のいずれか1つに記載の評価プログラム。 (Supplementary Note 25) The output process is performed by changing from a state in which a marker representing the staff is not detected to a state in which the marker is detected in a captured image obtained by capturing the specific region by the sensor that is an imaging device. It is detected that the predetermined exit event has occurred by transitioning from a state in which the marker is detected in the captured image to a state in which the marker is not detected. The evaluation program according to any one of Supplementary Notes 15 to 23.
(付記26)前記出力する処理は、前記センサはIDカードリーダを有し、前記スタッフが所持するIDカードの情報を、入室を表す情報とともに検出することで、所定の入室イベントが発生したことを検出し、前記IDカードの情報を、退出を表す情報とともに検出することで、前記所定の退出イベントが発生したことを検出することを特徴とする付記15〜23のいずれか1つに記載の評価プログラム。 (Supplementary note 26) In the output process, the sensor has an ID card reader, and the ID card information possessed by the staff is detected together with the information indicating the entry, so that a predetermined entry event has occurred. The evaluation according to any one of appendices 15 to 23, wherein the occurrence of the predetermined exit event is detected by detecting and detecting information on the ID card together with information indicating exit. program.
(付記27)特定の領域の状態を検出するセンサから出力されるセンサ情報であって、所定の退出イベントが発生した際のセンサ情報を取得する取得部と、
取得した該センサ情報を解析して得られた乱雑度と基準乱雑度との比較結果を出力する出力制御部と、
を有することを特徴とする情報処理装置。
(Supplementary Note 27) Sensor information that is output from a sensor that detects the state of a specific area, and that acquires sensor information when a predetermined exit event occurs;
An output control unit that outputs a comparison result between the randomness obtained by analyzing the acquired sensor information and the standard randomness;
An information processing apparatus comprising:
(付記28)前記出力制御部は、前記特定の領域に対して所定の作業を行うスタッフが前記特定の領域から退出したことを検出した時点で前記センサから出力された前記センサ情報を解析して得られた乱雑度と基準乱雑度との比較結果に基づいて、前記スタッフによる前記所定の作業が適切に行われたか否かを判定し、判定結果を出力することを特徴とする付記27に記載の情報処理装置。
(Additional remark 28) The said output control part analyzes the said sensor information output from the said sensor at the time of detecting that the staff who performs a predetermined | prescribed operation | work with respect to the said specific area left | separated from the said specific area. 28. The
(付記29)前記出力制御部は、前記特定の領域から退出したことを検出した第一の時点で前記センサから出力された前記センサ情報を解析して得られた第一の乱雑度と前記基準乱雑度との比較結果、および、前記第一の時点から所定の時間が経過した第二の時点で前記センサから出力された前記センサ情報を解析して得られた第二の乱雑度と前記基準乱雑度との比較結果に基づいて、前記特定の領域を利用する利用者に対する注意の必要の有無を判定し、判定結果を出力することを特徴とする付記27に記載の情報処理装置。
(Supplementary note 29) The output control unit, the first randomness obtained by analyzing the sensor information output from the sensor at the first time point when the exit from the specific area is detected and the reference The result of comparison with the degree of randomness, and the second degree of randomness obtained by analyzing the sensor information output from the sensor at a second time when a predetermined time has elapsed from the first time and the reference 28. The information processing apparatus according to
(付記30)前記出力制御部は、さらに、前記特定の領域に対して所定の作業を行うスタッフが前記特定の領域に入ったことを検出した第三の時点で前記センサから出力された前記センサ情報を解析して得られた第三の乱雑度と前記基準乱雑度との比較結果、および、前記第一の乱雑度と前記基準乱雑度との比較結果に基づいて、前記スタッフによる前記所定の作業が適切に行われたか否かを判定し、判定結果を出力することを特徴とする付記29に記載の情報処理装置。
(Supplementary Note 30) The output control unit further outputs the sensor output from the sensor at a third time point when it is detected that a staff member who performs a predetermined operation on the specific area has entered the specific area. Based on the comparison result between the third randomness degree obtained by analyzing information and the reference randomness degree, and the comparison result between the first randomness degree and the reference randomness degree, the predetermined number by the staff The information processing apparatus according to
(付記31)前記出力制御部は、前記特定の領域の画像を撮像する撮像装置である前記センサから出力される撮像画像である前記センサ情報を画像解析し、物体のエッジに基づくエッジライン数である前記乱雑度を得ることを特徴とする付記28〜30のいずれか1つに記載の情報処理装置。 (Additional remark 31) The said output control part image-analyzes the said sensor information which is the picked-up image output from the said sensor which is an imaging device which images the image of the said specific area | region, and is the number of edge lines based on the edge of an object. The information processing apparatus according to any one of appendices 28 to 30, wherein the certain degree of randomness is obtained.
(付記32)前記出力制御部は、前記特定の領域に対して照射光を照射して前記照射光の反射光、ならびに、前記照射光および前記反射光の位相情報を含む前記特定の領域の画像を撮像する撮像装置である前記センサから出力される撮像画像である前記センサ情報を画像解析し、前記位相情報に基づき前記撮像画像の画素ごとに算出された距離に基づいて前記乱雑度を得ることを特徴とする付記28〜30のいずれか1つに記載の情報処理装置。 (Supplementary Note 32) The output control unit irradiates the specific region with irradiation light and reflects the reflected light of the irradiation light, and the image of the specific region including phase information of the irradiation light and the reflected light The sensor information that is a captured image output from the sensor that is an imaging device that captures the image is subjected to image analysis, and the randomness is obtained based on the distance calculated for each pixel of the captured image based on the phase information. The information processing apparatus according to any one of supplementary notes 28 to 30, characterized by:
(付記33)前記出力制御部は、特定のパターンを含む前記照射光の前記特定のパターンに基づいて距離を算出することで前記乱雑度を得ることを特徴とする付記32に記載の情報処理装置。
(Supplementary note 33) The information processing apparatus according to
(付記34)前記出力制御部は、前記特定の領域に対してレーザ光を照射して距離を計測する距離センサである前記センサから出力される距離情報である前記センサ情報に含まれる前記距離情報に基づいて前記乱雑度を得ることを特徴とする付記28〜30のいずれか1つに記載の情報処理装置。 (Supplementary Note 34) The distance information included in the sensor information, which is distance information output from the sensor, which is a distance sensor that measures a distance by irradiating the specific region with laser light. 31. The information processing apparatus according to any one of appendices 28 to 30, wherein the degree of randomness is obtained based on the information.
(付記35)前記出力制御部は、前記乱雑度が前記基準乱雑度から所定量以上乖離した場合に、前記特定の領域について、前記スタッフによる前記所定の作業が適切に行われていないと判定し、判定結果を出力することを特徴とする付記28〜34のいずれか1つに記載の情報処理装置。 (Additional remark 35) The said output control part determines that the said predetermined | prescribed operation | work by the said staff is not performed appropriately about the said specific area | region, when the said randomness deviates more than the predetermined amount from the said reference randomness. The information processing apparatus according to any one of appendices 28 to 34, wherein the determination result is output.
(付記36)前記出力制御部は、前記乱雑度が前記基準乱雑度から所定量以上増加した場合に、前記特定の領域について、前記スタッフによる前記所定の作業が適切に行われていないと判定し、判定結果を出力することを特徴とする付記35に記載の情報処理装置。 (Additional remark 36) The said output control part determines that the said predetermined | prescribed operation | work by the said staff is not performed appropriately about the said specific area | region, when the said randomness increases more than the reference | standard randomness more than predetermined amount. 36. The information processing apparatus according to appendix 35, wherein the determination result is output.
(付記37)前記出力制御部は、撮像装置である前記センサで前記特定の領域を撮像した撮像画像において人物の頭が増加することで、所定の入室イベントが発生したことを検出することを特徴とする付記28〜36のいずれか1つに記載の情報処理装置。 (Supplementary Note 37) The output control unit detects that a predetermined entrance event has occurred due to an increase in the number of human heads in a captured image obtained by capturing the specific area with the sensor serving as an imaging device. The information processing apparatus according to any one of supplementary notes 28 to 36.
(付記38)前記出力制御部は、撮像装置である前記センサで前記特定の領域を撮像した撮像画像において前記スタッフを表すマーカを検出しない状態から前記マーカを検出した状態に遷移することで、所定の入室イベントが発生したことを検出し、前記撮像画像において前記マーカを検出した状態から前記マーカを検出しない状態に遷移することで、前記所定の退出イベントが発生したことを検出することを特徴とする付記28〜36のいずれか1つに記載の情報処理装置。 (Additional remark 38) The said output control part is predetermined by changing from the state which does not detect the marker showing the said staff in the captured image which imaged the said specific area | region with the said sensor which is an imaging device to the state which detected the said marker. It is detected that the predetermined exit event has occurred by transitioning from a state in which the marker is detected in the captured image to a state in which the marker is not detected. The information processing apparatus according to any one of supplementary notes 28 to 36.
(付記39)前記出力制御部は、前記センサはIDカードリーダを有し、前記スタッフが所持するIDカードの情報を、入室を表す情報とともに検出することで、所定の入室イベントが発生したことを検出し、前記IDカードの情報を、退出を表す情報とともに検出することで、前記所定の退出イベントが発生したことを検出することを特徴とする付記28〜36のいずれか1つに記載の情報処理装置。 (Supplementary Note 39) The output control unit detects that a predetermined entry event has occurred by detecting the ID card information possessed by the staff together with information indicating entry into the room, the sensor having an ID card reader. 37. The information according to any one of appendices 28 to 36, wherein detection of the predetermined exit event is detected by detecting and detecting information on the ID card together with information indicating exit. Processing equipment.
1 評価システム
10 入居施設
10a 区画
11a〜11e カメラ
50 管理者端末
100 サーバ装置
110 通信部
120 記憶部
121 入所者DB
122 カメラ設置テーブル
123 センシング情報DB
124 メッセージDB
125 判定ワークテーブル
130 制御部
131 取得部
132 算出部
133 判定部
134 出力制御部
N ネットワーク
DESCRIPTION OF
122 Camera installation table 123 Sensing information DB
124 Message DB
125 determination work table 130
Claims (13)
前記特定の領域に対して所定の作業を行うスタッフが前記特定の領域から退出したことを検出した時点における、取得した前記センサ情報を解析して得られた乱雑度と基準乱雑度との比較結果に基づいて、前記スタッフによる前記所定の作業が適切に行われたか否かを判定し、判定結果を出力する処理をコンピュータが実行し、
前記出力する処理は、前記特定の領域から退出したことを検出した第一の時点で前記センサから出力された前記センサ情報を解析して得られた第一の乱雑度と前記基準乱雑度との比較結果、および、前記第一の時点から所定の時間が経過した第二の時点で前記センサから出力された前記センサ情報を解析して得られた第二の乱雑度と前記基準乱雑度との比較結果に基づいて、前記特定の領域を利用する利用者に対する注意の必要の有無を判定し、判定結果を出力する、
ことを特徴とする評価方法。 Sensor information that is output from a sensor that detects the state of a specific area, and obtains sensor information when a predetermined exit event occurs,
At the time of staff performs a predetermined operation on the specific area is detected that exited from the specific area, the comparison result of the randomness and the reference randomness obtained by analyzing the obtained the sensor information based on, it is determined whether the predetermined operation by the staff in improper a processing you outputs the judgment result to the computer is running,
The output process includes a first randomness degree obtained by analyzing the sensor information output from the sensor at a first time point when the exit from the specific area is detected and the reference randomness degree. The comparison result and the second randomness obtained by analyzing the sensor information output from the sensor at a second time when a predetermined time has elapsed from the first time and the reference randomness Based on the comparison result, it is determined whether or not there is a need for attention to the user who uses the specific area, and the determination result is output.
An evaluation method characterized by that.
前記特定の領域に対して所定の作業を行うスタッフが前記特定の領域から退出したことを検出した時点における、取得した前記センサ情報を解析して得られた乱雑度と基準乱雑度との比較結果に基づいて、前記スタッフによる前記所定の作業が適切に行われたか否かを判定し、判定結果を出力する処理をコンピュータに実行させ、
前記出力する処理は、前記特定の領域から退出したことを検出した第一の時点で前記センサから出力された前記センサ情報を解析して得られた第一の乱雑度と前記基準乱雑度との比較結果、および、前記第一の時点から所定の時間が経過した第二の時点で前記センサから出力された前記センサ情報を解析して得られた第二の乱雑度と前記基準乱雑度との比較結果に基づいて、前記特定の領域を利用する利用者に対する注意の必要の有無を判定し、判定結果を出力する、
ことを特徴とする評価プログラム。 Sensor information that is output from a sensor that detects the state of a specific area, and obtains sensor information when a predetermined exit event occurs,
At the time of staff performs a predetermined operation on the specific area is detected that exited from the specific area, the comparison result of the randomness and the reference randomness obtained by analyzing the obtained the sensor information based on, it is determined whether the predetermined operation by the staff in improper to execute the processing you outputs the determination result to the computer,
The output process includes a first randomness degree obtained by analyzing the sensor information output from the sensor at a first time point when the exit from the specific area is detected and the reference randomness degree. The comparison result and the second randomness obtained by analyzing the sensor information output from the sensor at a second time when a predetermined time has elapsed from the first time and the reference randomness Based on the comparison result, it is determined whether or not there is a need for attention to the user who uses the specific area, and the determination result is output.
An evaluation program characterized by that.
前記特定の領域に対して所定の作業を行うスタッフが前記特定の領域から退出したことを検出した時点における、取得した前記センサ情報を解析して得られた乱雑度と基準乱雑度との比較結果に基づいて、前記スタッフによる前記所定の作業が適切に行われたか否かを判定し、判定結果を出力する出力制御部とを有し、
前記出力制御部は、前記特定の領域から退出したことを検出した第一の時点で前記センサから出力された前記センサ情報を解析して得られた第一の乱雑度と前記基準乱雑度との比較結果、および、前記第一の時点から所定の時間が経過した第二の時点で前記センサから出力された前記センサ情報を解析して得られた第二の乱雑度と前記基準乱雑度との比較結果に基づいて、前記特定の領域を利用する利用者に対する注意の必要の有無を判定し、判定結果を出力する、
ことを特徴とする情報処理装置。 Sensor information that is output from a sensor that detects the state of a specific region, and an acquisition unit that acquires sensor information when a predetermined exit event occurs;
At the time of staff performs a predetermined operation on the specific area is detected that exited from the specific area, the comparison result of the randomness and the reference randomness obtained by analyzing the obtained the sensor information based on, it is determined whether the predetermined operation by the staff in improper and an output control section for outputting a determination result,
The output control unit includes a first randomness obtained by analyzing the sensor information output from the sensor at a first time point when detecting that the vehicle has left the specific area, and a reference randomness. The comparison result and the second randomness obtained by analyzing the sensor information output from the sensor at a second time when a predetermined time has elapsed from the first time and the reference randomness Based on the comparison result, it is determined whether or not there is a need for attention to the user who uses the specific area, and the determination result is output.
An information processing apparatus characterized by that.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014166170A JP6354444B2 (en) | 2014-08-18 | 2014-08-18 | Evaluation method, evaluation program, and information processing apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014166170A JP6354444B2 (en) | 2014-08-18 | 2014-08-18 | Evaluation method, evaluation program, and information processing apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016042305A JP2016042305A (en) | 2016-03-31 |
JP6354444B2 true JP6354444B2 (en) | 2018-07-11 |
Family
ID=55592019
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014166170A Active JP6354444B2 (en) | 2014-08-18 | 2014-08-18 | Evaluation method, evaluation program, and information processing apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6354444B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6519181B2 (en) * | 2015-01-09 | 2019-05-29 | 富士通株式会社 | Method for monitoring trend of change in disorder degree, program for monitoring trend in change in disorder degree and device for monitoring trend in change in disorder degree |
JP7202207B2 (en) * | 2019-02-13 | 2023-01-11 | トヨタホーム株式会社 | In-building condition determination system |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001184568A (en) * | 1999-12-27 | 2001-07-06 | Minolta Co Ltd | Security system with arrangement condition monitoring function for inside of space |
JP2003150700A (en) * | 2001-11-19 | 2003-05-23 | Ishino Kosan:Kk | Cemetery cleaning information managing system |
JP2007004405A (en) * | 2005-06-22 | 2007-01-11 | Ricoh Co Ltd | Care surveillance device, care surveillance system, care surveillance program and recording medium |
JP2007164508A (en) * | 2005-12-14 | 2007-06-28 | Fuji Telecom Kk | Care monitoring process |
EP2457211B1 (en) * | 2009-07-23 | 2016-05-18 | Koninklijke Philips N.V. | A method and system to detect that a device has been cleaned |
JP2012141884A (en) * | 2011-01-05 | 2012-07-26 | Mitsubishi Electric Corp | Evaluation support device and evaluation support system |
JP2013134566A (en) * | 2011-12-26 | 2013-07-08 | Hitachi Building Systems Co Ltd | Management device of building facility work |
-
2014
- 2014-08-18 JP JP2014166170A patent/JP6354444B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016042305A (en) | 2016-03-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6481400B2 (en) | Cleaning status evaluation method, cleaning status evaluation program, and cleaning status evaluation device | |
JP6313270B2 (en) | Monitoring method and device | |
TWI696450B (en) | Information processing device, information processing system, and information processing program | |
JP2007102344A (en) | Automatic evaluation device, program, and method | |
TWI270824B (en) | Method for dynamically recognizing objects in an image based on diversities of object characteristics and system for using the same | |
CN105960663A (en) | Information processing device, information processing method, and program | |
CN105940434A (en) | Information processing device, information processing method, and program | |
US20160110614A1 (en) | Person detection system, method, and non-transitory computer readable medium | |
JP4704174B2 (en) | Status identification device, program, and method | |
JP2009239467A5 (en) | ||
WO2016042946A1 (en) | Monitoring system | |
CN106415654A (en) | Information processing device, information processing method, and program | |
JP6354444B2 (en) | Evaluation method, evaluation program, and information processing apparatus | |
CN110709857B (en) | Person counting device, person counting method, and storage medium | |
JP6519181B2 (en) | Method for monitoring trend of change in disorder degree, program for monitoring trend in change in disorder degree and device for monitoring trend in change in disorder degree | |
CN111194398A (en) | System and method for detecting contamination on a surface | |
JP2012057974A (en) | Photographing object size estimation device, photographic object size estimation method and program therefor | |
JP5264457B2 (en) | Object detection device | |
JP6424542B2 (en) | Method of monitoring operation of person, program of monitoring operation of person and information processing apparatus | |
JP2007102341A (en) | Automatic counter | |
JP6733766B1 (en) | Analysis device, control method, and program | |
JP2009301242A (en) | Head candidate extraction method, head candidate extraction device, head candidate extraction program and recording medium recording the program | |
JP6645503B2 (en) | Image analysis device, image analysis method, and image analysis program | |
US20190130677A1 (en) | Information processing apparatus, information processing method, imaging apparatus, network camera system, and storage medium | |
JP2017005485A (en) | Picture monitoring device and picture monitoring method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170511 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180123 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180323 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180515 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180528 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6354444 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |