JP6354444B2 - Evaluation method, evaluation program, and information processing apparatus - Google Patents

Evaluation method, evaluation program, and information processing apparatus Download PDF

Info

Publication number
JP6354444B2
JP6354444B2 JP2014166170A JP2014166170A JP6354444B2 JP 6354444 B2 JP6354444 B2 JP 6354444B2 JP 2014166170 A JP2014166170 A JP 2014166170A JP 2014166170 A JP2014166170 A JP 2014166170A JP 6354444 B2 JP6354444 B2 JP 6354444B2
Authority
JP
Japan
Prior art keywords
randomness
output
sensor
information
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014166170A
Other languages
Japanese (ja)
Other versions
JP2016042305A (en
Inventor
大輔 上野
大輔 上野
▲高▼島 知信
知信 ▲高▼島
卓 片桐
卓 片桐
憲司 小宮
憲司 小宮
八田 裕之
裕之 八田
正博 川崎
正博 川崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2014166170A priority Critical patent/JP6354444B2/en
Publication of JP2016042305A publication Critical patent/JP2016042305A/en
Application granted granted Critical
Publication of JP6354444B2 publication Critical patent/JP6354444B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、評価方法、評価プログラムおよび情報処理装置に関する。   The present invention relates to an evaluation method, an evaluation program, and an information processing apparatus.

近年、高齢者向けの介護付き入居施設の需要が増加している。当該入居施設では、入居者に対してスタッフによるケアが提供される場合がある。スタッフによるケアの実施状況の確認としては、介護作業動作の不正の可能性について、動作の見本データと撮像されたデータとの相違に基づいて介護作業動作をチェックする技術がある。   In recent years, there has been an increase in demand for nursing homes for elderly people. In the tenant facility, care may be provided to the resident by the staff. As the confirmation of the care implementation status by the staff, there is a technique for checking the care work operation based on the difference between the sample data of the operation and the imaged data for the possibility of the fraud of the care work operation.

特開2007−004405号公報JP 2007-004405 A

しかしながら、入居施設の全ての入居者に対するケアの実施状況を、管理者が目視や監視カメラによって確認することは困難である。例えば、整理作業がケアプランに従って実施されているか否かを確認する場合には、管理者が当該入居者の居室に出向いて目視によって確認するか、監視カメラの画像を確認する。この場合、目視では、整理作業が行われる前と行われた後とでの室内の乱雑度の比較が困難であり、監視カメラでは、全ての入居者に対する確認作業が膨大となって現実的でない場合がある。   However, it is difficult for an administrator to confirm the implementation status of care for all tenants in the tenant facility by visual observation or a monitoring camera. For example, when confirming whether or not the organization work is performed according to the care plan, the manager goes to the resident's room and confirms it visually, or confirms the image of the surveillance camera. In this case, it is difficult to compare the degree of messiness in the room before and after the arrangement work is visually performed, and it is not realistic for the surveillance camera to have a huge amount of confirmation work for all residents. There is a case.

一つの側面では、本発明は、乱雑度の比較結果を出力できる評価方法、評価プログラムおよび情報処理装置を提供することにある。   In one aspect, the present invention provides an evaluation method, an evaluation program, and an information processing apparatus that can output a comparison result of randomness.

一つの態様では、評価方法は、特定の領域の状態を検出するセンサから出力されるセンサ情報であって、所定の退出イベントが発生した際のセンサ情報を取得する処理をコンピュータが実行する。また、評価方法は、取得した該センサ情報を解析して得られた乱雑度と基準乱雑度との比較結果を出力する処理をコンピュータが実行する。   In one aspect, in the evaluation method, the computer executes a process of acquiring sensor information that is output from a sensor that detects a state of a specific area and that is generated when a predetermined exit event occurs. In the evaluation method, the computer executes a process of outputting a comparison result between the randomness obtained by analyzing the acquired sensor information and the reference randomness.

スタッフの作業を評価できる。   Evaluate staff work.

図1は、実施例の評価システムの構成の一例を示すブロック図である。FIG. 1 is a block diagram illustrating an example of the configuration of the evaluation system according to the embodiment. 図2は、入居者データベースの一例を示す図である。FIG. 2 is a diagram illustrating an example of a resident database. 図3は、カメラ設置テーブルの一例を示す図である。FIG. 3 is a diagram illustrating an example of a camera installation table. 図4は、センシング情報データベースの一例を示す図である。FIG. 4 is a diagram illustrating an example of the sensing information database. 図5は、メッセージデータベースの一例を示す図である。FIG. 5 is a diagram illustrating an example of a message database. 図6は、判定ワークテーブルの一例を示す図である。FIG. 6 is a diagram illustrating an example of the determination work table. 図7は、出力画面の一例を示す図である。FIG. 7 is a diagram illustrating an example of an output screen. 図8は、居室内の状態の一例を示す図である。FIG. 8 is a diagram illustrating an example of a state in the living room. 図9は、居室内の状態の他の一例を示す図である。FIG. 9 is a diagram illustrating another example of a state in the living room. 図10は、居室内の状態の他の一例を示す図である。FIG. 10 is a diagram illustrating another example of a state in the living room. 図11は、記録処理の一例を示すフローチャートである。FIG. 11 is a flowchart illustrating an example of the recording process. 図12は、判定処理の一例を示すフローチャートである。FIG. 12 is a flowchart illustrating an example of the determination process. 図13は、比較処理の一例を示すフローチャートである。FIG. 13 is a flowchart illustrating an example of the comparison process. 図14は、比較処理の一例を示すフローチャートである。FIG. 14 is a flowchart illustrating an example of the comparison process. 図15は、居室内の一部分について比較する場合の一例を示す図である。FIG. 15 is a diagram illustrating an example of a case where a part of a living room is compared. 図16は、高さを乱雑度の指標とする場合の乱雑度の算出の一例を示す図である。FIG. 16 is a diagram illustrating an example of calculation of the randomness when the height is used as an index of randomness. 図17は、評価プログラムを実行するコンピュータの一例を示す図である。FIG. 17 is a diagram illustrating an example of a computer that executes an evaluation program.

以下、図面に基づいて、本願の開示する評価方法、評価プログラムおよび情報処理装置の実施例を詳細に説明する。なお、本実施例により、開示技術が限定されるものではない。また、以下の実施例は、矛盾しない範囲で適宜組みあわせてもよい。   Hereinafter, embodiments of an evaluation method, an evaluation program, and an information processing apparatus disclosed in the present application will be described in detail based on the drawings. The disclosed technology is not limited by the present embodiment. Further, the following embodiments may be appropriately combined within a consistent range.

図1は、実施例の評価システムの構成の一例を示すブロック図である。図1に示す評価システム1は、例えば、入居施設10の一例である高齢者向けの介護付き入居施設において、スタッフによるケア、特に居室のちらかりを片付ける整理作業の実施状況を評価するための情報を提供する。図1に示す評価システム1は、カメラ11a〜11eと、管理者端末50と、サーバ装置100とを有する。カメラ11a〜11eは、入居施設10の区画10aの各所に設置される。なお、以下の説明では、カメラ11a〜11eを区別しない場合には、単にカメラ11と称する。   FIG. 1 is a block diagram illustrating an example of the configuration of the evaluation system according to the embodiment. The evaluation system 1 shown in FIG. 1 includes, for example, information for evaluating the implementation status of care by a staff member, in particular, organizing work for cleaning up flickers in a room, in a resident facility with care for elderly people as an example of a resident facility 10. provide. The evaluation system 1 illustrated in FIG. 1 includes cameras 11a to 11e, an administrator terminal 50, and a server device 100. The cameras 11 a to 11 e are installed at various locations in the section 10 a of the tenant facility 10. In the following description, when the cameras 11a to 11e are not distinguished, they are simply referred to as the camera 11.

入居施設10は、区画10aと類似する間取りの複数の区画を有し、各区画には、区画10aと同様に複数のカメラ11が各所に設置される。なお、以下の説明では、複数の区画のうち、区画10aを例として説明するが、区画の数は限定されず、評価システム1は、任意の数の区画に設置されたカメラ11を有してもよい。また、図1には、システムが1つの管理者端末50を有する場合を示したが、管理者端末50の数は限定されず、評価システム1は、任意の数の管理者端末50を有してもよい。   The occupancy facility 10 has a plurality of layouts similar to the section 10a, and a plurality of cameras 11 are installed in each section in the same manner as the section 10a. In the following description, among the plurality of sections, the section 10a will be described as an example. However, the number of sections is not limited, and the evaluation system 1 includes the cameras 11 installed in an arbitrary number of sections. Also good. FIG. 1 shows the case where the system has one administrator terminal 50, but the number of administrator terminals 50 is not limited, and the evaluation system 1 has an arbitrary number of administrator terminals 50. May be.

カメラ11、管理者端末50およびサーバ装置100の間は、ネットワークNを介して相互に通信可能に接続される。かかるネットワークNには、有線または無線を問わず、インターネット(Internet)を始め、LAN(Local Area Network)やVPN(Virtual Private Network)などの任意の種類の通信網を採用できる。   The camera 11, the administrator terminal 50, and the server device 100 are connected via a network N so that they can communicate with each other. For such a network N, any kind of communication network such as the Internet (Internet), LAN (Local Area Network), VPN (Virtual Private Network), etc. can be adopted regardless of wired or wireless.

評価システム1は、高齢者が入居する区画10aの各居室に設置されたカメラ11で撮像された画像に基づいて、乱雑度を算出し、高齢者が入居する区画10aの居室内の散らかり具合を判定する。評価システム1は、居室内が清掃、すなわち整理されている状態の乱雑度を基準乱雑度として、ケアを実施するスタッフであるケアスタッフの退出前後の乱雑度を、基準乱雑度と比較する。評価システム1は、ケアスタッフの退出後の乱雑度が基準乱雑度から所定範囲内である場合には、ケアスタッフによる整理作業が適切に行われたと判定する。評価システム1は、ケアスタッフの退出後の乱雑度が基準乱雑度から所定範囲外である場合には、ケアスタッフによる整理作業が適切に行われていないと判定する。評価システム1は、乱雑度と基準乱雑度との比較結果に基づいて判定された整理作業が適切に行われたか否かの判定結果を、例えば、管理者端末50に送信して図示しない表示部に表示させる。これにより、評価システム1は、ケアスタッフによる整理作業が適切に行われているか否かを入居施設10の管理者に提示できるので、管理者はケアスタッフによる居室内の整理作業を評価できる。   The evaluation system 1 calculates the degree of messiness based on the images captured by the cameras 11 installed in each room of the section 10a in which the elderly people move, and determines the degree of scattering in the room of the section 10a in which the elderly people move. judge. The evaluation system 1 compares the messiness degree before and after leaving the care staff, who is the staff who performs care, with the messiness level in a state where the room is cleaned, that is, organized, as the standard messiness level. The evaluation system 1 determines that the arrangement work by the care staff has been appropriately performed when the degree of randomness after the care staff leaves is within a predetermined range from the standard randomness. The evaluation system 1 determines that the arrangement work by the care staff is not properly performed when the degree of randomness after leaving the care staff is outside the predetermined range from the standard randomness. The evaluation system 1 transmits a determination result as to whether or not the organization work determined based on the comparison result between the randomness degree and the reference randomness degree has been appropriately performed, for example, to the administrator terminal 50, and a display unit (not shown) To display. Thereby, since the evaluation system 1 can show the manager of the occupancy facility 10 whether or not the arrangement work by the care staff is appropriately performed, the administrator can evaluate the arrangement work in the room by the care staff.

カメラ11は、例えば、通信機能を有するネットワークカメラであり、ネットワークNに接続されることで、サーバ装置100に撮像した画像を送信する。すなわち、カメラ11は、撮像センサであり、特定の領域の状態を検出するセンサである。カメラ11は、例えば、撮像素子としてCMOS(Complementary Metal Oxide Semiconductor)イメージセンサまたはCCD(Charge Coupled Device)イメージセンサ等を用いて、画像を撮像する。カメラ11は、撮像素子が受光した光を光電変換しA/D(Analog/Digital)変換を行って画像を生成する。カメラ11は、生成した画像を、ネットワークNを介してサーバ装置100に送信する。なお、カメラ11は、サーバ装置100から撮影方向等の指示を受信して、撮影方向を変化させるようにしてもよい。また、カメラ11は、例えば、区画10aの各居室の天井の中央または隅等に設置される。   The camera 11 is a network camera having a communication function, for example, and transmits a captured image to the server device 100 by being connected to the network N. That is, the camera 11 is an image sensor and is a sensor that detects the state of a specific region. The camera 11 captures an image using, for example, a complementary metal oxide semiconductor (CMOS) image sensor or a charge coupled device (CCD) image sensor as an image sensor. The camera 11 photoelectrically converts light received by the image sensor and performs A / D (Analog / Digital) conversion to generate an image. The camera 11 transmits the generated image to the server device 100 via the network N. The camera 11 may receive an instruction such as a shooting direction from the server device 100 and change the shooting direction. Moreover, the camera 11 is installed in the center or the corner of the ceiling of each room of the division 10a, for example.

管理者端末50は、例えば、入居施設10の管理者が用いるコンピュータである。管理者端末50は、サーバ装置100から受信した入居施設10内の各区画の整理作業に関する情報等を表示させて、管理者に提示する。かかる管理者端末50の一例としては、可搬型のパーソナルコンピュータを採用できる。管理者端末50には、上記のパーソナルコンピュータなどの可搬型の端末のみならず、据置型のパーソナルコンピュータを管理者端末50として採用することもできる。また、管理者端末50は、可搬型の端末としては、上記のパーソナルコンピュータの他にも、例えば、タブレット端末、スマートフォン、携帯電話機やPHS(Personal Handyphone System)などの移動体通信端末等を採用することもできる。   The manager terminal 50 is, for example, a computer used by the manager of the tenant facility 10. The administrator terminal 50 displays information relating to the organization work of each section in the occupancy facility 10 received from the server device 100 and presents it to the administrator. As an example of the administrator terminal 50, a portable personal computer can be adopted. As the administrator terminal 50, not only a portable terminal such as the above personal computer but also a stationary personal computer can be adopted as the administrator terminal 50. In addition to the personal computer described above, the administrator terminal 50 employs, for example, a mobile communication terminal such as a tablet terminal, a smartphone, a mobile phone, and a PHS (Personal Handyphone System) as a portable terminal. You can also.

次に、サーバ装置100の構成について説明する。図1に示すように、サーバ装置100は、通信部110と、記憶部120と、制御部130とを有する。なお、サーバ装置100は、図1に示す機能部以外にも既知のコンピュータが有する各種の機能部、例えば各種の入力デバイスや音声出力デバイスなどの機能部を有することとしてもかまわない。   Next, the configuration of the server device 100 will be described. As illustrated in FIG. 1, the server device 100 includes a communication unit 110, a storage unit 120, and a control unit 130. Note that the server apparatus 100 may include various functional units included in a known computer, for example, functional units such as various input devices and audio output devices, in addition to the functional units illustrated in FIG.

通信部110は、例えば、NIC(Network Interface Card)等によって実現される。通信部110は、ネットワークNを介してカメラ11および管理者端末50と有線または無線で接続され、カメラ11および管理者端末50との間で情報の通信を司る通信インタフェースである。通信部110は、カメラ11から画像を受信し、管理者端末50から制御情報を受信する。通信部110は、受信した画像または制御情報を制御部130に出力する。また、通信部110は、制御部130から入力された部屋ID(IDentifier)の選択画面、出力画面等を管理者端末50に送信する。   The communication unit 110 is realized by, for example, a NIC (Network Interface Card). The communication unit 110 is a communication interface that is connected to the camera 11 and the administrator terminal 50 via the network N in a wired or wireless manner and manages information communication between the camera 11 and the administrator terminal 50. The communication unit 110 receives an image from the camera 11 and receives control information from the administrator terminal 50. The communication unit 110 outputs the received image or control information to the control unit 130. In addition, the communication unit 110 transmits a room ID (IDentifier) selection screen, an output screen, and the like input from the control unit 130 to the administrator terminal 50.

記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、ハードディスクや光ディスク等の記憶装置によって実現される。記憶部120は、入居者データベース121と、カメラ設置テーブル122と、センシング情報データベース123と、メッセージデータベース124と、判定ワークテーブル125とを有する。なお、以下の説明では、データベースをDBと省略して示す。また、記憶部120は、制御部130での処理に用いる情報を記憶する。   The storage unit 120 is realized by, for example, a semiconductor memory device such as a RAM (Random Access Memory) or a flash memory, or a storage device such as a hard disk or an optical disk. The storage unit 120 includes a resident database 121, a camera installation table 122, a sensing information database 123, a message database 124, and a determination work table 125. In the following description, the database is abbreviated as DB. In addition, the storage unit 120 stores information used for processing in the control unit 130.

入居者DB121は、各区画に入居する入居者を、ケアスタッフ、管理者等と対応付けて記憶する。図2は、入居者データベースの一例を示す図である。図2に示すように、入居者DB121は、「部屋ID」、「入居者名」、「ケアスタッフ」、「管理者名」、「管理者連絡先」といった項目を有する。入居者DB121の各項目は、予め管理者端末50等を用いて登録される。   The resident DB 121 stores occupants who move into each section in association with care staffs, managers, and the like. FIG. 2 is a diagram illustrating an example of a resident database. As shown in FIG. 2, the resident DB 121 includes items such as “room ID”, “resident name”, “care staff”, “manager name”, and “manager contact”. Each item of the resident DB 121 is registered in advance using the administrator terminal 50 or the like.

「部屋ID」は、入居施設10の各区画を識別する。「入居者名」は、入居施設10の各区画に入居する入居者を示す。「ケアスタッフ」は、各区画の各居室に対して整理作業を実施するスタッフを示す。「管理者名」は、ケアスタッフを管理する管理者、つまりケアマネージャを示す。「管理者連絡先」は、管理者の連絡先として、例えば、メールアドレス等を示す。   “Room ID” identifies each section of the occupancy facility 10. “Resident name” indicates a resident who enters each section of the resident facility 10. “Care staff” indicates a staff member who performs an organization work for each room in each section. The “manager name” indicates a manager who manages the care staff, that is, a care manager. “Manager contact information” indicates, for example, an e-mail address or the like as the contact information of the administrator.

カメラ設置テーブル122は、入居施設10の区画ごとに、設置されるカメラ11の設置数と、各カメラ11のID、設置場所および標準エッジライン数とを対応付けて記憶する。図3は、カメラ設置テーブルの一例を示す図である。図3に示すように、カメラ設置テーブル122は、「部屋ID」、「カメラ設置数」、カメラ11ごとの「カメラID」、「設置場所」および「標準エッジライン数」といった項目を有する。   The camera installation table 122 stores the number of cameras 11 to be installed, the ID of each camera 11, the installation location, and the number of standard edge lines in association with each section of the tenant facility 10. FIG. 3 is a diagram illustrating an example of a camera installation table. As illustrated in FIG. 3, the camera installation table 122 includes items such as “room ID”, “number of cameras installed”, “camera ID”, “installation location”, and “standard edge line number” for each camera 11.

「部屋ID」は、入居施設10の各区画を識別する。「カメラ設置数」は、部屋IDで識別される各区画に設置されるカメラ11の数を示す。「カメラID」は、区画ごとの各居室に設置されるカメラ11を識別する。「設置場所」は、各カメラ11が設置される区画内の居室等を示す。「標準エッジライン数」は、基準乱雑度を示し、居室内が整理されている状態の乱雑度である。エッジラインは、例えば、居室内を撮像した画像に対してエッジフィルタを適用して輝度勾配を検出し、輝度勾配に基づいて直線成分を算出し、直線成分に基づいて算出されたラインである。例えば、本であれば、各辺が直線成分を有するので、エッジラインを4本算出できる。「標準エッジライン数」は、入居者ごとに異なるので、例えば、毎朝の乱雑度を取得して、平均値を求めるようにしてもよい。   “Room ID” identifies each section of the occupancy facility 10. The “number of cameras installed” indicates the number of cameras 11 installed in each section identified by the room ID. “Camera ID” identifies the camera 11 installed in each room for each section. “Installation location” indicates a room or the like in a section where each camera 11 is installed. The “standard edge line number” indicates the standard randomness, and is the randomness in a state where the room is organized. The edge line is, for example, a line calculated by applying an edge filter to an image captured in a room to detect a luminance gradient, calculating a linear component based on the luminance gradient, and calculating the linear component. For example, in the case of a book, since each side has a linear component, four edge lines can be calculated. Since the “standard edge line number” is different for each resident, for example, the average value may be obtained by acquiring the degree of randomness every morning.

センシング情報DB123は、所定の時間ごとの各居室の乱雑度であるエッジライン数と、ケアスタッフが入室中であるか否かを示すケアスタッフ入室フラグとを対応付けて記憶する。図4は、センシング情報データベースの一例を示す図である。図4に示すように、センシング情報DB123は、「日時」、「エッジライン数」、「ケアスタッフ入室フラグ」といった項目を有する。なお、センシング情報DB123は、例えば、区画10aの居室ごとに設けてもよいし、区画10aの各居室のエッジライン数の合計値と、区画10a内にケアスタッフが入室中であるか否かを示すケアスタッフ入室フラグとを有するようにしてもよい。   The sensing information DB 123 stores the number of edge lines, which is the degree of messiness of each room every predetermined time, and a care staff entry flag indicating whether or not the care staff is entering the room. FIG. 4 is a diagram illustrating an example of the sensing information database. As shown in FIG. 4, the sensing information DB 123 includes items such as “date and time”, “number of edge lines”, and “care staff entry flag”. Note that the sensing information DB 123 may be provided for each room of the section 10a, for example, or the total value of the number of edge lines of each room of the section 10a and whether or not the care staff is entering the section 10a. A care staff entry flag may be included.

「日時」は、カメラ11から画像を受信した日時、または、カメラ11が画像を撮像した日時を示し、例えば、10秒ごとに1枚撮像される場合には、10秒ごとに1つのレコードとする。「エッジライン数」は、居室内の乱雑度を示す。「ケアスタッフ入室フラグ」は、ケアスタッフが居室に入室している場合を「1」で示し、ケアスタッフが居室に入室していない場合を「0」で示す。   “Date and time” indicates the date and time when an image is received from the camera 11 or the date and time when the camera 11 captures an image. For example, when one image is captured every 10 seconds, one record is recorded every 10 seconds. To do. “Number of edge lines” indicates the degree of randomness in the room. The “care staff entry flag” indicates “1” when the care staff enters the room, and indicates “0” when the care staff does not enter the room.

メッセージDB124は、ケアスタッフの退出前後の乱雑度の比較結果を示す各フラグと、各フラグの組み合わせに応じて出力画面に表示するメッセージとを対応付けて記憶する。図5は、メッセージデータベースの一例を示す図である。図5に示すように、メッセージDB124は、「ID」、「ケア前フラグ」、「ケア後フラグ」、「ケア後所定時間後フラグ」、「メッセージ」といった項目を有する。   The message DB 124 stores each flag indicating the comparison result of the degree of messiness before and after leaving the care staff and a message displayed on the output screen according to the combination of each flag in association with each other. FIG. 5 is a diagram illustrating an example of a message database. As illustrated in FIG. 5, the message DB 124 includes items such as “ID”, “pre-care flag”, “post-care flag”, “pre-care post-predetermined flag”, and “message”.

「ID」は、出力画面に表示するメッセージを識別する。「ケア前フラグ」、「ケア後フラグ」および「ケア後所定時間後フラグ」は、判定ワークテーブル125の同一の項目、つまり同一のフラグに対応する。なお、各フラグが「*」の欄は、判定ワークテーブル125の各フラグが「1」、「0」のいずれの場合でも該当することを示す。「メッセージ」は、各フラグの組み合わせに応じて出力画面に表示するメッセージの内容を示す。   “ID” identifies a message to be displayed on the output screen. The “pre-care flag”, “post-care flag” and “pre-care post-predetermined time flag” correspond to the same item in the determination work table 125, that is, the same flag. The column “*” for each flag indicates that the flag is applicable regardless of whether the flag of the determination work table 125 is “1” or “0”. “Message” indicates the content of the message displayed on the output screen in accordance with the combination of the flags.

判定ワークテーブル125は、ケアスタッフの入室または退出のイベント発生時、あるいは、ケア後所定時間が経過した時点における、乱雑度と基準乱雑度との比較結果に基づく散らかり具合に関するフラグを、部屋IDおよびカメラIDと対応付けて記憶する。図6は、判定ワークテーブルの一例を示す図である。図6に示すように、判定ワークテーブル125は、「部屋ID」、「カメラID」、「ケア前フラグ」、「ケア後フラグ」、「ケア後所定時間後フラグ」といった項目を有する。また、「ケア前フラグ」、「ケア後フラグ」および「ケア後所定時間後フラグ」は、それぞれ「フラグ」および「時刻」といった項目を有する。   The determination work table 125 includes a flag relating to the degree of scattering based on the comparison result between the randomness and the reference randomness at the time when an event of entering or leaving the care staff occurs or when a predetermined time has elapsed after the care. It is stored in association with the camera ID. FIG. 6 is a diagram illustrating an example of the determination work table. As shown in FIG. 6, the determination work table 125 includes items such as “room ID”, “camera ID”, “pre-care flag”, “post-care flag”, and “post-care predetermined time flag”. The “pre-care flag”, “post-care flag” and “pre-care post-predetermined flag” have items such as “flag” and “time”, respectively.

「部屋ID」は、入居施設10の各区画を識別する。「カメラID」は、区画ごとの各居室に設置されるカメラ11を識別する。「ケア前フラグ」は、ケアスタッフが居室内に入室した時点の乱雑度が基準乱雑度から所定範囲内であるか否かを示す。「ケア前フラグ」は、「フラグ」が「0」の場合には、ケアスタッフが居室内に入室した時点の乱雑度が基準乱雑度から所定範囲内である、すなわち、居室内が整理されていることを示す。「ケア前フラグ」は、「フラグ」が「1」の場合には、ケアスタッフが居室内に入室した時点の乱雑度が基準乱雑度から所定範囲外である、すなわち、居室内が乱雑であることを示す。「時刻」は、フラグが立った時点の時刻を示す。   “Room ID” identifies each section of the occupancy facility 10. “Camera ID” identifies the camera 11 installed in each room for each section. The “pre-care flag” indicates whether or not the degree of randomness at the time when the care staff enters the room is within a predetermined range from the standard randomness. When the “flag” is “0”, the “pre-care flag” indicates that the randomness at the time when the care staff enters the room is within a predetermined range from the standard randomness, that is, the room is organized. Indicates that When the “pre-care flag” is “1”, the messiness level when the care staff enters the room is out of the predetermined range from the standard messiness level, that is, the room is messy. It shows that. “Time” indicates the time when the flag is set.

「ケア後フラグ」は、ケアスタッフが居室から退出した時点の乱雑度が基準乱雑度から所定範囲内であるか否かを示す。「ケア後フラグ」は、「フラグ」が「0」の場合には、ケアスタッフが居室から退出した時点の乱雑度が基準乱雑度から所定範囲内である、すなわち、居室内が整理されていることを示す。「ケア後フラグ」は、「フラグ」が「1」の場合には、ケアスタッフが居室から退出した時点の乱雑度が基準乱雑度から所定範囲外である、すなわち、居室内が乱雑であることを示す。「時刻」は、フラグが立った時点の時刻を示す。   The “post-care flag” indicates whether or not the degree of disorder when the care staff leaves the room is within a predetermined range from the standard degree of disorder. In the “post-care flag”, when the “flag” is “0”, the messiness level when the care staff leaves the room is within a predetermined range from the standard messiness level, that is, the room is arranged. It shows that. The “post-care flag” indicates that when the “flag” is “1”, the messiness level when the care staff leaves the room is out of the predetermined range from the standard messiness level, that is, the room is messy. Indicates. “Time” indicates the time when the flag is set.

「ケア後所定時間後フラグ」は、ケアスタッフが居室から退出した後、所定時間が経過した時点の乱雑度が基準乱雑度から所定範囲内であるか否かを示す。「ケア後所定時間後フラグ」は、「フラグ」が「0」の場合には、ケアスタッフが居室から退出した後、所定時間が経過した時点の乱雑度が基準乱雑度から所定範囲内である、すなわち、居室内が整理されていることを示す。「ケア後所定時間後フラグ」は、「フラグ」が「1」の場合には、ケアスタッフが居室から退出した後、所定時間が経過した時点の乱雑度が基準乱雑度から所定範囲外である、すなわち、居室内が乱雑であることを示す。ここで、所定時間は、例えば、10分、30分、1時間、半日等、入居者に応じて適宜変更できる。「時刻」は、フラグが立った時点の時刻を示す。   The “after-care-after-predetermined-time flag” indicates whether or not the degree of randomness at the time when the predetermined time has elapsed after the care staff leaves the room is within a predetermined range from the reference randomness. When the “flag” is “0”, the “post-care post-predetermined flag” is within a predetermined range from the reference randomness when the predetermined time has elapsed after the care staff leaves the room. That is, it shows that the living room is arranged. The “post-care post-predetermined time flag” indicates that when the “flag” is “1”, the randomness at the time when the predetermined time has elapsed after the care staff leaves the room is out of the predetermined range from the reference randomness. That is, the room is messy. Here, the predetermined time can be appropriately changed according to the resident, for example, 10 minutes, 30 minutes, 1 hour, half day, or the like. “Time” indicates the time when the flag is set.

図1の説明に戻って、制御部130は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、内部の記憶装置に記憶されているプログラムがRAMを作業領域として実行されることにより実現される。また、制御部130は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されるようにしてもよい。制御部130は、取得部131と、算出部132と、判定部133と、出力制御部134とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図1に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。   Returning to the description of FIG. 1, the control unit 130 executes, for example, a program stored in an internal storage device using a RAM as a work area by a CPU (Central Processing Unit), an MPU (Micro Processing Unit), or the like. Is realized. Further, the control unit 130 may be realized by an integrated circuit such as an application specific integrated circuit (ASIC) or a field programmable gate array (FPGA). The control unit 130 includes an acquisition unit 131, a calculation unit 132, a determination unit 133, and an output control unit 134, and implements or executes information processing functions and operations described below. Note that the internal configuration of the control unit 130 is not limited to the configuration illustrated in FIG. 1, and may be another configuration as long as the information processing described below is performed.

取得部131は、カメラ11から通信部110を介して居室の画像、すなわちセンサ情報を取得する。取得部131は、例えば、10秒ごとに居室の状態を撮像した撮像画像を取得する。取得部131は、取得した画像を算出部132に出力する。なお、取得部131は、センサ情報として他の情報を取得してもよい。取得部131は、例えば、居室内に照射光を照射し、照射光の反射光を含む撮像画像を取得してもよい。また、取得部131は、例えば、レーザ光を照射して距離を計測する距離センサから距離情報を取得してもよい。なお、取得部131は、取得した撮像画像を記憶部120に記憶してもよい。   The acquisition unit 131 acquires an image of a living room from the camera 11 via the communication unit 110, that is, sensor information. For example, the acquisition unit 131 acquires a captured image obtained by capturing the state of the room every 10 seconds. The acquisition unit 131 outputs the acquired image to the calculation unit 132. Note that the acquisition unit 131 may acquire other information as sensor information. For example, the acquisition unit 131 may irradiate the living room with irradiation light and acquire a captured image including reflected light of the irradiation light. Moreover, the acquisition part 131 may acquire distance information from the distance sensor which irradiates a laser beam and measures distance, for example. The acquisition unit 131 may store the acquired captured image in the storage unit 120.

算出部132は、取得部131から画像が入力されると、画像に対して画像解析を行う。算出部132は、例えば、エッジフィルタにて画像の輝度勾配を検出する。算出部132は、画像の各画素について、周囲の輝度勾配の強度が一定範囲で、かつ隣接している画素をエッジ成分として結合して直線成分を算出する。算出部132は、例えば、居室内に長方形の机が設置され、仮に天井方向から撮影した場合には、机の縁と床面との境界は直線であり、机と床面との輝度が異なるので、当該境界の画素をエッジ成分として結合して直線成分を算出する。また、算出部132は、例えば、床に衣服が置かれている場合には、衣服の縁と床面との境界の画素について同様の処理を行うが、衣服の縁は曲線である場合がある。このとき、算出部132は、曲線を所定の長さの直線で近似して直線成分を算出する。算出部132は、算出した直線成分に基づいて、直線成分の本数、すなわち、エッジライン数を算出する。算出部132は、画像の撮像日時と、算出したエッジライン数とを対応付けて、センシング情報DB123に記録する。すなわち、算出部132は、エッジライン数により、乱雑度を算出する。   When an image is input from the acquisition unit 131, the calculation unit 132 performs image analysis on the image. For example, the calculation unit 132 detects the luminance gradient of the image using an edge filter. The calculation unit 132 calculates, for each pixel of the image, a linear component by combining neighboring pixels as edge components within a certain range of the intensity of the surrounding luminance gradient. For example, in the case where a rectangular desk is installed in the room and the image is taken from the ceiling direction, the calculating unit 132 has a straight line between the edge of the desk and the floor, and the desk and the floor have different luminances. Therefore, the linear component is calculated by combining the pixels at the boundary as edge components. For example, when clothing is placed on the floor, the calculation unit 132 performs the same processing on pixels at the boundary between the clothing edge and the floor surface, but the clothing edge may be a curve. . At this time, the calculation unit 132 calculates a linear component by approximating the curve with a straight line having a predetermined length. The calculation unit 132 calculates the number of straight line components, that is, the number of edge lines, based on the calculated straight line component. The calculation unit 132 records the image capturing date / time and the calculated number of edge lines in the sensing information DB 123 in association with each other. That is, the calculation unit 132 calculates the degree of randomness based on the number of edge lines.

また、算出部132は、入力された画像に対して、例えば、記憶部120に記憶されている頭部のテンプレート画像とのマッチングを取ることにより、人物の頭を検出する。算出部132は、例えば、区画10a内で検出した人物の頭が1つであり、入居者の頭部のテンプレート画像とマッチングした場合には、ケアスタッフは入室していない(退出している)と判定する。算出部132は、ケアスタッフが退出していると判定した場合には、画像の撮像日時と対応するケアスタッフ入室フラグを「0」に設定して、センシング情報DB123に記録する。   In addition, the calculation unit 132 detects the head of a person by matching the input image with a template image of the head stored in the storage unit 120, for example. For example, when the calculation unit 132 has one head detected in the section 10a and matches the template image of the resident's head, the care staff has not entered (exited). Is determined. When it is determined that the care staff has left, the calculation unit 132 sets the care staff entry flag corresponding to the image capturing date and time to “0” and records it in the sensing information DB 123.

算出部132は、例えば、区画10a内で検出した人物の頭部と、ケアスタッフの頭部のテンプレート画像とがマッチングした場合には、ケアスタッフが入室していると判定する。算出部132は、ケアスタッフが入室していると判定した場合には、画像の撮像日時と対応するケアスタッフ入室フラグを「1」に設定して、センシング情報DB123に記録する。なお、算出部132は、ケアスタッフが入室しているか否かの判定について、例えば、ケアスタッフのユニホームにケアスタッフを表すマーカを印刷し、撮像画像において当該マーカを検出した場合にケアスタッフ入室フラグを「1」に設定するようにしてもよい。また、算出部132は、ケアスタッフが入室しているか否かの判定について、例えば、IDカードをケアスタッフに所持させて、各区画への入室時と退出時に、各区画の玄関に設置した図示しないカードリーダに読ませるようにしてもよい。IDカードをカードリーダに読ませる場合、算出部132は、IDカードの情報と、入室または退出を表す情報とを取得して、ケアスタッフ入室フラグを設定することができる。なお、居室へ入室する人間が、入居者とケアスタッフのみと考えられる場合には、単純に頭部が2つ検出された際に、ケアスタッフが入室したと判断してもよい。   For example, when the head of the person detected in the section 10a matches the template image of the head of the care staff, the calculation unit 132 determines that the care staff has entered the room. If the calculation unit 132 determines that the care staff has entered the room, the care staff entry flag corresponding to the image capturing date and time is set to “1” and recorded in the sensing information DB 123. For example, the calculation unit 132 prints a marker representing a care staff on the uniform of the care staff and determines whether the care staff has entered the care staff when the marker is detected in the captured image. May be set to “1”. In addition, the calculation unit 132 is configured to determine whether or not the care staff has entered the room, for example, by having the care staff carry the ID card and installing it at the entrance of each section when entering or leaving each section. You may make it read to the card reader which does not. When causing the card reader to read the ID card, the calculation unit 132 can acquire information on the ID card and information indicating entry or exit and set a care staff entry flag. When the person entering the room is considered to be only the resident and the care staff, it may be determined that the care staff has entered the room when two heads are simply detected.

判定部133は、管理者端末50から判定処理を実行する指示を受信すると、センシング情報DB123を参照して、ケアスタッフの入室等のイベントと、当該イベント発生時の居室内の状態とに応じて、ケアスタッフの整理作業が適切に行われたか否かを判定する。判定部133は、入居者DB121を参照して、入居者の部屋ID等を取得する。判定部133は、部屋IDの選択画面を生成し、通信部110を介して管理者端末50に送信する。ここで、判定部133は、例えば、部屋IDの選択画面に含める入居者の部屋IDとして、健常者を除いたケアが必要な入居者を抽出する。また、判定部133は、部屋IDの選択画面として、入居施設10の見取り図を用いてもよい。   When the determination unit 133 receives an instruction to execute the determination process from the administrator terminal 50, the determination unit 133 refers to the sensing information DB 123 according to an event such as the entry of a care staff and the state of the room when the event occurs. Then, it is determined whether or not the care staff has been properly arranged. The determination unit 133 refers to the resident DB 121 and acquires the room ID of the resident. The determination unit 133 generates a room ID selection screen and transmits the room ID selection screen to the administrator terminal 50 via the communication unit 110. Here, for example, the determination unit 133 extracts a resident who needs care other than the healthy person as the room ID of the resident included in the room ID selection screen. In addition, the determination unit 133 may use a floor plan of the tenant facility 10 as the room ID selection screen.

判定部133は、管理者端末50から部屋IDの選択情報を受信すると、比較処理を実行する。判定部133は、センシング情報DB123から、指定された部屋IDに対応するセンシング情報を所定期間分取得する。つまり、判定部133は、部屋IDの選択情報に基づいて、日時、エッジライン数およびケアスタッフ入室フラグを所定期間分について取得する。ここで、判定部133は、例えば、1日分の指定された部屋IDに対応する情報を取得することができる。ここで、判定部133は、対象となる部屋IDの全てが選択されてもよいし、一部の部屋IDが選択されてもよい。   Upon receiving the room ID selection information from the administrator terminal 50, the determination unit 133 performs comparison processing. The determination unit 133 acquires sensing information corresponding to the designated room ID from the sensing information DB 123 for a predetermined period. That is, the determination unit 133 acquires the date and time, the number of edge lines, and the care staff entry flag for a predetermined period based on the selection information of the room ID. Here, the determination unit 133 can acquire information corresponding to the room ID specified for one day, for example. Here, the determination unit 133 may select all target room IDs, or may select some room IDs.

判定部133は、取得したセンシング情報のうち、先頭から順にセンシング情報を選択し、ケアスタッフ入室フラグが「1」であるか否かを判定する。判定部133は、選択したセンシング情報のケアスタッフ入室フラグが「1」でない場合には、次のセンシング情報、すなわち、次のレコードに記憶されているセンシング情報を選択し、ケアスタッフ入室フラグが「1」であるか否かの判定を繰り返す。判定部133は、選択したセンシング情報のケアスタッフ入室フラグが「1」である場合には、カメラ設置テーブル122を参照して、選択されたセンシング情報のエッジライン数と、対応する標準エッジライン数とを比較する。   The determination unit 133 sequentially selects sensing information from the top of the acquired sensing information, and determines whether or not the care staff entry flag is “1”. When the care staff entry flag of the selected sensing information is not “1”, the determination unit 133 selects the next sensing information, that is, the sensing information stored in the next record, and the care staff entry flag is “ The determination of whether or not “1” is repeated. When the care staff entry flag of the selected sensing information is “1”, the determination unit 133 refers to the camera installation table 122 and selects the number of edge lines of the selected sensing information and the corresponding number of standard edge lines. And compare.

判定部133は、選択されたセンシング情報のエッジライン数が標準エッジライン数から所定範囲内であるか否かを判定する。ここで、所定範囲内は、例えば、標準エッジライン数を中心として、例えば、「±50」等の固定値としてもよいし、さらに、プラス側「70」、マイナス側「30」等のように所定範囲をオフセットしてもよい。また、所定範囲内は、例えば、標準エッジライン数を中心として、例えば、標準エッジライン数の「±20%」等のように割合で示してもよい。ただし、マイナス側に範囲が超えたときは、設定値の再設定を促すようなメッセージとなる。下に記載の実施例で、範囲外とは、プラス方向の範囲を超えた場合を想定している。なお、マイナス側の範囲を超えた場合は、標準エッジラインの再設定を促すことが望ましい。   The determination unit 133 determines whether or not the number of edge lines of the selected sensing information is within a predetermined range from the number of standard edge lines. Here, the predetermined range may be, for example, a fixed value such as “± 50” centered on the number of standard edge lines, or may be a positive value “70”, a negative value “30”, or the like. The predetermined range may be offset. Further, the predetermined range may be indicated by a ratio such as “± 20%” of the number of standard edge lines, for example, centering on the number of standard edge lines. However, when the range exceeds the minus side, a message prompting the user to reset the set value is displayed. In the examples described below, “out of range” assumes that the range in the plus direction is exceeded. When the range on the minus side is exceeded, it is desirable to prompt resetting of the standard edge line.

判定部133は、選択されたセンシング情報のエッジライン数が標準エッジライン数から所定範囲内である場合には、判定ワークテーブル125に、時刻、部屋IDおよびケア前フラグ「0」を記録する。判定部133は、選択されたセンシング情報のエッジライン数が標準エッジライン数から所定範囲内でない場合には、判定ワークテーブル125に、時刻、部屋IDおよびケア前フラグ「1」を記録する。すなわち、判定部133は、ケアスタッフが居室内に入室した時点における居室内の状態、つまり散らかり具合を判定する。なお、時刻は、センシング情報DB123から取得した日時のうち、例えば、時刻を用いることができるが、日時の全てを用いてもよい。   When the number of edge lines of the selected sensing information is within a predetermined range from the standard edge line number, the determination unit 133 records the time, room ID, and pre-care flag “0” in the determination work table 125. When the number of edge lines of the selected sensing information is not within the predetermined range from the number of standard edge lines, the determination unit 133 records the time, room ID, and pre-care flag “1” in the determination work table 125. That is, the determination unit 133 determines the state of the room at the time when the care staff enters the room, that is, the degree of scattering. For the time, for example, the time can be used among the dates acquired from the sensing information DB 123, but all of the dates may be used.

ここで、図3のカメラ設置テーブル122のカメラID「601−1」と、図4のセンシング情報DB123の4行目とを例として、エッジライン数と、対応する標準エッジライン数との比較を説明する。判定部133は、選択したセンシング情報のケアスタッフ入室フラグが「1」であるので、対応するエッジライン数「299」を取得する。また、判定部133は、カメラ設置テーブル122を参照して、対応する標準エッジライン数として「120」を取得する。判定部133は、選択されたセンシング情報のエッジライン数「299」と、対応する標準エッジライン数「120」とを比較する。   Here, using the camera ID “601-1” in the camera installation table 122 in FIG. 3 and the fourth line of the sensing information DB 123 in FIG. 4 as an example, the number of edge lines and the corresponding number of standard edge lines are compared. explain. Since the care staff entry flag of the selected sensing information is “1”, the determination unit 133 acquires the corresponding edge line number “299”. In addition, the determination unit 133 refers to the camera installation table 122 and acquires “120” as the number of corresponding standard edge lines. The determination unit 133 compares the number of edge lines “299” of the selected sensing information with the corresponding number of standard edge lines “120”.

判定部133は、選択されたセンシング情報のエッジライン数「299」が、標準エッジライン数「120」から所定範囲内であるか否かを判定する。なお、所定範囲は、例えば「±50」とする。判定部133は、エッジライン数「299」が、所定範囲の上限値「170」から下限値「70」の範囲内ではないので、判定ワークテーブル125に、時刻、部屋IDおよびケア前フラグ「1」を記録する。   The determination unit 133 determines whether or not the number of edge lines “299” in the selected sensing information is within a predetermined range from the number of standard edge lines “120”. The predetermined range is, for example, “± 50”. Since the number of edge lines “299” is not within the range of the upper limit value “170” to the lower limit value “70” of the predetermined range, the determination unit 133 stores the time, room ID, and pre-care flag “1” in the determination work table 125. Is recorded.

次に、判定部133は、ケアスタッフが居室内に入室した時点における居室内の状態を判定すると、選択したセンシング情報の次のセンシング情報を順に選択し、ケアスタッフ入室フラグが「0」であるか否かを判定する。判定部133は、選択したセンシング情報のケアスタッフ入室フラグが「0」でない場合には、次のセンシング情報、すなわち、次のレコードに記憶されているセンシング情報を選択し、ケアスタッフ入室フラグが「0」であるか否かの判定を繰り返す。判定部133は、選択したセンシング情報のケアスタッフ入室フラグが「0」である場合には、カメラ設置テーブル122を参照して、選択されたセンシング情報のエッジライン数と、対応する標準エッジライン数とを比較する。   Next, when the determination unit 133 determines the state of the room when the care staff enters the room, the determination unit 133 sequentially selects the sensing information next to the selected sensing information, and the care staff room entry flag is “0”. It is determined whether or not. When the care staff entry flag of the selected sensing information is not “0”, the determination unit 133 selects the next sensing information, that is, the sensing information stored in the next record, and the care staff entry flag is “ The determination of whether or not “0” is repeated. When the care staff entry flag of the selected sensing information is “0”, the determining unit 133 refers to the camera installation table 122 and selects the number of edge lines of the selected sensing information and the corresponding number of standard edge lines. And compare.

判定部133は、選択されたセンシング情報のエッジライン数が標準エッジライン数から所定範囲内であるか否かを判定する。判定部133は、選択されたセンシング情報のエッジライン数が標準エッジライン数から所定範囲内である場合には、判定ワークテーブル125に、部屋IDに対応付けて、時刻、部屋IDおよびケア前フラグ「0」を記録する。判定部133は、選択されたセンシング情報のエッジライン数が標準エッジライン数から所定範囲内でない場合には、判定ワークテーブル125に、部屋IDに対応付けて、時刻、部屋IDおよびケア前フラグ「1」を記録する。すなわち、判定部133は、ケアスタッフが居室内から退出した時点における居室内の状態、つまり散らかり具合を判定する。   The determination unit 133 determines whether or not the number of edge lines of the selected sensing information is within a predetermined range from the number of standard edge lines. When the number of edge lines of the selected sensing information is within a predetermined range from the number of standard edge lines, the determination unit 133 associates the time, room ID, and pre-care flag with the room ID in the determination work table 125. Record “0”. When the number of edge lines of the selected sensing information is not within the predetermined range from the standard edge line number, the determination unit 133 associates the time, room ID, and pre-care flag “ Record 1 ”. That is, the determination unit 133 determines the state of the room at the time when the care staff leaves the room, that is, the degree of scattering.

判定部133は、ケアスタッフが居室内から退出した時点における居室内の状態を判定すると、ケアスタッフ入室フラグが「0」となってから所定時間後のセンシング情報を選択する。判定部133は、カメラ設置テーブル122を参照して、選択されたセンシング情報のエッジライン数と、対応する標準エッジライン数とを比較する。判定部133は、選択されたセンシング情報のエッジライン数が標準エッジライン数から所定範囲内であるか否かを判定する。判定部133は、選択されたセンシング情報のエッジライン数が標準エッジライン数から所定範囲内である場合には、判定ワークテーブル125に、部屋IDに対応付けて、時刻、部屋IDおよびケア後所定時間後フラグ「0」を記録する。判定部133は、選択されたセンシング情報のエッジライン数が標準エッジライン数から所定範囲内でない場合には、判定ワークテーブル125に、部屋IDに対応付けて、時刻、部屋IDおよびケア後所定時間後フラグ「1」を記録する。すなわち、判定部133は、ケアスタッフが居室内から退出した時点から所定時間経過後における居室内の状態、つまり散らかり具合を判定する。判定部133は、ケアスタッフが居室内から退出した時点から所定時間経過後における居室内の状態を判定すると、出力制御部134に判定結果の出力を指示する。   When the determination unit 133 determines the state of the room at the time when the care staff leaves the room, the determination unit 133 selects sensing information after a predetermined time after the care staff entry flag becomes “0”. The determination unit 133 refers to the camera installation table 122 and compares the number of edge lines of the selected sensing information with the corresponding number of standard edge lines. The determination unit 133 determines whether or not the number of edge lines of the selected sensing information is within a predetermined range from the number of standard edge lines. When the number of edge lines of the selected sensing information is within a predetermined range from the standard edge line number, the determination unit 133 associates the time, the room ID, and the post-care predetermined value in the determination work table 125 in association with the room ID. Record the flag “0” after time. When the number of edge lines of the selected sensing information is not within the predetermined range from the number of standard edge lines, the determination unit 133 associates the determination work table 125 with the room ID, the time, the room ID, and the predetermined time after care. The post flag “1” is recorded. That is, the determination unit 133 determines the state of the room after the predetermined time has elapsed from the time when the care staff leaves the room, that is, the degree of scattering. When the determination unit 133 determines the state of the room after a predetermined time has elapsed from the time when the care staff leaves the room, the determination unit 133 instructs the output control unit 134 to output the determination result.

出力制御部134は、判定部133から判定結果の出力を指示されると、判定ワークテーブル125のフラグに対応するメッセージを、メッセージDB124から取得する。出力制御部134は、取得したメッセージに基づいて出力画面を生成し、通信部110を介して管理者端末50に送信する。すなわち、出力制御部134は、判定結果を出力する。また、出力制御部134は、メッセージの送信後に、部屋IDの選択画面を生成し、通信部110を介して管理者端末50に送信する。出力制御部134は、部屋IDの選択画面で終了ボタンが押下された情報を受信したか否かを判定する。出力制御部134は、部屋IDの選択画面で終了ボタンが押下された情報を受信しない場合には、判定部133に部屋IDの選択情報の受信を待機するように指示する。出力制御部134は、部屋IDの選択画面で終了ボタンが押下された情報を受信した場合には、処理を終了する。   When the output control unit 134 is instructed to output the determination result from the determination unit 133, the output control unit 134 acquires a message corresponding to the flag of the determination work table 125 from the message DB 124. The output control unit 134 generates an output screen based on the acquired message and transmits the output screen to the administrator terminal 50 via the communication unit 110. That is, the output control unit 134 outputs the determination result. The output control unit 134 generates a room ID selection screen after transmitting the message, and transmits the screen to the administrator terminal 50 via the communication unit 110. The output control unit 134 determines whether information indicating that the end button has been pressed on the room ID selection screen has been received. The output control unit 134 instructs the determination unit 133 to wait for reception of the selection information of the room ID when it does not receive the information that the end button is pressed on the selection screen of the room ID. When the output control unit 134 receives information indicating that the end button has been pressed on the room ID selection screen, the output control unit 134 ends the process.

ここで、図7を用いて、出力画面の一例を説明する。図7は、出力画面の一例を示す図である。図7に示すように、出力制御部134は、例えば、ケアスタッフの入室時点で、居室内が散らかっており、ケアスタッフの退出時点でも居室内が散らかっている場合には、ケアが終了したが散らかりが十分にケアされていない旨のメッセージを含む出力画面25を生成する。すなわち、出力制御部134は、例えば、判定ワークテーブル125のケア前フラグが「1」、ケア後フラグが「1」の場合に、メッセージDB124のID「002」のメッセージを取得して出力画面25を生成する。   Here, an example of the output screen will be described with reference to FIG. FIG. 7 is a diagram illustrating an example of an output screen. As shown in FIG. 7, for example, when the care staff enters the room, the output control unit 134 is messy, and when the care staff leaves the room, the care ends. An output screen 25 including a message indicating that the scatter is not sufficiently cared for is generated. That is, for example, when the pre-care flag of the determination work table 125 is “1” and the post-care flag is “1”, the output control unit 134 acquires a message with ID “002” in the message DB 124 and outputs the output screen 25. Is generated.

次に、図8から図10を用いて、居室内の状態変化のパターンについて説明する。図8は、居室内の状態の一例を示す図である。図8に示すように、居室内は、ケアスタッフが入室する前の状態21a、および、ケアスタッフが入室した時点の状態22aは、散らかった状態である。ケアスタッフが退出した時点の状態23aは、ケアスタッフが居室内の整理作業を適切に行うことで、整理された状態となる。その後、居室内は、例えば、ケアスタッフの退出30分後には、入居者が雑誌を読む等の動作を行うことで多少散らかるが、散らかりが適切にケアされた状態24aである。図8のパターンでは、管理者端末50には、例えば、「リビングでのケアが終了しました。散らかりが適切にケアされています。」といったメッセージが表示される。   Next, the state change pattern in the living room will be described with reference to FIGS. FIG. 8 is a diagram illustrating an example of a state in the living room. As shown in FIG. 8, the state 21a before the care staff enters the room and the state 22a when the care staff enters the room are messy. The state 23a at the time when the care staff leaves is arranged by the care staff appropriately performing the arrangement work in the room. Thereafter, for example, 30 minutes after the care staff leaves the room, the occupant is somewhat scattered by performing an operation such as reading a magazine. In the pattern of FIG. 8, for example, a message such as “Care in the living room has been completed.

図9は、居室内の状態の他の一例を示す図である。図9に示すように、居室内は、ケアスタッフが入室する前の状態21b、および、ケアスタッフが入室した時点の状態22bは、散らかった状態である。居室内は、ケアスタッフが適切に整理作業を行っていないと、ケアスタッフが退出した時点の状態23bは、十分に整理がされていない状態となる。その後、居室内は、例えば、ケアスタッフの退出30分後には、十分に整理がされていない状態、つまり散らかった状態24bとなる。図9のパターンでは、管理者端末50には、例えば、「リビングでのケアが終了しました。散らかりが十分にケアされていません。」といったメッセージが表示される。   FIG. 9 is a diagram illustrating another example of a state in the living room. As shown in FIG. 9, in the living room, the state 21b before the care staff enters the room and the state 22b when the care staff enters the room are in a messy state. In the living room, if the care staff is not properly organizing, the state 23b when the care staff leaves is not fully organized. After that, for example, after 30 minutes of leaving the care staff, the living room is in a state that is not sufficiently arranged, that is, a messy state 24b. In the pattern of FIG. 9, for example, a message such as “Care in the living room has been completed.

図10は、居室内の状態の他の一例を示す図である。図10に示すように、居室内は、ケアスタッフが入室する前の状態21c、および、ケアスタッフが入室した時点の状態22cは、散らかった状態である。ケアスタッフが退出した時点の状態23cは、ケアスタッフが居室内の整理作業を適切に行うことで、整理された状態となる。その後、居室内は、例えば、ケアスタッフの退出30分後には、入居者が故意に散らかした状態24cとなる。図10のパターンでは、管理者端末50には、例えば、「リビングでのケアが終了し、所定時間(30分)経過しました。散らかりがひどくなっており、入居者が故意に散らかしている可能性があります。」といったメッセージが表示される。   FIG. 10 is a diagram illustrating another example of a state in the living room. As shown in FIG. 10, the state 21c before the care staff enters the room and the state 22c when the care staff enters the room are messy. The state 23c at the time when the care staff leaves is arranged by the care staff appropriately performing the arrangement work in the room. Thereafter, the room becomes a state 24c in which the residents are intentionally scattered, for example, 30 minutes after leaving the care staff. In the pattern of FIG. 10, for example, the administrator terminal 50 displays, for example, “Care in the living room has been completed, and a predetermined time (30 minutes) has passed. Message is displayed. "

なお、他の状態変化のパターンとしては、例えば、居室内についてケアスタッフが入室した時点で整理されており、ケアスタッフが退出した時点でも整理されている場合がある。この場合には、管理者端末50には、例えば、「リビングでは、ケアスタッフ入室前から十分に綺麗な状態です。」といったメッセージが表示される。また、例えば、居室内についてケアスタッフが入室した時点で整理されており、ケアスタッフが退出した時点で散らかっている場合がある。この場合には、管理者端末50には、例えば、「リビングでは、ケアスタッフが故意に散らかしている可能性があります。」といったメッセージが表示される。   In addition, as another pattern of state change, for example, there is a case where the care staff is arranged when the care staff enters the room, and the arrangement is also arranged when the care staff leaves. In this case, for example, a message such as “In the living room, it is in a sufficiently beautiful state before entering the care staff” is displayed. Also, for example, there are cases where the living room is arranged when the care staff enters the room and is scattered when the care staff leaves. In this case, for example, a message such as “There is a possibility that care staff is intentionally scattered in the living room” is displayed on the manager terminal 50.

次に、実施例の評価システム1の動作について説明する。まず、居室の状態をセンシング情報DB123に記録する記録処理について説明する。図11は、記録処理の一例を示すフローチャートである。サーバ装置100の取得部131は、カメラ11から通信部110を介して居室の画像を、例えば、10秒ごとに取得する(ステップS1)。取得部131は、取得した画像を算出部132に出力する。   Next, the operation of the evaluation system 1 according to the embodiment will be described. First, the recording process which records the state of a living room in sensing information DB123 is demonstrated. FIG. 11 is a flowchart illustrating an example of the recording process. The acquisition unit 131 of the server device 100 acquires an image of a room from the camera 11 via the communication unit 110, for example, every 10 seconds (step S1). The acquisition unit 131 outputs the acquired image to the calculation unit 132.

算出部132は、取得部131から画像が入力されると、画像に対して画像解析を行う。算出部132は、例えば、エッジフィルタにて画像の輝度勾配を検出する(ステップS2)。算出部132は、画像の各画素について、周囲の輝度勾配の強度が一定範囲で、かつ隣接している画素をエッジ成分として結合して直線成分を算出する(ステップS3)。算出部132は、算出した直線成分に基づいてエッジライン数を算出する(ステップS4)。算出部132は、画像の撮像日時と、算出したエッジライン数とを対応付けて、センシング情報DB123に記録する(ステップS5)。   When an image is input from the acquisition unit 131, the calculation unit 132 performs image analysis on the image. For example, the calculation unit 132 detects the luminance gradient of the image using an edge filter (step S2). For each pixel of the image, the calculating unit 132 calculates a linear component by combining adjacent pixels as edge components within a certain range of the intensity of the surrounding luminance gradient (step S3). The calculation unit 132 calculates the number of edge lines based on the calculated linear component (step S4). The calculating unit 132 records the image capturing date / time and the calculated number of edge lines in the sensing information DB 123 in association with each other (step S5).

算出部132は、ケアスタッフが入室しているか否かを判定する(ステップS6)。算出部132は、ケアスタッフが入室している場合には(ステップS6:肯定)、画像の撮像日時と対応するケアスタッフ入室フラグを「1」に設定して(ステップS7)、センシング情報DB123に記録する。算出部132は、ケアスタッフが入室していない場合には(ステップS6:否定)、画像の撮像日時と対応するケアスタッフ入室フラグを「0」に設定して(ステップS8)、センシング情報DB123に記録する。算出部132は、センシング情報DB123へのケアスタッフ入室フラグの記録が終了すると、ステップS1に戻り、次のタイミングで取得された画像に対して同様の処理を繰り返す。これにより、居室内の状態と、ケアスタッフの入室または退出とを対応付けて記録することができる。   The calculation unit 132 determines whether the care staff has entered the room (step S6). When the care staff has entered the room (step S6: affirmative), the calculation unit 132 sets the care staff entry flag corresponding to the imaging date and time of the image to “1” (step S7), and enters the sensing information DB 123. Record. When the care staff has not entered the room (step S6: No), the calculation unit 132 sets the care staff entry flag corresponding to the image capturing date and time to “0” (step S8), and stores it in the sensing information DB 123. Record. When the recording of the care staff entry flag in the sensing information DB 123 ends, the calculation unit 132 returns to step S1 and repeats the same processing for the image acquired at the next timing. Thereby, the state in the living room and the entry or exit of the care staff can be recorded in association with each other.

続いて、センシング情報に基づいて、ケアスタッフの整理作業を判定する判定処理について説明する。なお、判定処理は、例えば、1日1回等の所定の間隔でバッチ処理として実行することができる。図12は、判定処理の一例を示すフローチャートである。サーバ装置100の判定部133は、入居者DB121を参照して、入居者の部屋ID等を取得する(ステップS51)。判定部133は、部屋IDの選択画面を生成し、通信部110を介して管理者端末50に送信する。管理者端末50は、受信した部屋IDの選択画面を図示しない表示部に表示させる(ステップS52)。管理者端末50は、例えば、管理者によって、部屋IDが選択されると、部屋IDの選択情報をサーバ装置100に送信する。   Next, determination processing for determining care staff organization work based on sensing information will be described. The determination process can be executed as a batch process at a predetermined interval such as once a day. FIG. 12 is a flowchart illustrating an example of the determination process. The determination unit 133 of the server device 100 refers to the resident DB 121 and acquires a resident's room ID and the like (step S51). The determination unit 133 generates a room ID selection screen and transmits the room ID selection screen to the administrator terminal 50 via the communication unit 110. The administrator terminal 50 displays the received room ID selection screen on a display unit (not shown) (step S52). For example, when a room ID is selected by the administrator, the manager terminal 50 transmits room ID selection information to the server apparatus 100.

判定部133は、部屋が選択されたか否かを判定する(ステップS53)。すなわち、判定部133は、管理者端末50から部屋IDの選択情報を受信したか否かを判定する。判定部133は、管理者端末50から部屋IDの選択情報を受信していない場合には(ステップS53:否定)、部屋IDの選択情報を受信するまでステップS53の判定を繰り返して待機する。判定部133は、管理者端末50から部屋IDの選択情報を受信した場合には(ステップS53:肯定)、比較処理を実行する(ステップS54)。   The determination unit 133 determines whether a room has been selected (step S53). That is, the determination unit 133 determines whether room ID selection information has been received from the administrator terminal 50. If the selection information of the room ID is not received from the administrator terminal 50 (No at Step S53), the determination unit 133 repeats the determination at Step S53 and waits until the selection information of the room ID is received. When the determination unit 133 receives the room ID selection information from the administrator terminal 50 (step S53: Yes), the determination unit 133 performs a comparison process (step S54).

ここで、図13および図14を用いて比較処理について説明する。図13および図14は、比較処理の一例を示すフローチャートである。判定部133は、センシング情報DB123から、指定された部屋IDに対応するセンシング情報を所定期間分取得する(ステップS541)。判定部133は、取得したセンシング情報のうち、先頭から順にセンシング情報を選択し(ステップS542)、ケアスタッフ入室フラグが「1」であるか否かを判定する(ステップS543)。判定部133は、選択したセンシング情報のケアスタッフ入室フラグが「1」でない場合には(ステップS543:否定)、ステップS542に戻り、次のセンシング情報を選択する。すなわち、判定部133は、センシング情報について、ケアスタッフ入室フラグが「1」であるか否かの判定を繰り返す。   Here, the comparison process will be described with reference to FIGS. 13 and 14. 13 and 14 are flowcharts illustrating an example of the comparison process. The determination unit 133 acquires sensing information corresponding to the designated room ID for a predetermined period from the sensing information DB 123 (step S541). The determination unit 133 sequentially selects sensing information from the top of the acquired sensing information (step S542), and determines whether or not the care staff entry flag is “1” (step S543). If the care staff entry flag of the selected sensing information is not “1” (No at Step S543), the determination unit 133 returns to Step S542 and selects the next sensing information. That is, the determination unit 133 repeatedly determines whether or not the care staff entry flag is “1” for the sensing information.

判定部133は、選択したセンシング情報のケアスタッフ入室フラグが「1」である場合には(ステップS543:肯定)、カメラ設置テーブル122を参照して、選択されたセンシング情報のエッジライン数と、対応する標準エッジライン数とを比較する(ステップS544)。判定部133は、選択されたセンシング情報のエッジライン数が標準エッジライン数から所定範囲内であるか否かを判定する(ステップS545)。判定部133は、選択されたセンシング情報のエッジライン数が標準エッジライン数から所定範囲内である場合には(ステップS545:肯定)、判定ワークテーブル125に、時刻、部屋IDおよびケア前フラグ「0」を記録する(ステップS546)。判定部133は、選択されたセンシング情報のエッジライン数が標準エッジライン数から所定範囲内でない場合には(ステップS545:否定)、判定ワークテーブル125に、時刻、部屋IDおよびケア前フラグ「1」を記録する(ステップS547)。   When the care staff entry flag of the selected sensing information is “1” (step S543: Yes), the determination unit 133 refers to the camera installation table 122, and the number of edge lines of the selected sensing information, The number of corresponding standard edge lines is compared (step S544). The determination unit 133 determines whether or not the number of edge lines of the selected sensing information is within a predetermined range from the number of standard edge lines (step S545). When the number of edge lines of the selected sensing information is within the predetermined range from the number of standard edge lines (step S545: affirmative), the determination unit 133 stores the time, room ID, and pre-care flag “ "0" is recorded (step S546). When the number of edge lines of the selected sensing information is not within the predetermined range from the number of standard edge lines (No at Step S545), the determination unit 133 stores the time, room ID, and pre-care flag “1” in the determination work table 125. Is recorded (step S547).

判定部133は、選択したセンシング情報の次のセンシング情報を順に選択し(ステップS548)、ケアスタッフ入室フラグが「0」であるか否かを判定する(ステップS549)。判定部133は、ケアスタッフ入室フラグが「0」でない場合には(ステップS549:否定)、ステップS548に戻り、次のセンシング情報を選択する。すなわち、判定部133は、センシング情報について、ケアスタッフ入室フラグが「0」であるか否かの判定を繰り返す。   The determination unit 133 sequentially selects the next sensing information after the selected sensing information (step S548), and determines whether or not the care staff entry flag is “0” (step S549). If the care staff entry flag is not “0” (No at Step S549), the determination unit 133 returns to Step S548 and selects the next sensing information. That is, the determination unit 133 repeatedly determines whether the care staff entry flag is “0” for the sensing information.

判定部133は、ケアスタッフ入室フラグが「0」である場合には(ステップS549:肯定)、カメラ設置テーブル122を参照して、選択されたセンシング情報のエッジライン数と、対応する標準エッジライン数とを比較する(ステップS550)。判定部133は、選択されたセンシング情報のエッジライン数が標準エッジライン数から所定範囲内であるか否かを判定する(ステップS551)。判定部133は、エッジライン数が標準エッジライン数から所定範囲内である場合には(ステップS551:肯定)、判定ワークテーブル125に、部屋IDに対応付けて、時刻およびケア後フラグ「0」を記録する(ステップS552)。判定部133は、エッジライン数が標準エッジライン数から所定範囲内でない場合には(ステップS551:否定)、判定ワークテーブル125に、部屋IDに対応付けて、時刻およびケア後フラグ「1」を記録する(ステップS553)。   When the care staff entry flag is “0” (Yes at step S549), the determination unit 133 refers to the camera installation table 122 and refers to the number of edge lines of the selected sensing information and the corresponding standard edge line. The number is compared (step S550). The determination unit 133 determines whether or not the number of edge lines of the selected sensing information is within a predetermined range from the number of standard edge lines (step S551). When the number of edge lines is within the predetermined range from the number of standard edge lines (step S551: Yes), the determination unit 133 associates the room ID with the time and post-care flag “0” in the determination work table 125. Is recorded (step S552). When the number of edge lines is not within the predetermined range from the number of standard edge lines (No at Step S551), the determination unit 133 sets the time and post-care flag “1” in the determination work table 125 in association with the room ID. Recording is performed (step S553).

判定部133は、ケアスタッフ入室フラグが「0」となってから所定時間後のセンシング情報を選択する(ステップS554)。判定部133は、カメラ設置テーブル122を参照して、選択されたセンシング情報のエッジライン数と、対応する標準エッジライン数とを比較する(ステップS555)。判定部133は、選択されたセンシング情報のエッジライン数が標準エッジライン数から所定範囲内であるか否かを判定する(ステップS556)。判定部133は、エッジライン数が標準エッジライン数から所定範囲内である場合には(ステップS556:肯定)、判定ワークテーブル125に、部屋IDに対応付けて、時刻およびケア後所定時間後フラグ「0」を記録する(ステップS557)。判定部133は、選択されたセンシング情報のエッジライン数が標準エッジライン数から所定範囲内でない場合には(ステップS556:否定)、判定ワークテーブル125に、部屋IDに対応付けて、時刻およびケア後所定時間後フラグ「1」を記録する(ステップS558)。判定部133は、ケアスタッフが居室内から退出した時点から所定時間経過後における居室内の状態を判定すると、出力制御部134に判定結果の出力を指示する。   The determination unit 133 selects sensing information a predetermined time after the care staff entry flag becomes “0” (step S554). The determination unit 133 refers to the camera installation table 122 and compares the number of edge lines of the selected sensing information with the corresponding number of standard edge lines (step S555). The determination unit 133 determines whether or not the number of edge lines of the selected sensing information is within a predetermined range from the number of standard edge lines (step S556). When the number of edge lines is within the predetermined range from the number of standard edge lines (step S556: Yes), the determination unit 133 associates the determination work table 125 with the room ID and sets the time and a post-care predetermined time flag. “0” is recorded (step S557). When the number of edge lines of the selected sensing information is not within the predetermined range from the number of standard edge lines (No at Step S556), the determination unit 133 associates the time and care with the determination work table 125 in association with the room ID. After the predetermined time, a flag “1” is recorded (step S558). When the determination unit 133 determines the state of the room after a predetermined time has elapsed from the time when the care staff leaves the room, the determination unit 133 instructs the output control unit 134 to output the determination result.

出力制御部134は、判定部133から判定結果の出力を指示されると、判定ワークテーブル125のフラグに対応するメッセージを、メッセージDB124から取得する。出力制御部134は、取得したメッセージ、つまり判定結果を出力する(ステップS559)。すなわち、出力制御部134は、メッセージに基づいて出力画面を生成し、通信部110を介して管理者端末50に送信する。これにより、センシング情報DB123のセンシング情報に基づいて、ケアスタッフの入室または退出等のイベントに応じた乱雑度、すなわち散らかり具合に係るメッセージを出力できる。   When the output control unit 134 is instructed to output the determination result from the determination unit 133, the output control unit 134 acquires a message corresponding to the flag of the determination work table 125 from the message DB 124. The output control unit 134 outputs the acquired message, that is, the determination result (step S559). That is, the output control unit 134 generates an output screen based on the message and transmits the output screen to the administrator terminal 50 via the communication unit 110. Thereby, based on the sensing information of the sensing information DB 123, a message related to the degree of randomness according to an event such as entering or leaving the care staff, that is, the degree of scattering can be output.

図12の説明に戻って、出力制御部134は、メッセージの送信後に、部屋IDの選択画面を生成し、通信部110を介して管理者端末50に送信する。管理者端末50は、受信した部屋IDの選択画面を図示しない表示部に表示させる(ステップS55)。出力制御部134は、部屋IDの選択画面で終了ボタンが押下された情報を受信したか否かを判定する(ステップS56)。出力制御部134は、部屋IDの選択画面で終了ボタンが押下された情報を受信しない場合には(ステップS56:否定)、判定部133に部屋IDの選択情報の受信を待機するように指示する。出力制御部134は、部屋IDの選択画面で終了ボタンが押下された情報を受信した場合には(ステップS56:肯定)、判定処理を終了する。これにより、入居者ごとのケアスタッフの入室または退出等のイベントに応じた乱雑度に係るメッセージを出力できる。   Returning to the description of FIG. 12, after the message is transmitted, the output control unit 134 generates a room ID selection screen and transmits it to the administrator terminal 50 via the communication unit 110. The administrator terminal 50 displays the received room ID selection screen on a display unit (not shown) (step S55). The output control unit 134 determines whether information indicating that the end button has been pressed on the room ID selection screen has been received (step S56). The output control unit 134 instructs the determination unit 133 to wait for reception of the room ID selection information when it does not receive the information indicating that the end button is pressed on the room ID selection screen (step S56: No). . When the output control unit 134 receives information indicating that the end button has been pressed on the room ID selection screen (step S56: Yes), the output control unit 134 ends the determination process. Thereby, the message which concerns on the degree of randomness according to events, such as entering or leaving the care staff for every resident, can be output.

このように、評価システム1は、特定の領域の状態を検出するセンサから出力されるセンサ情報であって、所定の退出イベントが発生した際のセンサ情報を取得し、取得した該センサ情報を解析して得られた乱雑度と基準乱雑度との比較結果を出力する。その結果、乱雑度の比較結果を出力できる。また、乱雑度の比較結果に基づいて、スタッフの作業を評価できる。   As described above, the evaluation system 1 acquires sensor information that is output from a sensor that detects the state of a specific region, and that is obtained when a predetermined exit event occurs, and analyzes the acquired sensor information. The comparison result between the randomness obtained in this way and the standard randomness is output. As a result, the comparison result of the randomness can be output. Moreover, the work of the staff can be evaluated based on the comparison result of the degree of randomness.

また、評価システム1は、特定の領域に対して所定の作業を行うスタッフが特定の領域から退出したことを検出した時点でセンサから出力されたセンサ情報を解析して得られた乱雑度と基準乱雑度とを比較する。評価システム1は、比較結果に基づいて、スタッフによる所定の作業が適切に行われたか否かを判定し、判定結果を出力する。その結果、スタッフが居室内から退出した時点において、スタッフが適切に所定の作業を行ったか否かを評価することができる。   Further, the evaluation system 1 determines the degree of randomness and the reference obtained by analyzing the sensor information output from the sensor when it is detected that a staff member who performs a predetermined operation on the specific area has left the specific area. Compare messiness. The evaluation system 1 determines whether or not the predetermined work by the staff has been appropriately performed based on the comparison result, and outputs the determination result. As a result, it is possible to evaluate whether or not the staff has appropriately performed the predetermined work when the staff leaves the room.

また、評価システム1は、特定の領域から退出したことを検出した第一の時点でセンサから出力されたセンサ情報を解析して得られた第一の乱雑度と基準乱雑度とを比較する。また、評価システム1は、第一の時点から所定の時間が経過した第二の時点でセンサから出力されたセンサ情報を解析して得られた第二の乱雑度と基準乱雑度とを比較する。また、評価システム1は、これらの比較結果に基づいて、特定の領域を利用する利用者に対する注意の必要の有無を判定し、判定結果を出力する。その結果、入居者がスタッフの退出後に故意に散らかすことを検出して注意を要することを判定できるので、入居者の故意の散らかしの影響を抑制して、スタッフの所定の作業の評価を適切に行うことができる。   Further, the evaluation system 1 compares the first randomness obtained by analyzing the sensor information output from the sensor at the first time point when the exit from the specific area is detected with the reference randomness. Further, the evaluation system 1 compares the second randomness obtained by analyzing the sensor information output from the sensor at a second time when a predetermined time has elapsed from the first time and the reference randomness. . Further, the evaluation system 1 determines whether or not the user who uses the specific area needs attention based on these comparison results, and outputs the determination result. As a result, it is possible to detect that a resident deliberately scatters after leaving the staff and to determine that attention is required. It can be carried out.

また、評価システム1は、さらに、特定の領域に対して所定の作業を行うスタッフが特定の領域に入ったことを検出した第三の時点でセンサから出力されたセンサ情報を解析して得られた第三の乱雑度と基準乱雑度とを比較する。また、評価システム1は、第三の乱雑度と基準乱雑度との比較結果、および、第一の乱雑度と基準乱雑度との比較結果に基づいて、スタッフによる所定の作業が適切に行われたか否かを判定し、判定結果を出力する。その結果、スタッフの入室時点の散らかり具合と、スタッフの退出時点の散らかり具合とに基づいて、スタッフの所定の作業を評価することができる。   Further, the evaluation system 1 is obtained by analyzing sensor information output from the sensor at a third time point when it is detected that a staff member who performs a predetermined operation on the specific area has entered the specific area. The third randomness is compared with the standard randomness. In addition, the evaluation system 1 appropriately performs predetermined work by the staff based on the comparison result between the third randomness degree and the reference randomness degree and the comparison result between the first randomness degree and the reference randomness degree. It is determined whether or not, and the determination result is output. As a result, the predetermined work of the staff can be evaluated based on the degree of scattering when the staff enters the room and the degree of scattering when the staff leaves.

また、評価システム1は、特定の領域の画像を撮像する撮像装置であるセンサから出力される撮像画像であるセンサ情報を画像解析し、物体のエッジに基づくエッジライン数である乱雑度を得る。その結果、容易に乱雑度を求めることができる。   In addition, the evaluation system 1 performs image analysis on sensor information that is a captured image output from a sensor that is an image capturing apparatus that captures an image of a specific region, and obtains a randomness that is the number of edge lines based on the edge of the object. As a result, the degree of randomness can be easily obtained.

また、評価システム1は、乱雑度が基準乱雑度から所定量以上乖離した場合に、特定の領域について、スタッフによる所定の作業が適切に行われていないと判定し、判定結果を出力する。その結果、入居者の日常生活に伴う居室内の配置変更等により、散らかり具合が増加したと誤判定することを抑制できる。   Moreover, the evaluation system 1 determines that the predetermined work by the staff is not appropriately performed for the specific area when the randomness deviates from the reference randomness by a predetermined amount or more, and outputs a determination result. As a result, it is possible to suppress erroneous determination that the degree of scatter has increased due to a change in the arrangement of the room accompanying the daily life of the resident.

また、評価システム1は、乱雑度が基準乱雑度から所定量以上増加した場合に、特定の領域について、スタッフによる所定の作業が適切に行われていないと判定し、判定結果を出力する。その結果、入居者の日常生活に伴う居室内の配置変更等により、散らかり具合が増加したと誤判定することを抑制できる。   Moreover, the evaluation system 1 determines that the predetermined work by the staff is not appropriately performed for a specific area when the randomness increases by a predetermined amount or more from the reference randomness, and outputs a determination result. As a result, it is possible to suppress erroneous determination that the degree of scatter has increased due to a change in the arrangement of the room accompanying the daily life of the resident.

また、評価システム1は、撮像装置であるセンサで特定の領域を撮像した撮像画像において人物の頭が増加することで、所定の入室イベントが発生したことを検出する。その結果、簡易に所定の入室イベントを検出することができる。   In addition, the evaluation system 1 detects that a predetermined entrance event has occurred by increasing the number of human heads in a captured image obtained by capturing a specific area with a sensor that is an imaging device. As a result, a predetermined entry event can be easily detected.

また、評価システム1は、撮像装置であるセンサで特定の領域を撮像した撮像画像においてスタッフを表すマーカを検出しない状態からマーカを検出した状態に遷移することで、所定の入室イベントが発生したことを検出する。また、評価システム1は、撮像画像においてマーカを検出した状態からマーカを検出しない状態に遷移することで、所定の退出イベントが発生したことを検出する。その結果、入居者の家族等のケアを実施しない人物とスタッフとを容易に判別できる。   In addition, the evaluation system 1 changes from a state in which a marker representing a staff is not detected to a state in which a marker is detected in a captured image obtained by capturing a specific area with a sensor that is an imaging device, thereby causing a predetermined entry event to occur. Is detected. In addition, the evaluation system 1 detects that a predetermined exit event has occurred by making a transition from a state in which the marker is detected in the captured image to a state in which the marker is not detected. As a result, it is possible to easily distinguish a person who does not perform care such as a resident's family and a staff.

また、評価システム1は、センサはIDカードリーダを有し、スタッフが所持するIDカードの情報を、入室を表す情報とともに検出することで、所定の入室イベントが発生したことを検出する。また、評価システム1は、IDカードの情報を、退出を表す情報とともに検出することで、所定の退出イベントが発生したことを検出する。その結果、入居者の家族等のケアを実施しない人物とスタッフとを容易に判別できる。   The evaluation system 1 has an ID card reader, and detects information on an ID card possessed by the staff together with information indicating entry, thereby detecting that a predetermined entry event has occurred. Moreover, the evaluation system 1 detects that the predetermined leaving event generate | occur | produced by detecting the information of ID card with the information showing leaving. As a result, it is possible to easily distinguish a person who does not perform care such as a resident's family and a staff.

なお、上記実施例では、居室内の全範囲について乱雑度を算出したが、これに限定されない。例えば、居室内の一部分について乱雑度を算出して、基準乱雑度と比較するようにしてもよい。図15は、居室内の一部分について比較する場合の一例を示す図である。図15に示すように、評価システム1は、居室26内のうち、例えば、タンス等の容易に動かすことができない家具が配置されている部分を除いて、範囲27について乱雑度を算出して、基準乱雑度と比較することができる。これにより、乱雑度の算出処理を低減することができる。   In the above embodiment, the messiness is calculated for the entire range in the room, but the present invention is not limited to this. For example, the randomness may be calculated for a part of the room and compared with the reference randomness. FIG. 15 is a diagram illustrating an example of a case where a part of a living room is compared. As shown in FIG. 15, the evaluation system 1 calculates a messiness degree for the range 27 except for a portion in the living room 26 where furniture that cannot be moved easily, such as a chiffon, is arranged. It can be compared with the reference randomness. Thereby, the calculation process of randomness can be reduced.

また、上記実施例では、乱雑度としてエッジライン数を用いたが、これに限定されない。例えば、距離センサで計測した居室内の高さを乱雑度の指標としてもよい。図16は、高さを乱雑度の指標とする場合の乱雑度の算出の一例を示す図である。図16に示すように、サーバ装置100は、基準状態28と、基準状態28に基づく高さ情報30とを予め取得する。また、サーバ装置100は、散らかっている状態である比較対象29と、比較対象29に基づく高さ情報31とを取得する。ここで、比較対象29および高さ情報31と、基準状態28および高さ情報30とを比較すると、物体29aおよび物体29aに係る高さ情報29bが増加しているとする。続いて、高さ情報30と、高さ情報31との差分32を取ると、高さ情報29bに相当する面積29cが乱雑度として算出できる。   Moreover, in the said Example, although the number of edge lines was used as a randomness degree, it is not limited to this. For example, the height of the room measured by the distance sensor may be used as an indicator of the degree of randomness. FIG. 16 is a diagram illustrating an example of calculation of the randomness when the height is used as an index of randomness. As illustrated in FIG. 16, the server apparatus 100 acquires a reference state 28 and height information 30 based on the reference state 28 in advance. Further, the server device 100 acquires the comparison target 29 that is in a messed state and the height information 31 based on the comparison target 29. Here, when the comparison object 29 and the height information 31 are compared with the reference state 28 and the height information 30, it is assumed that the object 29a and the height information 29b related to the object 29a are increased. Subsequently, when the difference 32 between the height information 30 and the height information 31 is taken, an area 29c corresponding to the height information 29b can be calculated as the randomness.

ここで、高さ情報30および31は、例えば、天井に設置された光源から居室内に光を照射して、照射光の反射光、ならびに、照射光および反射光の位相情報を含む画像を撮像して画像解析し、位相情報に基づき撮像画像の画素ごとに距離を算出して求める。すなわち、高さ情報30および31は、TOF(Time Of Flight)によって距離を算出することで求めることができる。また、高さ情報30および31は、例えば、光源から居室内に特定のパターンを含む照射光を照射し、特定のパターンに基づいて距離を算出して求めることができる。さらに、高さ情報30および31は、例えば、居室内にレーザ光を照射して距離を計測する距離センサを用いて計測した距離に基づいて求めることができる。ここで、距離センサは、例えば、ライダー(LIDAR:Light Detection and Ranging、または、Laser Imaging Detection and Ranging、もしくは、LADAR:Laser Detection and Ranging)を用いることができる。   Here, for example, the height information 30 and 31 is obtained by irradiating a living room from a light source installed on the ceiling and capturing an image including reflected light of the irradiated light and phase information of the irradiated light and reflected light. Then, image analysis is performed, and a distance is calculated for each pixel of the captured image based on the phase information. That is, the height information 30 and 31 can be obtained by calculating the distance by TOF (Time Of Flight). Further, the height information 30 and 31 can be obtained by, for example, irradiating irradiation light including a specific pattern from a light source into a living room, and calculating a distance based on the specific pattern. Further, the height information 30 and 31 can be obtained based on the distance measured using a distance sensor that measures the distance by irradiating the living room with laser light, for example. Here, for example, a rider (LIDAR: Light Detection and Ranging or Laser Imaging Detection and Ranging or LADAR: Laser Detection and Ranging) can be used as the distance sensor.

高さを居室内の乱雑度の指標とする場合には、評価システム1は、入居施設10の区画ごとに、例えば、端末装置を設け、端末装置が居室内の高さに基づいて乱雑度を算出する。端末装置は、例えば、サーバ装置100の算出部132の処理の一部であるセンシング情報として、エッジライン数に代えて高さに基づく乱雑度を算出し、サーバ装置100に送信する。   When the height is used as an indicator of the degree of messiness in the room, the evaluation system 1 provides, for example, a terminal device for each section of the occupancy facility 10, and the terminal device determines the degree of messiness based on the height of the room. calculate. The terminal device calculates, for example, the degree of randomness based on height instead of the number of edge lines as sensing information that is a part of the processing of the calculation unit 132 of the server device 100, and transmits it to the server device 100.

このように、評価システム1は、特定の領域に対して照射光を照射して照射光の反射光、ならびに、照射光および反射光の位相情報を含む特定の領域の画像を撮像する撮像装置であるセンサから出力される撮像画像であるセンサ情報を画像解析し、位相情報に基づき撮像画像の画素ごとに算出された距離に基づいて乱雑度を得る。その結果、高さ方向の要素を考慮した乱雑度を求めることができる。   As described above, the evaluation system 1 is an imaging device that irradiates a specific region with irradiation light and captures an image of the specific region including the reflected light of the irradiation light and the phase information of the irradiation light and the reflected light. Sensor information which is a captured image output from a certain sensor is subjected to image analysis, and a randomness is obtained based on a distance calculated for each pixel of the captured image based on phase information. As a result, it is possible to obtain a degree of randomness considering elements in the height direction.

また、評価システム1は、特定のパターンを含む照射光の特定のパターンに基づいて距離を算出することで乱雑度を得る。その結果、容易に高さ方向の要素を考慮した乱雑度を求めることができる。   Moreover, the evaluation system 1 obtains a randomness by calculating a distance based on a specific pattern of irradiation light including a specific pattern. As a result, it is possible to easily obtain the degree of randomness considering the elements in the height direction.

また、評価システム1は、特定の領域に対してレーザ光を照射して距離を計測する距離センサであるセンサから出力される距離情報であるセンサ情報に含まれる距離情報に基づいて乱雑度を得る。その結果、高さ方向の要素を考慮した乱雑度を求めることができる。   In addition, the evaluation system 1 obtains a randomness degree based on distance information included in sensor information that is distance information output from a sensor that is a distance sensor that measures a distance by irradiating a specific region with laser light. . As a result, it is possible to obtain a degree of randomness considering elements in the height direction.

また、図示した各部の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各部の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、算出部132のセンシング情報を算出する処理をカメラ11側で行うようにしてもよい。   In addition, each component of each part illustrated does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution / integration of each unit is not limited to that shown in the figure, and all or a part thereof may be functionally or physically distributed / integrated in arbitrary units according to various loads or usage conditions. Can be configured. For example, the process of calculating the sensing information of the calculation unit 132 may be performed on the camera 11 side.

さらに、各装置で行われる各種処理機能は、CPU(またはMPU、MCU(Micro Controller Unit)等のマイクロ・コンピュータ)上で、その全部または任意の一部を実行するようにしてもよい。また、各種処理機能は、CPU(またはMPU、MCU等のマイクロ・コンピュータ)で解析実行されるプログラム上、またはワイヤードロジックによるハードウェア上で、その全部または任意の一部を実行するようにしてもよいことは言うまでもない。   Furthermore, various processing functions performed by each device may be executed entirely or arbitrarily on a CPU (or a microcomputer such as an MPU or MCU (Micro Controller Unit)). In addition, various processing functions may be executed in whole or in any part on a program that is analyzed and executed by a CPU (or a microcomputer such as an MPU or MCU) or on hardware based on wired logic. Needless to say, it is good.

ところで、上記の実施例で説明した各種の処理は、予め用意されたプログラムをコンピュータで実行することで実現できる。そこで、以下では、上記の実施例と同様の機能を有するプログラムを実行するコンピュータの一例を説明する。図17は、評価プログラムを実行するコンピュータの一例を示す図である。   By the way, the various processes described in the above embodiments can be realized by executing a program prepared in advance by a computer. Therefore, in the following, an example of a computer that executes a program having the same function as in the above embodiment will be described. FIG. 17 is a diagram illustrating an example of a computer that executes an evaluation program.

図17が示すように、コンピュータ200は、各種演算処理を実行するCPU201と、データ入力を受け付ける入力装置202と、モニタ203とを有する。また、コンピュータ200は、記憶媒体からプログラム等を読み取る媒体読取装置204と、各種装置と接続するためのインタフェース装置205と、他の情報処理装置等と有線または無線により接続するための通信装置206とを有する。また、コンピュータ200は、各種情報を一時記憶するRAM207と、ハードディスク装置208とを有する。また、各装置201〜208は、バス209に接続される。   As illustrated in FIG. 17, the computer 200 includes a CPU 201 that executes various arithmetic processes, an input device 202 that receives data input, and a monitor 203. The computer 200 also includes a medium reading device 204 that reads a program and the like from a storage medium, an interface device 205 for connecting to various devices, and a communication device 206 for connecting to other information processing devices and the like by wire or wirelessly. Have The computer 200 also includes a RAM 207 that temporarily stores various types of information and a hard disk device 208. Each device 201 to 208 is connected to a bus 209.

ハードディスク装置208には、図1に示した取得部131、算出部132、判定部133および出力制御部134の各処理部と同様の機能を有する評価プログラムが記憶される。また、ハードディスク装置208には、入居者DB121、カメラ設置テーブル122、センシング情報DB123、メッセージDB124、判定ワークテーブル125、および、評価プログラムを実現するための各種データが記憶される。入力装置202は、例えば、コンピュータ200の管理者から管理情報等の各種情報の入力を受け付ける。モニタ203は、例えば、コンピュータ200の管理者に対して管理情報の画面や各種画面を表示する。インタフェース装置205は、例えば印刷装置等が接続される。通信装置206は、例えば、図1に示した通信部110と同様の機能を有しネットワークNと接続され、管理者端末50、カメラ11や他の装置と各種情報をやりとりする。   The hard disk device 208 stores an evaluation program having the same functions as the processing units of the acquisition unit 131, the calculation unit 132, the determination unit 133, and the output control unit 134 illustrated in FIG. The hard disk device 208 also stores a resident DB 121, a camera installation table 122, a sensing information DB 123, a message DB 124, a determination work table 125, and various data for realizing an evaluation program. The input device 202 receives input of various information such as management information from an administrator of the computer 200, for example. The monitor 203 displays, for example, a management information screen and various screens for the administrator of the computer 200. The interface device 205 is connected to, for example, a printing device. For example, the communication device 206 has the same function as the communication unit 110 illustrated in FIG. 1 and is connected to the network N, and exchanges various information with the administrator terminal 50, the camera 11, and other devices.

CPU201は、ハードディスク装置208に記憶された各プログラムを読み出して、RAM207に展開して実行することで、各種の処理を行う。また、これらのプログラムは、コンピュータ200を図1に示した取得部131、算出部132、判定部133および出力制御部134として機能させることができる。   The CPU 201 reads out each program stored in the hard disk device 208, develops it in the RAM 207, and executes it to perform various processes. In addition, these programs can cause the computer 200 to function as the acquisition unit 131, the calculation unit 132, the determination unit 133, and the output control unit 134 illustrated in FIG.

なお、上記の評価プログラムは、必ずしもハードディスク装置208に記憶されている必要はない。例えば、コンピュータ200が読み取り可能な記憶媒体に記憶されたプログラムを、コンピュータ200が読み出して実行するようにしてもよい。コンピュータ200が読み取り可能な記憶媒体は、例えば、CD−ROMやDVDディスク、USB(Universal Serial Bus)メモリ等の可搬型記録媒体、フラッシュメモリ等の半導体メモリ、ハードディスクドライブ等が対応する。また、公衆回線、インターネット、LAN等に接続された装置にこの評価プログラムを記憶させておき、コンピュータ200がこれらから評価プログラムを読み出して実行するようにしてもよい。   Note that the above evaluation program is not necessarily stored in the hard disk device 208. For example, the computer 200 may read and execute a program stored in a storage medium readable by the computer 200. The storage medium readable by the computer 200 corresponds to, for example, a portable recording medium such as a CD-ROM, a DVD disk, a USB (Universal Serial Bus) memory, a semiconductor memory such as a flash memory, a hard disk drive, and the like. Alternatively, the evaluation program may be stored in a device connected to a public line, the Internet, a LAN, or the like, and the computer 200 may read and execute the evaluation program therefrom.

以上、本実施例を含む実施の形態に関し、さらに以下の付記を開示する。   As described above, the following supplementary notes are further disclosed regarding the embodiment including the present example.

(付記1)特定の領域の状態を検出するセンサから出力されるセンサ情報であって、所定の退出イベントが発生した際のセンサ情報を取得し、
取得した該センサ情報を解析して得られた乱雑度と基準乱雑度との比較結果を出力する、
処理をコンピュータが実行することを特徴とする評価方法。
(Additional remark 1) It is sensor information output from the sensor which detects the state of a specific area, Comprising: Sensor information at the time of a predetermined leaving event occurs,
Outputting a comparison result between the randomness obtained by analyzing the acquired sensor information and the standard randomness,
An evaluation method, wherein a computer executes processing.

(付記2)前記出力する処理は、前記特定の領域に対して所定の作業を行うスタッフが前記特定の領域から退出したことを検出した時点で前記センサから出力された前記センサ情報を解析して得られた乱雑度と基準乱雑度との比較結果に基づいて、前記スタッフによる前記所定の作業が適切に行われたか否かを判定し、判定結果を出力することを特徴とする付記1に記載の評価方法。 (Additional remark 2) The said process to output analyzes the said sensor information output from the said sensor at the time of detecting that the staff who performs a predetermined | prescribed operation | work with respect to the said specific area withdrew from the said specific area. The supplementary note 1 is characterized in that, based on a comparison result between the obtained randomness degree and a reference randomness degree, whether or not the predetermined work by the staff is appropriately performed is determined, and a determination result is output. Evaluation method.

(付記3)前記出力する処理は、前記特定の領域から退出したことを検出した第一の時点で前記センサから出力された前記センサ情報を解析して得られた第一の乱雑度と前記基準乱雑度との比較結果、および、前記第一の時点から所定の時間が経過した第二の時点で前記センサから出力された前記センサ情報を解析して得られた第二の乱雑度と前記基準乱雑度との比較結果に基づいて、前記特定の領域を利用する利用者に対する注意の必要の有無を判定し、判定結果を出力することを特徴とする付記2に記載の評価方法。 (Additional remark 3) The said process to output is the 1st randomness obtained by analyzing the said sensor information output from the said sensor at the 1st time which detected having withdraw | exited from the said specific area | region, and the said reference | standard The result of comparison with the degree of randomness, and the second degree of randomness obtained by analyzing the sensor information output from the sensor at a second time when a predetermined time has elapsed from the first time and the reference The evaluation method according to appendix 2, characterized in that, based on a result of comparison with the degree of randomness, whether or not a user who uses the specific area needs attention is determined and a determination result is output.

(付記4)前記出力する処理は、さらに、前記特定の領域に対して所定の作業を行うスタッフが前記特定の領域に入ったことを検出した第三の時点で前記センサから出力された前記センサ情報を解析して得られた第三の乱雑度と前記基準乱雑度との比較結果、および、前記第一の乱雑度と前記基準乱雑度との比較結果に基づいて、前記スタッフによる前記所定の作業が適切に行われたか否かを判定し、判定結果を出力することを特徴とする付記3に記載の評価方法。 (Additional remark 4) The said process to output is further the said sensor output from the said sensor at the 3rd time which detected that the staff who performs predetermined work with respect to the said specific area entered into the said specific area Based on the comparison result between the third randomness degree obtained by analyzing information and the reference randomness degree, and the comparison result between the first randomness degree and the reference randomness degree, the predetermined number by the staff The evaluation method according to appendix 3, wherein it is determined whether or not the work has been appropriately performed, and a determination result is output.

(付記5)前記出力する処理は、前記特定の領域の画像を撮像する撮像装置である前記センサから出力される撮像画像である前記センサ情報を画像解析し、物体のエッジに基づくエッジライン数である前記乱雑度を得ることを特徴とする付記2〜4のいずれか1つに記載の評価方法。 (Additional remark 5) The said process to output carries out image analysis of the said sensor information which is the picked-up image output from the said sensor which is an imaging device which images the image of the said specific area, and is the number of edge lines based on the edge of an object. The evaluation method according to any one of appendices 2 to 4, wherein the degree of randomness is obtained.

(付記6)前記出力する処理は、前記特定の領域に対して照射光を照射して前記照射光の反射光、ならびに、前記照射光および前記反射光の位相情報を含む前記特定の領域の画像を撮像する撮像装置である前記センサから出力される撮像画像である前記センサ情報を画像解析し、前記位相情報に基づき前記撮像画像の画素ごとに算出された距離に基づいて前記乱雑度を得ることを特徴とする付記2〜4のいずれか1つに記載の評価方法。 (Additional remark 6) The said process to output is the image of the said specific area | region which irradiates irradiation light with respect to the said specific area | region, and includes the reflected light of the said irradiation light, and the phase information of the said irradiation light and the said reflected light The sensor information that is a captured image output from the sensor that is an imaging device that captures the image is subjected to image analysis, and the randomness is obtained based on the distance calculated for each pixel of the captured image based on the phase information. The evaluation method according to any one of appendices 2 to 4, characterized by:

(付記7)前記出力する処理は、特定のパターンを含む前記照射光の前記特定のパターンに基づいて距離を算出することで前記乱雑度を得ることを特徴とする付記6に記載の評価方法。 (Supplementary note 7) The evaluation method according to supplementary note 6, wherein the output process obtains the degree of randomness by calculating a distance based on the specific pattern of the irradiation light including a specific pattern.

(付記8)前記出力する処理は、前記特定の領域に対してレーザ光を照射して距離を計測する距離センサである前記センサから出力される距離情報である前記センサ情報に含まれる前記距離情報に基づいて前記乱雑度を得ることを特徴とする付記2〜4のいずれか1つに記載の評価方法。 (Supplementary Note 8) The distance information included in the sensor information that is the distance information output from the sensor that is a distance sensor that measures the distance by irradiating the specific region with laser light. The evaluation method according to any one of appendices 2 to 4, wherein the randomness degree is obtained based on the method.

(付記9)前記出力する処理は、前記乱雑度が前記基準乱雑度から所定量以上乖離した場合に、前記特定の領域について、前記スタッフによる前記所定の作業が適切に行われていないと判定し、判定結果を出力することを特徴とする付記2〜8のいずれか1つに記載の評価方法。 (Additional remark 9) The said process to output determines that the said predetermined | prescribed operation | work by the said staff is not performed appropriately about the said specific area | region when the said randomness deviates more than the predetermined amount from the said reference randomness. The evaluation method according to any one of appendices 2 to 8, wherein a determination result is output.

(付記10)前記出力する処理は、前記乱雑度が前記基準乱雑度から所定量以上増加した場合に、前記特定の領域について、前記スタッフによる前記所定の作業が適切に行われていないと判定し、判定結果を出力することを特徴とする付記9に記載の評価方法。 (Additional remark 10) The said process to output determines that the said predetermined | prescribed operation | work by the said staff is not performed appropriately about the said specific area | region, when the said randomness increases more than the reference | standard randomness more than predetermined amount. The evaluation method according to appendix 9, wherein a determination result is output.

(付記11)前記出力する処理は、撮像装置である前記センサで前記特定の領域を撮像した撮像画像において人物の頭が増加することで、所定の入室イベントが発生したことを検出することを特徴とする付記2〜10のいずれか1つに記載の評価方法。 (Additional remark 11) The said process to output detects that the predetermined | prescribed entrance event generate | occur | produced because the head of a person increases in the picked-up image which imaged the said specific area | region with the said sensor which is an imaging device. The evaluation method according to any one of Supplementary notes 2 to 10.

(付記12)前記出力する処理は、撮像装置である前記センサで前記特定の領域を撮像した撮像画像において前記スタッフを表すマーカを検出しない状態から前記マーカを検出した状態に遷移することで、所定の入室イベントが発生したことを検出し、前記撮像画像において前記マーカを検出した状態から前記マーカを検出しない状態に遷移することで、前記所定の退出イベントが発生したことを検出することを特徴とする付記2〜10のいずれか1つに記載の評価方法。 (Additional remark 12) The said process to output is predetermined by changing from the state which does not detect the marker showing the said staff in the captured image which imaged the said specific area | region with the said sensor which is an imaging device to the state which detected the said marker. It is detected that the predetermined exit event has occurred by transitioning from a state in which the marker is detected in the captured image to a state in which the marker is not detected. The evaluation method according to any one of Supplementary notes 2 to 10.

(付記13)前記出力する処理は、前記センサはIDカードリーダを有し、前記スタッフが所持するIDカードの情報を、入室を表す情報とともに検出することで、所定の入室イベントが発生したことを検出し、前記IDカードの情報を、退出を表す情報とともに検出することで、前記所定の退出イベントが発生したことを検出することを特徴とする付記2〜10のいずれか1つに記載の評価方法。 (Supplementary note 13) In the output process, the sensor has an ID card reader, and the information on the ID card possessed by the staff is detected together with the information indicating the entry, whereby a predetermined entry event has occurred. The evaluation according to any one of appendices 2 to 10, wherein the occurrence of the predetermined exit event is detected by detecting and detecting information on the ID card together with information indicating exit. Method.

(付記14)特定の領域の状態を検出するセンサから出力されるセンサ情報であって、所定の退出イベントが発生した際のセンサ情報を取得し、
取得した該センサ情報を解析して得られた乱雑度と基準乱雑度との比較結果を出力する、
処理をコンピュータに実行させることを特徴とする評価プログラム。
(Additional remark 14) It is sensor information output from the sensor which detects the state of a specific area | region, Comprising: The sensor information when a predetermined leaving event generate | occur | produces,
Outputting a comparison result between the randomness obtained by analyzing the acquired sensor information and the standard randomness,
An evaluation program for causing a computer to execute processing.

(付記15)前記出力する処理は、前記特定の領域に対して所定の作業を行うスタッフが前記特定の領域から退出したことを検出した時点で前記センサから出力された前記センサ情報を解析して得られた乱雑度と基準乱雑度との比較結果に基づいて、前記スタッフによる前記所定の作業が適切に行われたか否かを判定し、判定結果を出力することを特徴とする付記14に記載の評価プログラム。 (Additional remark 15) The said process to output analyzes the said sensor information output from the said sensor at the time of detecting that the staff who performs a predetermined | prescribed operation | work with respect to the said specific area withdraws from the said specific area. The supplementary note 14 is characterized in that, based on a comparison result between the obtained randomness and a reference randomness, it is determined whether or not the predetermined work by the staff is appropriately performed, and a determination result is output. Evaluation program.

(付記16)前記出力する処理は、前記特定の領域から退出したことを検出した第一の時点で前記センサから出力された前記センサ情報を解析して得られた第一の乱雑度と前記基準乱雑度との比較結果、および、前記第一の時点から所定の時間が経過した第二の時点で前記センサから出力された前記センサ情報を解析して得られた第二の乱雑度と前記基準乱雑度との比較結果に基づいて、前記特定の領域を利用する利用者に対する注意の必要の有無を判定し、判定結果を出力することを特徴とする付記14に記載の評価プログラム。 (Supplementary Note 16) The output processing includes the first randomness obtained by analyzing the sensor information output from the sensor at the first time point when the exit from the specific area is detected, and the reference The result of comparison with the degree of randomness, and the second degree of randomness obtained by analyzing the sensor information output from the sensor at a second time when a predetermined time has elapsed from the first time and the reference 15. The evaluation program according to appendix 14, characterized in that, based on a result of comparison with the degree of randomness, it is determined whether or not a user who uses the specific area needs attention, and a determination result is output.

(付記17)前記出力する処理は、さらに、前記特定の領域に対して所定の作業を行うスタッフが前記特定の領域に入ったことを検出した第三の時点で前記センサから出力された前記センサ情報を解析して得られた第三の乱雑度と前記基準乱雑度との比較結果、および、前記第一の乱雑度と前記基準乱雑度との比較結果に基づいて、前記スタッフによる前記所定の作業が適切に行われたか否かを判定し、判定結果を出力することを特徴とする付記15に記載の評価プログラム。 (Additional remark 17) The said process to output is further the said sensor output from the said sensor at the 3rd time which detected that the staff who performs predetermined work with respect to the said specific area entered into the said specific area | region Based on the comparison result between the third randomness degree obtained by analyzing information and the reference randomness degree, and the comparison result between the first randomness degree and the reference randomness degree, the predetermined number by the staff The evaluation program according to appendix 15, wherein it is determined whether or not the work has been appropriately performed, and a determination result is output.

(付記18)前記出力する処理は、前記特定の領域の画像を撮像する撮像装置である前記センサから出力される撮像画像である前記センサ情報を画像解析し、物体のエッジに基づくエッジライン数である前記乱雑度を得ることを特徴とする付記15〜17のいずれか1つに記載の評価プログラム。 (Additional remark 18) The said process to output carries out image analysis of the said sensor information which is the picked-up image output from the said sensor which is an imaging device which images the image of the said specific area, and is the number of edge lines based on the edge of an object. The evaluation program according to any one of supplementary notes 15 to 17, wherein the degree of randomness is obtained.

(付記19)前記出力する処理は、前記特定の領域に対して照射光を照射して前記照射光の反射光、ならびに、前記照射光および前記反射光の位相情報を含む前記特定の領域の画像を撮像する撮像装置である前記センサから出力される撮像画像である前記センサ情報を画像解析し、前記位相情報に基づき前記撮像画像の画素ごとに算出された距離に基づいて前記乱雑度を得ることを特徴とする付記15〜17のいずれか1つに記載の評価プログラム。 (Additional remark 19) The process of outputting is the image of the said specific area | region which irradiates irradiation light with respect to the said specific area, and includes the reflected light of the said irradiation light, and the phase information of the said irradiation light and the said reflected light The sensor information that is a captured image output from the sensor that is an imaging device that captures the image is subjected to image analysis, and the randomness is obtained based on the distance calculated for each pixel of the captured image based on the phase information. The evaluation program according to any one of supplementary notes 15 to 17, characterized by:

(付記20)前記出力する処理は、特定のパターンを含む前記照射光の前記特定のパターンに基づいて距離を算出することで前記乱雑度を得ることを特徴とする付記19に記載の評価プログラム。 (Supplementary note 20) The evaluation program according to supplementary note 19, wherein the output process obtains the degree of randomness by calculating a distance based on the specific pattern of the irradiation light including a specific pattern.

(付記21)前記出力する処理は、前記特定の領域に対してレーザ光を照射して距離を計測する距離センサである前記センサから出力される距離情報である前記センサ情報に含まれる前記距離情報に基づいて前記乱雑度を得ることを特徴とする付記15〜17のいずれか1つに記載の評価プログラム。 (Supplementary note 21) The distance information included in the sensor information that is the distance information output from the sensor that is a distance sensor that measures the distance by irradiating the specific region with laser light. The evaluation program according to any one of appendices 15 to 17, wherein the degree of randomness is obtained based on the score.

(付記22)前記出力する処理は、前記乱雑度が前記基準乱雑度から所定量以上乖離した場合に、前記特定の領域について、前記スタッフによる前記所定の作業が適切に行われていないと判定し、判定結果を出力することを特徴とする付記15〜21のいずれか1つに記載の評価プログラム。 (Additional remark 22) The said process to output determines that the said predetermined | prescribed operation | work by the said staff is not performed appropriately about the said specific area | region when the said randomness deviates more than the predetermined amount from the said reference randomness. The evaluation program according to any one of supplementary notes 15 to 21, wherein a determination result is output.

(付記23)前記出力する処理は、前記乱雑度が前記基準乱雑度から所定量以上増加した場合に、前記特定の領域について、前記スタッフによる前記所定の作業が適切に行われていないと判定し、判定結果を出力することを特徴とする付記22に記載の評価プログラム。 (Additional remark 23) The said process to output determines that the said predetermined | prescribed operation | work by the said staff is not performed appropriately about the said specific area | region when the said randomness increases more than the reference | standard randomness more than predetermined amount. The evaluation program according to attachment 22, wherein the determination result is output.

(付記24)前記出力する処理は、撮像装置である前記センサで前記特定の領域を撮像した撮像画像において人物の頭が増加することで、所定の入室イベントが発生したことを検出することを特徴とする付記15〜23のいずれか1つに記載の評価プログラム。 (Additional remark 24) The said process to output detects that the predetermined | prescribed entrance event generate | occur | produced when the head of a person increases in the picked-up image which imaged the said specific area | region with the said sensor which is an imaging device. The evaluation program according to any one of Supplementary notes 15 to 23.

(付記25)前記出力する処理は、撮像装置である前記センサで前記特定の領域を撮像した撮像画像において前記スタッフを表すマーカを検出しない状態から前記マーカを検出した状態に遷移することで、所定の入室イベントが発生したことを検出し、前記撮像画像において前記マーカを検出した状態から前記マーカを検出しない状態に遷移することで、前記所定の退出イベントが発生したことを検出することを特徴とする付記15〜23のいずれか1つに記載の評価プログラム。 (Supplementary Note 25) The output process is performed by changing from a state in which a marker representing the staff is not detected to a state in which the marker is detected in a captured image obtained by capturing the specific region by the sensor that is an imaging device. It is detected that the predetermined exit event has occurred by transitioning from a state in which the marker is detected in the captured image to a state in which the marker is not detected. The evaluation program according to any one of Supplementary Notes 15 to 23.

(付記26)前記出力する処理は、前記センサはIDカードリーダを有し、前記スタッフが所持するIDカードの情報を、入室を表す情報とともに検出することで、所定の入室イベントが発生したことを検出し、前記IDカードの情報を、退出を表す情報とともに検出することで、前記所定の退出イベントが発生したことを検出することを特徴とする付記15〜23のいずれか1つに記載の評価プログラム。 (Supplementary note 26) In the output process, the sensor has an ID card reader, and the ID card information possessed by the staff is detected together with the information indicating the entry, so that a predetermined entry event has occurred. The evaluation according to any one of appendices 15 to 23, wherein the occurrence of the predetermined exit event is detected by detecting and detecting information on the ID card together with information indicating exit. program.

(付記27)特定の領域の状態を検出するセンサから出力されるセンサ情報であって、所定の退出イベントが発生した際のセンサ情報を取得する取得部と、
取得した該センサ情報を解析して得られた乱雑度と基準乱雑度との比較結果を出力する出力制御部と、
を有することを特徴とする情報処理装置。
(Supplementary Note 27) Sensor information that is output from a sensor that detects the state of a specific area, and that acquires sensor information when a predetermined exit event occurs;
An output control unit that outputs a comparison result between the randomness obtained by analyzing the acquired sensor information and the standard randomness;
An information processing apparatus comprising:

(付記28)前記出力制御部は、前記特定の領域に対して所定の作業を行うスタッフが前記特定の領域から退出したことを検出した時点で前記センサから出力された前記センサ情報を解析して得られた乱雑度と基準乱雑度との比較結果に基づいて、前記スタッフによる前記所定の作業が適切に行われたか否かを判定し、判定結果を出力することを特徴とする付記27に記載の情報処理装置。 (Additional remark 28) The said output control part analyzes the said sensor information output from the said sensor at the time of detecting that the staff who performs a predetermined | prescribed operation | work with respect to the said specific area left | separated from the said specific area. 28. The appendix 27, wherein it is determined whether or not the predetermined work by the staff has been appropriately performed based on a comparison result between the obtained randomness and a reference randomness, and a determination result is output. Information processing device.

(付記29)前記出力制御部は、前記特定の領域から退出したことを検出した第一の時点で前記センサから出力された前記センサ情報を解析して得られた第一の乱雑度と前記基準乱雑度との比較結果、および、前記第一の時点から所定の時間が経過した第二の時点で前記センサから出力された前記センサ情報を解析して得られた第二の乱雑度と前記基準乱雑度との比較結果に基づいて、前記特定の領域を利用する利用者に対する注意の必要の有無を判定し、判定結果を出力することを特徴とする付記27に記載の情報処理装置。 (Supplementary note 29) The output control unit, the first randomness obtained by analyzing the sensor information output from the sensor at the first time point when the exit from the specific area is detected and the reference The result of comparison with the degree of randomness, and the second degree of randomness obtained by analyzing the sensor information output from the sensor at a second time when a predetermined time has elapsed from the first time and the reference 28. The information processing apparatus according to appendix 27, wherein whether or not the user who uses the specific area needs attention is determined based on a comparison result with the degree of randomness, and the determination result is output.

(付記30)前記出力制御部は、さらに、前記特定の領域に対して所定の作業を行うスタッフが前記特定の領域に入ったことを検出した第三の時点で前記センサから出力された前記センサ情報を解析して得られた第三の乱雑度と前記基準乱雑度との比較結果、および、前記第一の乱雑度と前記基準乱雑度との比較結果に基づいて、前記スタッフによる前記所定の作業が適切に行われたか否かを判定し、判定結果を出力することを特徴とする付記29に記載の情報処理装置。 (Supplementary Note 30) The output control unit further outputs the sensor output from the sensor at a third time point when it is detected that a staff member who performs a predetermined operation on the specific area has entered the specific area. Based on the comparison result between the third randomness degree obtained by analyzing information and the reference randomness degree, and the comparison result between the first randomness degree and the reference randomness degree, the predetermined number by the staff The information processing apparatus according to appendix 29, wherein it is determined whether or not the work has been appropriately performed, and a determination result is output.

(付記31)前記出力制御部は、前記特定の領域の画像を撮像する撮像装置である前記センサから出力される撮像画像である前記センサ情報を画像解析し、物体のエッジに基づくエッジライン数である前記乱雑度を得ることを特徴とする付記28〜30のいずれか1つに記載の情報処理装置。 (Additional remark 31) The said output control part image-analyzes the said sensor information which is the picked-up image output from the said sensor which is an imaging device which images the image of the said specific area | region, and is the number of edge lines based on the edge of an object. The information processing apparatus according to any one of appendices 28 to 30, wherein the certain degree of randomness is obtained.

(付記32)前記出力制御部は、前記特定の領域に対して照射光を照射して前記照射光の反射光、ならびに、前記照射光および前記反射光の位相情報を含む前記特定の領域の画像を撮像する撮像装置である前記センサから出力される撮像画像である前記センサ情報を画像解析し、前記位相情報に基づき前記撮像画像の画素ごとに算出された距離に基づいて前記乱雑度を得ることを特徴とする付記28〜30のいずれか1つに記載の情報処理装置。 (Supplementary Note 32) The output control unit irradiates the specific region with irradiation light and reflects the reflected light of the irradiation light, and the image of the specific region including phase information of the irradiation light and the reflected light The sensor information that is a captured image output from the sensor that is an imaging device that captures the image is subjected to image analysis, and the randomness is obtained based on the distance calculated for each pixel of the captured image based on the phase information. The information processing apparatus according to any one of supplementary notes 28 to 30, characterized by:

(付記33)前記出力制御部は、特定のパターンを含む前記照射光の前記特定のパターンに基づいて距離を算出することで前記乱雑度を得ることを特徴とする付記32に記載の情報処理装置。 (Supplementary note 33) The information processing apparatus according to supplementary note 32, wherein the output control unit obtains the degree of randomness by calculating a distance based on the specific pattern of the irradiation light including a specific pattern. .

(付記34)前記出力制御部は、前記特定の領域に対してレーザ光を照射して距離を計測する距離センサである前記センサから出力される距離情報である前記センサ情報に含まれる前記距離情報に基づいて前記乱雑度を得ることを特徴とする付記28〜30のいずれか1つに記載の情報処理装置。 (Supplementary Note 34) The distance information included in the sensor information, which is distance information output from the sensor, which is a distance sensor that measures a distance by irradiating the specific region with laser light. 31. The information processing apparatus according to any one of appendices 28 to 30, wherein the degree of randomness is obtained based on the information.

(付記35)前記出力制御部は、前記乱雑度が前記基準乱雑度から所定量以上乖離した場合に、前記特定の領域について、前記スタッフによる前記所定の作業が適切に行われていないと判定し、判定結果を出力することを特徴とする付記28〜34のいずれか1つに記載の情報処理装置。 (Additional remark 35) The said output control part determines that the said predetermined | prescribed operation | work by the said staff is not performed appropriately about the said specific area | region, when the said randomness deviates more than the predetermined amount from the said reference randomness. The information processing apparatus according to any one of appendices 28 to 34, wherein the determination result is output.

(付記36)前記出力制御部は、前記乱雑度が前記基準乱雑度から所定量以上増加した場合に、前記特定の領域について、前記スタッフによる前記所定の作業が適切に行われていないと判定し、判定結果を出力することを特徴とする付記35に記載の情報処理装置。 (Additional remark 36) The said output control part determines that the said predetermined | prescribed operation | work by the said staff is not performed appropriately about the said specific area | region, when the said randomness increases more than the reference | standard randomness more than predetermined amount. 36. The information processing apparatus according to appendix 35, wherein the determination result is output.

(付記37)前記出力制御部は、撮像装置である前記センサで前記特定の領域を撮像した撮像画像において人物の頭が増加することで、所定の入室イベントが発生したことを検出することを特徴とする付記28〜36のいずれか1つに記載の情報処理装置。 (Supplementary Note 37) The output control unit detects that a predetermined entrance event has occurred due to an increase in the number of human heads in a captured image obtained by capturing the specific area with the sensor serving as an imaging device. The information processing apparatus according to any one of supplementary notes 28 to 36.

(付記38)前記出力制御部は、撮像装置である前記センサで前記特定の領域を撮像した撮像画像において前記スタッフを表すマーカを検出しない状態から前記マーカを検出した状態に遷移することで、所定の入室イベントが発生したことを検出し、前記撮像画像において前記マーカを検出した状態から前記マーカを検出しない状態に遷移することで、前記所定の退出イベントが発生したことを検出することを特徴とする付記28〜36のいずれか1つに記載の情報処理装置。 (Additional remark 38) The said output control part is predetermined by changing from the state which does not detect the marker showing the said staff in the captured image which imaged the said specific area | region with the said sensor which is an imaging device to the state which detected the said marker. It is detected that the predetermined exit event has occurred by transitioning from a state in which the marker is detected in the captured image to a state in which the marker is not detected. The information processing apparatus according to any one of supplementary notes 28 to 36.

(付記39)前記出力制御部は、前記センサはIDカードリーダを有し、前記スタッフが所持するIDカードの情報を、入室を表す情報とともに検出することで、所定の入室イベントが発生したことを検出し、前記IDカードの情報を、退出を表す情報とともに検出することで、前記所定の退出イベントが発生したことを検出することを特徴とする付記28〜36のいずれか1つに記載の情報処理装置。 (Supplementary Note 39) The output control unit detects that a predetermined entry event has occurred by detecting the ID card information possessed by the staff together with information indicating entry into the room, the sensor having an ID card reader. 37. The information according to any one of appendices 28 to 36, wherein detection of the predetermined exit event is detected by detecting and detecting information on the ID card together with information indicating exit. Processing equipment.

1 評価システム
10 入居施設
10a 区画
11a〜11e カメラ
50 管理者端末
100 サーバ装置
110 通信部
120 記憶部
121 入所者DB
122 カメラ設置テーブル
123 センシング情報DB
124 メッセージDB
125 判定ワークテーブル
130 制御部
131 取得部
132 算出部
133 判定部
134 出力制御部
N ネットワーク
DESCRIPTION OF SYMBOLS 1 Evaluation system 10 Resident facility 10a Section 11a-11e Camera 50 Manager terminal 100 Server apparatus 110 Communication part 120 Storage part 121 Resident DB
122 Camera installation table 123 Sensing information DB
124 Message DB
125 determination work table 130 control unit 131 acquisition unit 132 calculation unit 133 determination unit 134 output control unit N network

Claims (13)

特定の領域の状態を検出するセンサから出力されるセンサ情報であって、所定の退出イベントが発生した際のセンサ情報を取得し、
前記特定の領域に対して所定の作業を行うスタッフが前記特定の領域から退出したことを検出した時点における、取得した前記センサ情報を解析して得られた乱雑度と基準乱雑度との比較結果に基づいて、前記スタッフによる前記所定の作業が適切に行われたか否かを判定し、判定結果を出力する処理をコンピュータが実行し、
前記出力する処理は、前記特定の領域から退出したことを検出した第一の時点で前記センサから出力された前記センサ情報を解析して得られた第一の乱雑度と前記基準乱雑度との比較結果、および、前記第一の時点から所定の時間が経過した第二の時点で前記センサから出力された前記センサ情報を解析して得られた第二の乱雑度と前記基準乱雑度との比較結果に基づいて、前記特定の領域を利用する利用者に対する注意の必要の有無を判定し、判定結果を出力する、
ことを特徴とする評価方法。
Sensor information that is output from a sensor that detects the state of a specific area, and obtains sensor information when a predetermined exit event occurs,
At the time of staff performs a predetermined operation on the specific area is detected that exited from the specific area, the comparison result of the randomness and the reference randomness obtained by analyzing the obtained the sensor information based on, it is determined whether the predetermined operation by the staff in improper a processing you outputs the judgment result to the computer is running,
The output process includes a first randomness degree obtained by analyzing the sensor information output from the sensor at a first time point when the exit from the specific area is detected and the reference randomness degree. The comparison result and the second randomness obtained by analyzing the sensor information output from the sensor at a second time when a predetermined time has elapsed from the first time and the reference randomness Based on the comparison result, it is determined whether or not there is a need for attention to the user who uses the specific area, and the determination result is output.
An evaluation method characterized by that.
前記出力する処理は、さらに、前記特定の領域に対して所定の作業を行うスタッフが前記特定の領域に入ったことを検出した第三の時点で前記センサから出力された前記センサ情報を解析して得られた第三の乱雑度と前記基準乱雑度との比較結果、および、前記第一の乱雑度と前記基準乱雑度との比較結果に基づいて、前記スタッフによる前記所定の作業が適切に行われたか否かを判定し、判定結果を出力することを特徴とする請求項に記載の評価方法。 The output processing further analyzes the sensor information output from the sensor at a third time point when it is detected that a staff member who performs a predetermined operation on the specific area has entered the specific area. The predetermined work by the staff is appropriately performed based on the comparison result between the third degree of randomness and the reference degree of randomness and the comparison result between the first degree of randomness and the reference degree of randomness. The evaluation method according to claim 1 , wherein it is determined whether or not the determination has been performed, and a determination result is output. 前記出力する処理は、前記特定の領域の画像を撮像する撮像装置である前記センサから出力される撮像画像である前記センサ情報を画像解析し、物体のエッジに基づくエッジライン数である前記乱雑度を得ることを特徴とする請求項1または2に記載の評価方法。 The output processing includes analyzing the sensor information, which is a captured image output from the sensor, which is an imaging device that captures an image of the specific area, and analyzing the degree of randomness that is the number of edge lines based on an edge of an object The evaluation method according to claim 1, wherein: 前記出力する処理は、前記特定の領域に対して照射光を照射して前記照射光の反射光、ならびに、前記照射光および前記反射光の位相情報を含む前記特定の領域の画像を撮像する撮像装置である前記センサから出力される撮像画像である前記センサ情報を画像解析し、前記位相情報に基づき前記撮像画像の画素ごとに算出された距離に基づいて前記乱雑度を得ることを特徴とする請求項1または2に記載の評価方法。 The output processing is performed by irradiating the specific region with irradiation light and capturing an image of the specific region including reflected light of the irradiation light and phase information of the irradiation light and the reflected light. The sensor information which is a captured image output from the sensor which is a device is subjected to image analysis, and the randomness is obtained based on a distance calculated for each pixel of the captured image based on the phase information. The evaluation method according to claim 1 or 2 . 前記出力する処理は、特定のパターンを含む前記照射光の前記特定のパターンに基づいて距離を算出することで前記乱雑度を得ることを特徴とする請求項に記載の評価方法。 The evaluation method according to claim 4 , wherein the output process obtains the degree of randomness by calculating a distance based on the specific pattern of the irradiation light including a specific pattern. 前記出力する処理は、前記特定の領域に対してレーザ光を照射して距離を計測する距離センサである前記センサから出力される距離情報である前記センサ情報に含まれる前記距離情報に基づいて前記乱雑度を得ることを特徴とする請求項1または2に記載の評価方法。 The output process is based on the distance information included in the sensor information that is distance information output from the sensor that is a distance sensor that measures a distance by irradiating the specific region with laser light. evaluation method according to claim 1 or 2, characterized in that to obtain randomness. 前記出力する処理は、前記乱雑度が前記基準乱雑度から所定量以上乖離した場合に、前記特定の領域について、前記スタッフによる前記所定の作業が適切に行われていないと判定し、判定結果を出力することを特徴とする請求項1〜6のいずれか1つに記載の評価方法。 The output process determines that the predetermined work by the staff is not appropriately performed for the specific area when the randomness deviates from the reference randomness by a predetermined amount or more, and determines the determination result. The evaluation method according to claim 1 , wherein the evaluation method is output. 前記出力する処理は、前記乱雑度が前記基準乱雑度から所定量以上増加した場合に、前記特定の領域について、前記スタッフによる前記所定の作業が適切に行われていないと判定し、判定結果を出力することを特徴とする請求項に記載の評価方法。 The output process determines that the predetermined work by the staff is not appropriately performed for the specific area when the randomness increases by a predetermined amount or more from the reference randomness, and determines the determination result. The evaluation method according to claim 7 , wherein output is performed. 前記出力する処理は、撮像装置である前記センサで前記特定の領域を撮像した撮像画像において人物の頭が増加することで、所定の入室イベントが発生したことを検出することを特徴とする請求項1〜8のいずれか1つに記載の評価方法。 The output process detects that a predetermined entrance event has occurred due to an increase in the head of a person in a captured image obtained by imaging the specific area by the sensor as an imaging device. The evaluation method according to any one of 1 to 8 . 前記出力する処理は、撮像装置である前記センサで前記特定の領域を撮像した撮像画像において前記スタッフを表すマーカを検出しない状態から前記マーカを検出した状態に遷移することで、所定の入室イベントが発生したことを検出し、前記撮像画像において前記マーカを検出した状態から前記マーカを検出しない状態に遷移することで、前記所定の退出イベントが発生したことを検出することを特徴とする請求項1〜8のいずれか1つに記載の評価方法。 In the output process, a predetermined entry event is generated by transitioning from a state in which the marker representing the staff is not detected to a state in which the marker is detected in a captured image obtained by capturing the specific region by the sensor that is an imaging device. and detects the occurrence, makes a transition from a state of detecting the marker in the captured image to a state of not detecting said marker, claim 1, characterized in that for detecting that said predetermined exit event occurs The evaluation method as described in any one of -8 . 前記出力する処理は、前記センサはIDカードリーダを有し、前記スタッフが所持するIDカードの情報を、入室を表す情報とともに検出することで、所定の入室イベントが発生したことを検出し、前記IDカードの情報を、退出を表す情報とともに検出することで、前記所定の退出イベントが発生したことを検出することを特徴とする請求項1〜8のいずれか1つに記載の評価方法。 In the output process, the sensor has an ID card reader, and detects information on an ID card possessed by the staff together with information indicating entry, thereby detecting that a predetermined entry event has occurred, the information of the ID card, by detecting with information representative of the exit, the evaluation method according to any one of claims 1 to 8, characterized in that for detecting that said predetermined exit event has occurred. 特定の領域の状態を検出するセンサから出力されるセンサ情報であって、所定の退出イベントが発生した際のセンサ情報を取得し、
前記特定の領域に対して所定の作業を行うスタッフが前記特定の領域から退出したことを検出した時点における、取得した前記センサ情報を解析して得られた乱雑度と基準乱雑度との比較結果に基づいて、前記スタッフによる前記所定の作業が適切に行われたか否かを判定し、判定結果を出力する処理をコンピュータに実行させ
前記出力する処理は、前記特定の領域から退出したことを検出した第一の時点で前記センサから出力された前記センサ情報を解析して得られた第一の乱雑度と前記基準乱雑度との比較結果、および、前記第一の時点から所定の時間が経過した第二の時点で前記センサから出力された前記センサ情報を解析して得られた第二の乱雑度と前記基準乱雑度との比較結果に基づいて、前記特定の領域を利用する利用者に対する注意の必要の有無を判定し、判定結果を出力する、
ことを特徴とする評価プログラム。
Sensor information that is output from a sensor that detects the state of a specific area, and obtains sensor information when a predetermined exit event occurs,
At the time of staff performs a predetermined operation on the specific area is detected that exited from the specific area, the comparison result of the randomness and the reference randomness obtained by analyzing the obtained the sensor information based on, it is determined whether the predetermined operation by the staff in improper to execute the processing you outputs the determination result to the computer,
The output process includes a first randomness degree obtained by analyzing the sensor information output from the sensor at a first time point when the exit from the specific area is detected and the reference randomness degree. The comparison result and the second randomness obtained by analyzing the sensor information output from the sensor at a second time when a predetermined time has elapsed from the first time and the reference randomness Based on the comparison result, it is determined whether or not there is a need for attention to the user who uses the specific area, and the determination result is output.
An evaluation program characterized by that.
特定の領域の状態を検出するセンサから出力されるセンサ情報であって、所定の退出イベントが発生した際のセンサ情報を取得する取得部と、
前記特定の領域に対して所定の作業を行うスタッフが前記特定の領域から退出したことを検出した時点における、取得した前記センサ情報を解析して得られた乱雑度と基準乱雑度との比較結果に基づいて、前記スタッフによる前記所定の作業が適切に行われたか否かを判定し、判定結果を出力する出力制御部とを有し
前記出力制御部は、前記特定の領域から退出したことを検出した第一の時点で前記センサから出力された前記センサ情報を解析して得られた第一の乱雑度と前記基準乱雑度との比較結果、および、前記第一の時点から所定の時間が経過した第二の時点で前記センサから出力された前記センサ情報を解析して得られた第二の乱雑度と前記基準乱雑度との比較結果に基づいて、前記特定の領域を利用する利用者に対する注意の必要の有無を判定し、判定結果を出力する、
ことを特徴とする情報処理装置。
Sensor information that is output from a sensor that detects the state of a specific region, and an acquisition unit that acquires sensor information when a predetermined exit event occurs;
At the time of staff performs a predetermined operation on the specific area is detected that exited from the specific area, the comparison result of the randomness and the reference randomness obtained by analyzing the obtained the sensor information based on, it is determined whether the predetermined operation by the staff in improper and an output control section for outputting a determination result,
The output control unit includes a first randomness obtained by analyzing the sensor information output from the sensor at a first time point when detecting that the vehicle has left the specific area, and a reference randomness. The comparison result and the second randomness obtained by analyzing the sensor information output from the sensor at a second time when a predetermined time has elapsed from the first time and the reference randomness Based on the comparison result, it is determined whether or not there is a need for attention to the user who uses the specific area, and the determination result is output.
An information processing apparatus characterized by that.
JP2014166170A 2014-08-18 2014-08-18 Evaluation method, evaluation program, and information processing apparatus Active JP6354444B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014166170A JP6354444B2 (en) 2014-08-18 2014-08-18 Evaluation method, evaluation program, and information processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014166170A JP6354444B2 (en) 2014-08-18 2014-08-18 Evaluation method, evaluation program, and information processing apparatus

Publications (2)

Publication Number Publication Date
JP2016042305A JP2016042305A (en) 2016-03-31
JP6354444B2 true JP6354444B2 (en) 2018-07-11

Family

ID=55592019

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014166170A Active JP6354444B2 (en) 2014-08-18 2014-08-18 Evaluation method, evaluation program, and information processing apparatus

Country Status (1)

Country Link
JP (1) JP6354444B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6519181B2 (en) * 2015-01-09 2019-05-29 富士通株式会社 Method for monitoring trend of change in disorder degree, program for monitoring trend in change in disorder degree and device for monitoring trend in change in disorder degree
JP7202207B2 (en) * 2019-02-13 2023-01-11 トヨタホーム株式会社 In-building condition determination system

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001184568A (en) * 1999-12-27 2001-07-06 Minolta Co Ltd Security system with arrangement condition monitoring function for inside of space
JP2003150700A (en) * 2001-11-19 2003-05-23 Ishino Kosan:Kk Cemetery cleaning information managing system
JP2007004405A (en) * 2005-06-22 2007-01-11 Ricoh Co Ltd Care surveillance device, care surveillance system, care surveillance program and recording medium
JP2007164508A (en) * 2005-12-14 2007-06-28 Fuji Telecom Kk Care monitoring process
EP2457211B1 (en) * 2009-07-23 2016-05-18 Koninklijke Philips N.V. A method and system to detect that a device has been cleaned
JP2012141884A (en) * 2011-01-05 2012-07-26 Mitsubishi Electric Corp Evaluation support device and evaluation support system
JP2013134566A (en) * 2011-12-26 2013-07-08 Hitachi Building Systems Co Ltd Management device of building facility work

Also Published As

Publication number Publication date
JP2016042305A (en) 2016-03-31

Similar Documents

Publication Publication Date Title
JP6481400B2 (en) Cleaning status evaluation method, cleaning status evaluation program, and cleaning status evaluation device
JP6313270B2 (en) Monitoring method and device
TWI696450B (en) Information processing device, information processing system, and information processing program
JP2007102344A (en) Automatic evaluation device, program, and method
TWI270824B (en) Method for dynamically recognizing objects in an image based on diversities of object characteristics and system for using the same
CN105960663A (en) Information processing device, information processing method, and program
CN105940434A (en) Information processing device, information processing method, and program
US20160110614A1 (en) Person detection system, method, and non-transitory computer readable medium
JP4704174B2 (en) Status identification device, program, and method
JP2009239467A5 (en)
WO2016042946A1 (en) Monitoring system
CN106415654A (en) Information processing device, information processing method, and program
JP6354444B2 (en) Evaluation method, evaluation program, and information processing apparatus
CN110709857B (en) Person counting device, person counting method, and storage medium
JP6519181B2 (en) Method for monitoring trend of change in disorder degree, program for monitoring trend in change in disorder degree and device for monitoring trend in change in disorder degree
CN111194398A (en) System and method for detecting contamination on a surface
JP2012057974A (en) Photographing object size estimation device, photographic object size estimation method and program therefor
JP5264457B2 (en) Object detection device
JP6424542B2 (en) Method of monitoring operation of person, program of monitoring operation of person and information processing apparatus
JP2007102341A (en) Automatic counter
JP6733766B1 (en) Analysis device, control method, and program
JP2009301242A (en) Head candidate extraction method, head candidate extraction device, head candidate extraction program and recording medium recording the program
JP6645503B2 (en) Image analysis device, image analysis method, and image analysis program
US20190130677A1 (en) Information processing apparatus, information processing method, imaging apparatus, network camera system, and storage medium
JP2017005485A (en) Picture monitoring device and picture monitoring method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170511

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180123

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180323

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180515

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180528

R150 Certificate of patent or registration of utility model

Ref document number: 6354444

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150