JP6481400B2 - Cleaning status evaluation method, cleaning status evaluation program, and cleaning status evaluation device - Google Patents
Cleaning status evaluation method, cleaning status evaluation program, and cleaning status evaluation device Download PDFInfo
- Publication number
- JP6481400B2 JP6481400B2 JP2015025801A JP2015025801A JP6481400B2 JP 6481400 B2 JP6481400 B2 JP 6481400B2 JP 2015025801 A JP2015025801 A JP 2015025801A JP 2015025801 A JP2015025801 A JP 2015025801A JP 6481400 B2 JP6481400 B2 JP 6481400B2
- Authority
- JP
- Japan
- Prior art keywords
- cleaning
- coordinates
- detected
- area
- room
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Medical Treatment And Welfare Office Work (AREA)
Description
本発明は、清掃状況の評価方法、清掃状況の評価プログラムおよび清掃状況の評価装置に関する。 The present invention relates to a cleaning condition evaluation method, a cleaning condition evaluation program, and a cleaning condition evaluation apparatus.
近年、高齢者向けの介護付き入居施設の需要が増加している。当該入居施設では、入居者に対してスタッフによるケアが提供される場合がある。スタッフによるケアの1つとして、入居者の居室の清掃が提供される。居室の清掃としては、居室の天井に配置されたマーカを読み取ることで、家具等の障害物を認識しつつ自走して清掃するロボットが提案されている。 In recent years, there has been an increase in demand for nursing homes for elderly people. In the tenant facility, care may be provided to the resident by the staff. One of the care provided by the staff is cleaning the resident's room. As a cleaning of a living room, a robot has been proposed that performs self-running cleaning while recognizing obstacles such as furniture by reading a marker arranged on the ceiling of the living room.
また、病室および病室内にある機器のきれいまたは汚れている状態に関する情報を、当該情報を収集する室内ユニットから受信して、複数の病室のうち、どの病室について清掃が必要であるか、または、占有されているかを監視するシステムが提案されている。 In addition, information on the clean or dirty state of the equipment in the hospital room and the patient room is received from the indoor unit that collects the information, and which of the patient rooms needs to be cleaned, or Systems have been proposed to monitor for occupancy.
しかしながら、自走ロボットによる清掃では、例えば、清掃結果、すなわち走行経路についても自走ロボット自身が管理するため、自走ロボットからの情報のみで清掃結果を評価すると、正しく評価できない場合がある。具体的には、自走ロボット清掃の場合、部屋内が片付けられている状態にて、ロボットを起動させることを前提としており、片付けられていない状態であれば、ロボット自身が片付けられていない物を障害物としてみなすことがある。また、病室および病室内にある機器のきれいまたは汚れている状態に関する情報を室内ユニットから受信する場合では、清掃が必要であるか否かは判断できても、清掃結果を評価することは困難である。特に、物がちらかっている場合(片付けられていない場合)には、その物の周辺や下部にほこりやゴミが集まる傾向がある。物を片付けて、その部位を清掃することを評価するのは難しかった。 However, in the cleaning by the self-propelled robot, for example, since the self-propelled robot itself manages the cleaning result, that is, the travel route, if the cleaning result is evaluated only by the information from the self-propelled robot, the evaluation may not be performed correctly. Specifically, in the case of self-running robot cleaning, it is assumed that the robot is started in a state where the room is cleaned up, and if the robot is not cleaned up, the robot itself is not cleaned up May be regarded as an obstacle. In addition, when receiving information on the cleanliness or dirty status of equipment in hospital rooms and hospital rooms from indoor units, it is difficult to evaluate the cleaning results even though it can be determined whether or not cleaning is necessary. is there. In particular, when an object is small (when it is not cleared up), there is a tendency for dust and garbage to collect around and below the object. It was difficult to evaluate putting things away and cleaning the area.
一つの側面では、本発明は、スタッフによる清掃を評価できる清掃状況の評価方法、清掃状況の評価プログラムおよび清掃状況の評価装置を提供することにある。 In one aspect, the present invention provides a cleaning condition evaluation method, a cleaning condition evaluation program, and a cleaning condition evaluation apparatus that can evaluate the cleaning by a staff member.
一つの態様では、清掃状況の評価方法は、所定の領域の撮像画像を取得する処理をコンピュータが実行する。また、清掃状況の評価方法は、取得した前記撮像画像中に清掃部材を検出した場合に、前記清掃部材の検出位置の変化に応じて前記所定の領域における清掃に関する評価値を算出する処理をコンピュータが実行する。 In one aspect, in the cleaning state evaluation method, a computer executes a process of acquiring a captured image of a predetermined area. In the cleaning state evaluation method, when a cleaning member is detected in the acquired captured image, a process of calculating an evaluation value related to cleaning in the predetermined region according to a change in a detection position of the cleaning member is calculated by a computer. Will run.
スタッフによる清掃を評価できる。 The cleaning by the staff can be evaluated.
以下、図面に基づいて、本願の開示する清掃状況の評価方法、清掃状況の評価プログラムおよび清掃状況の評価装置の実施例を詳細に説明する。なお、本実施例により、開示技術が限定されるものではない。また、以下の実施例は、矛盾しない範囲で適宜組みあわせてもよい。 DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments of a cleaning condition evaluation method, a cleaning condition evaluation program, and a cleaning condition evaluation apparatus disclosed in the present application will be described in detail with reference to the drawings. The disclosed technology is not limited by the present embodiment. Further, the following embodiments may be appropriately combined within a consistent range.
図1は、実施例1の評価システムの構成の一例を示すブロック図である。図1に示す評価システム1は、例えば、入居施設10の一例である高齢者向けの介護付き入居施設において、スタッフによるケア、特に居室の散らかりを片付ける清掃作業の実施状況を評価するための情報を提供する。図1に示す評価システム1は、カメラ11a〜11eと、管理者端末50と、サーバ装置100とを有する。カメラ11a〜11eは、入居施設10の区画10aの各所に設置される。なお、以下の説明では、カメラ11a〜11eを区別しない場合には、単にカメラ11と称する。
FIG. 1 is a block diagram illustrating an example of the configuration of the evaluation system according to the first embodiment. The
入居施設10は、区画10aと例えば類似する間取りの複数の区画を有し、各区画には、区画10aと同様に複数のカメラ11が各所に設置される。なお、以下の説明では、複数の区画のうち、区画10aを例として説明するが、区画の数は限定されず、評価システム1は、任意の数の区画に設置されたカメラ11を有してもよい。また、図1には、システムが1つの管理者端末50を有する場合を示したが、管理者端末50の数は限定されず、評価システム1は、任意の数の管理者端末50を有してもよい。
The
カメラ11、管理者端末50およびサーバ装置100の間は、ネットワークNを介して相互に通信可能に接続される。かかるネットワークNには、有線または無線を問わず、インターネット(Internet)を始め、LAN(Local Area Network)やVPN(Virtual Private Network)などの任意の種類の通信網を採用できる。
The camera 11, the
評価システム1のサーバ装置100は、高齢者が入居する区画10aの各居室に設置されたカメラ11で撮像された撮像画像を取得し、撮像画像中の清掃部材の位置の変化に応じて、清掃に関する評価値を算出する。すなわち、サーバ装置100は、清掃状況の評価装置である。サーバ装置100は、清掃中に、居室の隅(外枠)の領域について、清掃部材が検出されない領域が多いほど、より清掃が十分になされていないことを示す評価値を算出する。評価システム1は、サーバ装置100で算出した評価値に基づくメッセージを、例えば、管理者端末50に送信して図示しない表示部に表示させる。これにより、評価システム1は、スタッフによる清掃作業が適切に行われているか否かを入居施設10の管理者に提示できるので、管理者はスタッフによる清掃を評価できる。
The
なお、以下の説明では、清掃部材の一例として、清掃機(掃除機)を用いて居室を清掃する場合について説明する。また、清掃部材の位置は、例えば、清掃機の吸込口(いわゆるヘッド、ノズル、ブラシ等と呼ばれる部位)の位置を示す場合について説明する。また、清掃部材の位置は、例えば、清掃機の吸込口にマーカ(以下、清掃機マーカという)を設置することで検出可能とする。なお、清掃部材の位置は、例えば、スティック型の清掃機等の場合では、清掃機の本体の位置であってもよい。また、清掃部材の移動軌跡は、例えば吸入口の幅に基づく掃除機マーカの軌跡を用いてもよい。 In addition, the following description demonstrates the case where a living room is cleaned using a cleaner (vacuum cleaner) as an example of a cleaning member. Moreover, the position of a cleaning member demonstrates the case where the position of the suction inlet (a part called what is called a head, a nozzle, a brush, etc.) of a cleaner is shown, for example. Further, the position of the cleaning member can be detected by installing a marker (hereinafter referred to as a cleaning machine marker) at the suction port of the cleaning machine, for example. The position of the cleaning member may be the position of the main body of the cleaning machine in the case of, for example, a stick-type cleaning machine. Further, for example, the locus of the cleaner marker based on the width of the suction port may be used as the movement locus of the cleaning member.
カメラ11は、例えば、通信機能を有するネットワークカメラであり、ネットワークNに接続されることで、サーバ装置100に撮像した画像を送信する。すなわち、カメラ11は、撮像センサであり、所定の領域の状態を検出するセンサである。カメラ11は、例えば、撮像素子としてCMOS(Complementary Metal Oxide Semiconductor)イメージセンサまたはCCD(Charge Coupled Device)イメージセンサ等を用いて、画像を撮像する。カメラ11は、撮像素子が受光した光を光電変換しA/D(Analog/Digital)変換を行って画像を生成する。カメラ11は、生成した画像を、ネットワークNを介してサーバ装置100に送信する。なお、カメラ11は、サーバ装置100から撮影方向等の指示を受信して、撮影方向を変化させるようにしてもよい。また、カメラ11は、例えば、区画10aの各居室の天井の中央または隅等に設置される。カメラ11は、カメラ11が設置された居室の全体を見通せる位置に設置されることが望ましい。
The camera 11 is a network camera having a communication function, for example, and transmits a captured image to the
管理者端末50は、例えば、入居施設10の管理者が用いるコンピュータである。管理者端末50は、サーバ装置100から受信した入居施設10内の各区画の清掃作業に関する情報等を表示させて、管理者に提示する。かかる管理者端末50の一例としては、可搬型のパーソナルコンピュータを採用できる。管理者端末50には、上記のパーソナルコンピュータなどの可搬型の端末のみならず、据置型のパーソナルコンピュータを管理者端末50として採用することもできる。また、管理者端末50は、可搬型の端末としては、上記のパーソナルコンピュータの他にも、例えば、タブレット端末、スマートフォン、携帯電話機やPHS(Personal Handyphone System)などの移動体通信端末等を採用することもできる。
The
次に、サーバ装置100の構成について説明する。図1に示すように、サーバ装置100は、通信部110と、記憶部120と、制御部130とを有する。なお、サーバ装置100は、図1に示す機能部以外にも既知のコンピュータが有する各種の機能部、例えば各種の入力デバイスや音声出力デバイスなどの機能部を有することとしてもかまわない。
Next, the configuration of the
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。通信部110は、ネットワークNを介してカメラ11および管理者端末50と有線または無線で接続され、カメラ11および管理者端末50との間で情報の通信を司る通信インタフェースである。通信部110は、カメラ11から画像を受信し、管理者端末50から制御情報を受信する。通信部110は、受信した画像または制御情報を制御部130に出力する。また、通信部110は、制御部130から入力された出力画面等を管理者端末50に送信する。
The
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、ハードディスクや光ディスク等の記憶装置によって実現される。記憶部120は、入居者データベース121と、カメラ設置テーブル122と、通過座標データベース123と、座標記録データベース124と、メッセージデータベース125とを有する。なお、図中および以下の説明では、データベースをDBと省略して示す。また、記憶部120は、制御部130での処理に用いる情報を記憶する。
The
入居者DB121は、各区画に入居する入居者の識別子を、ケアスタッフ、管理者等の識別子と対応付けて記憶する。図2は、入居者データベースの一例を示す図である。図2に示すように、入居者DB121は、「部屋ID」、「入居者名」、「ケアスタッフ」、「管理者名」、「管理者連絡先」といった項目を有する。入居者DB121の各項目は、予め管理者端末50等を用いて登録される。
The
「部屋ID」は、入居施設10の各区画を識別する識別子である。「入居者名」は、入居施設10の各区画に入居する入居者を示す識別子である。「ケアスタッフ」は、各区画の各居室に対して清掃作業を実施するスタッフを示す識別子である。「管理者名」は、ケアスタッフを管理する管理者、つまりケアマネージャを示す識別子である。「管理者連絡先」は、管理者の連絡先として、例えば、メールアドレス等を示す。
The “room ID” is an identifier for identifying each section of the
図1の説明に戻って、カメラ設置テーブル122は、入居施設10の区画ごとに、設置されるカメラ11の設置数と、各カメラ11のID、設置場所および外枠幅とを対応付けて記憶する。図3は、カメラ設置テーブルの一例を示す図である。図3に示すように、カメラ設置テーブル122は、「部屋ID」、「カメラ設置数」、カメラ11ごとの「カメラID」、「設置場所」および「外枠幅」といった項目を有する。
Returning to the description of FIG. 1, the camera installation table 122 stores the number of cameras 11 to be installed, the ID of each camera 11, the installation location, and the outer frame width in association with each section of the
「部屋ID」は、入居施設10の各区画を識別する識別子である。「カメラ設置数」は、部屋IDで識別される各区画に設置されるカメラ11の数を示す。「カメラID」は、区画ごとの各居室に設置されるカメラ11を識別する識別子である。「設置場所」は、各カメラ11が設置される区画内の居室等を示す識別子である。「外枠幅」は、居室の隅に設定した領域の幅を示す。より具体的には、ここで言う外枠は、居室の床のうち、壁や窓に隣接する領域とし、その幅を外枠幅とする。外枠幅は、例えば、居室の壁や窓から20〜30cmの範囲を設定できる。
The “room ID” is an identifier for identifying each section of the
図1の説明に戻って、通過座標DB123は、清掃機マーカが通過した座標を、日時に対応づけて記憶する。図4は、通過座標データベースの一例を示す図である。図4に示すように、通過座標DB123は、「日時」、「通過座標」といった項目を有する。なお、通過座標DB123は、カメラ11のIDと対応づけて記憶されており、図4の例は、いずれか1台のカメラ11について記憶されたデータの例を示している。
Returning to the description of FIG. 1, the passing coordinate
「日時」は、カメラ11から受信した居室の撮像画像中において、清掃機マーカが検出された日時を示し、例えば、検出間隔が1秒であれば、1秒ごとに1つのレコードとする。「通過座標」は、例えば、カメラ11が設置された居室でカメラ11の撮像範囲にX,Y座標を割り当てた場合における、清掃機マーカが通過した座標を示す。カメラ11が天井の居室内全体を見渡せる位置に設置されている場合、カメラ11は床方向を見下ろす角度で撮像を行なうため、X,Y座標は撮像された居室全体の床に割り当てられると考えることもできる。なお、居室の床に割り当てる座標は、例えば、20cm間隔のメッシュとすることができる。 “Date and time” indicates the date and time when the cleaner marker was detected in the captured image of the room received from the camera 11. For example, if the detection interval is 1 second, one record is recorded every second. “Passing coordinates” indicates, for example, coordinates through which the cleaner marker has passed when X and Y coordinates are assigned to the imaging range of the camera 11 in the room where the camera 11 is installed. When the camera 11 is installed at a position overlooking the entire room in the ceiling, the camera 11 captures images at an angle looking down on the floor direction, so that the X and Y coordinates are assigned to the entire floor of the imaged room. You can also. In addition, the coordinate allocated to the floor of a living room can be made into the mesh of a 20 cm space | interval, for example.
なお、図4の例では各レコードに1つの座標が記録されている例を示している。前述の通り、清掃機の吸入口の幅に基づいた清掃機マーカの移動の軌跡を検出する場合、検出した清掃機マーカの位置はある程度の幅を持つことになる。この場合、検出した幅の例えば中心位置の座標を記録しても良い。ケアスタッフがカメラ11の撮影対象とする部屋に入室してから該ケアスタッフが退室するまでの間に検出された、清掃機マーカの一連の通過座標が通過座標DB123に記録されることになる。一台の清掃機に対応するマーカが通過した一連の座標位置を時系列に順につなぐと、清掃機の移動軌跡を求めることができる。そして、移動軌跡に所定の幅(例えば、清掃機の吸入口の幅)を持たせた領域を算出することで、清掃機が通過した領域、即ち清掃が行なわれたとみなせる領域を示せることになる。もしくは、通過座標に示されるX,Y座標により特定されるメッシュを、清掃機が通過した領域としてもよい。一方、清掃機の通過座標から特定される領域以外の領域は、即ち、清掃が行なわれていない領域を示せることになる。
In the example of FIG. 4, an example in which one coordinate is recorded in each record is shown. As described above, when the locus of movement of the cleaner marker based on the width of the suction port of the cleaner is detected, the position of the detected cleaner marker has a certain width. In this case, for example, the coordinates of the center position of the detected width may be recorded. A series of passing coordinates of the cleaner marker detected between the time when the care staff enters the room to be photographed by the camera 11 and the time when the care staff leaves the room is recorded in the passing coordinates
図1の説明に戻って、座標記録DB124は、区画または居室ごとに、外枠に設定された部分の座標と、清掃機マーカが通過した座標とを記憶する。図5は、座標記録データベースの一例を示す図である。図5に示すように、座標記録DB124は、「部屋ID」、「カメラID」、「マーカ検出日時」、「ケアスタッフ退出日時」、「外枠座標」、「通過座標」、「判定フラグ」といった項目を有する。なお、1つの部屋に複数台のカメラ11がある場合には、部屋IDを省略してカメラIDと対応付けて記憶されてもよい。また、1つの部屋に1台のカメラ11しかなければ、カメラIDではなく、部屋IDと対応づけて記憶されてもよい。なお、以下の説明では、簡単のために居室を例とし、1つの部屋にカメラ11が1台の場合について説明する。
Returning to the description of FIG. 1, the coordinate
「部屋ID」は、入居施設10の各区画または居室を識別する識別子である。「カメラID」は、各居室に設置されるカメラ11を識別する識別子である。「マーカ検出日時」は、ケアスタッフの入室時以降に、カメラ11から受信した居室の撮像画像中において、清掃機マーカが最初に検出された日時を示す。「ケアスタッフ退出日時」は、ケアスタッフが退出した日時を示す。「外枠座標」は、予め設定された居室の隅の外枠に対応する座標を示す。「通過座標」は、例えば、居室の床にX,Y座標に割り当てた場合における、清掃機マーカが通過した座標を示す。なお、通過座標の値には、通過座標DB123に記録されたデータがコピーされる。詳細は後述する。「判定フラグ」は、外枠に相当する領域を、清掃機マーカの通過座標が通過しているか否かの判定結果を示す。判定フラグは、例えば、外枠に相当する領域を通過座標が80%以上通過している場合には「1」とされる。判定フラグは、例えば、外枠に相当する領域を通過座標が80%以上通過していない場合には「2」とされる。
The “room ID” is an identifier for identifying each section or room of the
図1の説明に戻って、メッセージDB125は、外枠に相当する領域を、清掃機マーカの通過座標が通過しているか否かの判定結果を示す判定フラグと、判定フラグに応じて出力画面に表示するメッセージとを対応付けて記憶する。図6は、メッセージデータベースの一例を示す図である。図6に示すように、メッセージDB125は、「判定フラグ」、「メッセージ」といった項目を有する。
Returning to the description of FIG. 1, the
「判定フラグ」は、座標記録DB124の同一の項目、つまり同一のフラグに対応する。「メッセージ」は、判定フラグに応じて出力画面に表示するメッセージの内容を示す。
The “determination flag” corresponds to the same item in the coordinate
図1の説明に戻って、制御部130は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、内部の記憶装置に記憶されているプログラムがRAMを作業領域として実行されることにより実現される。また、制御部130は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されるようにしてもよい。制御部130は、取得部131と、算出部132と、判定部133と、出力制御部134とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図1に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。
Returning to the description of FIG. 1, the
取得部131は、カメラ11から通信部110を介して居室の画像、すなわちセンサ情報を取得する。取得部131は、例えば、1秒ごとに居室の状態を撮像した撮像画像を取得する。取得部131は、取得した画像を算出部132に出力する。なお、取得部131は、センサ情報として他の情報を取得してもよい。取得部131は、例えば、居室内に照射光を照射し、照射光の反射光を含む撮像画像を取得してもよい。また、取得部131は、例えば、レーザ光を照射して距離を計測する距離センサから距離情報を取得してもよい。なお、取得部131は、取得した撮像画像を記憶部120に記憶してもよい。
The
算出部132は、取得部131から画像が入力されると、画像に対して画像解析を行う。算出部132は、入力された画像に対して、例えば、記憶部120に記憶されている頭部のテンプレート画像とのマッチングを取ることにより、人物の頭を検出する。算出部132は、例えば、区画10a内で検出した人物の頭が1つであり、入居者の頭部のテンプレート画像とマッチングした場合には、入居者のみが存在している。すなわち、算出部132は、ケアスタッフは入室していない(退出している)と判定する。算出部132は、ケアスタッフが入室していないと判定した場合には、引き続きケアスタッフの入室を監視する。
When an image is input from the
算出部132は、例えば、区画10a内で検出した人物の頭部と、ケアスタッフの頭部のテンプレート画像とがマッチングした場合には、ケアスタッフが入室していると判定する。なお、算出部132は、ケアスタッフが入室しているか否かの判定について、例えば、ケアスタッフのユニホームにケアスタッフを表すマーカを設け、撮像画像において当該マーカを検出した場合にケアスタッフが入室していると判定してもよい。また、算出部132は、ケアスタッフが入室しているか否かの判定について、例えば、IDカードをケアスタッフに所持させて、各区画への入室時と退出時に、各区画の出入り口に設置した図示しないカードリーダに読ませるようにしてもよい。IDカードをカードリーダに読ませる場合、算出部132は、IDカードの情報と、入室または退出を表す情報とを取得して、ケアスタッフの入退室を検出することができる。なお、居室へ入室する人間が、入居者とケアスタッフのみと考えられる場合には、単純に頭部が2つ検出された際に、ケアスタッフが入室したと判定してもよい。
For example, when the head of the person detected in the
算出部132は、ケアスタッフが入室していると判定した場合には、画像中に清掃機マーカがあるか否かを判定する。算出部132は、画像中に清掃機マーカがない場合には、清掃機マーカを検出するまで待機する。算出部132は、画像中に清掃機マーカがある場合には、清掃機マーカの現在位置の座標を画像から取得して、通過座標として通過座標DB123に記録する。算出部132は、通過座標の記録をケアスタッフの退出まで継続する。なお、算出部132は、清掃機マーカの代わりに清掃部材の形状を認識することで、清掃部材を検出してもよい。この場合、算出部132は、例えば、ケアスタッフが清掃部材を手に持って清掃作業を行っている状態を検出し、画像中の清掃部材の形状を識別して現在位置を取得して、通過座標として通過座標DB123に記録する。
When it is determined that the care staff is in the room, the
算出部132は、ケアスタッフの退出を検出すると、通過座標の記録を終了し、通過座標DB123に記録した通過座標を、カメラIDと、マーカ検出日時と、ケアスタッフ退出日時と対応付けて座標記録DB124に記録する。なお、算出部132は、例えば、ケアスタッフが入室していると判定した後に、ケアスタッフの頭部テンプレートと一致していた頭部の数が減少した場合や、ケアスタッフのユニホームのマーカを検出できなくなった等の場合に、ケアスタッフの退出を検出する。また、算出部132は、カメラ設置テーブル122を参照して、対応する居室の外枠幅に基づいて外枠座標を算出する。なお、算出部132は、予め各居室について算出した外枠座標を記憶部120に記憶しておき、ケアスタッフの退出の検出時に、対応する居室の外枠座標を記憶部120から読み出してもよい。
Upon detecting the exit of the care staff, the
算出部132は、通過座標と、外枠座標とに基づいて、所定の領域つまり居室内における清掃に関する評価値を算出する。算出部132は、例えば、居室内に設置された1のカメラ11に対応する全座標のうち、通過座標と重複する座標の割合を清掃に関する評価値とする。また例えば、通過座標から求めた清掃機の通過領域の、カメラ11の撮影範囲に相当する面積に対する割合を清掃に関する評価値としてもよい。この場合には、清掃に関する評価値は、居室全体に対する評価値となる。また、算出部132は、所定の領域のうち所定のエリア、つまり1つの居室内のうちの外枠に相当する領域における清掃に関する評価値を算出するようにしてもよい。算出部132は、例えば、外枠に含まれる全座標のうち、通過座標と重複する座標の割合を清掃に関する評価値とする。また例えば、通過座標から求めた清掃機の通過領域のうち外枠座標により特定される領域に重なる部分の、外枠座標により特定される領域の面積に対する割合を評価値としてもよい。この場合には、清掃に関する評価値は、外枠に対する評価値となるが、外枠の領域、すなわち居室の隅々まで清掃されていれば、居室の中心部を含む居室全体が清掃されていると推定することで、居室全体に対する評価値とすることもできる。算出部132は、算出した清掃に関する評価値を判定部133に出力する。
The
ここで、図7および図8を用いて、清掃の状態と評価値について説明する。図7は、清掃の状態の一例を示す図である。図7に示すように、状態21aは、清掃前であり、外枠25および中心部すなわち居室のうち外枠領域以外の領域26のいずれも清掃機マーカが検出されていない状態である。次に、状態22aは、ケアスタッフ27が居室に入室し、清掃機マーカ28が検出された状態である。続いて、状態23aは、ケアスタッフ27による清掃中であり、清掃機マーカ28が通過した領域、すなわち通過座標が、清掃済領域29として塗りつぶされた状態である。さらに、状態24aは、ケアスタッフ27による清掃が終了すなわちケアスタッフ27が退出した状態であり、居室内が隅々まで清掃済領域29となった状態である。状態24aでは、外枠25に含まれる全座標のうち、通過座標と重複する座標の全外枠座標に対する割合は100%となるので、例えば、清掃に関する評価値は、「100」とすることができる。
Here, the cleaning state and the evaluation value will be described with reference to FIGS. 7 and 8. FIG. 7 is a diagram illustrating an example of a cleaning state. As shown in FIG. 7, the
図8は、清掃の状態の他の一例を示す図である。図8に示すように、状態21bは、清掃前であり、外枠25および中心部すなわち居室のうち外枠領域以外の領域26のいずれも清掃機マーカが検出されていない状態である。次に、状態22bは、ケアスタッフ27が居室に入室し、清掃機マーカ28が検出された状態である。続いて、状態23bは、ケアスタッフ27による清掃中であり、清掃機マーカ28が通過した領域、すなわち通過座標が、清掃済領域29として塗りつぶされた状態である。さらに、状態24bは、ケアスタッフ27による清掃が終了すなわちケアスタッフ27が退出した状態であるが、外枠25の領域は、ほとんど清掃済領域29となっておらず、領域26は概ね清掃済領域29となっている状態である。状態24bでは、例えば、居室全体の座標のうち、通過座標と重複する座標の割合が60%とすると、清掃に関する評価値は「60」とすることができる。また、状態24bでは、例えば、外枠25に含まれる全座標のうち、通過座標と重複する座標の割合が10%とすると、清掃に関する評価値は「10」とすることができる。
FIG. 8 is a diagram illustrating another example of the cleaning state. As shown in FIG. 8, the
図8において、居室内の全座標のうち清掃済領域29にならなかった、図中では白色で表現されている領域は、清掃作業に応じて位置が変化する清掃機マーカ28が検出されなかった連続領域と表現することができる。また、図7や図8において、清掃済領域29である、図中では黒色で表現されている領域は、清掃機マーカ28の検出位置に基づいて特定される領域と表現することができる。算出部132は、居室内の外枠に相当する領域すなわち撮像画像中の所定のエリアに対する、清掃機マーカ28の検出位置に基づいて特定される領域に重ならない領域、即ち、外枠に相当する領域のうち図8で白色で表現されている領域の割合が大きいほど、より清掃が十分になされていないことを示す評価値を算出するということもできる。
In FIG. 8, the cleaning
図1の説明に戻って、判定部133は、算出部132から清掃に関する評価値が入力されると、清掃に関する評価値に基づいて、外枠座標で示す外枠に相当する領域を通過座標が通過しているか否かを判定する。ここで、判定部133は、例えば、清掃に関する評価値が80%以上であれば、外枠に相当する領域を通過座標が十分に通過していると判定する。また、判定部133は、例えば、清掃に関する評価値が80%未満であれば、外枠に相当する領域を通過座標が十分に通過していないと判定する。
Returning to the description of FIG. 1, when an evaluation value related to cleaning is input from the
判定部133は、外枠に相当する領域を通過座標が十分に通過していると判定した場合には、座標記録DB124の判定フラグを「1」にして、対応するメッセージを管理者に送信する指示を出力制御部134に出力する。判定部133は、外枠に相当する領域を通過座標が十分に通過していないと判定した場合には、座標記録DB124の判定フラグを「2」にして、対応するメッセージを管理者に送信する指示を出力制御部134に出力する。
If the
出力制御部134は、判定部133からメッセージの送信を指示されると、座標記録DB124の判定フラグに対応するメッセージを、メッセージDB125から取得する。出力制御部134は、取得したメッセージに基づいて出力画面を生成し、通信部110を介して管理者端末50に送信する。すなわち、出力制御部134は、評価値に基づく出力情報を出力する。
When the
ここで、図9を用いて、出力画面の一例を説明する。図9は、出力画面の一例を示す図である。図9に示すように、出力制御部134は、例えば、図8の清掃の状態のように、清掃に関する評価値が上記のとおり「60」であり、所定値(80%)未満となった場合には、清掃が十分にされていない旨のメッセージを含む出力画面31を生成する。すなわち、出力制御部134は、例えば、座標記録DB124の判定フラグが「2」の場合(外枠に相当する領域を、通過座標が十分に通過していない場合)に、メッセージDB125の判定フラグ「2」のメッセージを取得して出力画面31を生成する。なお図9内のメッセージにおいて「<リビング>」となっている箇所には、判定部133が判定対象としたカメラIDと対応する居室を識別可能な情報が代入される箇所である。
Here, an example of the output screen will be described with reference to FIG. FIG. 9 is a diagram illustrating an example of an output screen. As shown in FIG. 9, the
次に、実施例1の評価システム1の動作について説明する。図10は、実施例1の評価処理の一例を示すフローチャートである。サーバ装置100の取得部131は、カメラ11から通信部110を介して、例えば、1秒ごとに居室の画像を取得する(ステップS1)。取得部131は、取得した画像を算出部132に出力する。
Next, operation | movement of the
算出部132は、取得部131から画像が入力されると、画像に対して画像解析を行って、ケアスタッフの入室を検出したか否かを判定する(ステップS2)。算出部132は、例えば、画像中で検出した人物の頭部と、ケアスタッフの頭部のテンプレート画像とのマッチングにより、ケアスタッフの入室を検出したか否かを判定する。算出部132は、ケアスタッフの入室を検出していない場合には(ステップS2:否定)、ステップS1に戻り、引き続きケアスタッフの入室を監視する。
When the image is input from the
算出部132は、ケアスタッフの入室を検出した場合には(ステップS2:肯定)、図示しないが、画像中に清掃機マーカがあるか否かを判定する。算出部132は、画像中に清掃機マーカがない場合には、清掃機マーカを検出するまで待機する(図示しない)。算出部132は、画像中に清掃機マーカがある場合には、清掃機マーカの現在位置を取得して、通過座標として通過座標DB123に記録する(ステップS3)。
When calculating the care staff entry (step S2: affirmative), the
算出部132は、ケアスタッフの退出を検出したか否かを判定する(ステップS4)。算出部132は、ケアスタッフの退出を検出していない場合には(ステップS4:否定)、ステップS3に戻り、清掃機マーカの現在位置を取得して、通過座標の記録をケアスタッフの退出まで継続する。算出部132は、ケアスタッフの退出を検出した場合には(ステップS4:肯定)、通過座標の記録を終了し、通過座標DB123に記録した通過座標を、カメラIDと、マーカ検出日時と、ケアスタッフ退出日時と対応付けて座標記録DB124に記録する。算出部132は、通過座標と、外枠座標とに基づいて、清掃に関する評価値を算出する。算出部132は、算出した清掃に関する評価値を判定部133に出力する。
The
判定部133は、算出部132から清掃に関する評価値が入力されると、清掃に関する評価値に基づいて、外枠座標で示す外枠に相当する領域を通過座標が十分に通過しているか否かを判定する(ステップS5)。判定部133は、外枠に相当する領域を通過座標が十分に通過したと判定した場合には(ステップS5:肯定)、座標記録DB124の判定フラグを「1」にして、対応するメッセージを管理者に送信する指示を出力制御部134に出力する。出力制御部134は、判定部133からメッセージの送信を指示されると、座標記録DB124の判定フラグ「1」に対応するメッセージを、メッセージDB125から取得する。出力制御部134は、取得したメッセージに基づいて出力画面を生成し、通信部110を介して管理者端末50に送信する(ステップS6)。
When the evaluation value related to cleaning is input from the
判定部133は、外枠に相当する領域を通過座標が十分に通過していないと判定した場合には(ステップS5:否定)、座標記録DB124の判定フラグを「2」にして、対応するメッセージを管理者に送信する指示を出力制御部134に出力する。出力制御部134は、判定部133からメッセージの送信を指示されると、座標記録DB124の判定フラグ「2」に対応するメッセージを、メッセージDB125から取得する。出力制御部134は、取得したメッセージに基づいて出力画面を生成し、通信部110を介して管理者端末50に送信する(ステップS7)。これにより、評価システム1は、ケアスタッフによる清掃作業が適切に行われているか否かを入居施設10の管理者に提示できるので、管理者はスタッフによる清掃を評価できる。
If the
このように、サーバ装置100は、所定の領域の撮像画像を取得し、取得した撮像画像中に清掃部材を検出した場合に、清掃部材の検出位置の変化に応じて所定の領域における清掃に関する評価値を算出する。その結果、スタッフによる清掃を評価できる。
As described above, when the
また、サーバ装置100は、撮像画像中の所定のエリアに対する、該所定のエリアのうち清掃部材の検出位置に基づいて特定される領域に重ならない領域の割合が大きいほど、より清掃が十分になされていないことを示す評価値を算出する。その結果、居室の隅々まで清掃されているか否かを評価できる。
Further, the
また、サーバ装置100は、所定のエリアとして、所定の領域のうち、予め定められた外枠の領域を用いる。その結果、居室の隅々まで清掃されているか否かを評価できる。
In addition, the
また、サーバ装置100は、清掃部材の検出は、清掃部材に付された所定のマークの検出、または、清掃部材の形状認識によって検出する。その結果、スタッフによる清掃作業を容易に識別できる。
Further, the
また、上記実施例1では、清掃部材が居室の外枠の領域を通過したか否かを判定することで、清掃状況を評価したが、これに限定されない。例えば、撮像画像から居室内の物のエッジを検出し、ケアスタッフが該物を片付けたことにより撮像画像からエッジが検出されなくなった場合に、当初エッジが検出された位置を清掃部材が通過したか否かを判定することで、清掃状況を判定してもよい。すなわち、室内に置かれていた物を片付けた後、片付けた場所を清掃しているかを判定してもよい。この場合の実施の形態につき、実施例2として以下に説明する。 Moreover, in the said Example 1, although the cleaning condition was evaluated by determining whether the cleaning member passed the area | region of the outer frame of a living room, it is not limited to this. For example, when an edge of an object in a living room is detected from a captured image and the edge is not detected from the captured image because the care staff has cleared the object, the cleaning member has passed the position where the edge was originally detected. The cleaning status may be determined by determining whether or not. That is, after clearing things placed in the room, it may be determined whether the cleaned place is being cleaned. The embodiment in this case will be described below as Example 2.
図11は、実施例2の評価システムの構成の一例を示すブロック図である。なお、実施例1の評価システム1と同一の構成には同一符号を付すことで、その重複する構成および動作の説明については省略する。実施例2の評価システム2が実施例1の評価システム1と異なるところは、撮像画像から居室内の物のエッジを検出し、ケアスタッフによる片付け作業によりエッジが検出されなくなった場合に、当初エッジが検出された位置を清掃部材が通過したか否かを判定する点にある。
FIG. 11 is a block diagram illustrating an example of the configuration of the evaluation system according to the second embodiment. Note that the same components as those in the
実施例2の評価システム2は、カメラ11a〜11eと、管理者端末50と、サーバ装置200とを有する。カメラ11a〜11eは、実施例1と同様に、入居施設10の区画10aの各所に設置される。なお、以下の説明では、実施例1と同様に、カメラ11a〜11eを区別しない場合には、単にカメラ11と称する。カメラ11、管理者端末50およびサーバ装置200の間は、ネットワークNを介して相互に通信可能に接続される。
The
サーバ装置200は、サーバ装置100と比べ、座標記録DB124およびメッセージDB125に代えて、座標記録DB224およびメッセージDB225を有する点が異なる。また、サーバ装置200は、サーバ装置100と比べ、算出部132および判定部133に代えて、算出部232および判定部233を有する点が異なる。
The
サーバ装置200の座標記録DB224は、区画または居室ごとに、ケアスタッフ入室時および清掃機マーカ検出時の散らかり座標と、清掃が必要な座標と、清掃機が通過した座標とを記憶する。図12は、座標記録データベースの他の一例を示す図である。図12に示すように、座標記録DB224は、「部屋ID」、「カメラID」、「ケアスタッフ入室日時」、「マーカ検出日時」、「ケアスタッフ退出日時」、「入室時の散らかり座標」、「マーカ検出時の散らかり座標」といった項目を有する。また、座標記録DB224は、「要清掃座標」、「通過座標」、「判定フラグ」といった項目を有する。なお、1つの部屋に複数台のカメラ11がある場合には、部屋IDを省略してカメラIDと対応付けて記憶されてもよい。また、1つの部屋に1台のカメラ11しかなければ、カメラIDではなく、部屋IDと対応づけて記憶されてもよい。なお、以下の説明では、簡単のために居室を例とし、1つの部屋にカメラ11が1台の場合について説明する。
The coordinate
「部屋ID」は、入居施設10の各区画または居室を識別する識別子である。「カメラID」は、各居室に設置されるカメラ11を識別する識別子である。「ケアスタッフ入室日時」は、ケアスタッフが入室した日時を示す。「マーカ検出日時」は、ケアスタッフの入室時に、カメラ11から受信した居室の撮像画像中において、清掃機マーカが最初に検出された日時を示す。「ケアスタッフ退出日時」は、ケアスタッフが退出した日時を示す。「入室時の散らかり座標」は、ケアスタッフが入室した時点での居室内の散らかっている領域の座標を示す。居室内の散らかりは、例えば、居室内を複数のメッシュに分割し、カメラ11で撮像された撮像画像中から居室内の物のエッジを検出し、エッジの数が所定値よりも多いメッシュを散らかっていると判定することができる。座標としては、メッシュごとに各メッシュを代表する1つの座標を予め決定しておき、散らかっていると判断したメッシュの代表座標を示してもよい。「マーカ検出時の散らかり座標」は、清掃機マーカが検出された時点での居室内の散らかっている領域の座標を示す。
The “room ID” is an identifier for identifying each section or room of the
「要清掃座標」は、入室時の散らかり座標と、マーカ検出時の散らかり座標とを比較して、エッジが検出されなくなった領域の座標を示す。すなわち、要清掃座標は、ケアスタッフによって物が片付けられた領域の座標を示す。「通過座標」は、例えば、カメラ11が設置された居室でカメラ11の撮像範囲にX,Y座標を割り当てた場合における、清掃機マーカが通過した座標を示す。カメラ11が天井の居室内全体を見渡せる位置に設置されている場合、カメラ11は床方向を見下ろす角度で撮像を行なうため、X,Y座標は撮像された居室全体の床に割り当てられると考えることもできる。「判定フラグ」は、要清掃座標で示される領域を、清掃機マーカの通過座標が通過しているか否かの判定結果を示す。判定フラグは、例えば、要清掃座標で示される領域を通過座標が80%以上通過している場合には「3」とされる。判定フラグは、例えば、要清掃座標で示される領域を通過座標が80%以上通過していない場合には「4」とされる。なお、判定フラグは、実施例1と実施例2とを組み合わせてもよい。この場合には、判定フラグは、例えば、外枠に相当する領域を通過座標が80%以上通過している場合には「1」とされる。判定フラグは、例えば、外枠に相当する領域を通過座標が80%以上通過していない場合には「2」とされる。 “Cleaning coordinates required” indicates the coordinates of a region where no edge is detected by comparing the scatter coordinates when entering the room and the scatter coordinates when detecting the marker. In other words, the cleaning-required coordinates indicate the coordinates of an area where an object has been cleared by the care staff. “Passing coordinates” indicates, for example, coordinates through which the cleaner marker has passed when X and Y coordinates are assigned to the imaging range of the camera 11 in the room where the camera 11 is installed. When the camera 11 is installed at a position overlooking the entire room in the ceiling, the camera 11 captures images at an angle looking down on the floor direction, so that the X and Y coordinates are assigned to the entire floor of the imaged room. You can also. The “determination flag” indicates a determination result as to whether or not the passing coordinates of the cleaning machine marker pass through the area indicated by the cleaning required coordinates. The determination flag is set to “3”, for example, when the passing coordinates pass 80% or more through the area indicated by the cleaning required coordinates. The determination flag is set to “4”, for example, when the passing coordinates do not pass 80% or more through the area indicated by the cleaning required coordinates. Note that the determination flag may be a combination of the first and second embodiments. In this case, the determination flag is set to “1” when, for example, the passing coordinates pass through an area corresponding to the outer frame by 80% or more. For example, the determination flag is “2” when the passing coordinates do not pass 80% or more through the region corresponding to the outer frame.
図11の説明に戻って、メッセージDB225は、清掃機マーカの通過座標の判定結果を示す判定フラグと、判定フラグに応じて出力画面に表示するメッセージとを対応付けて記憶する。図13は、メッセージデータベースの他の一例を示す図である。図13に示すように、メッセージDB225は、「判定フラグ」、「メッセージ」といった項目を有する。
Returning to the description of FIG. 11, the
「判定フラグ」は、座標記録DB124および座標記録DB224の同一の項目、つまり同一のフラグに対応する。「メッセージ」は、判定フラグに応じて出力画面に表示するメッセージの内容を示す。
The “determination flag” corresponds to the same item in the coordinate
図11の説明に戻って、算出部232は、取得部131から画像が入力されると、画像に対して画像解析を行う。算出部232は、算出部132と同様に、居室内にケアスタッフが入室したか否かを判定する。算出部232は、ケアスタッフが入室していないと判定した場合には、引き続きケアスタッフの入室を監視する。
Returning to the description of FIG. 11, when an image is input from the
算出部232は、ケアスタッフが入室していると判定した場合には、入力された画像からエッジ(エッジライン)、すなわち直線成分を算出する。算出部232は、例えば、エッジフィルタにて画像の輝度勾配を検出する。算出部232は、画像の各画素について、周囲の輝度勾配の強度が一定範囲で、かつ隣接している画素をエッジ成分として結合して直線成分を算出する。算出部232は、例えば、居室内に長方形の机が設置され、仮に天井方向から撮影した場合には、机の縁と床面との境界は直線であり、机と床面との輝度が異なるので、当該境界の画素をエッジ成分として結合して直線成分を算出する。また、算出部232は、例えば、床に衣服が置かれている場合には、衣服の縁と床面との境界の画素について同様の処理を行うが、衣服の縁は曲線である場合がある。このとき、算出部232は、曲線を所定の長さの直線で近似して直線成分を算出する。算出部232は、算出したエッジラインが存在する座標を、入室時の散らかり座標として座標記録DB224に記録する。
When it is determined that the care staff is in the room, the
算出部232は、入室時の散らかり座標の記録後に、画像中に清掃機マーカがあるか否かを判定する。算出部232は、画像中に清掃機マーカがない場合には、清掃機マーカを検出するまで待機する。算出部232は、画像中に清掃機マーカがある場合、すなわち、掃除機マーカを検出すると、入力された画像からエッジラインを算出する。算出部232は、算出したエッジラインが存在する座標を、マーカ検出時の散らかり座標として座標記録DB224に記録する。
The
算出部232は、入室時の散らかり座標およびマーカ検出時の散らかり座標に基づいて、要清掃座標を算出する。算出部232は、例えば、入室時の散らかり座標とマーカ検出時の散らかり座標との間で一致しない座標を要清掃座標として算出する。すなわち、算出部232は、ケアスタッフの入室時にエッジラインが存在する座標のうち、清掃機マーカの検出時にエッジラインが存在しなくなった座標を要清掃座標として算出する。要清掃座標として算出される領域は、例えば、ケアスタッフの入室時には物が置かれており、掃除機を掛ける前にケアスタッフが物を片付けたことによって物が存在しなくなった領域に相当する。算出部232は、算出した要清掃座標を座標記録DB224に記録する。
The
また、算出部232は、画像中に清掃機マーカがある場合には、清掃機マーカの現在位置を取得して、通過座標として通過座標DB123に記録する。算出部232は、通過座標の記録をケアスタッフの退出まで継続する。算出部232は、ケアスタッフの退出を検出すると、通過座標の記録を終了し、通過座標DB123に記録した通過座標を、部屋ID等と対応付けて座標記録DB224に記録する。
Further, when there is a cleaning machine marker in the image, the
算出部232は、座標記録DB224を参照し、通過座標と要清掃座標とを比較して、所定の領域、つまり居室内における清掃に関する評価値を算出する。算出部232は、例えば、要清掃座標のうち、通過座標と重複する座標の割合を清掃に関する評価値とする。算出部232は、算出した清掃に関する評価値を判定部233に出力する。
The
ここで、図14および図15を用いて、清掃の状態と評価値について説明する。図14は、清掃の状態の他の一例を示す図である。図14に示すように、状態41aは、清掃前であり、室内には物が置かれた状態である。また、状態41aは、居室内に家具47が配置されている。次に、状態42aは、ケアスタッフ48が居室に入室し、室内に置かれた物を片付け始める直前の状態である。続いて、状態43aは、ケアスタッフ48が領域46に置かれた物の片付けを完了し、清掃機マーカ49が検出された状態である。なお、このときの領域46の座標は、検出されていたエッジが検出されなくなった領域であり、要清掃座標となる。状態44aは、ケアスタッフ48による清掃中であり、清掃機マーカ49の移動軌跡50に従って、清掃機マーカ49が通過した領域の座標、すなわち通過座標が、清掃済領域51として塗りつぶされた状態である。さらに、状態45aは、ケアスタッフ48による清掃が終了した状態であり、物が置かれていた領域46が清掃済領域51となった状態である。状態45aでは、通過座標と、領域46に対応する要清掃座標とを比較すると、要清掃座標のうち、通過座標と重複する座標の割合は100%となるので、例えば、清掃に関する評価値は「100」とすることができる。
Here, a cleaning state and an evaluation value will be described with reference to FIGS. 14 and 15. FIG. 14 is a diagram illustrating another example of the cleaning state. As shown in FIG. 14, the
図15は、清掃の状態の他の一例を示す図である。図15に示すように、状態41bは、清掃前であり、室内には物が置かれた状態である。また、状態41bは、居室内に家具47が配置されている。次に、状態42bは、ケアスタッフ48が居室に入室し、室内に置かれた物を片付け始める直前の状態である。続いて、状態43bは、ケアスタッフ48が領域46に置かれた物の片付けを完了し、清掃機マーカ49が検出された状態である。なお、このときの領域46の座標は、検出されていたエッジが検出されなくなった領域であり、要清掃座標となる。状態44bは、ケアスタッフ48による清掃中であり、清掃機マーカ49の移動軌跡50に従って、清掃機マーカ49が通過した領域の座標、すなわち通過座標が、清掃済領域51として塗りつぶされた状態である。さらに、状態45bは、ケアスタッフ48による清掃が終了した状態であるが、物が置かれていた領域46について、一部分が清掃済領域51となった状態である。状態45bでは、通過座標と、領域46に対応する要清掃座標とを比較したときに、例えば、要清掃座標のうち、通過座標と重複する座標の割合が50%とすると、清掃に関する評価値は「50」とすることができる。図中では白色で表現されている、居室内の全座標のうち清掃済領域51にならなかった領域は、清掃作業に応じて位置が変化する清掃機マーカ49が検出されなかった連続領域と表現することができる。算出部232は、要清掃座標46に対する、清掃機マーカ49の位置として検出されなかった連続領域の割合が大きいほど、より清掃が十分になされていないことを示す評価値を算出するということもできる。
FIG. 15 is a diagram illustrating another example of the cleaning state. As shown in FIG. 15, the
図11の説明に戻って、判定部233は、算出部232から清掃に関する評価値が入力されると、清掃に関する評価値に基づいて、要清掃座標を通過座標が十分に通過しているか否かを判定する。ここで、判定部233は、例えば、清掃に関する評価値が80%以上であれば、要清掃座標を通過座標が十分に通過していると判定する。また、判定部233は、例えば、清掃に関する評価値が80%未満であれば、要清掃座標を通過座標が十分に通過していないと判定する。
Returning to the description of FIG. 11, when the evaluation value related to cleaning is input from the
判定部233は、要清掃座標を通過座標が十分に通過していると判定した場合には、座標記録DB224の判定フラグを「3」にして、対応するメッセージを管理者に送信する指示を出力制御部134に出力する。判定部233は、要清掃座標を通過座標が十分に通過していないと判定した場合には、座標記録DB224の判定フラグを「4」にして、対応するメッセージを管理者に送信する指示を出力制御部134に出力する。
If the
ここで、図16を用いて、出力画面の一例を説明する。図16は、出力画面の他の一例を示す図である。図16に示すように、出力制御部134は、例えば、図14の清掃の状態のように、清掃に関する評価値が所定値(80%)以上である場合には、物を片付けた後が十分に清掃されている旨のメッセージを含む出力画面61を生成する。すなわち、出力制御部134は、例えば、座標記録DB224の判定フラグが「3」の場合に、メッセージDB225の判定フラグ「3」のメッセージを取得して出力画面61を生成する。なお図16内のメッセージにおいて「<居室名>」となっている箇所には、判定部233が判定対象としたカメラIDと対応する居室を識別可能な情報が代入される箇所である。
Here, an example of the output screen will be described with reference to FIG. FIG. 16 is a diagram illustrating another example of the output screen. As shown in FIG. 16, the
次に、実施例2の評価システム2の動作について説明する。図17は、実施例2の評価処理の一例を示すフローチャートである。サーバ装置200の取得部131は、カメラ11から通信部110を介して、例えば、1秒ごとに居室の画像を取得する(ステップS11)。取得部131は、取得した画像を算出部232に出力する。
Next, operation | movement of the
算出部232は、取得部131から画像が入力されると、画像に対して画像解析を行って、ケアスタッフの入室を検出したか否かを判定する(ステップS12)。算出部232は、ケアスタッフの入室を検出していない場合には(ステップS12:否定)、ステップS11に戻り、引き続きケアスタッフの入室を監視する。
When the image is input from the
算出部232は、ケアスタッフの入室を検出したと判定した場合には(ステップS12:肯定)、入力された画像からエッジラインを算出する。算出部232は、算出したエッジラインが存在する座標を、入室時の散らかり座標として座標記録DB224に記録する(ステップS13)。
When it is determined that the care staff has entered the room (Step S12: Yes), the
算出部232は、入室時の散らかり座標の記録後に、画像中に清掃機マーカがあるか否かを判定する(図示しない)。算出部232は、画像中に清掃機マーカがない場合には、清掃機マーカを検出するまで待機する(図示しない)。算出部232は、掃除機マーカを検出すると、入力された画像からエッジラインを算出する。算出部232は、算出したエッジラインが存在する座標を、マーカ検出時の散らかり座標として座標記録DB224に記録する(ステップS14)。
The
算出部232は、入室時の散らかり座標およびマーカ検出時の散らかり座標に基づいて、要清掃座標を算出する。要清掃座標の一例としては、入室時のちらかり座標として存在したが、マーカ検出時のちらかり座標として存在しなかった座標である。算出部232は、算出した要清掃座標を座標記録DB224に記録する(ステップS15)。また、算出部232は、画像中に清掃機マーカがある場合には、清掃機マーカの現在位置を取得して、通過座標として通過座標DB123に記録する(ステップS16)。
The
算出部232は、ケアスタッフの退出を検出したか否かを判定する(ステップS17)。算出部232は、ケアスタッフの退出を検出していない場合には(ステップS17:否定)、ステップS16に戻り、清掃機マーカの現在位置を取得して、通過座標の記録をケアスタッフの退出まで継続する。算出部232は、ケアスタッフの退出を検出した場合には(ステップS17:肯定)、通過座標の記録を終了し、通過座標DB123に記録した通過座標を、部屋ID等と対応付けて座標記録DB224に記録する。
The calculating
算出部232は、座標記録DB224を参照し、通過座標と要清掃座標とを比較して、居室内における清掃に関する評価値を算出する(ステップS18)。算出部232は、算出した清掃に関する評価値を判定部233に出力する。
The
判定部233は、算出部232から清掃に関する評価値が入力されると、清掃に関する評価値に基づいて、要清掃座標を通過座標が十分に通過しているか否かを判定する(ステップS19)。判定部233は、要清掃座標を通過座標が十分に通過したと判定した場合には(ステップS19:肯定)、座標記録DB224の判定フラグを「3」にして、対応するメッセージを管理者に送信する指示を出力制御部134に出力する。出力制御部134は、判定部233からメッセージの送信を指示されると、座標記録DB224の判定フラグ「3」に対応するメッセージを、メッセージDB225から取得する。出力制御部134は、取得したメッセージに基づいて出力画面を生成し、通信部110を介して管理者端末50に送信する(ステップS20)。
When the evaluation value related to cleaning is input from the
判定部233は、要清掃座標を通過座標が十分に通過していないと判定した場合には(ステップS19:否定)、座標記録DB224の判定フラグを「4」にして、対応するメッセージを管理者に送信する指示を出力制御部134に出力する。出力制御部134は、判定部233からメッセージの送信を指示されると、座標記録DB224の判定フラグ「4」に対応するメッセージを、メッセージDB225から取得する。出力制御部134は、取得したメッセージに基づいて出力画面を生成し、通信部110を介して管理者端末50に送信する(ステップS21)。これにより、評価システム2は、ケアスタッフによる片付けた後の清掃作業が適切に行われているか否かを入居施設10の管理者に提示できるので、管理者はスタッフによる片付けた後の清掃を評価できる。
If the
このように、サーバ装置200は、過去にエッジが検出された位置についてエッジが検出されなくなった場合に、その後、その位置またはその位置の周辺に清掃部材の位置が検出されたか否かに応じて、清掃に関する評価値を算出する。その結果、スタッフによる片付け後の清掃を評価できる。
As described above, when no edge is detected at a position where an edge has been detected in the past, the
また、サーバ装置200は、エッジとして、撮像画像中における所定の領域内に置かれた物体の輪郭に基づく線を用いる。その結果、居室内の物が片付けられたことが判別できる。
Further, the
また、サーバ装置200は、撮像画像から検出されたエッジのうち、スタッフ入室後に位置が変化したエッジの元の位置を特定し、特定した元の位置を、清掃部材が通過したか否かを判断し、通過した場合と通過しなかった場合とで異なる評価値を算出する。また、サーバ装置200は、さらに、算出された評価値に基づく出力情報を出力する。その結果、スタッフによる片付け後の清掃を評価できる。
Further, the
また、上記実施例2では、メッセージの表示画面を管理者端末50に表示させたが、これに限定されない。例えば、図14または図15に示すように、要清掃座標に対応する領域に、エッジの位置と、居室内における清掃部材の移動軌跡とを重畳した表示画面を、管理者端末50に表示させるようにしてもよい。これにより、清掃部材の具体的な動きが容易に判別できる。
Moreover, in the said Example 2, although the display screen of the message was displayed on the
また、上記実施例2では、表示画面を管理者端末50に表示させたが、これに限定されない。例えば、サーバ装置200に、図示しない表示部、および、表示部に表示画面を表示させる表示制御部を設けて、表示制御部が表示部に表示画面を表示させるようにしてもよい。
Moreover, in the said Example 2, although the display screen was displayed on the
このように、サーバ装置200は、清掃作業が開始される前に検出された所定の領域内で検出したエッジの位置を取得し、清掃作業が行われている時間における所定の領域内での清掃部材の移動軌跡を取得する。また、サーバ装置200は、清掃作業が完了された時の所定の領域を撮像した画像に、取得したエッジの位置と、取得した移動軌跡の情報とを重畳して管理者端末50に表示させる。その結果、清掃が行われるべき場所が確かに清掃されたか否かを管理することができる。
As described above, the
また、サーバ装置200が移動軌跡を取得する清掃部材は、吸込口を有し、当該清掃部材の移動軌跡として、吸込口の幅に基づく軌跡を取得する。その結果、清掃された領域を容易に判別できる。
Moreover, the cleaning member from which the
なお、上記実施例2では、物のエッジラインに基づいて要清掃座標を算出したが、これに限定されない。例えば、距離センサで計測した居室内の高さに基づいて乱雑度を算出し、乱雑度に基づいて要清掃座標を算出してもよい。図18は、高さを乱雑度の指標とする場合の乱雑度の算出の一例を示す図である。図18に示すように、サーバ装置200は、基準状態71と、基準状態71に基づく高さ情報73とを予め取得する。また、サーバ装置200は、散らかっている状態である比較対象72と、比較対象72に基づく高さ情報74とを取得する。ここで、比較対象72および高さ情報74と、基準状態71および高さ情報73とを比較すると、物体72aおよび物体72aに係る高さ情報72bが増加しているとする。続いて、高さ情報73と、高さ情報74との全域の差分75を取ると、高さ情報72bに相当する図中の斜線で示す面積72cが乱雑度として算出できる。
In the second embodiment, the cleaning-required coordinates are calculated based on the edge line of the object. However, the present invention is not limited to this. For example, the degree of randomness may be calculated based on the height of the room measured by the distance sensor, and the cleaning required coordinates may be calculated based on the degree of randomness. FIG. 18 is a diagram illustrating an example of calculation of the randomness when the height is used as an index of randomness. As illustrated in FIG. 18, the
ここで、高さ情報73および74は、例えば、天井に設置された光源から居室内に光を照射して、照射光の反射光、ならびに、照射光および反射光の位相情報を含む画像を撮像して画像解析し、位相情報に基づき撮像画像の画素ごとに距離を算出して求める。すなわち、高さ情報73および74は、TOF(Time Of Flight)によって距離を算出することで求めることができる。また、高さ情報73および74は、例えば、光源から居室内に特定のパターンを含む照射光を照射し、特定のパターンに基づいて距離を算出して求めることができる。さらに、高さ情報73および74は、例えば、居室内にレーザ光を照射して距離を計測する距離センサを用いて計測した距離に基づいて求めることができる。ここで、距離センサは、例えば、ライダー(LIDAR:Light Detection and Ranging、または、Laser Imaging Detection and Ranging、もしくは、LADAR:Laser Detection and Ranging)を用いることができる。
Here, for example, the
高さを居室内の乱雑度の指標とし、乱雑度に基づいて要清掃座標を算出する場合には、評価システム2は、入居施設10の区画ごとに、例えば、端末装置を設け、端末装置が居室内の高さに基づいて乱雑度を算出する。端末装置は、例えば、サーバ装置200の算出部232の処理の一部である入室時およびマーカ検出時のエッジラインに代えて、高さに基づく乱雑度に基づいて要清掃座標を算出し、サーバ装置200に送信する。つまり、評価システム2は、ケアスタッフ入室時の乱雑度と、清掃機マーカの検出時の乱雑度とを比較して、乱雑度が低下した領域の座標を要清掃座標とすることができる。これにより、高さ方向の要素を考慮して要清掃座標を算出できる。
When the height is used as an indicator of the degree of messiness in the living room and the cleaning coordinates are calculated based on the degree of messiness, the
また、図示した各部の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各部の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、算出部132と、判定部133とを統合してもよい。
In addition, each component of each part illustrated does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution / integration of each unit is not limited to that shown in the figure, and all or a part thereof may be functionally or physically distributed / integrated in arbitrary units according to various loads or usage conditions. Can be configured. For example, the
さらに、各装置で行われる各種処理機能は、CPU(またはMPU、MCU(Micro Controller Unit)等のマイクロ・コンピュータ)上で、その全部または任意の一部を実行するようにしてもよい。また、各種処理機能は、CPU(またはMPU、MCU等のマイクロ・コンピュータ)で解析実行されるプログラム上、またはワイヤードロジックによるハードウェア上で、その全部または任意の一部を実行するようにしてもよいことは言うまでもない。 Furthermore, various processing functions performed by each device may be executed entirely or arbitrarily on a CPU (or a microcomputer such as an MPU or MCU (Micro Controller Unit)). In addition, various processing functions may be executed in whole or in any part on a program that is analyzed and executed by a CPU (or a microcomputer such as an MPU or MCU) or on hardware based on wired logic. Needless to say, it is good.
ところで、上記の実施例で説明した各種の処理は、予め用意されたプログラムをコンピュータで実行することで実現できる。そこで、以下では、上記の実施例と同様の機能を有するプログラムを実行するコンピュータの一例を説明する。図19は、清掃状況の評価プログラムを実行するコンピュータの一例を示す図である。 By the way, the various processes described in the above embodiments can be realized by executing a program prepared in advance by a computer. Therefore, in the following, an example of a computer that executes a program having the same function as in the above embodiment will be described. FIG. 19 is a diagram illustrating an example of a computer that executes a cleaning status evaluation program.
図19が示すように、コンピュータ300は、各種演算処理を実行するCPU301と、データ入力を受け付ける入力装置302と、モニタ303とを有する。また、コンピュータ300は、記憶媒体からプログラム等を読み取る媒体読取装置304と、各種装置と接続するためのインタフェース装置305と、他の情報処理装置等と有線または無線により接続するための通信装置306とを有する。また、コンピュータ300は、各種情報を一時記憶するRAM307と、ハードディスク装置308とを有する。また、各装置301〜308は、バス309に接続される。
As illustrated in FIG. 19, the
ハードディスク装置308には、図1または図11に示した取得部131、算出部132または算出部232、判定部133または判定部233、および、出力制御部134の各処理部と同様の機能を有する清掃状況の評価プログラムが記憶される。また、ハードディスク装置308には、入居者DB121、カメラ設置テーブル122、通過座標DB123、および、座標記録DB124または座標記録DB224が記憶される。また、ハードディスク装置308には、メッセージDB125またはメッセージDB225、および、清掃状況の評価プログラムを実現するための各種データが記憶される。入力装置302は、例えば、コンピュータ300の管理者から管理情報等の各種情報の入力を受け付ける。モニタ303は、例えば、コンピュータ300の管理者に対して管理情報の画面や各種画面を表示する。インタフェース装置305は、例えば印刷装置等が接続される。通信装置306は、例えば、図1または図11に示した通信部110と同様の機能を有しネットワークNと接続され、管理者端末50、カメラ11や他の装置と各種情報をやりとりする。
The
CPU301は、ハードディスク装置308に記憶された各プログラムを読み出して、RAM307に展開して実行することで、各種の処理を行う。また、これらのプログラムは、コンピュータ300を図1または図11に示した取得部131、算出部132または算出部232、判定部133または判定部233、および、出力制御部134として機能させることができる。
The
なお、上記の清掃状況の評価プログラムは、必ずしもハードディスク装置308に記憶されている必要はない。例えば、コンピュータ300が読み取り可能な記憶媒体に記憶されたプログラムを、コンピュータ300が読み出して実行するようにしてもよい。コンピュータ300が読み取り可能な記憶媒体は、例えば、CD−ROMやDVDディスク、USB(Universal Serial Bus)メモリ等の可搬型記録媒体、フラッシュメモリ等の半導体メモリ、ハードディスクドライブ等が対応する。また、公衆回線、インターネット、LAN等に接続された装置にこの清掃状況の評価プログラムを記憶させておき、コンピュータ300がこれらから清掃状況の評価プログラムを読み出して実行するようにしてもよい。
Note that the cleaning status evaluation program is not necessarily stored in the
以上、本実施例を含む実施の形態に関し、さらに以下の付記を開示する。 As described above, the following supplementary notes are further disclosed regarding the embodiment including the present example.
(付記1)所定の領域の撮像画像を取得し、
取得した前記撮像画像中に清掃部材を検出した場合に、前記清掃部材の検出位置の変化に応じて前記所定の領域における清掃に関する評価値を算出する
処理をコンピュータが実行することを特徴とする清掃状況の評価方法。
(Appendix 1) Obtaining a captured image of a predetermined area,
When the cleaning member is detected in the acquired captured image, the computer executes a process of calculating an evaluation value related to cleaning in the predetermined region in accordance with a change in the detection position of the cleaning member. How to evaluate the situation.
(付記2)前記算出する処理は、前記撮像画像中の所定のエリアに対する、該所定のエリアのうち前記清掃部材の検出位置に基づいて特定される領域に重ならない領域の割合が大きいほど、より清掃が十分になされていないことを示す評価値を算出することを特徴とする付記1に記載の清掃状況の評価方法。
(Additional remark 2) As the ratio of the area | region which does not overlap the area | region specified based on the detection position of the said cleaning member among the said predetermined area with respect to the predetermined area in the said captured image with respect to the predetermined area in the said captured image is larger, The evaluation method of the cleaning situation according to
(付記3)前記所定のエリアは、前記所定の領域のうち、予め定められた外枠の領域であることを特徴とする付記2に記載の清掃状況の評価方法。
(Additional remark 3) The said predetermined area is an area | region of the predetermined outer frame among the said predetermined areas, The cleaning condition evaluation method of
(付記4)前記清掃部材の検出は、前記清掃部材に付された所定のマークの検出、または、前記清掃部材の形状認識によって検出することを特徴とする付記1〜3のいずれか1つに記載の清掃状況の評価方法。 (Additional remark 4) The detection of the said cleaning member is detected by the detection of the predetermined | prescribed mark attached | subjected to the said cleaning member, or the shape recognition of the said cleaning member. Evaluation method of the cleaning situation described.
(付記5)前記算出する処理は、過去にエッジが検出された位置について前記エッジが検出されなくなった場合に、その後、その位置またはその位置の周辺に前記清掃部材の位置が検出されたか否かに応じて、前記清掃に関する評価値を算出することを特徴とする付記1に記載の清掃状況の評価方法。
(Additional remark 5) The said process to calculate is, when the said edge is no longer detected about the position where the edge was detected in the past, after that, whether the position of the said cleaning member was detected in the periphery of the position The evaluation value of the cleaning status according to
(付記6)前記エッジは、前記撮像画像中における前記所定の領域内に置かれた物体の輪郭に基づく線であることを特徴とする付記5に記載の清掃状況の評価方法。
(Additional remark 6) The said edge is a line based on the outline of the object placed in the said predetermined area | region in the said captured image, The evaluation method of the cleaning condition of
(付記7)前記算出する処理は、前記撮像画像から検出されたエッジのうち、スタッフ入室後に位置が変化したエッジの元の位置を特定し、前記元の位置を含む領域を、清掃部材が通過したか否かを判断し、通過した場合と通過しなかった場合とで異なる評価値を算出し、
さらに、算出された前記評価値に基づく出力情報を出力する
処理をコンピュータが実行することを特徴とする付記1に記載の清掃状況の評価方法。
(Additional remark 7) The said calculation process specifies the original position of the edge from which the position changed after entering a staff among the edges detected from the said captured image, and a cleaning member passes the area | region containing the said original position. To determine whether or not it has passed, and calculate a different evaluation value depending on whether it passed or not,
Further, the computer executes a process of outputting output information based on the calculated evaluation value.
(付記8)清掃作業が開始される前に検出された所定の領域内で検出したエッジの位置を取得し、
前記清掃作業が行われている時間における前記所定の領域内での清掃部材の移動軌跡を取得し、
前記清掃作業が完了された時の前記所定の領域を撮像した画像に、取得した前記エッジの位置と、取得した前記移動軌跡の情報とを重畳して表示する
処理をコンピュータが実行することを特徴とする清掃状況の評価方法。
(Appendix 8) Acquire the position of the edge detected in the predetermined area detected before the cleaning work is started,
Obtaining a movement trajectory of the cleaning member within the predetermined area at the time when the cleaning operation is performed;
The computer executes a process of superimposing and displaying the acquired position of the edge and the acquired information of the movement locus on an image obtained by imaging the predetermined area when the cleaning operation is completed. Evaluation method of the cleaning situation.
(付記9)前記清掃部材は吸込口を有し、前記清掃部材の移動軌跡は、前記吸込口の幅に基づく軌跡であることを特徴とする付記8に記載の清掃状況の評価方法。 (Additional remark 9) The said cleaning member has a suction inlet, The movement locus | trajectory of the said cleaning member is a locus | trajectory based on the width | variety of the said suction inlet, The evaluation method of the cleaning condition of Additional remark 8 characterized by the above-mentioned.
(付記10)所定の領域の撮像画像を取得し、
取得した前記撮像画像中に清掃部材を検出した場合に、前記清掃部材の検出位置の変化に応じて前記所定の領域における清掃に関する評価値を算出する
処理をコンピュータに実行させることを特徴とする清掃状況の評価プログラム。
(Appendix 10) Obtaining a captured image of a predetermined area,
When a cleaning member is detected in the acquired captured image, the cleaning is performed by causing a computer to execute a process of calculating an evaluation value related to cleaning in the predetermined region in accordance with a change in a detection position of the cleaning member. Situation assessment program.
(付記11)前記算出する処理は、前記撮像画像中の所定のエリアに対する、該所定のエリアのうち前記清掃部材の検出位置に基づいて特定される領域に重ならない領域の割合が大きいほど、より清掃が十分になされていないことを示す評価値を算出することを特徴とする付記10に記載の清掃状況の評価プログラム。
(Additional remark 11) The said process to calculate is more so that the ratio of the area | region which does not overlap with the area | region specified based on the detection position of the said cleaning member among this predetermined area with respect to the predetermined area in the said captured image is larger. The evaluation program of the cleaning situation according to
(付記12)前記所定のエリアは、前記所定の領域のうち、予め定められた外枠の領域であることを特徴とする付記11に記載の清掃状況の評価プログラム。 (Additional remark 12) The said predetermined area is an area | region of the predetermined outer frame among the said predetermined areas, The cleaning condition evaluation program of Additional remark 11 characterized by the above-mentioned.
(付記13)前記清掃部材の検出は、前記清掃部材に付された所定のマークの検出、または、前記清掃部材の形状認識によって検出することを特徴とする付記10〜12のいずれか1つに記載の清掃状況の評価プログラム。 (Additional remark 13) Detection of the said cleaning member is detected by the detection of the predetermined | prescribed mark attached | subjected to the said cleaning member, or the shape recognition of the said cleaning member, Any one of Additional remarks 10-12 characterized by the above-mentioned. The cleaning status evaluation program described.
(付記14)前記算出する処理は、過去にエッジが検出された位置について前記エッジが検出されなくなった場合に、その後、その位置またはその位置の周辺に前記清掃部材の位置が検出されたか否かに応じて、前記清掃に関する評価値を算出することを特徴とする付記10に記載の清掃状況の評価プログラム。
(Additional remark 14) When the said edge is no longer detected about the position where the edge was detected in the past, the process to calculate is whether the position of the said cleaning member was detected after that position or the periphery of the position after that The cleaning condition evaluation program according to
(付記15)前記エッジは、前記撮像画像中における前記所定の領域内に置かれた物体の輪郭に基づく線であることを特徴とする付記14に記載の清掃状況の評価プログラム。 (Additional remark 15) The said edge is a line based on the outline of the object placed in the said predetermined area | region in the said captured image, The cleaning condition evaluation program of Additional remark 14 characterized by the above-mentioned.
(付記16)前記算出する処理は、前記撮像画像から検出されたエッジのうち、スタッフ入室後に位置が変化したエッジの元の位置を特定し、前記元の位置を含む領域を、清掃部材が通過したか否かを判断し、通過した場合と通過しなかった場合とで異なる評価値を算出し、
さらに、算出された前記評価値に基づく出力情報を出力する
処理をコンピュータが実行することを特徴とする付記10に記載の清掃状況の評価プログラム。
(Additional remark 16) The said calculation process specifies the original position of the edge from which the position changed after entering a staff among the edges detected from the said captured image, and a cleaning member passes the area | region containing the said original position. To determine whether or not it has passed, and calculate a different evaluation value depending on whether it passed or not,
Furthermore, the cleaning status evaluation program according to
(付記17)清掃作業が開始される前に検出された所定の領域内で検出したエッジの位置を取得し、
前記清掃作業が行われている時間における前記所定の領域内での清掃部材の移動軌跡を取得し、
前記清掃作業が完了された時の前記所定の領域を撮像した画像に、取得した前記エッジの位置と、取得した前記移動軌跡の情報とを重畳して表示する
処理をコンピュータに実行させることを特徴とする清掃状況の評価プログラム。
(Additional remark 17) The position of the edge detected in the predetermined | prescribed area | region detected before the cleaning operation was started is acquired,
Obtaining a movement trajectory of the cleaning member within the predetermined area at the time when the cleaning operation is performed;
Causing the computer to execute a process of superimposing and displaying the acquired position of the edge and the acquired information of the movement locus on an image obtained by imaging the predetermined region when the cleaning operation is completed. An evaluation program for cleaning status.
(付記18)前記清掃部材は吸込口を有し、前記清掃部材の移動軌跡は、前記吸込口の幅に基づく軌跡であることを特徴とする付記17に記載の清掃状況の評価プログラム。 (Additional remark 18) The said cleaning member has a suction inlet, The movement locus | trajectory of the said cleaning member is a locus | trajectory based on the width | variety of the said suction inlet, The cleaning condition evaluation program of Additional remark 17 characterized by the above-mentioned.
(付記19)所定の領域の撮像画像を取得する取得部と、
取得した前記撮像画像中に清掃部材を検出した場合に、前記清掃部材の検出位置の変化に応じて前記所定の領域における清掃に関する評価値を算出する算出部と
を有することを特徴とする清掃状況の評価装置。
(Supplementary Note 19) An acquisition unit that acquires a captured image of a predetermined region;
A cleaning unit comprising: a calculation unit that calculates an evaluation value related to cleaning in the predetermined region in accordance with a change in a detection position of the cleaning member when a cleaning member is detected in the acquired captured image. Evaluation device.
(付記20)前記算出部は、前記撮像画像中の所定のエリアに対する、該所定のエリアのうち前記清掃部材の検出位置に基づいて特定される領域に重ならない領域の割合が大きいほど、より清掃が十分になされていないことを示す評価値を算出することを特徴とする付記19に記載の清掃状況の評価装置。
(Additional remark 20) The said calculation part is cleaning more, so that the ratio of the area | region which does not overlap the area | region specified based on the detection position of the said cleaning member among this predetermined area with respect to the predetermined area in the said captured image is large. 20. The cleaning condition evaluation apparatus according to
(付記21)前記所定のエリアは、前記所定の領域のうち、予め定められた外枠の領域であることを特徴とする付記20に記載の清掃状況の評価装置。
(Additional remark 21) The said predetermined area is an area | region of the predetermined outer frame among the said predetermined areas, The cleaning condition evaluation apparatus of
(付記22)前記清掃部材の検出は、前記清掃部材に付された所定のマークの検出、または、前記清掃部材の形状認識によって検出することを特徴とする付記19〜21のいずれか1つに記載の清掃状況の評価装置。 (Additional remark 22) The detection of the said cleaning member is detected by the detection of the predetermined | prescribed mark attached | subjected to the said cleaning member, or the shape recognition of the said cleaning member, Any one of Additional remarks 19-21 characterized by the above-mentioned. The cleaning status evaluation device described.
(付記23)前記算出部は、過去にエッジが検出された位置について前記エッジが検出されなくなった場合に、その後、その位置またはその位置の周辺に前記清掃部材の位置が検出されたか否かに応じて、前記清掃に関する評価値を算出することを特徴とする付記19に記載の清掃状況の評価装置。
(Additional remark 23) When the said edge is no longer detected about the position from which the edge was detected in the past, the said calculation part is whether the position of the said cleaning member was detected after that position or its position after that Accordingly, the cleaning evaluation apparatus according to
(付記24)前記エッジは、前記撮像画像中における前記所定の領域内に置かれた物体の輪郭に基づく線であることを特徴とする付記23に記載の清掃状況の評価装置。 (Additional remark 24) The said edge is a line based on the outline of the object placed in the said predetermined area | region in the said captured image, The cleaning condition evaluation apparatus of Additional remark 23 characterized by the above-mentioned.
(付記25)前記算出部は、前記撮像画像から検出されたエッジのうち、スタッフ入室後に位置が変化したエッジの元の位置を特定し、前記元の位置を含む領域を、清掃部材が通過したか否かを判断し、通過した場合と通過しなかった場合とで異なる評価値を算出し、
さらに、算出された前記評価値に基づく出力情報を出力する出力制御部を有することを特徴とする付記19に記載の清掃状況の評価装置。
(Additional remark 25) The said calculation part pinpointed the original position of the edge from which the position changed after entering a staff among the edges detected from the said captured image, and the cleaning member passed the area | region containing the said original position. Whether or not it passes and calculates a different evaluation value depending on whether or not it passes,
Furthermore, the cleaning condition evaluation apparatus according to
(付記26)清掃作業が開始される前に検出された所定の領域内で検出したエッジの位置を取得し、前記清掃作業が行われている時間における前記所定の領域内での清掃部材の移動軌跡を取得する取得部と、
前記清掃作業が完了された時の前記所定の領域を撮像した画像に、取得した前記エッジの位置と、取得した前記移動軌跡の情報とを重畳して表示する表示制御部と
を有することを特徴とする清掃状況の評価装置。
(Additional remark 26) The position of the edge detected in the predetermined area | region detected before the cleaning operation | work is started is acquired, and the movement of the cleaning member in the said predetermined area | region in the time when the said cleaning operation is performed An acquisition unit for acquiring a trajectory;
A display control unit that superimposes and displays the acquired position of the edge and the acquired information of the movement locus on an image obtained by imaging the predetermined region when the cleaning operation is completed. A cleaning status evaluation device.
(付記27)前記清掃部材は吸込口を有し、前記清掃部材の移動軌跡は、前記吸込口の幅に基づく軌跡であることを特徴とする付記26に記載の清掃状況の評価装置。
(Additional remark 27) The said cleaning member has a suction inlet, The movement locus | trajectory of the said cleaning member is a locus | trajectory based on the width | variety of the said suction inlet, The cleaning condition evaluation apparatus of
1,2 評価システム
10 入居施設
10a 区画
11a〜11e カメラ
50 管理者端末
100,200 サーバ装置
110 通信部
120 記憶部
121 入所者DB
122 カメラ設置テーブル
123 通過座標DB
124,224 座標記録DB
125,225 メッセージDB
130 制御部
131 取得部
132,232 算出部
133,233 判定部
134 出力制御部
N ネットワーク
DESCRIPTION OF
122 Camera installation table 123 Pass coordinates DB
124,224 coordinate record DB
125,225 Message DB
DESCRIPTION OF
Claims (11)
取得した前記撮像画像中に清掃部材を検出した場合に、前記撮像画像中の評価対象である所定のエリアにおいて、前記清掃部材の検出位置に基づいて特定される領域の割合が小さいほど、前記所定の領域における清掃に関する評価値として、より清掃が十分になされていないことを示す評価値を算出する
処理をコンピュータが実行することを特徴とする清掃状況の評価方法。 Obtain a captured image of a predetermined area,
When the cleaning member is detected in the acquired captured image, the smaller the ratio of the area specified based on the detection position of the cleaning member in the predetermined area to be evaluated in the captured image, the more the predetermined The evaluation method of the cleaning condition characterized by performing the process which calculates the evaluation value which shows that cleaning is not fully performed as an evaluation value regarding the cleaning in the area | region of this.
さらに、算出された前記評価値に基づく出力情報を出力する
処理をコンピュータが実行することを特徴とする請求項1に記載の清掃状況の評価方法。 The calculation process specifies an original position of an edge detected from the captured image whose position has changed after entering a staff member, and whether or not a cleaning member has passed through an area including the original position. And calculate a different evaluation value depending on whether it passes or not,
Furthermore, the computer performs the process which outputs the output information based on the calculated said evaluation value, The cleaning condition evaluation method of Claim 1 characterized by the above-mentioned.
前記清掃作業が行われている時間における前記所定の領域内での清掃部材が有する吸込口の幅に基づく移動軌跡を取得し、
前記清掃作業が完了された時の前記所定の領域を撮像した画像に、取得した前記エッジの位置と、取得した前記移動軌跡の情報とを重畳して表示する
処理をコンピュータが実行することを特徴とする清掃状況の評価方法。 Acquire the position of the detected edge within a predetermined area detected before the cleaning work is started,
Obtaining a movement trajectory based on the width of the suction port of the cleaning member in the predetermined area in the time when the cleaning operation is performed;
The computer executes a process of superimposing and displaying the acquired position of the edge and the acquired information of the movement locus on an image obtained by imaging the predetermined area when the cleaning operation is completed. Evaluation method of the cleaning situation.
取得した前記撮像画像中に清掃部材を検出した場合に、前記撮像画像中の評価対象である所定のエリアにおいて、前記清掃部材の検出位置に基づいて特定される領域の割合が小さいほど、前記所定の領域における清掃に関する評価値として、より清掃が十分になされていないことを示す評価値を算出する
処理をコンピュータに実行させることを特徴とする清掃状況の評価プログラム。 Obtain a captured image of a predetermined area,
When the cleaning member is detected in the acquired captured image, the smaller the ratio of the area specified based on the detection position of the cleaning member in the predetermined area to be evaluated in the captured image, the more the predetermined An evaluation program for a cleaning situation, characterized by causing a computer to execute a process of calculating an evaluation value indicating that the cleaning is not sufficiently performed as an evaluation value related to cleaning in the area.
前記清掃作業が行われている時間における前記所定の領域内での清掃部材が有する吸込口の幅に基づく移動軌跡を取得し、
前記清掃作業が完了された時の前記所定の領域を撮像した画像に、取得した前記エッジの位置と、取得した前記移動軌跡の情報とを重畳して表示する
処理をコンピュータに実行させることを特徴とする清掃状況の評価プログラム。 Acquire the position of the detected edge within a predetermined area detected before the cleaning work is started,
Obtaining a movement trajectory based on the width of the suction port of the cleaning member in the predetermined area in the time when the cleaning operation is performed;
Causing the computer to execute a process of superimposing and displaying the acquired position of the edge and the acquired information of the movement locus on an image obtained by imaging the predetermined region when the cleaning operation is completed. An evaluation program for cleaning status.
取得した前記撮像画像中に清掃部材を検出した場合に、前記撮像画像中の評価対象である所定のエリアにおいて、前記清掃部材の検出位置に基づいて特定される領域の割合が小さいほど、前記所定の領域における清掃に関する評価値として、より清掃が十分になされていないことを示す評価値を算出する算出部と
を有することを特徴とする清掃状況の評価装置。 An acquisition unit for acquiring a captured image of a predetermined area;
When the cleaning member is detected in the acquired captured image, the smaller the ratio of the area specified based on the detection position of the cleaning member in the predetermined area to be evaluated in the captured image, the more the predetermined And a calculation unit that calculates an evaluation value indicating that the cleaning is not sufficiently performed as an evaluation value related to the cleaning in the region.
前記清掃作業が完了された時の前記所定の領域を撮像した画像に、取得した前記エッジの位置と、取得した前記移動軌跡の情報とを重畳して表示する表示制御部と
を有することを特徴とする清掃状況の評価装置。 The position of the edge detected in the predetermined area detected before the cleaning work is started, and the width of the suction port of the cleaning member in the predetermined area at the time when the cleaning work is performed An acquisition unit for acquiring a movement trajectory based on
A display control unit that superimposes and displays the acquired position of the edge and the acquired information of the movement locus on an image obtained by imaging the predetermined region when the cleaning operation is completed. A cleaning status evaluation device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015025801A JP6481400B2 (en) | 2015-02-12 | 2015-02-12 | Cleaning status evaluation method, cleaning status evaluation program, and cleaning status evaluation device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015025801A JP6481400B2 (en) | 2015-02-12 | 2015-02-12 | Cleaning status evaluation method, cleaning status evaluation program, and cleaning status evaluation device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016149024A JP2016149024A (en) | 2016-08-18 |
JP6481400B2 true JP6481400B2 (en) | 2019-03-13 |
Family
ID=56691256
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015025801A Active JP6481400B2 (en) | 2015-02-12 | 2015-02-12 | Cleaning status evaluation method, cleaning status evaluation program, and cleaning status evaluation device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6481400B2 (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6765083B2 (en) * | 2016-09-20 | 2020-10-07 | パナソニックIpマネジメント株式会社 | Action goal achievement support system, action goal achievement support method and action goal achievement support processing program |
JP6909963B2 (en) * | 2017-05-16 | 2021-07-28 | パナソニックIpマネジメント株式会社 | Action goal achievement support system, information processing method and program |
JP7318303B2 (en) * | 2019-05-14 | 2023-08-01 | 富士通株式会社 | Cleaning management program, cleaning management method and cleaning management device |
JP7463792B2 (en) | 2020-03-24 | 2024-04-09 | 大日本印刷株式会社 | Information processing system, information processing device, and information processing method |
JP6859006B1 (en) * | 2020-12-24 | 2021-04-14 | Rsmile株式会社 | Information processing equipment, information processing methods and information processing programs |
WO2022195681A1 (en) * | 2021-03-15 | 2022-09-22 | 株式会社日立国際電気 | Cleaning status detection system |
KR102626763B1 (en) * | 2023-01-13 | 2024-01-17 | 안형준 | Cleaning distpatch management system and server operating it |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070214596A1 (en) * | 2004-05-12 | 2007-09-20 | Koninklijke Philips Electronics N.V. | Domestic Surface Treatment Appliance Provided with Tracking Means and Tracking Module for Use with Such Appliance |
BRPI1011473B1 (en) * | 2009-03-02 | 2019-12-03 | Diversey Inc | hygiene monitoring and management system and method |
JP2012141884A (en) * | 2011-01-05 | 2012-07-26 | Mitsubishi Electric Corp | Evaluation support device and evaluation support system |
JP6164687B2 (en) * | 2013-07-30 | 2017-07-19 | みこらった株式会社 | Electric vacuum cleaner |
-
2015
- 2015-02-12 JP JP2015025801A patent/JP6481400B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016149024A (en) | 2016-08-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6481400B2 (en) | Cleaning status evaluation method, cleaning status evaluation program, and cleaning status evaluation device | |
JP6115335B2 (en) | Information processing apparatus, information processing method, and program | |
US10810438B2 (en) | Setting apparatus, output method, and non-transitory computer-readable storage medium | |
CN108476304B (en) | Discarded object monitoring device, discarded object monitoring system provided with same, and discarded object monitoring method | |
JP6156665B1 (en) | Facility activity analysis apparatus, facility activity analysis system, and facility activity analysis method | |
WO2017163955A1 (en) | Monitoring system, image processing device, image processing method and program recording medium | |
JP5958716B2 (en) | Optimal camera setting device and optimal camera setting method | |
JP6544648B2 (en) | Osteoporosis diagnostic support device | |
JP5832910B2 (en) | Image monitoring device | |
JP6779699B2 (en) | Image processing equipment, information processing methods and programs | |
JP6780641B2 (en) | Image analysis device, image analysis method, and image analysis program | |
JP2015103104A5 (en) | ||
JP2015103104A (en) | Information processing apparatus, information processing method, and information processing system | |
WO2016042946A1 (en) | Monitoring system | |
CN106415654A (en) | Information processing device, information processing method, and program | |
JP6519181B2 (en) | Method for monitoring trend of change in disorder degree, program for monitoring trend in change in disorder degree and device for monitoring trend in change in disorder degree | |
JP7266599B2 (en) | Devices, systems and methods for sensing patient body movement | |
JP6248780B2 (en) | Pulse wave detection device, pulse wave detection method, and pulse wave detection program | |
JP6302007B2 (en) | Clean room resident cleanliness management method and management system | |
US20130279761A1 (en) | Method and arrangement for identifying virtual visual information in images | |
JP6645503B2 (en) | Image analysis device, image analysis method, and image analysis program | |
JP6354444B2 (en) | Evaluation method, evaluation program, and information processing apparatus | |
JP6819689B2 (en) | Image processing equipment, stagnant object tracking system, image processing method and recording medium | |
JP7351339B2 (en) | Image processing system, image processing program, and image processing method | |
JP2020095651A (en) | Productivity evaluation system, productivity evaluation device, productivity evaluation method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171215 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181120 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181116 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181228 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190115 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190128 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6481400 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |