JP2023046775A - 清掃支援システム - Google Patents
清掃支援システム Download PDFInfo
- Publication number
- JP2023046775A JP2023046775A JP2021155558A JP2021155558A JP2023046775A JP 2023046775 A JP2023046775 A JP 2023046775A JP 2021155558 A JP2021155558 A JP 2021155558A JP 2021155558 A JP2021155558 A JP 2021155558A JP 2023046775 A JP2023046775 A JP 2023046775A
- Authority
- JP
- Japan
- Prior art keywords
- information
- degree
- image information
- association
- reference image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000004140 cleaning Methods 0.000 title claims abstract description 65
- 238000011109 contamination Methods 0.000 claims description 90
- 238000013473 artificial intelligence Methods 0.000 claims description 20
- 238000000034 method Methods 0.000 claims description 16
- 238000013528 artificial neural network Methods 0.000 claims description 9
- 238000010801 machine learning Methods 0.000 claims description 6
- 238000010186 staining Methods 0.000 claims description 2
- 238000003384 imaging method Methods 0.000 abstract description 5
- 238000004891 communication Methods 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 238000013210 evaluation model Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 235000019645 odor Nutrition 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
- 230000003442 weekly effect Effects 0.000 description 1
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
【課題】汚れの度合を人手に頼ることなく高精度かつ自動的に推定する。【解決手段】ユーザ端末を介して清掃対象の空間に関する画像情報を撮像すると共に、ユーザ端末を介して視認している清掃対象に関する第1対象情報を取得する情報取得手段と、過去において清掃対象の空間を撮像した参照用画像情報と、汚れの度合との3段階以上の連関度が規定され、入力を参照用画像情報とし、出力を汚れの度合とした学習済みモデルを利用し、上記情報取得手段により取得された画像情報に応じた参照用画像情報に基づき、上記連関度のより高いものを優先させて、汚れの度合を推定する推定手段とを備え、上記推定手段は、上記参照用画像情報と、汚れの度合との3段階以上の連関度を上記空間の位置毎に予め取得しておき、上記情報取得手段により取得された上記第1対象情報に応じた清掃対象の上記連関度を読み出して汚れの度合を推定する。【選択図】図9
Description
本発明は、清掃作業者に汚れの存在を知らせるための清掃支援システムに関する。
ビルやマンション、住宅等の共用施設の清掃作業は、居住者のみでやりきれない場合も多々あることから専門業者に出動してもらい、作業を委託するケースが多い。
しかしながら、近年における専門業者の人手不足が深刻化しており、居住者が連絡をしてもなかなか対応してもらえないケースが増加している。このため、スキルがそれほど高くない業者か、あるいは居住者自らが清掃を行う場合、汚れを高精度に検知することができず、そのまま清掃せずに終わらしてしまうケースがある。またスキルの高い清掃業者であっても、汚れの存在を見落とす場合もある。このため、清掃時において、汚れの存在を見落とすことなく高精度に検知できるシステムが望まれていたが、このような技術は未だ提案されていないのが現状であった。
そこで本発明は、上述した問題点に鑑みて案出されたものであり、その目的とするところは、清掃作業者に汚れの存在を知らせるための清掃支援システムを提供することにある。
本発明に係る清掃支援システムは、清掃作業者に汚れの存在を知らせるための清掃支援システムにおいて、ユーザの頭部又は眼鏡に装着されるユーザ端末に含まれ、当該ユーザ端末を介して清掃対象の空間に関する画像情報を撮像すると共に、ユーザ端末を介して視認している清掃対象に関する第1対象情報を取得する情報取得手段と、過去において清掃対象の空間を撮像した参照用画像情報と、汚れの度合との3段階以上の連関度が規定され、入力を参照用画像情報とし、出力を汚れの度合とした学習済みモデルを利用し、上記情報取得手段により取得された画像情報に応じた参照用画像情報に基づき、上記連関度のより高いものを優先させて、汚れの度合を推定する推定手段と、上記参照用画像情報を撮像した清掃対象に関する第2対象情報を当該参照用画像情報に紐付けて記録する記録手段とを備え、上記ユーザ端末は、上記情報取得手段により取得された第1対象情報と、上記情報取得手段により取得された画像情報に応じた参照用画像情報に紐付けられて上記記録手段に記録されている第2対象情報とに基づいて、上記ユーザに対して撮影方法についての示唆を透過状態で表示する表示部を有することを特徴とする。
特段のスキルや経験が無くても、誰でも手軽に清掃作業者に汚れの存在を知らせることを高精度に行うことができる。
以下、本発明を適用した清掃支援プログラムについて、図面を参照しながら詳細に説明をする。
第1実施形態
図1は、本発明を適用した清掃支援プログラムが実装される清掃支援システム1の全体構成を示すブロック図である。清掃支援システム1は、情報取得部9と、情報取得部9に接続された推定装置2と、推定装置2に接続されたデータベース3とを備えている。
図1は、本発明を適用した清掃支援プログラムが実装される清掃支援システム1の全体構成を示すブロック図である。清掃支援システム1は、情報取得部9と、情報取得部9に接続された推定装置2と、推定装置2に接続されたデータベース3とを備えている。
情報取得部9は、本システムを活用する者が各種コマンドや情報を入力するためのデバイスであり、具体的にはキーボードやボタン、タッチパネル、マウス、スイッチ等により構成される。情報取得部9は、テキスト情報を入力するためのデバイスに限定されるものではなく、マイクロフォン等のような音声を検知してこれをテキスト情報に変換可能なデバイスで構成されていてもよい。また情報取得部9は、カメラ等の画像を撮影可能な撮像装置として構成されていてもよい。情報取得部9は、紙媒体の書類から文字列を認識できる機能を備えたスキャナで構成されていてもよい。また情報取得部9は、後述する推定装置2と一体化されていてもよい。情報取得部9は、検知した情報を推定装置2へと出力する。また情報取得部9は地図情報をスキャニングすることで位置情報を特定する手段により構成されていてもよい。また情報取得部9は、温度センサ、湿度センサ、風向センサ、を測るための照度センサで構成されていてもよい。また情報取得部9は、天候についてのデータを気象庁や民間の天気予報会社から取得する通信インターフェースで構成されていてもよい。また情報取得部9は身体に装着して身体のデータを検出するための身体センサで構成されていてもよく、この身体センサは、例えば体温、心拍数、血圧、歩数、歩く速度、加速度を検出するためのセンサで構成されていてもよい。また情報取得部9は図面等の情報をスキャニングしたり、或いはデータベースから読み出すことで取得するデバイスとして構成されていてもよい。情報取得部9は、これら以外に臭気や香りを検知する臭気センサにより構成されていてもよい。
データベース3は、汚れの度合推定を行う上で必要な様々な情報が蓄積される。汚れの度合推定を行う上で必要な情報としては、過去において清掃対象を撮像した参照用画像情報等と、これらに対して実際に判断がなされた汚れの度合とのデータセットが記憶されている。
つまり、データベース3には、このような参照用画像情報又は参照用表面情報他の参照用情報等の何れか1以上と、汚れの度合が互いに紐づけられて記憶されている。なお、データベース3にこのような学習データを記憶する代わりに、判別装置2や情報取得部9側に学習データを記憶させるようにしてもよい。即ち、判別装置2や情報取得部9をいわゆるエッジデバイスとし、このエッジデバイスに、人工知能を搭載し、学習データを蓄積させて推論を行うようにしてもよい。
推定装置2は、例えば、パーソナルコンピュータ(PC)等を始めとした電子機器で構成されているが、PC以外に、携帯電話、スマートフォン、タブレット型端末、ウェアラブル端末等、他のあらゆる電子機器で具現化されるものであってもよい。ユーザは、この推定装置2による探索解を得ることができる。
図2は、推定装置2の具体的な構成例を示している。この推定装置2は、推定装置2全体を制御するための制御部24と、操作ボタンやキーボード等を介して各種制御用の指令を入力するための操作部25と、有線通信又は無線通信を行うための通信部26と、各種判断を行う推定部27と、ハードディスク等に代表され、実行すべき検索を行うためのプログラムを格納するための記憶部28とが内部バス21にそれぞれ接続されている。さらに、この内部バス21には、実際に情報を表示するモニタとしての表示部23が接続されている。
制御部24は、内部バス21を介して制御信号を送信することにより、推定装置2内に実装された各構成要素を制御するためのいわゆる中央制御ユニットである。また、この制御部24は、操作部25を介した操作に応じて各種制御用の指令を内部バス21を介して伝達する。
操作部25は、キーボードやタッチパネルにより具現化され、プログラムを実行するための実行命令がユーザから入力される。この操作部25は、上記実行命令がユーザから入力された場合には、これを制御部24に通知する。この通知を受けた制御部24は、推定部27を始め、各構成要素と協調させて所望の処理動作を実行していくこととなる。この操作部25は、前述した情報取得部9として具現化されるものであってもよい。
推定部27は、探索解を推定する。この推定部27は、推定動作を実行するに当たり、必要な情報として記憶部28に記憶されている各種情報や、データベース3に記憶されている各種情報を読み出す。この推定部27は、人工知能により制御されるものであってもよい。この人工知能はいかなる周知の人工知能技術に基づくものであってもよい。
表示部23は、制御部24による制御に基づいて表示画像を作り出すグラフィックコントローラにより構成されている。この表示部23は、例えば、液晶ディスプレイ(LCD)等によって実現される。
記憶部28は、ハードディスクで構成される場合において、制御部24による制御に基づき、各アドレスに対して所定の情報が書き込まれるとともに、必要に応じてこれが読み出される。また、この記憶部28には、本発明を実行するためのプログラムが格納されている。このプログラムは制御部24により読み出されて実行されることになる。
上述した構成からなる清掃支援システム1における動作について説明をする。以下、清掃対象の空間とは、清掃対象となる建築構造物(家屋、ビル、マンション、学校等)の部屋、トイレ、台所、玄関や廊下等の空間を想定しているが、これに限定されるものではなく、道路や庭、ベランダ等の屋外を想定した開空間もこれに含まれる。
清掃支援システム1は、清掃対象の空間における汚れの度合汚れの度合を推定するものである。ここでいう汚れの度合とは、ゴミ、塵、汚物、廃棄物の量や質で表される。量は、単に汚れがあるか否かで示されるものであってもよいが、これに限らず、例えば単位面積当たりの汚れの面積を通じて定量的に示されるものであってもよい。また、質は汚れの中身を示すものであり、単なるゴミが付いているのみなのか、或いは汚物がこびりついて取れないものとなっているか等、を示すものであってもよい。汚れの度合の基準は、このような汚れの量と質との観点から、都度システム側、又はユーザ側において設定するようにしてもよい。
清掃支援システム1は、例えば図3に示すように、参照用画像情報と、汚れの度合との3段階以上の連関度が予め設定されていることが前提となる。参照用画像情報とは、清掃対象の空間を撮像することにより得られた画像情報から得られるものであり、画像を解析することで得ることができる。参照用画像情報とは、清掃対象の空間を構成する画像であればいかなるものも含まれる。この画像は静止画のみならず動画であってもよい。また、この画像は可視光で構成されるが画像ではなく、スペクトルに応じて表示色を切り替えたいわゆるスペクトル画像で構成されていてもよい。またこの参照用画像情報は、清掃対象の空間について撮像した超音波画像で構成してもよい。これらの清掃対象の空間は、以前において学習させた特徴量に基づいて判別するようにしてもよい。このとき、人工知能を活用し、清掃対象の空間の画像データと、汚れの度合を学習させておき、実際に参照用画像情報を取得する際には、これらの学習させた画像データと照らし合わせて、その汚れの度合を判別するようにしてもよい。
清掃支援システム1は、例えば図3に示すように、参照用画像情報と、汚れの度合との3段階以上の連関度が予め設定されていることが前提となる。参照用画像情報とは、清掃対象の空間を撮像することにより得られた画像情報から得られるものであり、画像を解析することで得ることができる。参照用画像情報とは、清掃対象の空間を構成する画像であればいかなるものも含まれる。この画像は静止画のみならず動画であってもよい。また、この画像は可視光で構成されるが画像ではなく、スペクトルに応じて表示色を切り替えたいわゆるスペクトル画像で構成されていてもよい。またこの参照用画像情報は、清掃対象の空間について撮像した超音波画像で構成してもよい。これらの清掃対象の空間は、以前において学習させた特徴量に基づいて判別するようにしてもよい。このとき、人工知能を活用し、清掃対象の空間の画像データと、汚れの度合を学習させておき、実際に参照用画像情報を取得する際には、これらの学習させた画像データと照らし合わせて、その汚れの度合を判別するようにしてもよい。
かかる場合には、画像情報と、汚れの度合とを教師データとして機械学習された予想モデルを用い、入力を上記画像情報とし、出力を汚れの度合として判定した結果に基づいて、汚れの度合を特定するようにしてもよい。
汚れの度合は、都度手入力により入力するようにしてもよい。また、汚れの度合は、実際に専門家や当業者によって、あるいは業者によって評価されたものであってもよく、その鑑定書に記載の内容に基づいてもよいし、評価者によって評価され、例えば、100点満点、或いは1000点満点でランク付けされたものであってもよい。あるいは汚れの有無の2段階で、或いは2段階以上で評価されたものであってもよい。
このような参照用画像情報と、汚れの度合からなるデータセットを取得しておき、これを学習させる。
図3の例では、入力データとして例えば参照用画像情報P01~P03であるものとする。このような入力データとしての参照用画像情報P01~P03は、出力としての汚れの度合に連結している。この出力においては、出力解としての、汚れの度合が表示されている。
参照用画像情報は、この出力解としての汚れの度合A~Dに対して3段階以上の連関度を通じて互いに連関しあっている。例えば汚れの度合Aは、汚れが多い、汚れの度合Bは、汚れの度合が普通、健全度Cは、汚れの度合が低い、健全度Dは、清浄等のように配列している。参照用画像情報がこの連関度を介して左側に配列し、各汚れの度合が連関度を介して右側に配列している。連関度は、左側に配列された参照用画像情報に対して、何れの汚れの度合と関連性が高いかの度合いを示すものである。換言すれば、この連関度は、各参照用画像情報が、いかなる汚れの度合に紐付けられる可能性が高いかを示す指標であり、参照用画像情報から最も確からしい汚れの度合を選択する上での的確性を示すものである。図3の例では、連関度としてw13~w19が示されている。このw13~w19は以下の表1に示すように10段階で示されており、10点に近いほど、中間ノードとしての各組み合わせが出力としての汚れの度合と互いに関連度合いが高いことを示しており、逆に1点に近いほど中間ノードとしての各組み合わせが出力としての値段と互いに関連度合いが低いことを示している。
推定装置2は、このような図3に示す3段階以上の連関度w13~w19を予め取得しておく。つまり推定装置2は、実際の探索解の判別を行う上で、参照用画像情報と、その場合の汚れの度合の何れが採用、評価されたか、過去のデータセットを蓄積しておき、これらを分析、解析することで図3に示す連関度を作り上げておく。
例えば、参照用画像情報がαであるものとする。このような参照用画像情報に対する汚れの度合としては汚れの度合Aが多く評価されたものとする。このようなデータセットを集めて分析することにより、参照用画像情報との連関度が強くなる。
この分析、解析は人工知能により行うようにしてもよい。かかる場合には、例えば参照用画像情報P01である場合に、過去の汚れの度合の評価を行った結果の各種データから分析する。参照用画像情報P01である場合に、汚れの度合Aの事例が多い場合には、この汚れの度合の評価につながる連関度をより高く設定し、汚れの度合Bの事例が多い場合には、この汚れの度合の評価につながる連関度をより高く設定する。例えば参照用画像情報P01の例では、汚れの度合Aと、汚れの度合Cにリンクしているが、以前の事例から汚れの度合Aにつながるw13の連関度を7点に、汚れの度合Cにつながるw14の連関度を2点に設定している。
また、この連関度は、図4に示すように、人工知能におけるニューラルネットワークのノードで構成されるものであってもよい。即ち、このニューラルネットワークのノードが出力に対する重み付け係数が、上述した連関度に対応することとなる。またニューラルネットワークに限らず、人工知能を構成するあらゆる意思決定因子で構成されるものであってもよい。
このような連関度が、人工知能でいうところの学習済みデータとなる。このような学習済みデータを、以前の清掃対象の空間の画像等と実際に推定・評価した汚れの度合とのデータセットを通じて作った後に、実際にこれから新たに汚れの度合の判別を行う上で、上述した学習済みデータを利用して汚れの度合を探索することとなる。かかる場合には、実際に判別対象の領域において画像情報を新たに取得する。新たに取得する画像情報は、上述した情報取得部9により入力される。画像情報は、汚れの度合を判別しようとする清掃対象を撮像することで取得する。この判別方法は、上述した参照用画像情報と同様の手法で行うようにしてもよい。
このようにして新たに取得した画像情報に基づいて、汚れの度合を判別する。かかる場合には、予め取得した図3(表1)に示す連関度を参照する。例えば、新たに取得した画像情報がP02と同一かこれに類似するものである場合には、連関度を介して汚れの度合Bがw15、汚れの度合Cが連関度w16で関連付けられている。かかる場合には、連関度の最も高い汚れの度合Bを最適解として選択する。但し、最も連関度の高いものを最適解として選択することは必須ではなく、連関度は低いものの連関性そのものは認められる汚れの度合Cを最適解として選択するようにしてもよい。また、これ以外に矢印が繋がっていない出力解を選択してもよいことは勿論であり、連関度に基づくものであれば、その他いかなる優先順位で選択されるものであってもよい。なお、連関度は3段階以上のものを利用する場合に限定されるものではなく、2段階の連関性、即ち、1か0か、関係があるか否かを示すもので構成されるものであってもよい。かかる場合には、入力側の参照用画像情報と、出力側の健全度とが互いに紐付けられたテーブルを参照するようにしてもよい。そしてある画像情報が入力された場合、これに対応する参照用画像情報に紐付けられた健全度を出力することとなる。
このようにして、新たに取得する画像情報から、最も好適な汚れの度合を探索し、推定表示することができる。
なお本発明によれば、参照用画像情報と、汚れの度合との3段階以上の連関度を予め学習させ、その連関度を利用して汚れの度合を探索する場合に限定されるものではない。つまり画像情報と、汚れの度合は、3段階以上の連関度ではなく、2段階以上の連関性に基づいていればよい。2段階以上の連関性とは、各参照用画像情報に、いかなる汚れの度合が紐づいているか否かを示すものであってもよい。
例えば、参照用画像情報G11は、汚れの度合が清浄、参照用画像情報G12は、汚れの度合が普通、参照用画像情報G13は、汚れの度合が高い等のように参照用画像情報と汚れの度合が1対1で紐付けられている。このような紐付けをテンプレートや表にしたデータを予め準備しておくようにしてもよい。そして、実際に参照用画像情報に応じた画像情報を取得した場合には、そのテンプレートや表を参照し、これに対応する汚れの度合を出力するようにしてもよい。即ち、画像情報に応じた参照用画像情報に基づいて汚れの度合を取得することが可能となる。
同様に、参照用表面情報と、汚れの度合との3段階以上の連関度を予め学習させ、その連関度を利用して汚れの度合を探索する場合に限定されるものではない。つまり表面情報と、汚れの度合は、3段階以上の連関度ではなく、2段階以上の連関性に基づいていればよい。2段階以上の連関性とは、各参照用表面情報に、いかなる汚れの度合が紐づいているか否かを示すものであってもよい。
実際に参照用表面情報に応じた表面情報を取得した場合には、そのテンプレートや表を参照し、これに対応する汚れの度合を出力するようにしてもよい。即ち、表面情報に応じた参照用画像情報に基づいて汚れの度合を取得することが可能となる。
図5の例では、参照用画像情報と、他の参照用情報との他の参照用情報組み合わせが形成されていることが前提となる。他の参照用情報とは、参照用種類情報、参照用時期情報等が含まれる。
参照用種類情報とは、清掃対象の種類に関する情報である。ここでいう清掃対象の種類は、トイレ、台所、浴室、廊下、和室等、いかなる部屋を掃除しているのかを示すものであってもよいし、机や椅子、ソファー、壁、天井、床等、実際に清掃を行っている対象そのものを示すものであってもよい。更には、モップで掃除をしているのか、雑巾がけをしているのか、ほうきで掃除をしているのか、掃除機を利用しているのか等、清掃対象に対していかなる方法で掃除を行っているかについての情報が盛り込まれるものであってもよい。
参照用時期情報は、清掃を実際に行っている時期に関する情報である。この清掃を行う時期は、月単位、週単位といった大まかなものから、日単位、時間、分、秒単位等まで細分化されるものであってもよい。
図5の例では、入力データとして例えば参照用画像情報P01~P03、他の参照用情報P14~17であるものとする。このような入力データとしての、参照用画像情報に対して、他の参照用情報が組み合わさったものが、図7に示す中間ノードである。各中間ノードは、更に出力に連結している。この出力においては、出力解としての、汚れの度合が表示されている。
参照用画像情報と他の参照用情報との各組み合わせ(中間ノード)は、この出力解としての、汚れの度合に対して3段階以上の連関度を通じて互いに連関しあっている。参照用画像情報と他の参照用情報がこの連関度を介して左側に配列し、汚れの度合が連関度を介して右側に配列している。連関度は、左側に配列された参照用画像情報と他の参照用情報に対して、汚れの度合と関連性が高いかの度合いを示すものである。換言すれば、この連関度は、各参照用画像情報と他の参照用情報が、いかなる汚れの度合に紐付けられる可能性が高いかを示す指標であり、参照用画像情報と他の参照用情報から最も確からしい汚れの度合を選択する上での的確性を示すものである。このため、これらの参照用画像情報と他の参照用情報の組み合わせで、最適な汚れの度合を探索していくこととなる。
図5の例では、連関度としてw13~w22が示されている。このw13~w22は表1に示すように10段階で示されており、10点に近いほど、中間ノードとしての各組み合わせが出力と互いに関連度合いが高いことを示しており、逆に1点に近いほど中間ノードとしての各組み合わせが出力と互いに関連度合いが低いことを示している。
推定装置2は、このような図5に示す3段階以上の連関度w13~w22を予め取得しておく。つまり推定装置2は、実際の探索解の判別を行う上で、参照用画像情報と他の参照用情報、並びにその場合の汚れの度合が何れが見合うものであったか、過去のデータを蓄積しておき、これらを分析、解析することで図5に示す連関度を作り上げておく。
例えば、過去にあった実際の事例における参照用画像情報がαであるものとする。また他の参照用情報が、ある参照用時期情報である、時期Wであるものとする。かかる場合に、実際にその汚れの度合がいくらであったかを示す汚れの度合をデータセットとして学習させ、上述した連関度という形で定義しておく。なお、このような参照用画像情報や、他の参照用情報は、業者等が管理する管理データベースから抽出するようにしてもよい。
この分析、解析は人工知能により行うようにしてもよい。かかる場合には、例えば参照用画像情報P01で、他の参照用情報P16である場合に、その汚れの度合を過去のデータから分析する。汚れの度合がAの事例が多い場合には、この健全度Aにつながる連関度をより高く設定し、汚れの度合Bの事例が多く、汚れの度合Aの事例が少ない場合には、汚れの度合Bにつながる連関度を高くし、汚れの度合Aにつながる連関度を低く設定する。例えば中間ノード61aの例では、汚れの度合Aと健全度Bの出力にリンクしているが、以前の事例から汚れの度合Aにつながるw13の連関度を7点に、汚れの度合Bにつながるw14の連関度を2点に設定している。
また、この図5に示す連関度は、人工知能におけるニューラルネットワークのノードで構成されるものであってもよい。即ち、このニューラルネットワークのノードが出力に対する重み付け係数が、上述した連関度に対応することとなる。またニューラルネットワークに限らず、人工知能を構成するあらゆる意思決定因子で構成されるものであってもよい。
図5に示す連関度の例で、ノード61bは、参照用画像情報P01に対して、他の参照用情報P14の組み合わせのノードであり、汚れの度合Cの連関度がw15、汚れの度合Eの連関度がw16となっている。ノード61cは、参照用画像情報P02に対して、参照用位置情報P15、P17の組み合わせのノードであり、汚れの度合Bの連関度がw17、汚れの度合Dの連関度がw18となっている。
このような連関度が、人工知能でいうところの学習済みデータとなる。このような学習済みデータを作った後に、実際にこれから汚れの度合を判別する際において、上述した学習済みデータを利用して行うこととなる。かかる場合には、実際に画像情報と、参照用情報に応じた情報とを取得する。参照用情報に応じた情報とは、例えば参照用情報が参照用時期情報であれば、清掃時の時期情報に相当する。参照用情報が参照用種類情報であれば、清掃対象の種類情報が参照用情報に応じた情報に相当する。
このようにして新たに取得した画像情報、参照用情報に応じた情報に基づいて、最適な汚れの度合を探索する。かかる場合には、予め取得した図5(表1)に示す連関度を参照する。例えば、新たに取得した画像情報がP02と同一かこれに類似するものである場合であって、時期情報がP17である場合には、連関度を介してノード61dが関連付けられており、このノード61dは、汚れの度合Cがw19、汚れの度合Dが連関度w20で関連付けられている。かかる場合には、連関度の最も高い汚れの度合Cを最適解として選択する。但し、最も連関度の高いものを最適解として選択することは必須ではなく、連関度は低いものの連関性そのものは認められる汚れの度合Dを最適解として選択するようにしてもよい。また、これ以外に矢印が繋がっていない出力解を選択してもよいことは勿論であり、連関度に基づくものであれば、その他いかなる優先順位で選択されるものであってもよい。
また、入力から伸びている連関度w1~w12の例を以下の表2に示す。
この入力から伸びている連関度w1~w12に基づいて中間ノード61が選択されていてもよい。つまり連関度w1~w12が大きいほど、中間ノード61の選択における重みづけを重くしてもよい。しかし、この連関度w1~w12は何れも同じ値としてもよく、中間ノード61の選択における重みづけは何れも全て同一とされていてもよい。
上述した連関度においては、10段階評価で連関度を表現しているが、これに限定されるものではなく、3段階以上の連関度で表現されていればよく、逆に3段階以上であれば100段階でも1000段階でも構わない。一方、この連関度は、2段階、つまり互いに連関しているか否か、1又は0の何れかで表現されるものは含まれない。
上述した構成からなる本発明によれば、特段のスキルや経験が無くても、誰でも手軽に汚れの度合の探索を行うことができる。また本発明によれば、この探索解の判断を、人間が行うよりも高精度に行うことが可能となる。更に、上述した連関度を人工知能(ニューラルネットワーク等)で構成することにより、これを学習させることでその判別精度を更に向上させることが可能となる。
なお、上述した入力データ、及び出力データは、学習させる過程で完全に同一のものが存在しない場合も多々あることから、これらの入力データと出力データを類型別に分類した情報であってもよい。つまり、入力データを構成する情報P01、P02、・・・・P15、16、・・・は、その情報の内容に応じて予めシステム側又はユーザ側において分類した基準で分類し、その分類した入力データと出力データとの間でデータセットを作り、学習させるようにしてもよい。
なお、上述した連関度では、参照用画像情報に加え、上述した各参照用情報の何れかとの組み合わせで構成されている場合を例にとり説明をしたが、これに限定されるものではない。つまり連関度は、参照用画像情報に加え、上述した各参照用情報の何れか2以上との組み合わせで構成されていてもよい。また連関度は、参照用画像情報に加え、上述した各参照用情報の何れか1以上に加え、他のファクターがこの組み合わせに加わって連関度が形成されていてもよい。
また、本発明によれば、3段階以上に設定されている連関度を介して最適な解探索を行う点に特徴がある。連関度は、上述した10段階以外に、例えば0~100%までの数値で記述することができるが、これに限定されるものではなく3段階以上の数値で記述できるものであればいかなる段階で構成されていてもよい。
このような3段階以上の数値で表される連関度に基づいて最も確からしい汚れの度合を判別することで、探索解の可能性の候補として複数考えられる状況下において、当該連関度の高い順に探索して表示することも可能となる。このように連関度の高い順にユーザに表示できれば、より確からしい探索解を優先的に表示することも可能となる。
これに加えて、本発明によれば、連関度が1%のような極めて低い出力の判別結果も見逃すことなく判断することができる。連関度が極めて低い判別結果であっても僅かな兆候として繋がっているものであり、何十回、何百回に一度は、その判別結果として役に立つ場合もあることをユーザに対して注意喚起することができる。
更に本発明によれば、このような3段階以上の連関度に基づいて探索を行うことにより、閾値の設定の仕方で、探索方針を決めることができるメリットがある。閾値を低くすれば、上述した連関度が1%のものであっても漏れなく拾うことができる反面、より適切な判別結果を好適に検出できる可能性が低く、ノイズを沢山拾ってしまう場合もある。一方、閾値を高くすれば、最適な探索解を高確率で検出できる可能性が高い反面、通常は連関度は低くてスルーされるものの何十回、何百回に一度は出てくる好適な解を見落としてしまう場合もある。いずれに重きを置くかは、ユーザ側、システム側の考え方に基づいて決めることが可能となるが、このような重点を置くポイントを選ぶ自由度を高くすることが可能となる。
更に本発明では、上述した連関度を更新させるようにしてもよい。この更新は、例えばインターネットを始めとした公衆通信網を介して提供された情報を反映させるようにしてもよい。また参照用画像情報、他の参照用情報を取得し、これらに対する汚れの度合、改善施策に関する知見、情報、データを取得した場合、これらに応じて連関度を上昇させ、或いは下降させる。
つまり、この更新は、人工知能でいうところの学習に相当する。新たなデータを取得し、これを学習済みデータに反映させることを行っているため、学習行為といえるものである。
また、この連関度の更新は、公衆通信網から取得可能な情報に基づく場合以外に、専門家による研究データや論文、学会発表や、新聞記事、書籍等の内容に基づいてシステム側又はユーザ側が人為的に、又は自動的に更新するようにしてもよい。これらの更新処理においては人工知能を活用するようにしてもよい。
また学習済モデルを最初に作り上げる過程、及び上述した更新は、教師あり学習のみならず、教師なし学習、ディープラーニング、強化学習等を用いるようにしてもよい。教師なし学習の場合には、入力データと出力データのデータセットを読み込ませて学習させる代わりに、入力データに相当する情報を読み込ませて学習させ、そこから出力データに関連する連関度を自己形成させるようにしてもよい。
なお図3に示す連関度が、人工知能におけるニューラルネットワークのノードで構成されるものである場合には、入力データとして参照用画像情報が入力され、出力データとして汚れの度合が出力され、入力ノードと出力ノードの間に少なくとも1以上の隠れ層が設けられ、機械学習させるようにしてもよい。
また本発明は、図6に示すように参照用情報Uと参照用情報Vという2種類以上の情報の組み合わせの連関度に基づいて汚れの度合を判別するものである。この参照用画像情報Uが参照用画像情報であり、参照用情報Vが他の参照用情報の何れかであるものとする。
このとき、図6に示すように、参照用情報Uについて得られた出力をそのまま入力データとして、参照用情報Vとの組み合わせの中間ノード61を介して出力(汚れの度合)と関連付けられていてもよい。例えば、参照用情報U(参照用画像情報)について、図3に示すように出力解を出した後、これをそのまま入力として、他の参照用情報Vとの間での連関度を利用し、出力(汚れの度合)を探索するようにしてもよい。
また、本発明は、上述した実施の形態に限定されるものでは無く、例えば図7に示すように、基調となる参照用情報(参照用画像情報)と、汚れの度合との3段階以上の連関度を利用するようにしてもよい。かかる場合には、新たに取得した情報に応じた汚れの度合との3段階以上の連関度に基づき、解探索を行うことになる。基調となる参照用情報は、上述した参照用画像情報であるが、他の参照用情報も適用可能である。
これらの場合も同様に、学習用データとして用いられた参照用情報に応じた情報が入力された場合に、上述した方法に基づいて解探索が行われることとなる。
連関度を通じて求められる探索解は、更に、他の参照用情報に基づいて修正され、或いは重み付けを変化させるようにしてもよい。
ここでいう他の参照用情報とは、上述した参照用情報の何れかを基調となる参照用情報とした場合、当該基調となる参照用情報以外のいかなる参照用情報に該当する。
例えば、他の参照用情報の一つとして、ある参照用画像情報P14において、以前において汚れの度合としてBが判別される経緯が多かったものとする。このような参照用画像情報P14に応じた汚れの度合を新たに取得したとき、汚れの度合の探索解Bに対して、重み付けを上げる処理を行い、換言すれば汚れの度合の探索解Bにつながるようにする処理を行うように予め設定しておく。
例えば、他の参照用情報Gが、より汚れの度合の探索解Cを示唆するような分析結果であり、参照用情報Fが、より汚れの度合の探索解Dを示唆するような分析結果であるものとする。このように参照用情報との間での設定の後、実際に取得した情報が参照用情報Gと同一又は類似する場合には、汚れの度合の探索解Cの重み付けを上げる処理を行う。これに対して、実際に取得した情報が参照用情報Fと同一又は類似する場合には、汚れの度合の探索解Dの重み付けを上げる処理を行う。つまり、汚れの度合につながる連関度そのものを、この参照用情報F~Hに基づいてコントロールするようにしてもよい。或いは、汚れの度合を上述した連関度のみで決定した後、この求めた探索解に対して参照用情報F~Hに基づいて修正を加えるようにしてもよい。後者の場合において、参照用情報F~Hに基づいてどのように探索解としての汚れの度合にいかなるウェートで修正を加えるかは、都度システム側において設計したものを反映させることとなる。
また他の参照用情報は、何れか1種で構成される場合に限定されるものではなく、2種以上の参照用情報に基づいて解探索するようにしてもよい。かかる場合も同様に、参照用情報の示唆する汚れの度合につながるケースほど、連関度を介して求められた探索解としての当該判別類型をより高く修正するようにしてもよい。
第2実施形態
第2実施形態においては、判別装置2、又はこの判別装置2及び情報取得部9をウェアラブル端末の中でも特に眼鏡型端末、ヘッドマウントディスプレイ(HMD)を利用するものである。このHMDは、ユーザの頭部又は眼鏡に一体又は部分的に装着され、拡張現実(AR:Augmented Reality)或いは複合現実(MR:Mixed Reality)といった技術を利用し、取得した各種の映像情報に基づいて生成された情報を透過状態で表示する表示部を備える。ユーザは、表示すべき情報をHMD上において透過して表示する表示部を介して、視認し、理解することができる。これによりユーザは、目の前の状況を見つつ、取得された各種の映像情報に基づいて生成された情報や各種コンテンツを合わせて確認することが可能となる。
第2実施形態においては、判別装置2、又はこの判別装置2及び情報取得部9をウェアラブル端末の中でも特に眼鏡型端末、ヘッドマウントディスプレイ(HMD)を利用するものである。このHMDは、ユーザの頭部又は眼鏡に一体又は部分的に装着され、拡張現実(AR:Augmented Reality)或いは複合現実(MR:Mixed Reality)といった技術を利用し、取得した各種の映像情報に基づいて生成された情報を透過状態で表示する表示部を備える。ユーザは、表示すべき情報をHMD上において透過して表示する表示部を介して、視認し、理解することができる。これによりユーザは、目の前の状況を見つつ、取得された各種の映像情報に基づいて生成された情報や各種コンテンツを合わせて確認することが可能となる。
このため、本発明においては、例えば、画像情報をこのHMDに実装された情報取得部9を介して取得する。そして、HMD内において実装された判別装置2により解探索を行い、得られた探索解(汚れの度合等)を、表示部を介して透過状態で表示するようにしてもよい。
このような第2実施形態において学習用データとして学習させる参照用画像情報は、実際にHMD等を始めとする眼鏡型端末で撮像したものであってもよいが、これに限定されるものではなく、通常のデジタルカメラやスマートフォン等で撮像したものであってもよい。
また、この参照用画像情報を実際に得る上で、清掃対象のいかなる箇所を撮像しているかを紐づけるようにしてもよい。
例えば参照用画像情報を得る上で、汚れの度合を評価する熟練のベテランの鑑定者や当業者が、ユーザ端末を介して視認している清掃対象が何であるかを検出する。仮にベテラン鑑定者が、清掃対象として、空間の床を中心に視認しているか、或いはテーブルの下を中心に視認しているか、或いは壁を中心に視認しているのかを検出する。
この検出は、例えばベテラン鑑定者に眼鏡型端末を装着させて実際に清掃対象に近づいて確認する作業を行わせ、その間において眼鏡型端末に実装されている情報取得部9を介して随時ベテラン鑑定者が視認している方向の画像を撮像し続ける。そして、事後的にその録画した画像を解析し、或いは画像を再生することにより、実際にベテラン鑑定者が清掃対象の画像情報を介して汚れの度合を評価する作業を行う上で、いかなる清掃対象を視認しているかを検知することが可能となる。
かかる場合において、図8に示すように、眼鏡型端末で撮像された動画像を時系列的に並べた場合に、清掃対象について、床の画像(P1)、テーブルの下の画像(P2)、テーブルの下の拡大画像(P3)、壁の画像(P4)であったものとする。このようにして時系列的に得られた画像から、対象情報を検出するようにしてもよい。ここでいう対象情報とは、眼鏡型端末で撮像された清掃対象が何であるのかを示す情報である。なお対象情報は、上述した対象そのものを紐付ける以外に、対象そのものを更に詳細に限定し、例えば壁や床であってもその具体的な位置をセンチメートルレベルで規定するものであってもよい。
この対象情報は、図8に示すように、床、テーブルの下、壁等のように実際に撮像している対象の名称で構成されていてもよいし、当該部位を特定するための記号や数値、番号等で表現されるものであってもよい。また対象情報は、例えば、撮影が拡大画像であるか縮小画像であるか否か、また撮影する際の撮影方向や画角等の情報も盛り込むようにしてもよい。
この対象情報は、図8に示すように、床、テーブルの下、壁等のように実際に撮像している対象の名称で構成されていてもよいし、当該部位を特定するための記号や数値、番号等で表現されるものであってもよい。また対象情報は、例えば、撮影が拡大画像であるか縮小画像であるか否か、また撮影する際の撮影方向や画角等の情報も盛り込むようにしてもよい。
この対象情報の取得は、撮影対象を都度人間が判別して手入力してもよいが、取得した画像を周知の画像解析技術を利用することで得るようにしてもよい。この対象情報の取得は、以前において学習させた特徴量に基づいて判別するようにしてもよい。例えば清掃対象の床、テーブルの下、壁等の各部の画像を、ディープラーニング技術を利用して、人工知能を通じて抽出することで判別するようにしてもよい。かかる場合には、参照用画像情報に含まれる清掃対象と、対象情報とを教師データとして用い、入力を参照用画像情報とし、出力を対象情報とした機械学習モデルを利用する。そして、新たにユーザ端末を介して撮像された参照用画像情報に基づいて対象情報を取得する。また、対象情報の取得は、これ以外に、HMDや眼鏡型端末において搭載されている、アイトラッキング機能を利用して検出した視線の方向、加速度センサやジャイロセンサを利用して検出した頭部の向き、操作デバイスやハンドトラッキング機能を利用したユーザの手の動き等を介して、対象情報を取得するようにしてもよい。
このようにして得られた対象情報を上述した各画像P1~P4等と紐付けて記録しておくことにより、各画像P1~P4が清掃対象のいかなる部分を撮像した画像であるかをセットで取得することができる。仮にベテランの鑑定者からこのような参照用画像情報を構成する画像P1~P4と、対象情報を取得することで、ベテランの鑑定者が実際に清掃対象について清掃を行う上でいかなる部位をいかなる順番で確認しているのか、また拡大画像であるか否か、また撮影角度等のような撮影環境も取得することができる。参照用表面情報についても同様に対象情報を取得して、これを紐付けて記録しておくことが可能となる。
第2実施形態においては、対象情報を活用することで、実際の解探索時の利便性を高めることができる。上述した学習データを予め構築した上で、HMDを装着したユーザが本発明を実施する場合、探索解(汚れの度合等)の探索は、上述した第1実施形態において説明した方法に基づいて実行する。このとき、HMDを装着したユーザが自ら視認している清掃対象について撮像した画像情報、表面情報を取得する過程で、同様に対象情報を得るようにしてもよい。画像情報からこの対象情報を取得する方法としては、上述したように学習させた特徴量に基づいて判別するようにしてもよく、例えば画像情報中の清掃対象(清掃対象の床、テーブルの下、壁等)の清掃対象の各部の画像を、ディープラーニング技術を利用して、人工知能を通じて抽出することで判別するようにしてもよい。かかる場合には、画像情報に含まれる清掃対象の部位と、対象情報とを教師データとして用い、入力を画像情報とし、出力を対象情報とした機械学習モデルを利用する。そして、新たにユーザ端末を介して撮像された画像情報に基づいて対象情報を取得する。
以下、画像情報を始めとする情報から取得した対象情報を第1対象情報ともいい、参照用画像情報を始めとする参照用情報から取得した対象情報を第2対象情報ともいう。
画像情報を取得する過程で、このような第1対象情報を都度取得することで以下に説明する優れた効果がある。撮像した画像情報の第1対象情報と、参照用画像情報の第2対象情報が一致しているかを都度確認することが可能となる。撮像した画像情報の第1対象情報と、参照用画像情報の第2対象情報が不一致の場合には、HMDの表示部を介してユーザに注意喚起の表示をすることができる。
例えば、撮像した画像情報の第1対象情報が“椅子の下”であり、これに対応させるための参照用画像情報の第2対象情報が“椅子の上”である場合には、HMDを装着するユーザが画像情報を撮影する対象が誤った部分を撮影していることとなる。かかる場合には、上述のように注意喚起をすることで正しい清掃対象に撮影対象を合わせることをユーザに促すことが可能となる。また、参照用画像情報に紐付けられた第2対象情報が、テーブルの下を拡大して視認するものであるのに対して、画像情報に紐付けられた第1対象情報が同じテーブルの下の画像であるが拡大して視認していない場合には、同様にユーザに対して、画像を拡大して視認するように促すことが可能となる。
このようにして、撮像した画像情報の第1対象情報と、参照用画像情報の第2対象情報との一致度を介して、HMDを装着したユーザに対して、実際に画像情報の撮影方法について様々な示唆を行い、又は様々な修正を促すことが可能となる。このとき、このような示唆や修正の促進を、HMDや眼鏡型端末の表示部を介して透過状態で表示する、上述したARやMRを実現するようにしてもよい。なお、この撮影方法についての示唆は、第1対象情報と、第2対象情報とに基づいたものであればいかなる示唆を表示するものであってもよい。
なお、上述した図8の例において清掃対象について複数箇所を順次撮影対象を切り替える場合を例にとり説明をしたが、これに限定されるものではなく、参照用画像情報等が1箇所のみについて得られたものである場合においても同様に対象情報を取得して紐付けておくことで、実際に画像情報等を取得するユーザに対して上述した誘導を行うことが可能となる。
なお本発明は、図9に示すように、参照用画像情報と、汚れの度合との3段階以上の連関度を上記清掃対象毎に予め取得するようにしてもよい。かかる場合には、各対象情報毎に、独立して参照用画像情報と、汚れの度合との連関度を学習させて保存しておく。
そして、取得した第1対象情報に応じた清掃対象の連関度を読み出し、上述と同様に解探索する。仮に第1対象情報がテーブルの下であれば、そのテーブルの下用の連関度からなる評価モデルを選択し、汚れの度合推定を行う。これにより、清掃対象毎に特化した評価モデルを選択することができ、より高精度な汚れの度合推定を行うことができる。
なお、本発明は、図10に示すように、連関度を上述したように清掃対象について構築するとともに、その連関度を他の参照用情報毎に分類されていてもよい。ここでいう他の参照用情報とは、第1実施形態において説明したあらゆる参照用情報が含まれる。このうち、参照用種類情報に着目した場合、例えば図10に示すように、他の参照用情報Aとして、清掃対象についてそれぞれ床用、テーブルの下用、壁等の清掃対象毎の連関度が形成されており、他の参照用情報Bとして清掃対象についてそれぞれ床用、テーブルの下用、壁等の清掃対象毎の連関度が形成されている。このような各参照用情報毎に分類された、各清掃対象毎の連関度を準備しておく。そして、新たに解探索を行う場合には、上述した対象情報を取得すると共に、他の情報を取得する。この取得する他の情報とは、上述した他の参照用情報に対応したものである。仮に他の参照用情報が、参照用種類情報であれば、種類情報を取得することになる。取得した他の情報に応じた参照用情報における清掃対象毎に分類された評価モデルを選択し、同様に解探索を行う。上述した図10の例の場合、取得したものが他の情報B(種類情報B)である場合、これに応じた他の参照用情報B(参照用種類情報B)における清掃対象毎に分類された何れかの評価モデルを選択し解探索することとなる。
なお、各清掃対象について構築する連関度は、上述した参照用種類情報毎に構築する場合以外に、他のいかなる参照用情報毎に構築してもよい。かかる場合も同様に参照用情報に応じた情報を取得し、取得した情報に応じて連関度を選択することとなる。
学習済みモデルを構築する過程では、上述した参照用画像情報を取得する際に、同様に第2対象情報を取得しておく。また実際の汚れの度合を取得することで上述と同様にデータセットを得て、図3、4に示すような連関度を形成しておく。解探索時には、推定対象について取得した画像情報から参照用画像情報を構成すると共に、同様に第1対象情報を取得する。
そして取得した第1対象情報と、取得した画像情報(表面情報)と同一又は類似の参照用画像情報(参照用表面情報)に紐付けられて記録されている第2対象情報とに基づいて、上述と同様にユーザに対して撮影方法についての示唆を表示する。
1 清掃支援システム
2 推定装置
21 内部バス
23 表示部
24 制御部
25 操作部
26 通信部
27 推定部
28 記憶部
61 ノード
2 推定装置
21 内部バス
23 表示部
24 制御部
25 操作部
26 通信部
27 推定部
28 記憶部
61 ノード
Claims (8)
- 清掃作業者に汚れの存在を知らせるための清掃支援システムにおいて、
ユーザの頭部又は眼鏡に装着されるユーザ端末に含まれ、当該ユーザ端末を介して清掃対象の空間に関する画像情報を撮像すると共に、ユーザ端末を介して視認している清掃対象に関する第1対象情報を取得する情報取得手段と、
過去において清掃対象の空間を撮像した参照用画像情報と、汚れの度合との3段階以上の連関度が規定され、入力を参照用画像情報とし、出力を汚れの度合とした学習済みモデルを利用し、上記情報取得手段により取得された画像情報に応じた参照用画像情報に基づき、上記連関度のより高いものを優先させて、汚れの度合を推定する推定手段と、
上記参照用画像情報を撮像した清掃対象に関する第2対象情報を当該参照用画像情報に紐付けて記録する記録手段とを備え、
上記ユーザ端末は、上記情報取得手段により取得された第1対象情報と、上記情報取得手段により取得された画像情報に応じた参照用画像情報に紐付けられて上記記録手段に記録されている第2対象情報とに基づいて、上記ユーザに対して撮影方法についての示唆を透過状態で表示する表示部を有すること
を特徴とする清掃支援システム。 - 上記情報取得手段は、参照用画像情報に含まれる清掃対象と、対象情報第1対象情報とを教師データとして用い、入力を参照用画像情報とし、出力を対象情報第1対象情報とした機械学習モデルを利用し、新たに上記ユーザ端末を介して撮像された画像情報に基づいて対象情報第1対象情報を取得すること
を特徴とする請求項1記載の清掃支援システム。 - 上記情報取得手段は、参照用画像情報に含まれる構造物の部位と、対象情報第2対象情報とを教師データとして用い、入力を参照用画像情報とし、出力を対象情報第2対象情報とした機械学習モデルを利用し、新たに撮像された参照用画像情報に基づいて対象情報第2対象情報を取得すること
を特徴とする請求項1又は2記載の清掃支援システム。 - 上記連関度は、人工知能におけるニューラルネットワークのノードで構成されること
を特徴とする請求項1~3のうち何れか1項記載の清掃支援システム。 - 清掃作業者に汚れの存在を知らせるための清掃支援システムにおいて、
ユーザの頭部又は眼鏡に装着されるユーザ端末に含まれ、当該ユーザ端末を介して清掃対象の空間に関する画像情報を撮像すると共に、ユーザ端末を介して視認している清掃対象に関する第1対象情報を取得する情報取得手段と、
過去において清掃対象の空間を撮像した参照用画像情報と、汚れの度合との3段階以上の連関度が規定され、入力を参照用画像情報とし、出力を汚れの度合とした学習済みモデルを利用し、上記情報取得手段により取得された画像情報に応じた参照用画像情報に基づき、上記連関度のより高いものを優先させて、汚れの度合を推定する推定手段とを備え、
上記推定手段は、上記参照用画像情報と、汚れの度合との3段階以上の連関度を上記空間の位置毎に予め取得しておき、上記情報取得手段により取得された上記第1対象情報に応じた清掃対象の上記連関度を読み出して汚れの度合を推定し、
上記ユーザ端末は、上記ユーザに対して上記推定手段により推定された汚れの度合を透過状態で表示する表示部を有すること
を特徴とする清掃支援システム。 - 清掃作業者に汚れの存在を知らせるための清掃支援システムにおいて、
ユーザの頭部又は眼鏡に装着されるユーザ端末に含まれ、当該ユーザ端末を介して清掃対象の空間に関する画像情報を撮像すると共に、撮像した清掃対象の種類に関する種類情報を取得する情報取得手段と、
過去において清掃対象の空間を撮像した参照用画像情報と、汚れの度合との3段階以上の連関度が規定され、入力を参照用画像情報とし、出力を汚れの度合とした学習済みモデルを利用し、上記情報取得手段により取得された画像情報に応じた参照用画像情報に基づき、上記連関度のより高いものを優先させて、汚れの度合を推定する推定手段とを備え、
上記推定手段は、上記参照用画像情報と、汚れの度合との3段階以上の連関度を上記清掃対象の種類毎に予め記憶しておき、上記情報取得手段により取得された上記種類情報に応じた構造物の種類の上記連関度を読み出して汚れの度合を推定し、
上記ユーザ端末は、上記ユーザに対して上記推定手段により推定された汚れの度合を透過状態で表示する表示部を有すること
を特徴とする清掃支援システム。 - 上記情報取得手段は、撮像した清掃対象の画像と、種類情報とを教師データとして用い、入力を撮像した構造物の画像とし、出力を種類情報とした機械学習モデルを利用し、新たに上記ユーザ端末を介して撮像された清掃対象の画像に基づいて種類情報を取得すること
を特徴とする請求項6記載の清掃支援システム。 - 清掃作業者に汚れの存在を知らせるための清掃支援システムにおいて、
ユーザの頭部又は眼鏡に装着されるユーザ端末に含まれ、当該ユーザ端末を介して清掃対象の空間に関する画像情報を撮像すると共に、清掃を行う時期に関する時期情報を取得する情報取得手段と、
過去において清掃対象の空間を撮像した参照用画像情報と、汚れの度合との3段階以上の連関度が規定され、入力を参照用画像情報とし、出力を汚れの度合とした学習済みモデルを利用し、上記情報取得手段により取得された画像情報に応じた参照用画像情報に基づき、上記連関度のより高いものを優先させて、汚れの度合を推定する推定手段とを備え、
上記推定手段は、上記参照用画像情報と、汚れの度合との3段階以上の連関度を上記清掃を行う時期毎に予め記憶しておき、上記情報取得手段により取得された上記時期情報に応じた時期の上記連関度を読み出して汚れの度合を推定し、
上記ユーザ端末は、上記ユーザに対して上記推定手段により推定された汚れの度合を透過状態で表示する表示部を有すること
を特徴とする清掃支援システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021155558A JP2023046775A (ja) | 2021-09-24 | 2021-09-24 | 清掃支援システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021155558A JP2023046775A (ja) | 2021-09-24 | 2021-09-24 | 清掃支援システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023046775A true JP2023046775A (ja) | 2023-04-05 |
Family
ID=85778446
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021155558A Pending JP2023046775A (ja) | 2021-09-24 | 2021-09-24 | 清掃支援システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023046775A (ja) |
-
2021
- 2021-09-24 JP JP2021155558A patent/JP2023046775A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11093747B2 (en) | Hazard recognition | |
WO2021079816A1 (ja) | 中古車販売価格推定プログラム | |
JP2021174267A (ja) | 建物値付プログラム | |
JP2021039637A (ja) | 熱中症リスク判別プログラム及びシステム | |
JP2020129217A (ja) | 保育所割当プログラム及びシステム | |
JP2023046775A (ja) | 清掃支援システム | |
JP2023043625A (ja) | 製品品質検査システム | |
JP2020184128A (ja) | 疲労度判別プログラム | |
JP2023046777A (ja) | 設備保守検査システム | |
WO2022039139A1 (ja) | 買取価格推定プログラム | |
JP6687962B1 (ja) | 撮影条件提案システム | |
JP2021047585A (ja) | 原状回復費用推定プログラム及びシステム | |
JP7219546B2 (ja) | 物件検索システム | |
JP2021174265A (ja) | 宿泊料の増減率判定プログラム | |
JP2023055382A (ja) | 対応能力推定システム | |
JP2023043626A (ja) | 製品品質検査システム | |
JP6773346B1 (ja) | 入居推薦業者提案プログラム、不動産取引価格提案プログラム | |
JP2023043627A (ja) | 構造物保守推定システム | |
JP2023049152A (ja) | 書類記載内容検査システム | |
JP2023049153A (ja) | 書類記載内容検査システム | |
JP2023067617A (ja) | キノコの毒性判別プログラム | |
JP2023046776A (ja) | 設備保守検査システム | |
JP2023067615A (ja) | キノコの毒性判別プログラム | |
JP2023067616A (ja) | キノコの毒性判別プログラム | |
Pouliou et al. | Sensing Behaviour Framework: Acquisition and Communication of Occupancy Behaviour Data |