JP2018079134A - 掃除支援装置、掃除支援方法、および、掃除支援システム - Google Patents
掃除支援装置、掃除支援方法、および、掃除支援システム Download PDFInfo
- Publication number
- JP2018079134A JP2018079134A JP2016223984A JP2016223984A JP2018079134A JP 2018079134 A JP2018079134 A JP 2018079134A JP 2016223984 A JP2016223984 A JP 2016223984A JP 2016223984 A JP2016223984 A JP 2016223984A JP 2018079134 A JP2018079134 A JP 2018079134A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- projection image
- cleaning
- cleaned
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Studio Devices (AREA)
- Image Analysis (AREA)
- Electric Vacuum Cleaner (AREA)
- Image Processing (AREA)
Abstract
Description
また、例えば、特許文献1には、掃除機の操作者(ユーザ)が装着したヘッドマウントディスプレイに、操作者から見て掃除済みの領域や未掃除領域が実際の床と重なるようにした画像を表示させることで、操作者に掃除済みの領域を提示する掃除支援装置が開示されている。
しかしながら、特許文献1に開示されているような技術では、ユーザは、ヘッドマウントディスプレイを装着する必要があるという課題があった。
実施の形態1.
この実施の形態1に係る掃除支援装置1は、ユーザが手動で掃除機を操作しながら、部屋の床等を掃除する場合に、掃除済みの領域をユーザに提示するものである。
また、掃除が行われる対象となる領域を、掃除対象領域というものとする。掃除対象領域は、床、棚の上、または、壁等、ユーザが掃除機を操作して掃除する対象となるあらゆる領域を含んでもよい。ここでは、一例として、床を掃除対象領域とするものとして以下説明する。
図1に示すように、掃除機10は、掃除機本体100と、吸引ホース101と、取っ手102と、継手管103と、ヘッド部104と、操作部105と、制御回路106とを備える。
掃除機本体100は、集塵室1001と、吸引駆動部1002とを備え、吸引駆動部1002の駆動により、塵埃またはごみ等をヘッド部104から吸引して集塵室1001に捕集する機能を有している。掃除機本体100は、下部にローラ1003を備える。
継手管103の先端側には、ヘッド部104が設けられる。
制御回路106は、操作部105と電気的に接続されるとともに、掃除機本体100の吸引駆動部1002とも電気的に接続される。
吸い込み口1041は、ヘッド部104の筐体1042における、掃除対象領域と対向する面に開口を有するように設けられる。
ここでは、掃除対象領域における、掃除機10による掃除済みの領域を、ヘッド部104の位置に基づいて判別する。掃除済み領域の判別方法の詳細については後述する。
掃除支援装置1は、位置情報取得装置から取得した情報に基づき、掃除対象領域における掃除機10による掃除済みの領域を示す投射画像を作成し、画像投射装置を使って、掃除対象領域に当該投射画像を投射させる。
位置情報取得装置は、掃除対象領域に対するヘッド部104の位置を検出するための情報を取得する装置であり、例えば、カメラ2である。カメラ2は、例えば、天井に設置されている。カメラ2の設置位置は、天井に限らず、少なくとも掃除対象領域を撮像可能な位置であればよい。
画像投射装置は、掃除支援装置1が作成した投射画像を掃除対象領域に投射する装置であり、例えば、プロジェクタ3である。プロジェクタ3は、例えば、天井に設置されている。プロジェクタ3の設置位置は、天井に限らず、掃除済みの領域を示す投射画像を掃除対象領域に投射可能な位置であればよい。
キャリブレーション部11は、キャリブレーションを行う。具体的には、キャリブレーション部11は、プロジェクタ3が、掃除対象領域である床に投射する投射画像の座標系と、カメラ2が掃除対象領域である床を含む空間を撮像する撮像画像の座標系との相対位置関係の較正を行う。以下、プロジェクタ3が投射する投射画像の座標系を表示手段座標系、カメラ2の撮像画像の座標系を位置検知座標系というものとする。
また、キャリブレーション部11は、座標変換パラメータとして、例えば、座標変換対応表を作成するようにしてもよい。これらは例示に過ぎず、キャリブレーション部11は、位置検知座標系の座標を、表示手段座標系の座標に変換することができる情報を、座標変換パラメータとして設定しておくようになっていればよい。
なお、ここでは、例えば、掃除対象領域の床に、床座標系に対応したマーカが付与されており、当該マーカから、床の各部の座標を特定できるようになっているものとする。
当該キャリブレーション部11によるキャリブレーション処理は、例えば、掃除支援装置1の電源がONになった場合に、掃除支援装置1の制御部(図示省略)が、キャリブレーション部11に対して、キャリブレーションの実行を指示することによって実行される。あるいは、例えば、別途掃除支援装置1にキャリブレーション用のスイッチを設けるようにしてもよい。
この実施の形態1では、カメラ2およびプロジェクタ3は、例えば、天井等に固定されていることを前提としており、カメラ2の撮像画像とプロジェクタ3の投射画像との間の位置の対応関係は変わらない。この場合、掃除支援装置1の設置時のみに、キャリブレーション部11がキャリブレーション処理を行うようにしてもよい。
キャリブレーション部11は、ユーザが掃除機10を利用して掃除を行うまでにキャリブレーション処理を行うようになっていればよい。
位置検出部13は、ヘッド部104の位置を、例えば、ヘッド部104の筐体1042の中心位置としてもよいし、筐体1042の対角の2点の位置としてもよいし、筐体1042の四隅の位置としてもよい。これに限らず、どの点をヘッド部104の位置とするかが予め設定され、位置検出部13は、当該設定された位置をヘッド部104の位置として検出するようにすればよい。
また、位置検出部13は、少なくとも掃除対象領域に対するヘッド部104の位置を検出するようになっていればよいが、ヘッド部104の位置のほか、例えば、既存の画像処理技術を用いて、ヘッド部104の大きさ、あるいは、方向を検出するようにしてもよい。
位置検出部13は、ユーザにより掃除機10の操作が開始されたかどうかを、掃除支援装置1が備える入力受付部(図2においては図示省略)が掃除機10の操作部105から制御回路106を介して吸引動作の駆動が指示された等の操作開始指示情報を受け付けたことにより判断すればよい。例えば、ユーザが掃除機10の操作部105の操作により吸引動作の駆動を指示すると、掃除機10の制御回路106を介して、掃除支援装置1の入力受付部が当該掃除機10の吸引動作の駆動が指示された旨の操作開始指情報を受け付け、当該情報を位置検出部13に出力する。なお、これは一例に過ぎず、位置検出部13は、例えば、ユーザが掃除機10の操作部105の操作により吸引動作の駆動を指示した際のランプの点滅を検知することで、ユーザにより掃除機10の操作が開始されたかどうかを判断してもよく、位置検出部13は、適宜の方法で、ユーザにより掃除機10の操作が開始されたかどうかを判断すればよい。
具体的には、領域判別部15は、掃除対象領域の掃除を開始するためのユーザによる掃除機10の操作が開始されると、ヘッド部104の位置情報を、順次、位置履歴記憶部14から取得する。そして、領域判別部15は、ヘッド部104の位置の移動軌跡を、掃除対象領域内における、掃除機10による掃除済みの領域として判別する。掃除済みの領域を示す座標は、位置検知座標系である。
なお、例えば、位置検出部13が、ヘッド部104の位置情報として、掃除機10のヘッド部104の大きさを検出している場合には、領域判別部15は、当該掃除機10のヘッド部104の大きさと位置から求められる移動範囲を、掃除対象領域内における、掃除機10による掃除済みの領域と判別するようにしてもよい。
このように、領域判別部15は、ヘッド部104の位置が通過した軌跡等に基づき、掃除済みの領域を判別する。
領域判別部15は、判別した掃除済みの領域の座標を、投射画像作成部16に出力する。
投射画像作成部16は、相対位置関係記憶部12に相対位置関係に関する情報として記憶された座標変換パラメータに基づき、領域判別部15から出力された掃除済みの領域の座標を、位置検知座標系から表示手段座標系に変換する座標変換部161を備える。具体的には、例えば、座標変換部161は、位置検知座標系で示された掃除済みの領域の座標に、回転と平行を表す4×4行列として算出された座標変換パラメータをかけることで、表示手段座標系の座標への変換を行う。
投射画像作成部16は、プロジェクタ3に対して投射画像を出力し、プロジェクタ3から当該投射画像を投射させる。
プロジェクタ3は、投射画像作成部16が出力した投射画像を、掃除対象領域である床に投射する。これにより、掃除済みの領域を示す画像が掃除対象領域に投射されてユーザに提示されるようになる。
表示規則記憶部17には、具体的には、例えば、青色でヘッド部104の移動軌跡に沿った方向と直角に幅20cmで塗りつぶす、という規則が記憶されている。この場合、投射画像作成部16は、領域判別部15が判別した掃除済みの領域、すなわち、ヘッド部104の位置の移動軌跡と直角に幅20cmで塗りつぶした領域を示す投射画像を、掃除済みの領域を示す画像として作成することになる。
また、ここでは、図2に示すように、掃除支援装置1が、相対位置関係記憶部12と、位置履歴記憶部14と、表示規則記憶部17と、画像履歴記憶部(図示省略)とを備えるものとしたが、これに限らず、相対位置関係記憶部12と、位置履歴記憶部14と、表示規則記憶部17と、画像履歴記憶部とは、掃除支援装置1の外部に備えるようにしてもよく、掃除支援装置1が参照可能な場所に備えられていればよい。
図3は、この発明の実施の形態1に係る掃除支援装置1の動作を説明するフローチャートである。
キャリブレーション部11は、キャリブレーションを行う。キャリブレーション処理は、例えば、掃除支援装置1の電源がONになった場合に、掃除支援装置1の制御部(図示省略)が、キャリブレーション部11に対して、キャリブレーションの実行を制御することによって行われる。なお、上述のとおり、この実施の形態1では、カメラ2およびプロジェクタ3は、固定されていることを前提としているので、掃除支援装置1の設置時に、キャリブレーション部11がキャリブレーション処理を行うようにしてもよい。
キャリブレーション部11は、表示手段座標系と、位置検知座標系との対応付けを行う(ステップST301)。
キャリブレーション部11は、算出した各座標変換パラメータを、相対位置関係に関する情報として相対位置関係記憶部12に記憶させる。
領域判別部15は、判別した掃除済みの領域の座標を、投射画像作成部16に出力する。
投射画像作成部16は、作成した投射画像を、投射日時の情報とともに、画像履歴記憶部に履歴として記憶させるようにしてもよい。
プロジェクタ3は、投射画像作成部16が出力した投射画像を床に投射する。これにより、掃除済みの領域を示す画像が掃除対象領域である床に投射されてユーザに提示されるようになる。
図4に示すように、掃除機10による掃除済みの領域(図4のf)が、予め決められた規則に則って作成された投射画像として、床に投射されるようになる。なお、図4では、掃除済みの領域は、グレーで示しているが、掃除済みの領域を示す色は、グレー以外の色であってもよく、掃除済みの領域がわかるようになっていればよい。
操作が終了した場合(ステップST307の“YES”の場合)は、処理終了する。
ここで判断する操作の終了とは、一連の掃除動作の終了をいう。位置検出部13は、例えば、掃除機10の操作部105の操作により吸引動作の停止が指示された等の情報と、一定時間吸引動作の停止の状態が継続した、あるいは、日付が変わった等の情報とに基づき、一連の掃除動作が終了したかどうかを判定する。
この発明の実施の形態1において、キャリブレーション部11と、位置検出部13と、領域判別部15と、投射画像作成部16の各機能は、処理回路501により実現される。すなわち、掃除支援装置1は、取得した画像に基づき掃除機10のヘッド部104を検出し、掃除機10による掃除済み領域を、プロジェクタ3に投射させる制御を行うための処理回路501を備える。
処理回路501は、図5Aに示すように専用のハードウェアであっても、図5Bに示すようにメモリ504に格納されるプログラムを実行するCPU(Central Processing Unit)505であってもよい。
相対位置関係記憶部12と、位置履歴記憶部14と、表示規則記憶部17と、画像履歴記憶部(図示省略)は、例えば、HDD502を使用する。なお、これは一例にすぎず、相対位置関係記憶部12と、位置履歴記憶部14と、表示規則記憶部17は、DVD、メモリ504等によって構成されるものであってもよい。
また、掃除支援装置1は、カメラ2、プロジェクタ3等の外部機器との通信を行う通信I/F装置503を有する。例えば、キャリブレーション部11、あるいは、位置検出部13は、カメラ2が撮像した映像を、通信I/F装置503を利用して、カメラ2から取得する。また、例えば、投射画像作成部16は、作成した投射画像を、通信I/F装置503を利用して、プロジェクタ3に出力する。
ただし、表示手段座標系と対象領域座標系との変換パラメータを算出して投射画像の作成に利用すると、複雑な形状の掃除対象領域に対する投射を行うことができるので、表示手段座標系と対象領域座標系との相対位置関係を考慮して投射画像を作成することが好ましい。
掃除済み領域を示す投射画像を、複数のプロジェクタ3によって異なる方向から投射させるようにすることで、遮蔽物による影響を少なくできる。また、投射範囲を広くすることができる。
複数台のプロジェクタ3の設置位置は固定されており、それぞれ異なる方向から床に投射画像を投射するものとする。
この場合、キャリブレーション部11は、キャリブレーションにおいて、複数台のプロジェクタ3のそれぞれについて、順次、例えば縞模様を投射させている状態で、カメラ2に投射面を撮像させて、各プロジェクタ3について、プロジェクタ3が床に投射させる投射画像の表示手段座標系と、カメラ2が掃除対象領域を撮像する撮像画像の位置検知座標系との対応付けを行って座標変換パラメータを算出し、相対位置関係に関する情報として相対位置関係記憶部12に記憶させるようにする。同様に、キャリブレーション部11は、各プロジェクタ3について、表示手段座標系と床座標系との相対位置関係を導出する。
また、キャリブレーション部11は、キャリブレーションにおいて、例えば、複数台のプロジェクタ3が床に投射画像を投射させる範囲の重なり、レンズによるひずみまたはぼけ、光量の差等に関する情報を取得し、あわせて、相対位置関係記憶部12に記憶させるようにする。
投射画像作成部16は、各プロジェクタ3が投射画像を投射させる範囲の重なり等を考慮し、各プロジェクタ3について、床に投射させる投射画像を作成する。
投射範囲を広くするためのレンズを備えると、平面の投射面が変形する。よって、キャリブレーション部11は、変形した投射面を床に対応付けるための情報も、相対位置関係に関する情報として相対位置関係記憶部12に記憶させるようにし、投射画像作成部16は、当該変形した投射面が床に対応するようにして投射画像を作成する。そして、投射画像作成部16は、当該相対位置関係記憶部12に記憶された相対位置関係に基づき、変形した投射面が床に対応するようにして投射画像を作成する。
このように、プロジェクタ3の投射範囲がレンズによって広くなることで、1台のプロジェクタ3でより広範囲を投射できるようになる。
プロジェクタ3を複数台設置する場合は、複数台のプロジェクタ3全ての投射部に、投射範囲を広くするためのレンズを備えるようにしてもよいし、1部のプロジェクタ3の投射部に投射範囲を広くするためのレンズを備えるようにしてもよい。
しかし、これに限らず、例えば、掃除支援装置1は、ユーザに対して、掃除対象領域における掃除未実施の領域をグレー等の色で提示するものとしてもよい。具体的には、投射画像作成部16は、領域判別部15が判別した掃除済みの領域に基づき、掃除対象領域において当該掃除済みの領域を除く領域を掃除未実施の領域と判断し、掃除未実施の領域をグレー等の色とした投射画像を作成し、プロジェクタ3から掃除対象領域に投射させるようにしてもよい。
また、ヘッドマウントディスプレイを介して掃除済みの領域等を提示する場合に比べ、掃除機10を操作しているユーザの視線の方向に基づいた重畳画像の表示制御等の重たい処理の実行を不要とすることができる。
また、ヘッドマウントディスプレイを介して掃除済みの領域等を提示する場合に比べ、掃除機を操作しているユーザ以外の人でも、掃除対象領域に投射された投射画像を一見して掃除済みの領域を確認することができ、掃除機を操作するユーザに対して、他の人が、掃除していない場所のアドバイス等ができるようになる。
実施の形態1では、カメラ2およびプロジェクタ3は、予め決められた位置に固定され、設置されていることを前提としていた。
この実施の形態2では、カメラ2、あるいは、プロジェクタ3が、移動可能な掃除機10等に設置される実施の形態について説明する。
この実施の形態2においても、掃除対象領域は床に限らず、棚の上、または、壁等、ユーザが掃除機を操作して掃除する対象となるあらゆる領域を含む。
また、この実施の形態2においても、掃除支援装置1aは、掃除機10の外部に設置されてもよいし、掃除支援装置1aは掃除機10に搭載されていてもよい。
また、掃除支援装置1aは、ユーザに対して、掃除対象領域における掃除未実施の領域をグレー等の色で提示するものとしてもよい。
図8において、実施の形態1で図2を用いて説明した掃除支援装置1と同様の構成については、同じ符号を付して重複した説明を省略する。
この実施の形態2に係る掃除支援装置1aは、実施の形態1に係る掃除支援装置1とは、キャリブレーション部11a、および、位置検出部13aの具体的な動作が異なる。
この発明の実施の形態2に係る掃除支援装置1aのハードウェア構成は、図5A,図5Bを用いて説明した実施の形態1に係る掃除支援装置1のハードウェア構成と同様であるため、重複した説明を省略する。
図10は、この発明の実施の形態2において、プロジェクタ3が掃除機10に固定される場合の、掃除支援装置1aの動作を説明するフローチャートである。
位置検出部13aは、ユーザによって掃除機10の操作が開始されるまで待機し(ステップST1001の“NO”の場合)、ユーザによって掃除機10の操作が開始されると(ステップST1001の“YES”の場合)、カメラ2から撮像画像を取得し、取得した撮像画像から掃除機10のヘッド部104の位置、および、プロジェクタ3の位置を検出して、ヘッド部104の位置情報、プロジェクタ3に関する情報、床の座標を取得する(ステップST1002)。
ステップST1001において、位置検出部13aは、ユーザが掃除機10を操作したかどうかを、実施の形態1における位置検出部13と同様の方法によって判断すればよい。
また、ステップST1002において、位置検出部13aが取得する、プロジェクタ3に関する情報とは、例えば、プロジェクタ3の位置および方向に関する情報である。
位置検出部13aは、ヘッド部104の位置情報、および、プロジェクタ3に関する情報を、位置履歴記憶部14に記憶させる。
ヘッド部104の位置情報およびプロジェクタ3に関する情報は、位置検知座標系であらわされる。
しかし、プロジェクタ3が、移動可能に設置される場合、プロジェクタ3が床に投射させる投射画像の範囲も変化するため、ユーザが掃除機10を操作して掃除を行うまでに、予め表示手段座標系と位置検知座標系の対応付けを行うことができない。
キャリブレーションの方法は、例えば、カメラ2の撮像画像上の複数点と、プロジェクタ3の投射画像の投射範囲内の複数点との間の位置の対応関係を導出する等、キャリブレーション部11aは、既存のキャリブレーション技術を用いてキャリブレーションを行うようにすればよい。
キャリブレーション部11aは、例えば、座標系の回転と平行移動を表す4×4行列等、撮像画像上の位置と投射画像上の位置とに基づく座標変換パラメータを算出して相対位置関係に関する情報とする。
なお、床の座標については、例えば、掃除対象領域の床に、床座標系に対応したマーカが付与されており、当該マーカから、床の座標を特定できるようになっているものとする。
キャリブレーション部11aは、算出した座標変換パラメータを、相対位置関係に関する情報として相対位置関係記憶部12に記憶させる。
位置検出部13aが、ヘッド部104の位置情報として、掃除機10のヘッド部104の大きさを検出している場合には、領域判別部15は、当該掃除機10のヘッド部104の移動範囲を、掃除対象領域内における、掃除機10による掃除済みの領域と判別するようにしてもよい。
領域判別部15は、判別した掃除済みの領域の座標を、投射画像作成部16に出力する。
投射画像作成部16は、作成した投射画像を、投射日時の情報とともに、画像履歴記憶部に履歴として記憶させるようにしてもよい。
プロジェクタ3は、投射画像作成部16からの指示を受けて、投射画像作成部16が出力した投射画像を床に投射する。これにより、掃除機10によって掃除済みの領域を示す画像が掃除対象領域である床に投射されてユーザに提示されるようになる。
操作が終了した場合(ステップST1007の“YES”の場合)は、処理終了する。
また、プロジェクタ3は、掃除対象領域を含む空間の、ある位置に固定されず、掃除機10に取り付けられて移動可能であるので、プロジェクタ3を、部屋を跨いで移動させることができる。これにより、プロジェクタ3を各掃除対象領域に最低1台配置させる必要がなくなる。
この場合、カメラ2もプロジェクタ3も掃除機10に固定されているため、表示手段座標系と位置検知座標系の対応関係は固定されて変わらない。
よって、キャリブレーション部11aは、表示手段座標系と位置検知座標系については、図10を用いて説明したように、掃除機10の移動に応じてその都度キャリブレーション処理を行わなくても、掃除機10の操作があった時点で一度キャリブレーション処理を行えばよい。
これに対し、表示手段座標系と床座標系の対応関係は、プロジェクタ3の移動、すなわち、掃除機10の移動に伴って変わる。
したがって、キャリブレーション部11aは、図10で説明したように、位置検出部13aが掃除機10の移動に応じてヘッド部104の位置およびプロジェクタ3を検出する都度、表示手段座標系と床座標系のキャリブレーションを行い、座標変換パラメータを算出し、相対位置関係に関する情報を相対位置関係記憶部12に記憶させる。
また、プロジェクタ3、あるいは、カメラ2を、部屋を跨いで移動させることができる。これにより、プロジェクタ3、あるいは、カメラ2を、各掃除対象領域に少なくとも1台配置させる必要がなくなる。
実施の形態1,2では、掃除支援装置1は、掃除済みの領域を示す投射画像を、掃除対象領域である実空間の床に投射させるようにしていた。この実施の形態3では、掃除支援装置1は、掃除済みの領域を示す投射画像を実空間の床に投射させることに加え、掃除機10を操作している操作者等が視認可能な表示部に、掃除済みの領域を示す画像を表示させる実施の形態について説明する。
また、この実施の形態3においても、掃除支援装置1aは、掃除機10の外部に設置されてもよいし、掃除支援装置1aは掃除機10に搭載されていてもよい。
また、掃除支援装置1bは、ユーザに対して、掃除対象領域における掃除未実施の領域をグレー等の色で提示するものとしてもよい。
この実施の形態3では、図12に示すように、掃除支援装置1bは、プロジェクタ3に対して投射画像を投射させることに加え、表示部4に対して、カメラ2が撮像した掃除対象領域を含む空間の撮像画像に、掃除済みの領域を示す画像を重畳した画像を表示させるようにする。
ここで、表示部4は、例えば、スマートフォンまたはタブレット等の携帯端末のディスプレイを想定している。携帯端末は、掃除機10に取り外し自在に設置できるものとする。携帯端末は、例えば、掃除機10の操作部105に設置するようにしてもよいし、掃除機10のヘッド部104に設置するようにしてもよい。
なお、ここでは、上述のとおり、表示部4は、掃除機10に取り外し自在に設置される携帯端末が備える表示部4とするが、これに限らず、表示部4は、掃除対象領域を含む空間である部屋等に設置されたPC(Personal Computer)、または、テレビ等の装置が備えるディスプレイ等の表示部としてもよい。
この発明の実施の形態3に係る掃除支援装置1bは、実施の形態1の掃除支援装置1とは、重畳画像作成部18をさらに備える点のみ異なる。
重畳画像作成部18は、領域判別部15が判別した掃除済みの領域に基づく画像を作成し、当該作成した画像を、掃除対象領域を含む空間を撮像した撮像画像に重畳させた重畳画像を作成する。
具体的には、重畳画像作成部18は、領域判別部15が掃除機10による掃除済みの領域として判別した、掃除機10のヘッド部104の移動軌跡等に対応する画像を作成する。そして、重畳画像作成部18は、カメラ2から撮像画像を取得し、取得した撮像画像に、作成した、掃除機10のヘッド部104の移動軌跡等に対応する画像を重畳させた重畳画像を作成する。
重畳画像作成部18は、当該重畳画像を、携帯端末に搭載されている表示部4に表示させる。
また、重畳画像作成部18は、重畳画像を、表示部4のアスペクト比にあわせて拡大、または、縮小するように補正する。
重畳画像作成部18は、補正した重畳画像を、表示部4に表示させる。
重畳画像作成部18の機能は、処理回路501により実現される。
この場合、カメラ2とプロジェクタ3との相対位置は、掃除機10の移動とともに変わる。
そこで、位置検出部13は、掃除機10の移動に応じてその都度、ヘッド部104の位置とプロジェクタ3を検出し、ヘッド部104の位置情報とプロジェクタ3に関する情報とを位置履歴記憶部14に記憶させる。
そして、キャリブレーション部11は、位置検出部13が掃除機10の移動に応じてその都度検出して位置履歴記憶部14に記憶させている、ヘッド部104の位置情報とプロジェクタ3に関する情報とに基づき、表示手段座標系と位置検知座標系のキャリブレーションを行う。
キャリブレーション部11は、例えば、座標系の回転と平行移動を表す4×4行列等、撮像画像上の位置と投射画像上の位置とに基づく座標変換パラメータを算出して相対位置関係に関する情報とする。
なお、床の座標については、例えば、掃除対象領域の床に、床座標系に対応したマーカが付与されており、当該マーカから、床の座標を特定できるようになっているものとする。
キャリブレーション部11は、算出した座標変換パラメータを、相対位置関係に関する情報として相対位置関係記憶部12に記憶させる。
位置検出部13が、ヘッド部104の位置情報として、掃除機10のヘッド部104の大きさを検出している場合には、領域判別部15は、当該掃除機10のヘッド部104の移動範囲を、掃除対象領域内における、掃除機10による掃除済みの領域と判別するようにしてもよい。
投射画像作成部16は、作成した投射画像を、投射日時の情報とともに、画像履歴記憶部に履歴として記憶させるようにしてもよい。
プロジェクタ3は、投射画像作成部16が出力した投射画像を床に投射する。これにより、掃除機10によって掃除済みの領域を示す画像が掃除対象領域である床に投射されてユーザに提示されるようになる。
重畳画像作成部18は、当該重畳画像を、携帯端末に搭載されている表示部4に表示させる。
重畳画像作成部18は、ユーザの視点から見た画像に変換した重畳画像を、表示部4に表示させる。
この場合、カメラ2もプロジェクタ3も固定されているため、表示手段座標系と位置検知座標系の対応関係は固定されて変わらない。
よって、キャリブレーション部11は、表示手段座標系と位置検知座標系については、上述の、カメラ2を携帯端末に搭載されているカメラとした場合とは異なり、掃除機10の移動に応じてその都度キャリブレーション処理を行う必要はなく、カメラ設置時点、ユーザからの指示があった時点、あるいは、掃除支援装置1の電源が入った時点等、掃除が行われるまでのタイミングで一度、キャリブレーション処理を行えばよい。
よって、キャリブレーション部11は、表示手段座標系と床座標系についても、カメラ設置時点、ユーザからの指示があった時点、あるいは、掃除支援装置1の電源が入った時点等、掃除が行われるまでのタイミングで一度、キャリブレーション処理を行えばよい。
この場合のキャリブレーション部11によるキャリブレーション処理の具体的な動作は、実施の形態1で説明したキャリブレーション部11の動作と同様であるため、重複した説明を省略する。
重畳画像作成部18は、当該重畳画像を、PCまたはテレビ等の装置に搭載されている表示部4に表示させる。
また、重畳画像作成部18は、重畳画像を、表示部4のアスペクト比にあわせて拡大または縮小するように補正する。
重畳画像作成部18は、補正した重畳画像を、PCまたはテレビ等の装置に搭載されている表示部4に表示させる。
また、重畳画像作成部18は、重畳画像を、ユーザから見て、鏡に映る画像のように表示させるようにすることで、ユーザが、より掃除状況を把握しやすくすることができる。
また、掃除対象領域を含む部屋等の空間の外で掃除の状況を確認することが可能となるため、例えば管理者等、掃除機10を操作するユーザ以外の者が、掃除対象の空間である部屋等の掃除の状況を、離れた位置から監視するようにすることができる。
また、上述した実施の形態1〜3で説明したように、掃除対象領域において、掃除済みの領域を示す投射画像を、掃除対象領域と対応付けて投射させることに加え、実施の形態3で重畳画像作成部18が作成するような、掃除対象領域を含む空間を撮像画像に、掃除済みの領域に基づく画像を重畳させた重畳画像を、ユーザ等が装着するVRメガネに表示させるようにしてもよい。
例えば、位置情報取得装置を、キネクト等の3D距離センサとし、位置検出部13,13aは、3D距離センサから取得した掃除機10のヘッド部104の色または形状を、既存の画像認識の技術で追跡するようにしてもよい。
掃除機10に設けられた識別部によってヘッド部104の位置等を検出可能とすることで、ヘッド部104の位置等をより検出しやすくすることができる。特に、掃除機10が複数台存在する場合には、複雑な画像処理を行うことなく当該複数台のヘッド部104の位置を検出できるため、当該複数台の掃除機10を一度に追跡しやすくすることができる。
なお、これは一例に過ぎず、例えば、位置情報取得装置をカメラ2とし、カメラ2を掃除対象領域に複数台設置するようにしてもよい。
位置情報取得装置が1つのみだと、遮蔽物がある場合に、位置検出部13,13aは、うまく掃除機10を検出できない場合があり得るが、位置情報取得装置を複数個配置することで、位置検出部13,13aは、複数の情報に基づき掃除機10のヘッド部104の検出を行うことができる。この場合、キャリブレーション部11では、位置情報取得装置から得られる複数の情報それぞれについて、相対位置に関する情報を導出する必要がある。
例えば、掃除機10のヘッド部104に、位置情報取得装置として、カメラ2あるいは3D距離センサ等を設置するようにしてもよい。掃除機10のヘッド部104に設置された位置情報取得装置からの情報に基づき、位置検出部13,13aは、部屋、すなわち、掃除対象領域の形状、あるいは、色等を追跡することで、掃除対象領域に対するヘッド部104の位置や方向を検知する。加速度センサまたは方位センサを一緒に用いるようにしてもよい。
このように、掃除機10のヘッド部104に位置情報取得装置を設置するようにしても、掃除機10の操作部105周辺に設置される場合同様、各掃除対象領域に少なくとも1台配置させる必要がなくなり、例えば、複数の部屋でも1つの位置情報取得装置で対応することが可能となる。また、位置情報取得装置の設置を簡単にすることができる。
また、掃除機10のヘッド部104に位置情報取得装置を設置するようにした場合には、掃除機10の操作部105周辺に位置情報取得装置を設置するようにした場合に比べ、位置情報取得装置と掃除機10のヘッド部104の間の遮蔽物があった場合に、掃除機10のヘッド部104を検出できないという問題も解決することができる。
ヘッド部104の位置に設置された相対位置取得センサは、例えば、自身がどれだけ動いたか、移動前の位置からの相対位置を検出する。
カメラ2のみを用いてヘッド部104の位置を検出する場合、例えば、カメラ2とヘッド部104との間に遮蔽物が存在する場合、当該遮蔽物に遮られて、ヘッド部104の位置を検出できないことがある。
そこで、カメラ2と相対位置取得センサをあわせて用い、掃除支援装置1,1a,1bの制御部(図示省略)で、カメラ2で撮像された撮像画像に基づき、所定の間隔で、相対位置取得センサで蓄積した誤差のリセットを行う。
このように、絶対的な位置を検知する位置情報取得装置と、相対的な位置を検知する位置情報取得装置とをあわせて用いることで、カメラ2のみでは遮蔽物によってヘッド部104の位置を検出できないという問題、および、相対位置取得センサのみでは検出した自身の相対的な位置に誤差が生じるという問題をともに解決し、位置検知精度をより高めることができる。
位置検出部13,13aは、位置情報取得装置から取得した情報だけでなく、地図情報も参照してヘッド部104の位置の検出を行うため、位置検出の精度を向上できる。
この場合、投射画像作成部16は、掃除機10が掃除済みの領域だけでなく、地図情報も表示させる投射画像を作成するようにしてもよい。
また、上記の実施の形態3で説明したように、重畳画像作成部18が、表示部4に、作成した重畳画像を表示させる際、当該重畳画像とあわせて、地図情報記憶部から取得した情報に基づく、建物のフロア図等を示す画像を表示させるようにしてもよい。
これにより、例えば、複数のユーザが同一の掃除対象領域を掃除する場合等に、他のユーザが視認する表示部4に表示されているフロア図等を参考に、掃除領域を分担して協調作業を行うことが可能となる。
領域判別部15は、例えば、位置検出部13が検出したヘッド部104の位置の時間的な変化に基づいて、ヘッド部104の位置の移動軌跡を検出し、掃除対象領域を判別する際、ヘッド部104の位置が、同じ位置となる回数を算出する。そして、領域判別部15は、算出した回数を、ヘッド部104の位置が通過した回数として、位置の情報とあわせて投射画像作成部16へ出力するようにする。
投射画像作成部16は、領域判別部15から取得した、ヘッド部104の位置の時間的な変換に基づき算出したヘッド部104の位置の通過回数に応じて、色が変わる、あるいは、濃くなる等、内容を変更した投射画像を作成する。
ヘッド部104の位置が掃除対象領域内を移動するスピードが速すぎると、すなわち、ユーザが掃除機10のヘッド部104を動かすスピードが速すぎると、ゴミが十分吸い込めないこともあり得る。しかし、上述したような規則に従って、投射画像作成部16が、ヘッド部104の位置の移動スピードに応じて内容を変更した投射画像等を作成するようにすることで、ユーザは、掃除機10のヘッド部104を動かすスピードが速すぎることを察知し、ヘッド部104を動かすスピードを調整して、効果的に掃除ができるようになる。
このように、ゴミセンサの情報を利用して、汚れ具合に応じた掃除の必要性を見える化、聞こえる化することで、ユーザは、ゴミの多い箇所は念入りに掃除する等、必要性に応じて、掃除を効率よく行うことができるようになる。
また、例えば、投射画像作成部16は、領域判別部15からヘッド部104の位置の移動軌跡の情報を取得して当該移動軌跡を示す投射画像を作成すると、当該作成した投射画像を画像履歴記憶部に記憶しておく等して、過去の移動軌跡の投射画像もあわせて床に投射させるようにしてもよい。
これにより、ユーザは、床に投射されたキャラクター等を追いかけているうちに楽しく掃除ができる。
なお、投射画像作成部16は、ヘッド部104の位置の移動軌跡を示す投射画像のみを作成し、床に投射させるようにしてもよい。
投射画像作成部16は、上述したような、ヘッド部104の位置の移動軌跡のトータルの長さ、掃除に要した時間等の履歴、ランキング、または、効率性評価等を算出し、算出した結果を床に投射させる投射画像のみを作成しプロジェクタ3から床に投射させるようにしてもよいし、当該算出した結果を、領域判別部15によって判別される、ヘッド部104の位置の移動軌跡等に基づく掃除済みの領域を塗りつぶす等の投射画像とをあわせてプロジェクタ3から床に投射させるようにしてもよい。
具体的には、例えば、領域判別部15は、位置検出部13が検出したヘッド部104の位置の時間的な変化に基づいて、ヘッド部104の位置の移動軌跡等を検出し、掃除済みの領域を判別すると、判別した掃除対象領域の情報と対応付けて、検出されたヘッド部104の位置の情報を投射画像作成部16へ出力するようにする。投射画像作成部16は、領域判別部15から取得した、ヘッド部104の位置の移動軌跡等と対応付けられたヘッド部104の位置から、ヘッド部104の位置の時間的な変化を検出し、移動軌跡等に基づいて作成する投射画像について、時間経過とともに消えるように投射させる投射画像とすることもできる。
例えば、投射画像作成部16は、「あと○%」等、掃除対象領域に対する掃除未実施領域の割合を算出し、算出した割合を示す投射画像を作成するようにしてもよい。
具体的には、例えば、領域判別部15が、位置検出部13が検出したヘッド部104の位置の時間的な変化に基づいて、ヘッド部104の位置の移動軌跡等を検出し、掃除済みの領域を判別する際に、掃除対象領域を100とした場合の掃除済みの領域の割合を算出して、当該掃除済みの領域の割合の情報を投射画像作成部16に出力する。投射画像作成部16は、領域判別部15から取得した、掃除対象領域に対する掃除済みの領域の割合から、掃除対象領域に対する掃除未実施領域の割合を算出し、算出した割合を示す投射画像を作成する。
なお、これは一例に過ぎず、投射画像作成部16は、その他の方法で、掃除対象領域に対する掃除済みの領域、または、掃除未実施の割合を示す投射画像を作成するものであってもよい。
投射画像作成部16は、上述したような、掃除対象領域に対する掃除済みの領域、あるいは、掃除対象領域に対する掃除未実施領域の割合等を示す投射画像のみを作成し、プロジェクタ3から床に投射させるようにしてもよいし、領域判別部15によって判別される掃除済みの領域を塗りつぶす等の投射画像とあわせて、プロジェクタ3から床に投射させるようにしてもよい。
掃除済みの領域を示す投射画像と、掃除未実施の領域を示す投射画像とを同時に投射させる場合は、例えば、塗りつぶしの色を変える等、投射画像作成部16は、両領域が区別できるような投射画像を作成する。
これにより、ユーザは、掃除対象領域の掃除を終了した時点の達成感をより味わうことができる。
例えば、投射画像作成部16は、掃除対象領域全体の半分の領域が掃除された場合に、予め決められたキャラクター等の絵を掃除対象領域に投射させるようにする。なお、投射画像作成部16は、掃除対象領域全体に対する掃除済みの領域の割合に関する情報を、例えば、領域判別部15から取得するようにすればよい。
これにより、ユーザは、掃除状況の途中経過を把握しながら掃除をすることができる。
また、例えば、掃除対象領域全体の半分の領域を掃除した時点等、予め目標となる時点を設定しておくようにすれば、ユーザは、掃除しながら、当該目標となる時点に到達したことを知ることができ、ゲームをしているような感覚で、より楽しく掃除をすることができるようになる。
このようにしても、ユーザは、ゲームをしているような感覚で、より楽しく掃除をすることができる。
なお、上述したような例を、組み合わせるようにしてもよい。
例えば、投射画像作成部16は、ヘッド部104の位置が通過した回数に応じて塗りつぶす色を変更する投射画像を作成し、投射させるとともに、「あと○%」等、掃除対象領域に対する掃除済みの領域の割合を示す投射画像を作成し、投射させるようにしてもよい。また、投射画像作成部16は、さらに、掃除対象領域を全て塗りつぶす投射画像となった場合には、予め決められたキャラクター等の絵を掃除対象領域に投射させるようにしてもよい。
例えば、投射画像作成部16が、掃除対象領域が掃除された掃除回数に応じて塗りつぶす色が変わる等、内容を変更した投射画像を作成し、投射させるようにした場合に、重畳画像作成部18は、掃除対象領域が掃除された回数に応じて塗りつぶす色が変わる等、内容を変更した画像を、カメラ2の撮像画像に重畳させた重畳画像を作成し、表示部4に表示させることもできる。
例えば、投射画像作成部16は、領域判別部15からヘッド部104の位置の移動軌跡の情報を取得して、ヘッド部104の位置の移動軌跡と直角に幅20cmで、一律に塗りつぶす投射画像し、重畳画像作成部18は、「あと○%」等、掃除対象領域に対する掃除未実施領域の割合を示す重畳画像を作成するようにしてもよい。
Claims (14)
- 掃除対象領域に対する掃除機のヘッド部の位置を検出する位置検出部と、
前記位置検出部が検出した前記ヘッド部の位置に基づき、前記掃除対象領域内における、前記掃除機による掃除済みの領域を判別する領域判別部と、
前記領域判別部が決定した掃除済みの領域に基づき、前記掃除対象領域に投射させるための投射画像を作成する投射画像作成部
とを備えた掃除支援装置。 - 前記投射画像作成部が作成する投射画像は、前記掃除済みの領域に色を付けた投射画像である
ことを特徴とする請求項1記載の掃除支援装置。 - 前記投射画像作成部が作成する投射画像は、掃除未実施の領域に色を付けた投射画像である
ことを特徴とする請求項1記載の掃除支援装置。 - 前記ヘッド部の位置を示す位置検知座標系と、前記投射画像の表示手段座標系と、実空間における前記掃除対象領域を示す対象領域座標系との相対位置関係を導出するキャリブレーション部と、
前記キャリブレーション部が導出した相対位置関係に基づき、前記位置検知座標系で示された前記掃除済みの領域の座標を、前記表示手段座標系の座標へと変換する座標変換部とを備え、
前記投射画像作成部は、前記座標変換部が変換した後の前記掃除済みの領域を示す座標と、前記表示手段座標系と前記対象領域座標系との相対位置関係とに基づき、前記投射画像を作成する
ことを特徴とする請求項1から請求項3のうちのいずれか1項記載の掃除支援装置。 - 前記位置検出部は、
位置情報取得装置から取得した位置情報に基づき前記ヘッド部の位置を検出する
ことを特徴とする請求項1から請求項4のうちのいずれか1項記載の掃除支援装置。 - 前記位置情報取得装置はカメラであり、
前記位置検出部は、前記カメラが前記掃除対象領域を含む空間を撮像した撮像画像に基づき前記ヘッド部の位置を検出する
ことを特徴とする請求項5記載の掃除支援装置。 - 前記投射画像作成部は、
設定された規則に応じて、前記投射画像を作成する
ことを特徴とする請求項1から請求項6のうちのいずれか1項記載の掃除支援装置。 - 前記領域判別部は、
前記位置検出部が検出した前記ヘッド部の位置の時間的な変化に基づいて、前記ヘッド部の位置の移動軌跡を判別し、
前記投射画像作成部は、前記設定された規則に応じた投射画像として、前記領域判別部が判別した前記ヘッド部の位置の移動軌跡を示す投射画像を作成する
ことを特徴とする請求項7記載の掃除支援装置。 - 前記領域判別部は、
前記位置検出部が検出した前記ヘッド部の位置の時間的な変化に基づいて、前記ヘッド部の位置の移動軌跡を判別して、当該移動軌跡に基づき前記ヘッド部の位置における掃除回数を算出し、
前記投射画像作成部は、前記設定された規則に応じた投射画像として、前記領域判別部が算出した前記掃除回数に応じて前記投射画像の内容を変更した投射画像を作成する
ことを特徴とする請求項7記載の掃除支援装置。 - 前記投射画像作成部は、
前記掃除機のゴミ吸引量を示すデータを取得し、前記設定された規則に応じた投射画像として、前記ゴミ吸引量に応じて前記投射画像の内容を変更した投射画像を作成する
ことを特徴とする請求項7記載の掃除支援装置。 - 前記投射画像作成部は、
前記設定された規則に応じた投射画像として、前記掃除対象領域に対する前記掃除済みの領域の割合を示す投射画像を作成する
ことを特徴とする請求項7記載の掃除支援装置。 - 前記領域判別部が判別した掃除済みの領域に基づく画像を作成し、当該作成した画像を、前記掃除対象領域を含む空間を撮像した撮像画像に重畳させた重畳画像を作成する重畳画像作成部をさらに備えた
ことを特徴とする請求項6記載の掃除支援装置。 - 位置検出部が、掃除対象領域に対する掃除機のヘッド部の位置を検出するステップと、
領域判別部が、前記位置検出部が検出した前記ヘッド部の位置に基づき、前記掃除対象領域内における、前記掃除機による掃除済みの領域を判別するステップと、
投射画像作成部が、前記領域判別部が決定した掃除済みの領域に基づき、前記掃除対象領域に投射させるための投射画像を作成するステップ
とを備えた掃除支援方法。 - 掃除対象領域に対する掃除機のヘッド部の位置を検出するための情報を取得する位置情報取得装置と、
前記位置情報取得装置が取得した情報に基づき、前記掃除対象領域における前記掃除機による掃除済みの領域に基づく投射画像を作成する掃除支援装置と、
前記掃除支援装置が作成した投射画像を前記掃除対象領域に投射する画像投射装置とを備えた掃除支援システムであって、
前記掃除支援装置は、
前記掃除対象領域に対する前記ヘッド部の位置を検出する位置検出部と、
前記位置検出部が検出した前記ヘッド部の位置に基づき、前記掃除対象領域内における、前記掃除機による掃除済みの領域を判別する領域判別部と、
前記領域判別部が決定した掃除済みの領域に基づき、前記掃除対象領域に投射させるための投射画像を作成する投射画像作成部とを有する
ことを特徴とする掃除支援システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016223984A JP2018079134A (ja) | 2016-11-17 | 2016-11-17 | 掃除支援装置、掃除支援方法、および、掃除支援システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016223984A JP2018079134A (ja) | 2016-11-17 | 2016-11-17 | 掃除支援装置、掃除支援方法、および、掃除支援システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018079134A true JP2018079134A (ja) | 2018-05-24 |
JP2018079134A5 JP2018079134A5 (ja) | 2018-12-20 |
Family
ID=62198340
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016223984A Pending JP2018079134A (ja) | 2016-11-17 | 2016-11-17 | 掃除支援装置、掃除支援方法、および、掃除支援システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018079134A (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020010888A (ja) * | 2018-07-19 | 2020-01-23 | シャープ株式会社 | 電気掃除機 |
JP2020187532A (ja) * | 2019-05-14 | 2020-11-19 | 富士通株式会社 | 清掃管理プログラム、清掃管理方法及び清掃管理装置 |
JP2020192171A (ja) * | 2019-05-29 | 2020-12-03 | 三菱電機株式会社 | 掃除支援装置、掃除支援システム、電気掃除機、及び掃除支援方法 |
WO2022045049A1 (ja) * | 2020-08-24 | 2022-03-03 | Arithmer株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP2023502676A (ja) * | 2019-11-20 | 2023-01-25 | ダイソン・テクノロジー・リミテッド | 投影ディスプレイを有する真空掃除機 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2700345A2 (de) * | 2012-08-22 | 2014-02-26 | Miele & Cie. KG | Staubsauger mit Bedien- und Anzeigeelementen |
JP2015027345A (ja) * | 2013-07-30 | 2015-02-12 | 佐古 曜一郎 | 電気掃除装置 |
JP2016087106A (ja) * | 2014-11-05 | 2016-05-23 | シャープ株式会社 | 掃除支援装置及び掃除機 |
JP2017051597A (ja) * | 2015-06-24 | 2017-03-16 | フォアベルク ウント コー. インターホールディング ゲゼルシャフト ミット ベシュレンクテル ハフツングVorwerk & Co. Interholding GmbH | 表面の掃除の補助 |
-
2016
- 2016-11-17 JP JP2016223984A patent/JP2018079134A/ja active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2700345A2 (de) * | 2012-08-22 | 2014-02-26 | Miele & Cie. KG | Staubsauger mit Bedien- und Anzeigeelementen |
JP2015027345A (ja) * | 2013-07-30 | 2015-02-12 | 佐古 曜一郎 | 電気掃除装置 |
JP2016087106A (ja) * | 2014-11-05 | 2016-05-23 | シャープ株式会社 | 掃除支援装置及び掃除機 |
JP2017051597A (ja) * | 2015-06-24 | 2017-03-16 | フォアベルク ウント コー. インターホールディング ゲゼルシャフト ミット ベシュレンクテル ハフツングVorwerk & Co. Interholding GmbH | 表面の掃除の補助 |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020010888A (ja) * | 2018-07-19 | 2020-01-23 | シャープ株式会社 | 電気掃除機 |
JP7112903B2 (ja) | 2018-07-19 | 2022-08-04 | シャープ株式会社 | 電気掃除機 |
JP2020187532A (ja) * | 2019-05-14 | 2020-11-19 | 富士通株式会社 | 清掃管理プログラム、清掃管理方法及び清掃管理装置 |
JP7318303B2 (ja) | 2019-05-14 | 2023-08-01 | 富士通株式会社 | 清掃管理プログラム、清掃管理方法及び清掃管理装置 |
JP2020192171A (ja) * | 2019-05-29 | 2020-12-03 | 三菱電機株式会社 | 掃除支援装置、掃除支援システム、電気掃除機、及び掃除支援方法 |
JP7346912B2 (ja) | 2019-05-29 | 2023-09-20 | 三菱電機株式会社 | 掃除支援装置、掃除支援システム、電気掃除機、及び掃除支援方法 |
JP2023502676A (ja) * | 2019-11-20 | 2023-01-25 | ダイソン・テクノロジー・リミテッド | 投影ディスプレイを有する真空掃除機 |
WO2022045049A1 (ja) * | 2020-08-24 | 2022-03-03 | Arithmer株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP2022036866A (ja) * | 2020-08-24 | 2022-03-08 | Arithmer株式会社 | プログラム、情報処理装置及び情報処理方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2018079134A (ja) | 掃除支援装置、掃除支援方法、および、掃除支援システム | |
CN110091326B (zh) | 移动机器人以及移动机器人的控制方法 | |
EP3585571B1 (en) | Moving robot and control method thereof | |
US9597804B2 (en) | Auto-cleaning system, cleaning robot and method of controlling the cleaning robot | |
JP7149502B2 (ja) | 自律移動掃除機、自律移動掃除機による掃除方法、及び自律移動掃除機用プログラム | |
US11044402B1 (en) | Power management for optical position tracking devices | |
CN105310604B (zh) | 机器人清洁系统以及控制机器人清洁器的方法 | |
JP5972966B2 (ja) | 投影された参照パターンによるオブジェクト追跡 | |
KR20190030197A (ko) | 훈련된 경로를 자율주행하도록 로봇을 초기화하기 위한 시스템 및 방법 | |
JP2019171018A (ja) | 自律移動掃除機、自律移動掃除機による掃除方法、及び自律移動掃除機用プログラム | |
JP6636042B2 (ja) | 床の処理方法 | |
KR20120044768A (ko) | 로봇 청소기 및 이의 제어 방법 | |
JP6457976B2 (ja) | 表面の掃除の補助 | |
CN105666505A (zh) | 具备扩展现实对应显示器的机器人系统 | |
US20090115971A1 (en) | Dual-mode projection apparatus and method for locating a light spot in a projected image | |
CN109840950B (zh) | 得到真实尺寸3d模型的方法、勘测装置 | |
JP2008502206A (ja) | デュアル・カメラ入力を用いたセンサ | |
JP2019171001A (ja) | 自律移動掃除機、掃除方法、及びプログラム | |
JP2017539035A (ja) | ジェスチャインタフェース | |
US20120044141A1 (en) | Input system, input method, computer program, and recording medium | |
TW201825038A (zh) | 自行移動式行走器具之操作方法 | |
JP2018079134A5 (ja) | ||
US20160189422A1 (en) | Process and Device for Determining the 3D Coordinates of an Object | |
KR101535801B1 (ko) | 깊이맵 센서를 이용한 조립공정에서의 조립공정 검사장치, 방법 및 시스템 | |
KR20200144382A (ko) | 이동 로봇 및 그 제어방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181109 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181109 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190722 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190730 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190919 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200128 |