JP7173846B2 - 掃除機の制御システム、自律走行型掃除機、掃除システム、および掃除機の制御方法 - Google Patents

掃除機の制御システム、自律走行型掃除機、掃除システム、および掃除機の制御方法 Download PDF

Info

Publication number
JP7173846B2
JP7173846B2 JP2018224600A JP2018224600A JP7173846B2 JP 7173846 B2 JP7173846 B2 JP 7173846B2 JP 2018224600 A JP2018224600 A JP 2018224600A JP 2018224600 A JP2018224600 A JP 2018224600A JP 7173846 B2 JP7173846 B2 JP 7173846B2
Authority
JP
Japan
Prior art keywords
unit
height
cleaner
vacuum cleaner
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018224600A
Other languages
English (en)
Other versions
JP2020087240A (ja
Inventor
佑人 小松
卓 須賀
則和 伊藤
亨 仁木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Global Life Solutions Inc
Original Assignee
Hitachi Global Life Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Global Life Solutions Inc filed Critical Hitachi Global Life Solutions Inc
Priority to JP2018224600A priority Critical patent/JP7173846B2/ja
Publication of JP2020087240A publication Critical patent/JP2020087240A/ja
Application granted granted Critical
Publication of JP7173846B2 publication Critical patent/JP7173846B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electric Vacuum Cleaner (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

この発明は、掃除機の制御システム、自律走行型掃除機、掃除システム、および掃除機の制御方法に関する。
室内の人や物体を検出し、検出された結果に応じて家電製品等を動作させることが、従来から試みられている。
特許文献1には、このような技術の例として、人体や障害物の位置に応じて吹き出し角度を変更する空気調和システムが記載されている。また、特許文献2には、ステレオカメラを用いて距離画像を生成し、距離画像に基づいて障害物を検出する掃除機が記載されている。
特開2012-102924号公報 特開2017-131556号公報
しかしながら、従来の技術では、簡易な構成で掃除機の自動走行を制御するのが困難であった。たとえば特許文献2は距離画像を用いるため、複数のカメラまたは距離測定のための追加の装置が必要となる。なお、特許文献1は掃除機に関する技術ではない。
この発明はこのような問題点を解消するためになされたものであり、比較的簡易な構成で掃除機の走行を制御できる掃除機の制御システム、自律走行型掃除機、掃除システム、および掃除機の制御方法を提供することを目的とする。
この発明に係る、掃除機の制御システムは、
前記掃除機に搭載され、前記掃除機の周辺の画像を撮像する撮像部と、
前記画像において表されるエッジを抽出するエッジ抽出部と、
抽出された前記エッジに囲まれた領域を抽出し、抽出された前記領域に基づいて物体を検出する物体検出部と、
検出された前記物体の位置に基づいて、掃除機の走行を制御する走行制御部と、
を有する。
特定の態様によれば、前記撮像部は、近赤外線に基づいて前記画像を撮像する。
特定の態様によれば、
前記掃除機に搭載され、近赤外線を照射する近赤外線光源部と、
前記近赤外線光源部の動作を制御する光源制御部と
をさらに備え、
前記光源制御部は、前記近赤外線光源部の向き、高さまたは出力を調整する。
特定の態様によれば、前記光源制御部は、前記近赤外線光源部の出力を、前記画像を撮像する間隔に合わせて点灯および消灯させる。
特定の態様によれば、物体の種類を判定する物体種類判定部をさらに有し、
前記物体種類判定部は、
検出された前記物体の形状に基づいて、当該物体の重心の高さを求め、
前記重心の高さと、当該物体の画像中の高さに第1の所定比率を乗じた第1の高さとを比較し、
前記重心の高さが前記第1の高さ未満である場合、前記物体は前記掃除機が向かうべき物体であると判定し、
前記重心の高さが前記第1の高さを超える場合、前記物体は前記掃除機が避けるべき物体であると判定する。
特定の態様によれば、前記物体検出部は、
抽出された前記領域の輝度複雑度を算出し、
算出された前記輝度複雑度が所定の範囲内に含まれるか否かに基づいて、当該領域が物体を表すか否かを判定する。
特定の態様によれば、前記物体検出部は、
抽出された前記領域の円形度を算出し、
算出された前記円形度が所定の範囲内に含まれるか否かに基づいて、当該領域が物体を表すか否かを判定する。
特定の態様によれば、前記物体検出部は、
抽出された前記領域の面積を算出し、
算出された前記面積が所定の範囲内に含まれるか否かに基づいて、当該領域が物体を表すか否かを判定する。
また、この発明に係る自律走行型掃除機は、上述の制御システムを搭載した自律走行型掃除機である。
また、この発明に係る掃除システムは、上述の制御システムと、ゴミを吸い込む掃除機とを備える。
また、この発明に係る掃除機の制御方法は、
前記掃除機の周辺の画像を撮像するステップと、
前記画像において表されるエッジを抽出するステップと、
抽出された前記エッジに囲まれた領域を抽出し、抽出された前記領域に基づいて物体を検出するステップと、
検出された前記物体の位置に基づいて、前記掃除機の走行を制御するステップと、
を有する。
この発明に係る掃除機の制御システム、自律走行型掃除機、掃除システム、および掃除機の制御方法によれば、比較的簡易な構成で掃除機の走行を制御することができる。
実施例1に係る掃除機を含む外観構成を示す図である。 図1のリモコンの外観の例をより詳細に示す説明図である。 実施例1に係る掃除機のセンサ部の構成の例を示す図である。 実施例1の可視光カットフィルタを介して撮像した場合の波長分布の例を示す説明図である。 実施例1の掃除機の制御部の構成の例を示す説明図である。 実施例1の制御部による制御処理例の概要を示すフローチャートである。 図6のステップS1の処理をより詳細に説明するフローチャートである。 図7のステップS16の処理をより詳細に説明するフローチャートである。 図6のステップS6の処理をより詳細に説明するフローチャートである。 実施例2における物体種類判定処理の内容を説明するフローチャートである。 実施例3における物体種類判定処理を説明する図である。 実施例1~3の変形例において用いられるモバイル端末の構成の例を示す図である。
以下、この発明の実施例を添付図面に基づいて説明する。
実施例1.
本実施例は、自律走行型掃除機に係るものである。自律走行型掃除機とは、たとえば自律して走行しながら掃除動作を行うことが可能な掃除機を意味し、一般に「ロボット掃除機」等とも呼ばれるものである。この掃除機は、掃除を行う空間に存在する物体(ケーブル等)を検出し、検出した物体の位置に基づいて走行を制御する。以下に図面を用いて具体的構成の例を説明する。
図1は、本実施例に係る掃除機100を含む外観構成を示す図である。掃除機100は、自身の動作を制御する制御システムを内蔵して自動的に掃除を行う装置であり、たとえば走行制御技術等を用いて構成される。本実施例では、掃除機100は単体で掃除システムを構成し、本実施例に係る方法(とくに掃除機の制御方法)を実行する。掃除機100は、リモコン200(リモートコントローラ)とともに用いられる。
掃除機100が掃除を行う空間は任意であるが、たとえば屋内または屋外であってもよい。屋内では、部屋の中(室内)または廊下を掃除してもよく、屋外では、一定の容積を占める空間を掃除してもよい。本実施例は室内を掃除する場合の動作を想定しているが、他の空間を掃除する場合にも同じ動作または同様の動作が適用可能である。
掃除機100およびリモコン200は、互いに通信可能に構成される。通信はたとえば赤外線を用いてワイヤレスで行われるが、他の電波または通信線等を用いてもよい。リモコン200は、掃除機100のユーザが掃除機100を遠隔から操作するための端末として用いることができる。掃除機100は、外部から送信される信号を受信するための受信部を有する。本実施例では、受信部は、リモコン200からの信号を受信するためのリモコン受信部11として構成される。
また、掃除機100は、掃除機100の周辺の画像を撮像する撮像部12と、近赤外線を照射する近赤外線光源部13とを搭載する。撮像部12はたとえば公知の受光素子を用いて構成することができ、近赤外線光源部13はたとえば近赤外線LEDを用いて構成することができる。掃除機100は、制御および表示に用いる情報を取得するための複数の種類のセンサを含むセンサ部10を有しており、本実施例では、センサ部10は上述の撮像部12および近赤外線光源部13を含む。また、本実施例ではセンサ部10はさらにリモコン受信部11を含むが、リモコン受信部11はセンサ部10とは独立して構成されるものであってもよい。また、センサ部10の外側(図1の例ではセンサ部10の前面)に、光透過部材14を有してもよい。
掃除機100は、掃除機100の前面を覆うように取り付けられる前面パネル40を有する。なお、「前面」とは、たとえば掃除機100の側面のうち進行方向側の所定部分をいう。本実施例では、センサ部10は、センサ部10に含まれるリモコン受信部11、撮像部12および近赤外線光源部13とともに、前面パネル40に配置される。
撮像部12は、電磁波によって表される画像を取得する。とくに、本実施例では、撮像部12は、可視光によって表される可視光画像を取得する機能と、近赤外線によって表される近赤外線画像を取得する機能とを備える。近赤外線光源部13が空間に近赤外線を照射すると、その反射光のうち撮像部12に到達したものが撮像部12によって撮像されるように構成されている。
撮像部12と近赤外線光源部13との位置関係は任意に設計可能であるが、本実施例では、撮像部12と近赤外線光源部13とがセンサ部10内で隣接または近接するよう配置される。このように設置されることにより、撮像部12の検出範囲または検出角度と、近赤外線光源部13の照射範囲または照射角度との差を低減させることができる。
さらに、掃除機100は、モニター20を有する。モニター20の配置は任意に設計可能であるが、たとえば掃除機100の動作中に外部から容易に視認可能な位置に配置される。本実施例では、モニター20は掃除機100の上面に配置され、とくに撮像部12に近接して配置される。
モニター20の動作の例を説明する。図1の例では、モニター20には、掃除機100の外観を表す画像が表示されている。また、撮像部12等を用いた処理によって物体が検出された場合(検出処理の具体例については後述する)には、掃除機100は、検出された物体に関する情報をモニター20に表示する。たとえば、掃除機100と物体との位置関係および物体の種類、形状等に応じ、適切な位置に適切な画像または図形を表示する。このようにすると、ユーザは、掃除機100が物体を検出できたということを視認できる。なお、このような物体の表示は、掃除機100のモニター20だけではなく、リモコン200において行われてもよい。その場合には、リモコン200にもモニター20と同様のモニターが設けられてもよい。
なお、本実施例では、掃除機100は、リモコン受信部11、撮像部12、近赤外線光源部13、光透過部材14、およびモニター20を有するが、変形例として、これらのうち少なくとも撮像部12を有していれば、リモコン受信部11、近赤外線光源部13、光透過部材14、およびモニター20は省略可能である。
掃除機100は、掃除機100の動作を制御する制御システムを有する。この制御システムは、本明細書に記載される方法(とくに掃除機の制御方法)を実行する。掃除機100の制御システムは制御部30を有する。制御部30は、センサ部10と通信可能に接続されており、とくに、リモコン受信部11、撮像部12および近赤外線光源部13と通信可能に接続されている。制御部30は、センサ部10から受信する情報に基づいて、掃除機100の走行を制御する。制御部30は、公知のコンピュータとしての構成を有し、演算手段および記憶手段を有する(詳細については図5等を用いて後述する)。演算手段はたとえばプロセッサであり、記憶手段はたとえば半導体メモリである。
図2は、図1のリモコン200の外観の例をより詳細に示す説明図である。
リモコン200は、たとえば、掃除機100に空間を掃除させるための指示を、掃除機100に対して遠隔から送信するために用いられる。掃除機100のユーザは、空間を掃除したい場合にリモコン200を操作して掃除機100に掃除を行わせることができる。
リモコン200は、掃除機100のリモコン受信部11が受信可能な無線信号(たとえば、赤外線信号)を送信する。この無線信号は、たとえば、運転要求、掃除モードの変更、運転モードの変更、および、停止要求等の様々な指示を含む。掃除機100は、これらの指示に基づいて動作することができ、たとえば室内の掃除を行うことができる。なお、リモコン200は、前述の指示を含む無線信号を送るのみならず、他の任意の機能を有してもよい。
リモコン200は、ユーザからの指示を受け付けるための入力機能部を有する。図2の例では、入力機能部はボタン201を含む7個のボタンからなる。ボタン201は、自動運転ボタンである。ボタン201がユーザによって操作されると(たとえば押下されると)、リモコン200はボタン201が操作されたことを示す信号を掃除機100に送信し、掃除機100の制御部30は、センサ部10を介してこの信号を受信し、自動掃除を開始する。より具体的には、図6の処理(後述)を開始してもよい。
ボタン201により、ユーザは1回の操作で室内の掃除を実行させることができ、詳細な運転内容を指示するための複数の操作を行う必要がない。なお、本実施例のリモコン200は、ボタン201が操作されてもケーブルやゴミ等の物体の検出が開始されないように事前設定しておくためのボタン、または、これらの検知結果に基づく走行制御を実行させないように事前設定しておくためのボタンを有してもよい。
なお、ボタン201等の位置は、リモコン200のいずれの場所に設置されてもよく、リモコン200に開閉可能な蓋が設置される場合には、蓋によって覆われる空間内に設置されてもよい。
図3は、本実施例の掃除機100のセンサ部10の構成の例を示す図である。センサ部10は、掃除機100に備えられる複数のセンサを含む。センサ部10は、たとえば上述のように近赤外線光源部13および撮像部12を含む。また、図3に示すように時計や他の構成要素を含んでもよい。また、図3には示さないがリモコン受信部11を含んでもよい。
撮像部12は、特定の波長または波長範囲の電磁波による画像を撮像可能である。また、撮像部12は、複数の波長または波長範囲の電磁波による画像を撮像可能であってもよい。掃除機100は、撮像部12に入射する特定の波長または波長範囲の電磁波を遮断または減衰させるフィルタを有してもよく、そのようなフィルタは切替可能であってもよい。本実施例では、掃除機100は可視光カットフィルタを有する。この可視光カットフィルタは、たとえば可視光および紫外線の透過率が低く、近赤外線の透過率が高いものであり、すなわち近赤外線透過フィルタとも呼べるものである。
掃除機100の制御部30は、たとえば撮像部12が近赤外線画像を取得する場合に、可視光カットフィルタを撮像部12に対してセットし、撮像部12に近赤外線画像を取得させる。この場合には、撮像部12は、近赤外線近傍(たとえば、850nmを含む特定波長帯)の波長域を利用して撮像することができる。また、必要に応じて、撮像部12による撮像前に、制御部30が近赤外線光源部13を点灯させ、すなわち近赤外線を照射させることにより、撮像部12が取得する近赤外線画像を、反射光を含んだより鮮明なものとすることができる。
図4は、本実施例の可視光カットフィルタを介して撮像した場合の波長分布の例を示す説明図である。図4は、近赤外線光源部13から照射され、掃除機100の周囲で反射され、可視光カットフィルタを介して撮像部12に到達する反射光の波長分布の例を示す。このように、撮像部12は、近赤外線に基づいて画像を撮像することができる。
本実施例の撮像部12は、近赤外線を用いて掃除機100周辺の画像を取得することによって、ケーブル等の物体の形状を明確に取得することができる。これにより、制御部30は、避けるべき物体や向かうべき物体を検出し、走行を制御できる(具体的な検出および制御方法については後述する)。
図5は、本実施例の掃除機100の制御部30の構成の例を示す説明図である。
制御部30は、リモコン200から送信された指示を、リモコン受信部11を介して受信する。また、制御部30は、センサ部10に含まれるその他のセンサによる検出結果を取得する。そして、受信した指示、および、取得した検出結果に基づいて、制御部30は、掃除機100の走行を制御する。
制御部30の演算手段は、機能部として動作することができ、とくに、撮像制御部31、人検出部32、壁検出部33、エッジ抽出部34、物体検出部35、物体種類判定部36、および、走行制御部37として動作することができる。ここで、エッジ抽出部34および物体検出部35は、物体認識部を構成する。また、制御部30の記憶手段は記憶部38を有する。
これらの機能部は、ソフトウェア(たとえばプログラム)を用いて実装されてもよく、また、ハードウェア(たとえば集積回路)を用いて実装されてもよい。また、これらの機能部は、一つのプログラムまたは一つの集積回路によって実装されてもよい。また、これらの機能部の各々が複数のプログラムまたは複数の集積回路を用いて実装されてもよく、実行する処理ごとに異なるプログラムまたは集積装置の組み合わせによって実装されてもよい。
撮像制御部31は、近赤外線光源部13の動作を制御する機能を有し、すなわち光源制御部としての機能を有する。たとえば、近赤外線光源部13の向き(角度)、高さまたは出力(たとえば電流負荷)を調整する。このようにすると、より適切な角度範囲、高さ範囲または輝度の画像を取得することが可能となる。
また、撮像制御部31は、近赤外線光源部13の出力を、近赤外線光源部13が画像を撮像する間隔に合わせて、点灯および消灯させる。たとえば、近赤外線光源部13は、撮像部12による撮像動作が開始される直前(所定時間だけ前、たとえば10ミリ秒前)に点灯し、撮像部12による撮像動作が終了した直後(所定時間だけ後、たとえば10ミリ秒後)に消灯する。このように、照射タイミングを撮像部12による撮像タイミング前後に限定することにより、定常的に照射し続ける場合に比べて、近赤外線光源部13の寿命を延ばすことができ、また、消費電力を低減することができる。
人検出部32は、撮像部12によって取得された画像に基づいて、室内の人の位置を検出する。壁検出部33は、撮像部12によって取得された画像に基づいて、室内の壁の位置を検出する。
物体認識部(エッジ抽出部34および物体検出部35)は、撮像部12によって取得された画像において表される物体を認識する。より具体的には、エッジ抽出部34は、画像において表されるエッジを抽出し、物体検出部35は、抽出されたエッジに基づいて物体を検出する。画像としては、たとえば可視光カットフィルタを介して撮像部12が撮像した近赤外線画像を用いることができ、その場合には、たとえば、気流の通り道に配置され、気流を遮る物体(ケーブル等)を認識することができる。
物体種類判定部36は、認識された(検出された)物体について、掃除機100が避けて走行すべき対象(避けるべき物体)であるか、掃除機100がそれに向かって走行すべき対象(向かうべき物体)であるかを判定する。避けるべき物体とは、たとえば掃除機100の走行を遮ったり、その他掃除機100の走行の障害となる可能性がある物体を意味し、たとえばケーブルが含まれる。向かうべき物体は、たとえば掃除機100が吸い込むべき物体を意味し、たとえばゴミ片が含まれる。
走行制御部37は、物体認識部によって認識された物体の位置に基づいて、掃除機100の走行を制御する。この走行の制御は、さらに物体種類判定部36の判定結果に基づいて行われてもよい。たとえば、ケーブルを避けつつゴミ片に向かうよう掃除機100の走行を制御することができる。具体的な制御内容としては、たとえば掃除機100を前進させる、右回転させる、左回転させる、後進させる、等を制御単位とし、これらを組み合わせて実行することが可能である。
記憶部38は、撮像部12によって撮像された画像を表すデータ等を保持する記憶装置を用いて構成される。記憶部38は、電源投入中にデータを保持する揮発性メモリを含んでもよく、非一時的記憶媒体である補助記憶装置を含んでもよい。制御部30の各機能部は、処理に必要な情報および処理結果に係る情報を記憶部38に格納することができる。
人検出部32の具体的な動作は適宜設計可能であるが、一例を以下に説明する。人検出部32は、撮像部12が可視光に基づいて撮像した可視光画像に基づいて、人の有無および人の画像中における位置を検出する。また、人検出部32は、検出した人の画像中における位置に基づいて、掃除機100を基準とした人がいる方向、掃除機100と人との距離、および、掃除機100が設置された壁と人との距離を算出する。
また、人検出部32は、撮像部12により取得された画像以外にも、赤外線センサ、近赤外線センサ、サーモグラフィー、焦電型センサ、超音波センサおよび騒音センサのうち少なくとも一つによる測定結果を使用して、人の有無および位置を検出してもよい。
たとえば、人検出部32は、撮像部12によって撮像された画像から所定の範囲の大きさの円を人の頭部として検出し、検出した人の頭部の位置を人の位置として特定してもよい。また、人検出部32は、目、鼻および口を含む人の顔のパターンをあらかじめ保持し、人の顔のパターンを検出し、検出した人の顔のパターンに対応する領域の位置を人の位置として特定してもよい。
また、人検出部32は、人の頭部の大きさおよび掃除機100と人との距離の対応関係をあらかじめ保持し、当該対応関係と検出した人の頭部の大きさとに基づいて、掃除機100と人との距離を算出してもよい。
さらに、本実施例の人検出部32は、人の足元の位置も検出してもよい。たとえば、人検出部32は、撮像部12によって撮像された複数の画像を用いて、移動する対象の下端を、人の足元として直接的に検出してもよい。また、人検出部32は、人の頭部の位置を検出し、人の頭部の位置に対して所定の位置関係にある人の足元の位置を推定してもよい。
壁検出部33の具体的な動作は適宜設計可能であるが、一例を以下に説明する。壁検出部33は、撮像された画像に基づいて、画像内のエッジを抽出し、抽出したエッジのうちからさらに、所定の基準より太く長いエッジを複数抽出する。そして、壁検出部33は、抽出された太く長いエッジそれぞれによる直線を延長して、交点を生成し、交点の重心点を消失点とすることにより、室内のコーナを検出する。そして壁検出部33は、検出したコーナを、壁と壁との接線、壁と天井との接線、または、壁と床との接線として特定し、室内の壁、天井および床の面の位置を検出する。
なお、壁検出部33は、人検出部32によって過去に検出された人の位置を保持し、人の位置の累積データに基づいて、コーナの検出結果を補完してもよい。これは、室内の壁は、人の位置の累積データが占める空間の外側に存在する可能性が高く、人の位置の累積データが占める空間の内側に存在する可能性は低いという経験則に基づく。壁検出部33は、室内の壁の候補が人の位置の累積データが占める空間の内側の位置で検出された場合には、当該検出結果を室内の壁の候補から除外してもよい。
物体認識部(エッジ抽出部34および物体検出部35)は、撮像された画像に基づいて物体を認識する。物体は、たとえば、テーブル、こたつ、椅子、ソファ、本棚、食器棚、箪笥、建具(壁、床、天井、戸、窓、小梁、欄間等)、ケーブル、ゴミ、食器(箸等)を含む。また、物体は、大きな置物、および、鉢植えの鉢等を含む。
本実施例において、物体種類判定部36は、認識された(検出された)各物体について、物体の種類の判定を行う。
図6は、本実施例の制御部30による制御処理例の概要を示すフローチャートである。この処理は、たとえばリモコン200から所定の指示が送信されることに応じて開始される。図6の処理において、まず物体認識部が、掃除する空間に配置される物体を認識する(ステップS1、詳細は図7等を用いて後述する)。
次に、物体種類判定部36が、物体の種類を判定する(ステップS2)。物体の種類の定義および判定処理は、当業者が適宜設計可能であるが、一例を以下に示す。物体の種類は、避けるべき物体と、向かうべき物体とを含む。これ以外の種類(充電装置等)の定義を含んでもよい。避けるべき物体の例は、掃除機100の走行を遮る可能性があるケーブルであり、向かうべき物体の例は、吸い込むべき小さなゴミである。
判定処理は、たとえば物体認識の際に算出されたパラメータを用いて行うことができる。たとえば、各物体について円形度、面積および輝度複雑度(いずれも図8に関連して後述する)がステップS1において算出されている場合には、これらを用いて判定を行ってもよい。より具体的な例として、物体種類判定部36は、ある物体について、円形度が所定の閾値より大きく、かつ面積が所定の閾値より小さく、かつ輝度複雑度が所定の閾値より小さい場合に、その物体は向かうべき物体であると判定する。また、そうでない場合(すなわち、円形度が所定の閾値以下であるか、または面積が所定の閾値以上であるか、または輝度複雑度が所定の閾値以上である場合)に、その物体は避けるべき物体であると判定する。
次に、人検出部32が人を検出する(ステップS3)。人の検出は、たとえば撮像部12で撮像された画像に基づいて行うことができるが、撮像部12に代えて(または撮像部12に加えて)、焦電型赤外線センサ等を用いて人の位置を把握するようにしてもよい。人検出部32は、人の有無、人の画像中における位置、掃除機100を基準とした人がいる方向、人と掃除機100との距離、および、壁と人との距離を取得する。人検出部32は、記憶部38に取得した情報を格納してもよい。
次に、壁検出部33が、室内のコーナを検出する(ステップS4)とともに間仕切りの開閉を検出する(ステップS5)。
ステップS3~5における処理結果に基づいて(たとえば、人の位置およびコーナの位置の検出結果に基づいて)、制御部30は、室内の大きさ(たとえば形状および寸法)を判定する。
次に、走行制御部37が、S1~S5の処理結果に基づいて、掃除機100の走行を制御する(ステップS6、詳細は図9等を用いて後述する)。たとえば、走行制御部37は、S1~S5の処理結果に基づいて走行方法を決定し、決定した走行方法に従って掃除機100を走行させる。走行は、前進、右回転、左回転、後進等の動き含むものであってもよい。
図7は、図6のステップS1の処理をより詳細に説明するフローチャートである。図7の処理において、まず撮像制御部31は、可視光カットフィルタをオンに切り替える(ステップS11)。たとえば、可視光カットフィルタを撮像部12の前に移動する。次に、撮像部12は、ステップS12~S17のループ処理を繰り返して複数の画像を撮像する。
ループ処理において、まず撮像部12は撮像方向を変更する(ステップS12)。撮像方向の変更は、たとえばカメラの移動または回転もしくは回動によって行われる。この撮像方向の変更処理により、1つの撮像装置で複数方向またはより広い範囲を撮像することができる。撮像方向は、たとえば、左方向、中央方向および右方向の3方向とすることができる。
次に、撮像制御部31は、近赤外線光源部13を点灯させ、これによって近赤外線を室内に照射する(近赤外線照射ON)(ステップS13)。次に、撮像部12は掃除機100の周辺の画像を撮像する(ステップS14)。次に、撮像制御部31は、近赤外線光源部13を消灯させ、これによって近赤外線の照射を停止する(近赤外線照射OFF)(ステップS15)。
次に、物体認識部(エッジ抽出部34および物体検出部35)が、撮像部12により取得された画像に基づいて、物体を認識する(ステップS16、詳細は図8等を用いて後述する)。これによって、室内に物体が存在するか否かが判定される。なお、図6のステップS2の処理(物体の種類の判定)は、図6に示すようにステップS1終了後に実行されてもよいし、ステップS1の実行中(たとえばステップS16の後かつステップS17の前)に実行されてもよい。
次に、撮像制御部31は、指定された複数方向の撮像が終了したか否かを判定し(ステップS17)、指定された複数方向の撮像が終了していない場合には(S17:No)、処理をステップS12に戻す。一方、指定した複数方向の撮像が終了している場合には(S17:Yes)、撮像制御部31は、可視光カットフィルタをオフに切り替える(ステップS18)。たとえば、可視光カットフィルタを撮像部12の前から取り除く。その後、撮像制御部31は図7の処理を終了する。
図6および図7の各処理の実行タイミングは、当業者が適宜変更可能である。たとえば、ステップS1およびS2の処理は、ステップS3~S6とは独立して実行されてもよく、その場合には、リモコン200のボタン201または他の特定のボタンが操作されることに応じてステップS1およびS2の処理が実行されるように構成してもよい。また、ステップS1およびS2の処理は、所定の時間ごとに実行されるよう構成してもよい。
図8は、図7のステップS16の処理をより詳細に説明するフローチャートである。図8の処理において、まずエッジ抽出部34が画像を取得する(ステップS21)。画像はたとえば可視光画像および近赤外線画像であるが、これらのうち一方であってもよい。これらのうちいずれかを後続の処理に用いるかは、様々な条件に応じて当業者が適宜決定可能である。たとえば、可視光画像には物体の色彩または模様が現れるので、物体のエッジを正確に検出できない場合があるが、近赤外線画像を用いるとそのような問題は軽減される。
次に、エッジ抽出部34は、画像に平滑化処理を実行する(ステップS22)。具体的には、エッジ抽出部34は、輝度等が周囲の多数の画素と大きく輝度が異なる画素の輝度を、周囲の画素と同じ輝度に変換する。これによって画像からノイズが削除される。なおステップS22は省略してもよい。次に、エッジ抽出部34は、画像中のエッジを抽出する(ステップS23)。画像中のエッジを抽出するための具体的な処理は、当業者が公知技術に基づいて適宜設計可能である。
次に、物体検出部35は、抽出されたエッジに基づいて、画像中の物体を検出する。物体を検出すための具体的な処理は、当業者が公知技術に基づいて適宜設計可能であるが、一例を図8のステップS24以降に示し、以下に説明する。
物体検出部35は、画像を複数の領域に分割する(ステップS24)。たとえば、閉じた図形を構成する1つながりのエッジについて、エッジに囲まれた領域を抽出し、エッジの外側の領域から分離する。次に、物体検出部35は、以下のステップS26~S33の処理を、分割された領域のそれぞれについて実行することにより、抽出された領域に基づいて物体を検出する。たとえば、ステップS26~S33の処理がすべての領域についてすでに実行されたか否かを判定し(ステップS25)、すべての領域についてすでに実行されていた場合には、図8の処理を終了する。
なお、以下から明らかなように、図8の処理は、1枚の画像から領域を抽出できれば実行可能であり、ステレオ画像を用いた深度計算等の複雑な処理や距離測定のための追加の装置等は不要であるため、比較的簡易な構成で実現可能である(ただし、ステレオ画像等を用いた処理を本発明の範囲から除外するものではない)。
未処理の領域が存在する場合には、物体検出部35は、その領域の円形度を算出する(ステップS26)。ここで、円形度とはある領域の「円らしさ」を表す値であり、たとえば次式によって定義される:
円形度 = 4πS/(L
ただしπは円周率、Sは領域の面積、Lは領域の周囲長(たとえばエッジの長さ)である。円形度が大きいほど領域は円に近いと言うことができ、円形度が1の場合には領域は真円となる。
次に、物体検出部35は、算出した円形度が、物体の円形度として適切な所定の範囲内に含まれるか否かを判定する(ステップS27)。この所定の範囲またはその境界を表す値は、あらかじめ記憶部38に記憶されていてもよい。円形度が所定の範囲に含まれない場合には、物体検出部35は、処理をステップS25に戻す。この場合には、その領域が物体を表す可能性は低いと判定されたと言える。
円形度が所定の範囲に含まれる場合には、その領域が物体を表す可能性が高いと判定されたと言える。この場合には、物体検出部35は、その領域の面積を算出する(ステップS28)。ここで算出する面積は、たとえば画像中における面積である。
次に、物体検出部35は、算出した面積が、物体の面積として適切な所定の範囲内に含まれるか否かを判定する(ステップS29)。この所定の範囲またはその境界を表す値は、あらかじめ記憶部38に記憶されていてもよい。面積が所定の範囲に含まれない場合には、物体検出部35は、処理をステップS25に戻す。この場合には、その領域が物体を表す可能性は低いと判定されたと言える。
面積が所定の範囲に含まれる場合には、その領域が物体を表す可能性が高いと判定されたと言える。この場合には、物体検出部35は、その領域の輝度複雑度を算出する(ステップS30)。輝度複雑度は、たとえば領域に含まれる各画素の輝度のばらつきの度合いであり、たとえば各画素の輝度の分散として定義することができる。
次に、物体検出部35は、算出した輝度複雑度が、物体の輝度複雑度として適切な所定の範囲内に含まれるか否かを判定する(ステップS31)。この所定の範囲またはその境界を表す値は、あらかじめ記憶部38に記憶されていてもよい。ケーブルのような物体は、人に比べると輝度複雑度が低く、かつ、床に比べると輝度複雑度が高いため、適切な範囲を設定しておくことにより、そのような物体を適切に認識することができる。輝度複雑度が所定の範囲に含まれない場合には、物体検出部35は、処理をステップS25に戻す。この場合には、その領域が物体を表す可能性は低いと判定されたと言える。
輝度複雑度が所定の範囲に含まれる場合には、その領域が物体を表す可能性が高いと判定されたと言える。この場合には、物体検出部35は、その領域が物体を表すものであると決定する(ステップS32)。このようにして、画像において表される物体が認識される。
このように、図8の例では、物体検出部35は、円形度、面積および輝度複雑度に基づいて、各領域が物体を表すか否かを判定する。このように3つの特徴に基づいて判定を行うことにより、より正確な判定が可能になる。なお、変形例として、物体検出部35は、円形度、面積および輝度複雑度のうち1つまたは2つのみに基づいて判定を行ってもよい。いずれか1つまたは2つのみに基づく判定であっても、比較的簡素な判定処理により、比較的正確な物体検出が可能である。さらに、物体検出部35は、円形度、面積および輝度複雑度以外のいかなる指標を用いてこの判定を行ってもよい。
次に、物体検出部35は、物体を表すと決定された領域について、位置および距離等を算出する(ステップS33)。たとえば、領域について画像中における位置(たとえば2次元座標によって表される)を求め、求めた位置に基づいて、現実の空間内で物体が配置された位置(たとえば掃除機100を基準とした3次元座標によって表される)を算出する。現実の空間内での物体の位置は、掃除機100と当該物体との位置関係によって表すことができる。位置関係は、たとえば掃除機100からみた当該物体の方向と、当該物体と掃除機100との距離とを用いて表される。また、物体検出部35は、壁と物体との距離を算出してもよい。
また、物体検出部35は、図8の処理の結果に基づき、物体の有無、各物体の画像中における位置、および掃除機100と各物体との位置関係を、記憶部38に格納してもよい。さらに、物体検出部35は、壁と各物体との距離を記憶部38に格納してもよい。
このようにして、認識された物体すべてについて、掃除機100との位置関係が特定される。制御部30は、この位置関係に基づき、掃除機100の動作(たとえば走行動作)を制御する。この際の具体的な制御内容は、当業者が適宜設計可能であるが、一例を以下に示す。
図9は、図6のステップS6の処理をより詳細に説明するフローチャートである。なお、この例は物体が1つだけ認識された場合の処理である。図9の処理において、まず走行制御部37は、ステップS2の判定結果を参照し、物体が避けるべき物体であるか否かを判定する(ステップS51)。避けるべき物体である場合には、その物体が掃除機100の正面にあるか否か判定する(ステップS52)。避けるべき物体が正面にある場合には、走行制御部37は、その物体を避けるように走行経路を構成し、これに従って掃除機100を走行させる(ステップS53)。走行経路は、たとえば、前進、右回転、左回転および後進を組み合わせて構成することができる。ある物体を避ける走行経路の構成方法は、当業者が適宜設計可能であるが、たとえばまず右回転または左回転によって物体が正面から外れるまで掃除機100の向きを変更し、その後に前進する経路とすることができる。ステップS53の後、走行制御部37は処理を終了してもよいし、ステップS52に処理を戻し、避けるべき物体が正面から外れるまで繰り返し判定を実行してもよい。
ステップS51において、物体が避けるべき物体でなかった場合には、走行制御部37は、さらにステップS2の判定結果を参照し、物体が向かう物体であるか否かを判定する(ステップS54)。向かうべき物体である場合には、その物体が掃除機100の正面にあるか否か判定する(ステップS55)。向かうべき物体が正面にある場合には、走行制御部37は、その物体に向かうように走行経路を構成し、これに従って掃除機100を走行させる(ステップS56)。走行経路は、たとえば、前進、右回転、左回転および後進を組み合わせて構成することができる。ある物体に向かう走行経路の構成方法は、当業者が適宜設計可能であるが、たとえばそのまま正面に向かって前進する経路とすることができる。ステップS56の後、走行制御部37は処理を終了してもよいし、ステップS55に処理を戻し、向かうべき物体が正面に維持されるよう繰り返し判定を実行してもよい。
ステップS52において避けるべき物体が正面にないと判定された場合には、走行制御部37は処理を終了する。また、ステップS54において向かうべき物体ではないと判定された場合にも、走行制御部37は処理を終了する。さらに、ステップS55において向かうべき物体が正面にないと判定された場合には、図9の例では走行制御部37は処理を終了するが、変形例として、その物体に向かうように走行経路を構成し、これに従って掃除機100を走行させてもよい。
なお、図9は物体が1つだけ認識された場合の処理の例であるが、物体が複数認識された場合(避けるべき物体が複数認識された場合、向かうべき物体が複数認識された場合、避けるべき物体と向かうべき物体とが同時に認識された場合、等)の処理については、図9に関する上記の説明および公知技術等に基づいて当業者が適宜設計可能である。
このような制御により、掃除機100は、物体の形状に基づいて、掃除する空間に存在する物体に遮られることなく走行することができる一方で、掃除する空間に存在するゴミに向かって積極的に移動し掃除することができ、掃除する空間の掃除性能を高めることができる。
また、特許文献1に記載された技術と比較すると、特許文献1の技術は、障害物の有無および位置を検出するものではあるが、その結果に基づいて装置を走行させるものではなく、また、ケーブルのような障害物の個々の特徴に基づく制御を行うものでもない。実施例1に係る掃除機100は、床に配置されたケーブルなどが走行の障害となる課題や、部屋全体のゴミをしっかり吸引したいというニーズに対して、より良い解決策を提供することができる。
さらに、特許文献2に記載された技術と比較すると、本発明の実施例1に係る掃除機100の撮像部12はステレオカメラや距離測定装置等を備える必要はなく、単一のカメラでも本発明の効果を得ることができるので、比較的簡易な構成で物体を認識することが可能である。
実施例2.
実施例2は、実施例1の物体種類判定処理(図6のステップS2)の内容を一部変更するものである。以下、実施例1との相違を説明する。
図10は、実施例2における物体種類判定処理(ステップS2’とする)の内容を説明するフローチャートである。実施例2における判定処理では、物体種類判定部36は、まず認識された物体の形状に基づいて、物体の重心の高さを求める(ステップS101)。重心の高さは、たとえば画像中における重心の高さである。画像中における重心の高さは、任意の方法で算出することができ、たとえば物体を表す領域を構成する画素の高さ(たとえばY座標値)の平均として算出してもよい。
次に、物体種類判定部36は、画像中における物体の高さを算出する(ステップS102)。物体の高さは、任意の方法で算出することができ、たとえば物体のうち最も高い位置にある画素の高さ位置として算出してもよい。
次に、物体種類判定部36は、物体の高さに基づき、その物体の基準重心高さ(第1の高さ)を算出する(ステップS103)。基準重心高さは、任意の方法で算出することができ、たとえば物体の高さに所定比率(第1の所定比率)を乗じた値として算出してもよい。または、物体の形状に応じて基準となる重心の高さを決定する任意の方法を用いることができる。
次に、物体種類判定部36は、ステップS101で求めた重心の高さと、ステップS103で求めた基準重心高さとを比較する(ステップS104)。重心の高さが基準重心高さ未満である場合には、物体種類判定部36は、当該物体は向かうべき物体であると判定する(ステップS105)。一方、重心の高さが基準重心高さを超える場合には、物体種類判定部36は、当該物体は避けるべき物体であると判定する(ステップS106)。これらが等しい場合の分岐は任意に設計可能である。
このような判定方法によれば、比較的簡易な判定方法によって比較的正確に物体の種類を判定することができる。
上述の実施例2では、「高さ」として画像中における高さを用いたが、変形例として、実空間における高さを用いてもよい。実空間における高さは、たとえば掃除機100(またはその基準部位)の高さとの差分として表されてもよい。その場合の変換規則および重心位置の求め方等は当業者が適宜設計可能であるが、一例を以下に示す。たとえば、物体種類判定部36が、撮像部12によって撮像された画像における高さと、実空間における高さとの対応関係をあらかじめ保持する。物体種類判定部36は、領域の下端の、画像における高さと、当該対応関係とに基づいて、その領域が示す物体の高さを求めてもよい。このようにすると、床に設置された物体または床に落ちている物体について、高さを適切に決定することができる。
実施例3.
実施例3は、実施例1の物体種類判定処理(図6のステップS2)の内容を一部変更するものである。以下、実施例1との相違を説明する。
図11は、実施例3における物体種類判定処理を説明する図である。以下、実施例1との相違を説明する。
実施例3において、物体種類判定部36は、過去に実行された物体種類判定処理の結果を、記憶部38に保持する。図11の例では、過去10回の結果が保持される。判定処理の結果はどのような形式で表されてもよいが、図11の例では、画像を複数の領域に分割し、各領域において、避けるべき物体の専有面積の大きさを表す値が算出されている。
各領域はたとえば矩形のセルであり、縦横それぞれ所定画素数を有する同一形状に区分される。また、専有面積の大きさは、たとえば1~5の5段階で表され、当該領域の画素のうちその物体に対応する画素が20%未満の場合には1、20%以上40%未満の場合には2、40%以上60%未満の場合には3、60%以上80%未満の場合には4、80%以上の場合には5、というように決定される。
図11の例では、画像を複数のセルに分割することによって、複数のセルを含むマトリクス50が生成されている。マトリクス50は、撮像部12によって撮像された画像のマトリクスであり、縦5セル×横10セルに画像を分割することによって生成される。
物体種類判定部36は、各領域について、専有面積の大きさを表す値の過去の結果の多数決をとる。たとえば、ある領域について10回の結果のうち「2」が7回、「1」が3回であれば、多数決の結果としてその領域における避けるべき物体の専有面積の大きさは「2」となる。
そして、物体種類判定部36は、多数決の結果に基づいて、領域ごとに避けるべき物体の有無を判定し、これによって避けるべき物体の位置を決定する。たとえば、避けるべき物体の専有面積の大きさが「2」以下である領域については、避けるべき物体は存在しないと判定し、避けるべき物体の専有面積の大きさが「3」以上である領域については、避けるべき物体が存在すると判定する。なお、画像中の領域の位置または座標(たとえば2次元座標)と、その領域が実空間において表す部分の位置または座標(たとえば3次元座標)との対応関係および変換規則は、当業者が公知技術等に基づいて適宜設計可能である。
実施例3の変形例として、物体の有無は領域ごとでなく領域の列ごとに決定されてもよい。領域の列は、たとえば画像中において縦に並ぶ領域(たとえばX座標が一致する領域)すべてによって構成される。領域の各列において、その列に含まれる領域の、避けるべき物体の専有面積の大きさを合計し、合計値が所定値(たとえば「7」)以上となる列については避けるべき物体が存在すると判定し、合計値が所定値未満となる列については避けるべき物体が存在しないと判定することができる。たとえば図11の多数決の例では、左から2列目~4列目の領域列と、右から2列目および3列目の領域列とに物体が存在すると判定される。
実施例3の別の変形例として、各領域について、避けるべき物体の専有面積の大きさを表す値に代えて、またはこれに加えて、その領域に存在する物体の種類を表す値が記録されてもよい。たとえば、各領域について、物体が存在しない場合には「0」、避けるべき物体が存在する場合には「1」、向かうべき物体が存在する場合には「2」、等というように値が記録されてもよい。
実施例3の変形例として、任意の判定ルールを追加してもよい。たとえば、向かうべき物体が存在すると過去に判定されていた領域について、1回以上その領域を掃除機100が通過した後でも依然として向かうべき物体が存在すると判定される場合には、その領域には物体が存在しないと判定するようにしてもよい。このようにすると、不適切な判定を自動的に修正することができる。
このように、画素単位でなく領域単位で物体の有無を判定することにより、記憶容量の要件を緩和することができる。または、限られた記憶容量で多くの過去の処理結果を保持することができる。
上述の実施例1~3において、以下のような変形を施すことができる。
実施例1~3において、さらに掃除機100と通信可能な外部機器を追加してもよい。この外部機器は、リモコン200とは分離して構成されるモバイル端末であってもよい。モバイル端末は、たとえばスマートフォンまたはタブレット端末等であってもよい。
図12に、このような変形例において用いられるモバイル端末の構成の例を示す。このモバイル端末は、掃除機100から送信される情報に基づき、フィードバック画面を表示する機能を有する。図12では、掃除機100が向かうべき物体を検出した場合のフィードバック画面300の例が示されている。
フィードバック画面300では、部屋の間取り図と、向かうべき物体の検出結果とが、1つの画面内に表示されている。向かうべき物体の位置は、図12の例では間取り図上に「ゴミ」として示される。また、フィードバック画面300には、間取り図上に掃除機100の位置が示される。掃除機100の位置は、図12の例では「掃除機」として示される。さらに、フィードバック画面300には、向かうべき物体(ゴミ等)に対する掃除の進捗度を示すレベルゲージ301が表示されている。レベルゲージ301は向かうべき物体の量を示し、たとえば最大値が100であり、向かうべき物体の量が多いほどレベルゲージの値が上昇する。これにより、掃除機100のユーザは、掃除の進捗状況を一見して把握することができる。また、フィードバック画面300の表示には掃除機の走行データを使用してもよく、たとえば決定された走行経路を間取り図に重畳して表示してもよい。
実施例1~3の掃除機100は、自律走行型掃除機であり、すなわち、自律して掃除が可能な掃除機である。「自律して掃除が可能」という表現の意味は当業者が適宜解釈可能であるが、たとえば、所定の掃除動作単位の開始から終了まで、外部からの制御入力を受けずに動作可能であるということを意味する。このような構成によれば、掃除機の外部に複雑な制御システムを配置する必要がなく、全体の構成が簡素になる。なお、掃除以外の動作(充電、設定変更、等)については、外部からの制御入力を要するものであってもよい。
実施例1~3の掃除機100は、単体で制御システムおよび掃除機を備える掃除システムとして構成されているが、制御システム(またはその一部)と掃除機とは分離して設けられてもよい。とくに、掃除機が外部の制御システムと通信しつつ、制御システムから司令を受信して掃除を行うように構成することも可能である。たとえば、掃除機が撮像した画像をインターネット上のサーバに送信し、サーバが物体の認識を行い、結果を掃除機に送信してもよい。とくに、撮像制御部31、人検出部32、壁検出部33、エッジ抽出部34、物体検出部35、物体種類判定部36、走行制御部37および記憶部38のうち少なくとも一部は、掃除機の外部に設けることが可能である。そのような構成では、掃除機は、少なくとも撮像部12と、近赤外線光源部13(存在する場合)とを備え、制御システムと通信する機能と、制御システムからの指示に基づいて走行する機能と、ゴミを吸い込む機能とを有するものとなる。このような構成によれば、掃除機の構成をより簡素なものとすることができる。
リモコン200は省略してもよい。その場合には、リモコン200の入力機能部(ボタン等)は、掃除機に設けられてもよい。
実施の形態1~3では、物体認識部がエッジ抽出部34および物体検出部35を含む。このようにすると物体の適切な認識が可能であるが、物体認識部の構成はこれに限らない。
実施の形態1~3では、検出された物体について種類の判定が行われるが、種類の判定は省略可能である(その場合には物体種類判定部36は不要である)。たとえば、避けるべき物体のみを検出するように構成しておけば、検出された物体は種類に関わらずすべて避けるように走行させることができる。また、避けるべき物体を検出する必要がない場合等には、向かうべき物体のみを検出するように構成しておけば、検出された物体は種類に関わらずすべて向かうように走行させることができる。
実施の形態1~3におけるステップS3~S5は任意に省略可能である。いずれかが省略される場合には、走行制御部37は、省略されたステップにおける検出結果を用いずに掃除機100の走行を制御する。
実施例1~3では、掃除機100の走行経路は、認識された物体のみに基づいて決定されるが、変形例として、さらに他の要因を参照して走行経路を決定してもよい。たとえば、室内のコーナ、間仕切り、人(または人の足元)、等の位置を参照してもよい。
実施例1~3において、物体の面積として、物体を表す領域の、画像中における面積が用いられるが(ステップS28等)、変形例として、その領域に対応する物体の、実空間における投影面積を用いてもよい。その場合には、物体検出部35は、領域の実空間における投影面積を算出するために、掃除機100から物体までの距離を算出するための適切な処理を実行してもよい。
この処理の一例を以下に示す。物体検出部35は、ある領域が示す物体の高さと、その領域の画像中における面積と、実空間における物体の投影面積との対応関係をあらかじめ保持しておき、この対応関係を参照し、その物体と他の基準構造物(たとえば壁)との距離とに基づいて、実空間における物体の投影面積を求めてもよい。
なお、物体検出部35は、物体を表す領域であると決定された各領域について、その領域の位置、掃除機100から見た方向、その領域が示す物体の高さ、および、その領域が示す物体と掃除機100との距離を、記憶部38に格納してもよい。
実施例1~3では、撮像制御部31が、近赤外線光源部13の出力を、撮像部12が画像を撮像する間隔に合わせて、点灯および消灯させる。そのタイミングは任意に設計可能である。また、変形例として、撮像制御部31の制御内容は任意に設計可能である。たとえば、近赤外線光源部13は常に点灯していてもよい。また、撮像部12は、左右方向の回動に代えて、またはこれに加えて、上下方向に回動し、各方向の撮像を行ってもよい。また、撮像部12が広い範囲を撮像できるカメラを有する場合には、撮像部12は回動せず、単一方向の広角な範囲を撮像してもよい(その場合には図7の処理においてループ構造は不要である)。
実施例1~3において、近赤外線光源部13は、約850nm付近に波長のピークを持つ近赤外線を照射する。近赤外線の反射光を撮像した画像は、反射光の方向が撮像部12の方向に一致するほど白く(明るく、または輝度が強く)、撮像部12の方向から隔たるほど黒く(暗く、または輝度が弱く)なる。
一般に、木、布、金属、および紙等は、表面が粗く、近赤外線はその表面で拡散反射する。撮像部12が、拡散して反射した近赤外線のうち撮像部12の方向に反射した近赤外線を撮像することで、物体認識部は、反射する物体が反射した方向に存在することを検出することができる。
このため、近赤外線の反射光を撮像した画像を用いることにより、物体認識部において、一般に室内に存在する物体の材質と、床、壁またはその他の物体の材質との相違を考慮した判定を行わせることができる。そして、物体等の物体の形状を、壁または床等の背景とは明確に識別できる画像を取得でき、立体的な物体の形状を明確に映す画像を取得することができる。
撮像部12が上述のように850nm近傍の近赤外線を撮像した場合、画像には撮像された物体の色彩および模様が映されにくく、物体の形状だけが映されやすい。これは、近赤外線は、物体の材質および角度等により反射光が変化するものであり、色彩および模様等によっては反射光が変化しないためである。このため、物体の形状をより的確に認識できる可能性がある。
なお、約850nm付近にピークを持つ近赤外線を近赤外線光源部13が照射する場合、その照射スペクトルには可視光も一部含まれるように構成することができる。このようにすると、近赤外線光源部13が点灯している場合に、室内の人が掃除機100を見ると、近赤外線光源部13が赤く点灯しているように見える。このため、近赤外線光源部13を設置した場合、近赤外線が点灯中であるか否かを表示する表示部が不要となるため、コストを低減することが可能となる。また、近赤外線画像には色彩が現れないため、画像を表すのに必要とされる情報量が低減される。また、色彩が現れないので、画像中のノイズが低減され、物体を検出する際の精度が向上する。
また、実施例1~3では、近赤外線光源部13が点灯することにより反射光を用いて物体の立体的形状を正確に把握することが可能であるが、そのような利点がとくに有用でない場合には、近赤外線光源部13を省略してもよい。
実施例1~3では、撮像部12は可視光および近赤外線を用いた撮像が可能である。変形例として、これらのうち一方のみを用いてもよいし、これらに代えて、またはこれらに加えて、他の波長を用いて撮像を行ってもよい。
実施例1~3の掃除機100は、主に掃除を行うための装置であるが、変形例として、空気清浄や見守り機能等、その他の機能を備えてもよい。
なお、本発明の範囲は上記した実施例および変形例に限定されるものではなく、他の様々な変形例を含む。たとえば、上記した実施例および変形例は本発明を分かりやすく説明するために詳細に説明したものであり、本発明は説明した全ての構成を備えるものに限定されるものではない。
また、ある実施例または変形例の構成の一部を、他の実施例または変形例の構成の一部に置き換えることが可能であり、また、ある実施例または変形例の構成に、他の実施例または変形例の構成の一部を加えることも可能である。また、各実施例または変形例の構成の一部について、他の実施例または変形例の構成の一部を追加、削除または置換することが可能である。
また、上記の各構成、機能、処理部、処理手順等は、それらの一部または全部を、たとえば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することにより、ソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、またはファイル等の情報は、メモリ、ハードディスク若しくはSSD(Solid State Drive)等の記録装置、または、ICカード、SDカード若しくはDVD等の記録媒体に置くことができる。
また、制御線または情報線の構成は任意に設計可能である。
10 センサ部(11 リモコン受信部、12 撮像部、13 近赤外線光源部、14 光透過部材)、20 モニター、30 制御部(31 撮像制御部、32 人検出部、33 壁検出部、34 エッジ抽出部、35 物体検出部、36 物体種類判定部、37 走行制御部、38 記憶部)、40 前面パネル、50 マトリクス、100 掃除機、200 リモコン、201 ボタン、300 フィードバック画面、301 レベルゲージ。

Claims (10)

  1. 掃除機の制御システムであって、
    前記掃除機に搭載され、前記掃除機の周辺の画像を撮像する撮像部と、
    前記画像において表されるエッジを抽出するエッジ抽出部と、
    抽出された前記エッジに囲まれた領域を抽出し、抽出された前記領域に基づいて物体を検出する物体検出部と、
    物体の種類を判定する物体種類判定部と、
    検出された前記物体の位置および前記物体種類判定部の判定結果に基づいて、掃除機の走行を制御する走行制御部と、
    を有し、
    前記物体種類判定部は、
    検出された前記物体の形状に基づいて、当該物体の重心の高さを求め、
    前記重心の高さと、当該物体の画像中の高さに第1の所定比率を乗じた第1の高さとを比較し、
    前記重心の高さが前記第1の高さ未満である場合、前記物体は前記掃除機が向かうべき物体であると判定し、
    前記重心の高さが前記第1の高さを超える場合、前記物体は前記掃除機が避けるべき物体であると判定する、
    制御システム。
  2. 請求項1に記載の制御システムであって、
    前記撮像部は、近赤外線に基づいて前記画像を撮像する、制御システム。
  3. 請求項1または2に記載の制御システムであって、
    前記掃除機に搭載され、近赤外線を照射する近赤外線光源部と、
    前記近赤外線光源部の動作を制御する光源制御部と
    をさらに備え、
    前記光源制御部は、前記近赤外線光源部の向き、高さまたは出力を調整する、
    制御システム。
  4. 請求項3に記載の制御システムであって、前記光源制御部は、前記近赤外線光源部の出力を、前記画像を撮像する間隔に合わせて点灯および消灯させる、制御システム。
  5. 請求項1に記載の制御システムであって、
    前記物体検出部は、
    抽出された前記領域の輝度複雑度を算出し、
    算出された前記輝度複雑度が所定の範囲内に含まれるか否かに基づいて、当該領域が物体を表すか否かを判定する、
    制御システム。
  6. 請求項1またはに記載の制御システムであって、
    前記物体検出部は、
    抽出された前記領域の円形度を算出し、
    算出された前記円形度が所定の範囲内に含まれるか否かに基づいて、当該領域が物体を表すか否かを判定する、
    制御システム。
  7. 請求項1~のいずれか一項に記載の制御システムであって、
    前記物体検出部は、
    抽出された前記領域の面積を算出し、
    算出された前記面積が所定の範囲内に含まれるか否かに基づいて、当該領域が物体を表すか否かを判定する、
    制御システム。
  8. 請求項1~のいずれか一項に記載の制御システムを搭載した自律走行型掃除機。
  9. 請求項1~のいずれか一項に記載の制御システムと、
    ゴミを吸い込む掃除機と、
    を備える、掃除システム。
  10. 掃除機の制御方法であって、
    前記掃除機の周辺の画像を撮像するステップと、
    前記画像において表されるエッジを抽出するステップと、
    抽出された前記エッジに囲まれた領域を抽出し、抽出された前記領域に基づいて物体を検出するステップと、
    物体の種類を判定する物体種類判定ステップと、
    検出された前記物体の位置および前記物体種類判定ステップの判定結果に基づいて、前記掃除機の走行を制御するステップと、
    を有し、
    前記物体種類判定ステップは、
    検出された前記物体の形状に基づいて、当該物体の重心の高さを求めることと、
    前記重心の高さと、当該物体の画像中の高さに第1の所定比率を乗じた第1の高さとを比較することと、
    前記重心の高さが前記第1の高さ未満である場合、前記物体は前記掃除機が向かうべき物体であると判定することと、
    前記重心の高さが前記第1の高さを超える場合、前記物体は前記掃除機が避けるべき物体であると判定することと、
    を含む、制御方法。
JP2018224600A 2018-11-30 2018-11-30 掃除機の制御システム、自律走行型掃除機、掃除システム、および掃除機の制御方法 Active JP7173846B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018224600A JP7173846B2 (ja) 2018-11-30 2018-11-30 掃除機の制御システム、自律走行型掃除機、掃除システム、および掃除機の制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018224600A JP7173846B2 (ja) 2018-11-30 2018-11-30 掃除機の制御システム、自律走行型掃除機、掃除システム、および掃除機の制御方法

Publications (2)

Publication Number Publication Date
JP2020087240A JP2020087240A (ja) 2020-06-04
JP7173846B2 true JP7173846B2 (ja) 2022-11-16

Family

ID=70908446

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018224600A Active JP7173846B2 (ja) 2018-11-30 2018-11-30 掃除機の制御システム、自律走行型掃除機、掃除システム、および掃除機の制御方法

Country Status (1)

Country Link
JP (1) JP7173846B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112386177A (zh) * 2020-11-04 2021-02-23 深圳市云视机器人有限公司 清洁设备运动控制方法、存储介质及清洁设备
CN114913223A (zh) * 2021-02-09 2022-08-16 北京盈迪曼德科技有限公司 一种视觉扫地机正方向识别方法及系统
CN115844269A (zh) * 2021-09-27 2023-03-28 汤恩智能科技(上海)有限公司 一种清洁方法、可读介质和电子设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014196272A1 (ja) 2013-06-03 2014-12-11 Sako Yoichiro 電気掃除装置
JP2015181062A (ja) 2010-12-30 2015-10-15 アイロボット コーポレイション カバレッジロボットナビゲーション

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006047067A (ja) * 2004-08-03 2006-02-16 Funai Electric Co Ltd 人体検出装置及び人体検出方法
JP2016061457A (ja) * 2014-09-16 2016-04-25 日立アプライアンス株式会社 空気調和機

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015181062A (ja) 2010-12-30 2015-10-15 アイロボット コーポレイション カバレッジロボットナビゲーション
WO2014196272A1 (ja) 2013-06-03 2014-12-11 Sako Yoichiro 電気掃除装置

Also Published As

Publication number Publication date
JP2020087240A (ja) 2020-06-04

Similar Documents

Publication Publication Date Title
US11042760B2 (en) Mobile robot, control method and control system thereof
US11467603B2 (en) Moving robot and control method thereof
US9629514B2 (en) Traveling cleaning appliance and method for operating such an appliance
US10967512B2 (en) Moving robot and controlling method
US9597804B2 (en) Auto-cleaning system, cleaning robot and method of controlling the cleaning robot
CN106983449B (zh) 具有区域划分的测绘制图
JP7173846B2 (ja) 掃除機の制御システム、自律走行型掃除機、掃除システム、および掃除機の制御方法
US11751744B2 (en) Moving robot and controlling method
KR102000067B1 (ko) 이동 로봇
CN112739244A (zh) 移动机器人清洁系统
WO2019007038A1 (zh) 扫地机器人、扫地机器人系统及其工作方法
US20220257075A1 (en) Moving robot and method of controlling the same
US20220280007A1 (en) Mobile robot and method of controlling the same
CN113703439A (zh) 自主移动设备控制方法、装置、设备及可读存储介质
JP7346912B2 (ja) 掃除支援装置、掃除支援システム、電気掃除機、及び掃除支援方法
KR20210122921A (ko) 로봇 청소기 및 그 제어 방법
KR20200142865A (ko) 인공지능을 이용한 이동 로봇 및 이동 로봇의 제어방법
TW202142983A (zh) 清掃機器人及其控制方法
JP7417944B2 (ja) 自律走行型掃除機、自律走行型掃除機の制御方法、及び、プログラム
JP2022086593A (ja) 走行地図作成装置、ユーザ端末装置、自律走行型ロボット、自律走行型ロボットの走行制御システム、自律走行型ロボットの走行制御方法、および、プログラム
CN117530620A (zh) 清洁方法、清洁装置、清洁设备和存储介质
JP2014026467A (ja) 同定装置、同定装置の制御方法、移動体、制御プログラム、および記録媒体
KR20200134579A (ko) 이동 로봇 및 그 제어방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210623

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220805

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221104

R150 Certificate of patent or registration of utility model

Ref document number: 7173846

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150