JP2020087240A - Control system for cleaner, autonomous travel type cleaner, cleaning system, and control method for cleaner - Google Patents
Control system for cleaner, autonomous travel type cleaner, cleaning system, and control method for cleaner Download PDFInfo
- Publication number
- JP2020087240A JP2020087240A JP2018224600A JP2018224600A JP2020087240A JP 2020087240 A JP2020087240 A JP 2020087240A JP 2018224600 A JP2018224600 A JP 2018224600A JP 2018224600 A JP2018224600 A JP 2018224600A JP 2020087240 A JP2020087240 A JP 2020087240A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- cleaner
- image
- control system
- vacuum cleaner
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 78
- 238000004140 cleaning Methods 0.000 title claims description 27
- 238000001514 detection method Methods 0.000 claims abstract description 78
- 238000003384 imaging method Methods 0.000 claims abstract description 63
- 239000000284 extract Substances 0.000 claims abstract description 8
- 230000005484 gravity Effects 0.000 claims description 21
- 239000010813 municipal solid waste Substances 0.000 claims description 2
- 238000000605 extraction Methods 0.000 abstract description 14
- 230000008569 process Effects 0.000 description 48
- 238000012545 processing Methods 0.000 description 26
- 230000006870 function Effects 0.000 description 16
- 238000012986 modification Methods 0.000 description 14
- 230000004048 modification Effects 0.000 description 14
- 239000000428 dust Substances 0.000 description 10
- 238000010586 diagram Methods 0.000 description 7
- 230000002829 reductive effect Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000013461 design Methods 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000012905 input function Methods 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000001186 cumulative effect Effects 0.000 description 2
- 230000036961 partial effect Effects 0.000 description 2
- 238000005192 partition Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000002441 reversible effect Effects 0.000 description 2
- 238000002834 transmittance Methods 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 238000004378 air conditioning Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000007664 blowing Methods 0.000 description 1
- 210000000038 chest Anatomy 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 239000000123 paper Substances 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000011895 specific detection Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000001931 thermography Methods 0.000 description 1
- 239000002023 wood Substances 0.000 description 1
Images
Landscapes
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Electric Vacuum Cleaner (AREA)
Abstract
Description
この発明は、掃除機の制御システム、自律走行型掃除機、掃除システム、および掃除機の制御方法に関する。 The present invention relates to a vacuum cleaner control system, an autonomous traveling vacuum cleaner, a cleaning system, and a vacuum cleaner control method.
室内の人や物体を検出し、検出された結果に応じて家電製品等を動作させることが、従来から試みられている。 BACKGROUND ART It has been attempted to detect a person or an object in a room and operate a home electric appliance or the like according to the detected result.
特許文献1には、このような技術の例として、人体や障害物の位置に応じて吹き出し角度を変更する空気調和システムが記載されている。また、特許文献2には、ステレオカメラを用いて距離画像を生成し、距離画像に基づいて障害物を検出する掃除機が記載されている。
As an example of such a technique,
しかしながら、従来の技術では、簡易な構成で掃除機の自動走行を制御するのが困難であった。たとえば特許文献2は距離画像を用いるため、複数のカメラまたは距離測定のための追加の装置が必要となる。なお、特許文献1は掃除機に関する技術ではない。
However, with the conventional technique, it is difficult to control the automatic traveling of the vacuum cleaner with a simple configuration. For example, US Pat. No. 6,096,836 uses range images and thus requires multiple cameras or additional devices for range measurement. Note that
この発明はこのような問題点を解消するためになされたものであり、比較的簡易な構成で掃除機の走行を制御できる掃除機の制御システム、自律走行型掃除機、掃除システム、および掃除機の制御方法を提供することを目的とする。 The present invention has been made to solve such a problem, and has a control system for a vacuum cleaner capable of controlling the travel of the vacuum cleaner with a relatively simple configuration, an autonomous traveling vacuum cleaner, a cleaning system, and a vacuum cleaner. It aims at providing the control method of.
この発明に係る、掃除機の制御システムは、
前記掃除機に搭載され、前記掃除機の周辺の画像を撮像する撮像部と、
前記画像において表されるエッジを抽出するエッジ抽出部と、
抽出された前記エッジに囲まれた領域を抽出し、抽出された前記領域に基づいて物体を検出する物体検出部と、
検出された前記物体の位置に基づいて、掃除機の走行を制御する走行制御部と、
を有する。
特定の態様によれば、前記撮像部は、近赤外線に基づいて前記画像を撮像する。
特定の態様によれば、
前記掃除機に搭載され、近赤外線を照射する近赤外線光源部と、
前記近赤外線光源部の動作を制御する光源制御部と
をさらに備え、
前記光源制御部は、前記近赤外線光源部の向き、高さまたは出力を調整する。
特定の態様によれば、前記光源制御部は、前記近赤外線光源部の出力を、前記画像を撮像する間隔に合わせて点灯および消灯させる。
特定の態様によれば、物体の種類を判定する物体種類判定部をさらに有し、
前記物体種類判定部は、
検出された前記物体の形状に基づいて、当該物体の重心の高さを求め、
前記重心の高さと、当該物体の画像中の高さに第1の所定比率を乗じた第1の高さとを比較し、
前記重心の高さが前記第1の高さ未満である場合、前記物体は前記掃除機が向かうべき物体であると判定し、
前記重心の高さが前記第1の高さを超える場合、前記物体は前記掃除機が避けるべき物体であると判定する。
特定の態様によれば、前記物体検出部は、
抽出された前記領域の輝度複雑度を算出し、
算出された前記輝度複雑度が所定の範囲内に含まれるか否かに基づいて、当該領域が物体を表すか否かを判定する。
特定の態様によれば、前記物体検出部は、
抽出された前記領域の円形度を算出し、
算出された前記円形度が所定の範囲内に含まれるか否かに基づいて、当該領域が物体を表すか否かを判定する。
特定の態様によれば、前記物体検出部は、
抽出された前記領域の面積を算出し、
算出された前記面積が所定の範囲内に含まれるか否かに基づいて、当該領域が物体を表すか否かを判定する。
また、この発明に係る自律走行型掃除機は、上述の制御システムを搭載した自律走行型掃除機である。
また、この発明に係る掃除システムは、上述の制御システムと、ゴミを吸い込む掃除機とを備える。
また、この発明に係る掃除機の制御方法は、
前記掃除機の周辺の画像を撮像するステップと、
前記画像において表されるエッジを抽出するステップと、
抽出された前記エッジに囲まれた領域を抽出し、抽出された前記領域に基づいて物体を検出するステップと、
検出された前記物体の位置に基づいて、前記掃除機の走行を制御するステップと、
を有する。
The control system of the vacuum cleaner according to the present invention is
An image pickup unit mounted on the vacuum cleaner and configured to pick up an image of the vicinity of the vacuum cleaner,
An edge extractor for extracting edges represented in the image,
An object detection unit that extracts a region surrounded by the extracted edges, and detects an object based on the extracted region,
Based on the detected position of the object, a traveling control unit that controls traveling of the cleaner,
Have.
According to a particular aspect, the image capturing unit captures the image based on near infrared rays.
According to a particular aspect,
A near-infrared light source unit that is mounted on the vacuum cleaner and emits near-infrared rays,
Further comprising a light source control unit for controlling the operation of the near infrared light source unit,
The light source control unit adjusts the orientation, height, or output of the near infrared light source unit.
According to a particular aspect, the light source control unit turns on and off the output of the near-infrared light source unit in accordance with the interval at which the image is captured.
According to a particular aspect, an object type determination unit for determining the type of object is further provided,
The object type determination unit,
Based on the detected shape of the object, find the height of the center of gravity of the object,
Comparing the height of the center of gravity and the first height obtained by multiplying the height in the image of the object by a first predetermined ratio,
When the height of the center of gravity is less than the first height, it is determined that the object is an object to which the cleaner should head,
If the height of the center of gravity exceeds the first height, the object is determined to be an object that the vacuum cleaner should avoid.
According to a particular aspect, the object detector is
Calculating the brightness complexity of the extracted region,
Based on whether or not the calculated brightness complexity is included in a predetermined range, it is determined whether or not the area represents an object.
According to a particular aspect, the object detector is
Calculate the circularity of the extracted region,
Based on whether or not the calculated circularity falls within a predetermined range, it is determined whether or not the area represents an object.
According to a particular aspect, the object detector is
Calculate the area of the extracted region,
Based on whether or not the calculated area is included in a predetermined range, it is determined whether or not the area represents an object.
An autonomous traveling type vacuum cleaner according to the present invention is an autonomous traveling type vacuum cleaner equipped with the above control system.
A cleaning system according to the present invention includes the control system described above and a cleaner that sucks dust.
The control method of the vacuum cleaner according to the present invention is
Capturing an image of the area around the vacuum cleaner,
Extracting the edges represented in the image,
Extracting a region surrounded by the extracted edge, and detecting an object based on the extracted region,
Controlling the travel of the vacuum cleaner based on the detected position of the object;
Have.
この発明に係る掃除機の制御システム、自律走行型掃除機、掃除システム、および掃除機の制御方法によれば、比較的簡易な構成で掃除機の走行を制御することができる。 According to the vacuum cleaner control system, the autonomous traveling vacuum cleaner, the cleaning system, and the vacuum cleaner control method according to the present invention, the travel of the vacuum cleaner can be controlled with a relatively simple configuration.
以下、この発明の実施例を添付図面に基づいて説明する。
実施例1.
本実施例は、自律走行型掃除機に係るものである。自律走行型掃除機とは、たとえば自律して走行しながら掃除動作を行うことが可能な掃除機を意味し、一般に「ロボット掃除機」等とも呼ばれるものである。この掃除機は、掃除を行う空間に存在する物体(ケーブル等)を検出し、検出した物体の位置に基づいて走行を制御する。以下に図面を用いて具体的構成の例を説明する。
Embodiments of the present invention will be described below with reference to the accompanying drawings.
Example 1.
This embodiment relates to an autonomous traveling type vacuum cleaner. The autonomous traveling type cleaner means, for example, a cleaner capable of performing a cleaning operation while traveling autonomously, and is generally called a “robot cleaner” or the like. This cleaner detects an object (cable or the like) existing in a space for cleaning, and controls traveling based on the detected position of the object. An example of a specific configuration will be described below with reference to the drawings.
図1は、本実施例に係る掃除機100を含む外観構成を示す図である。掃除機100は、自身の動作を制御する制御システムを内蔵して自動的に掃除を行う装置であり、たとえば走行制御技術等を用いて構成される。本実施例では、掃除機100は単体で掃除システムを構成し、本実施例に係る方法(とくに掃除機の制御方法)を実行する。掃除機100は、リモコン200(リモートコントローラ)とともに用いられる。
FIG. 1 is a diagram showing an external configuration including a cleaner 100 according to the present embodiment. The
掃除機100が掃除を行う空間は任意であるが、たとえば屋内または屋外であってもよい。屋内では、部屋の中(室内)または廊下を掃除してもよく、屋外では、一定の容積を占める空間を掃除してもよい。本実施例は室内を掃除する場合の動作を想定しているが、他の空間を掃除する場合にも同じ動作または同様の動作が適用可能である。 The space in which the cleaner 100 cleans is arbitrary, but may be indoors or outdoors, for example. Inside the room (inside the room) or in the corridor may be cleaned indoors, and outdoors, a space occupying a certain volume may be cleaned. Although the present embodiment assumes an operation when cleaning the room, the same operation or a similar operation can be applied when cleaning other spaces.
掃除機100およびリモコン200は、互いに通信可能に構成される。通信はたとえば赤外線を用いてワイヤレスで行われるが、他の電波または通信線等を用いてもよい。リモコン200は、掃除機100のユーザが掃除機100を遠隔から操作するための端末として用いることができる。掃除機100は、外部から送信される信号を受信するための受信部を有する。本実施例では、受信部は、リモコン200からの信号を受信するためのリモコン受信部11として構成される。
The
また、掃除機100は、掃除機100の周辺の画像を撮像する撮像部12と、近赤外線を照射する近赤外線光源部13とを搭載する。撮像部12はたとえば公知の受光素子を用いて構成することができ、近赤外線光源部13はたとえば近赤外線LEDを用いて構成することができる。掃除機100は、制御および表示に用いる情報を取得するための複数の種類のセンサを含むセンサ部10を有しており、本実施例では、センサ部10は上述の撮像部12および近赤外線光源部13を含む。また、本実施例ではセンサ部10はさらにリモコン受信部11を含むが、リモコン受信部11はセンサ部10とは独立して構成されるものであってもよい。また、センサ部10の外側(図1の例ではセンサ部10の前面)に、光透過部材14を有してもよい。
Further, the
掃除機100は、掃除機100の前面を覆うように取り付けられる前面パネル40を有する。なお、「前面」とは、たとえば掃除機100の側面のうち進行方向側の所定部分をいう。本実施例では、センサ部10は、センサ部10に含まれるリモコン受信部11、撮像部12および近赤外線光源部13とともに、前面パネル40に配置される。
The cleaner 100 has a
撮像部12は、電磁波によって表される画像を取得する。とくに、本実施例では、撮像部12は、可視光によって表される可視光画像を取得する機能と、近赤外線によって表される近赤外線画像を取得する機能とを備える。近赤外線光源部13が空間に近赤外線を照射すると、その反射光のうち撮像部12に到達したものが撮像部12によって撮像されるように構成されている。
The
撮像部12と近赤外線光源部13との位置関係は任意に設計可能であるが、本実施例では、撮像部12と近赤外線光源部13とがセンサ部10内で隣接または近接するよう配置される。このように設置されることにより、撮像部12の検出範囲または検出角度と、近赤外線光源部13の照射範囲または照射角度との差を低減させることができる。
The positional relationship between the
さらに、掃除機100は、モニター20を有する。モニター20の配置は任意に設計可能であるが、たとえば掃除機100の動作中に外部から容易に視認可能な位置に配置される。本実施例では、モニター20は掃除機100の上面に配置され、とくに撮像部12に近接して配置される。
Further, the
モニター20の動作の例を説明する。図1の例では、モニター20には、掃除機100の外観を表す画像が表示されている。また、撮像部12等を用いた処理によって物体が検出された場合(検出処理の具体例については後述する)には、掃除機100は、検出された物体に関する情報をモニター20に表示する。たとえば、掃除機100と物体との位置関係および物体の種類、形状等に応じ、適切な位置に適切な画像または図形を表示する。このようにすると、ユーザは、掃除機100が物体を検出できたということを視認できる。なお、このような物体の表示は、掃除機100のモニター20だけではなく、リモコン200において行われてもよい。その場合には、リモコン200にもモニター20と同様のモニターが設けられてもよい。
An example of the operation of the
なお、本実施例では、掃除機100は、リモコン受信部11、撮像部12、近赤外線光源部13、光透過部材14、およびモニター20を有するが、変形例として、これらのうち少なくとも撮像部12を有していれば、リモコン受信部11、近赤外線光源部13、光透過部材14、およびモニター20は省略可能である。
In addition, in the present embodiment, the
掃除機100は、掃除機100の動作を制御する制御システムを有する。この制御システムは、本明細書に記載される方法(とくに掃除機の制御方法)を実行する。掃除機100の制御システムは制御部30を有する。制御部30は、センサ部10と通信可能に接続されており、とくに、リモコン受信部11、撮像部12および近赤外線光源部13と通信可能に接続されている。制御部30は、センサ部10から受信する情報に基づいて、掃除機100の走行を制御する。制御部30は、公知のコンピュータとしての構成を有し、演算手段および記憶手段を有する(詳細については図5等を用いて後述する)。演算手段はたとえばプロセッサであり、記憶手段はたとえば半導体メモリである。
The cleaner 100 has a control system that controls the operation of the cleaner 100. The control system implements the methods described herein (particularly the vacuum cleaner control method). The control system of the
図2は、図1のリモコン200の外観の例をより詳細に示す説明図である。
リモコン200は、たとえば、掃除機100に空間を掃除させるための指示を、掃除機100に対して遠隔から送信するために用いられる。掃除機100のユーザは、空間を掃除したい場合にリモコン200を操作して掃除機100に掃除を行わせることができる。
FIG. 2 is an explanatory diagram showing an example of the external appearance of the
リモコン200は、掃除機100のリモコン受信部11が受信可能な無線信号(たとえば、赤外線信号)を送信する。この無線信号は、たとえば、運転要求、掃除モードの変更、運転モードの変更、および、停止要求等の様々な指示を含む。掃除機100は、これらの指示に基づいて動作することができ、たとえば室内の掃除を行うことができる。なお、リモコン200は、前述の指示を含む無線信号を送るのみならず、他の任意の機能を有してもよい。
リモコン200は、ユーザからの指示を受け付けるための入力機能部を有する。図2の例では、入力機能部はボタン201を含む7個のボタンからなる。ボタン201は、自動運転ボタンである。ボタン201がユーザによって操作されると(たとえば押下されると)、リモコン200はボタン201が操作されたことを示す信号を掃除機100に送信し、掃除機100の制御部30は、センサ部10を介してこの信号を受信し、自動掃除を開始する。より具体的には、図6の処理(後述)を開始してもよい。
The
ボタン201により、ユーザは1回の操作で室内の掃除を実行させることができ、詳細な運転内容を指示するための複数の操作を行う必要がない。なお、本実施例のリモコン200は、ボタン201が操作されてもケーブルやゴミ等の物体の検出が開始されないように事前設定しておくためのボタン、または、これらの検知結果に基づく走行制御を実行させないように事前設定しておくためのボタンを有してもよい。
By the
なお、ボタン201等の位置は、リモコン200のいずれの場所に設置されてもよく、リモコン200に開閉可能な蓋が設置される場合には、蓋によって覆われる空間内に設置されてもよい。
It should be noted that the position of the
図3は、本実施例の掃除機100のセンサ部10の構成の例を示す図である。センサ部10は、掃除機100に備えられる複数のセンサを含む。センサ部10は、たとえば上述のように近赤外線光源部13および撮像部12を含む。また、図3に示すように時計や他の構成要素を含んでもよい。また、図3には示さないがリモコン受信部11を含んでもよい。
FIG. 3 is a diagram showing an example of the configuration of the
撮像部12は、特定の波長または波長範囲の電磁波による画像を撮像可能である。また、撮像部12は、複数の波長または波長範囲の電磁波による画像を撮像可能であってもよい。掃除機100は、撮像部12に入射する特定の波長または波長範囲の電磁波を遮断または減衰させるフィルタを有してもよく、そのようなフィルタは切替可能であってもよい。本実施例では、掃除機100は可視光カットフィルタを有する。この可視光カットフィルタは、たとえば可視光および紫外線の透過率が低く、近赤外線の透過率が高いものであり、すなわち近赤外線透過フィルタとも呼べるものである。
The
掃除機100の制御部30は、たとえば撮像部12が近赤外線画像を取得する場合に、可視光カットフィルタを撮像部12に対してセットし、撮像部12に近赤外線画像を取得させる。この場合には、撮像部12は、近赤外線近傍(たとえば、850nmを含む特定波長帯)の波長域を利用して撮像することができる。また、必要に応じて、撮像部12による撮像前に、制御部30が近赤外線光源部13を点灯させ、すなわち近赤外線を照射させることにより、撮像部12が取得する近赤外線画像を、反射光を含んだより鮮明なものとすることができる。
For example, when the
図4は、本実施例の可視光カットフィルタを介して撮像した場合の波長分布の例を示す説明図である。図4は、近赤外線光源部13から照射され、掃除機100の周囲で反射され、可視光カットフィルタを介して撮像部12に到達する反射光の波長分布の例を示す。このように、撮像部12は、近赤外線に基づいて画像を撮像することができる。
FIG. 4 is an explanatory diagram showing an example of the wavelength distribution when an image is taken through the visible light cut filter of this embodiment. FIG. 4 shows an example of a wavelength distribution of reflected light that is emitted from the near-infrared
本実施例の撮像部12は、近赤外線を用いて掃除機100周辺の画像を取得することによって、ケーブル等の物体の形状を明確に取得することができる。これにより、制御部30は、避けるべき物体や向かうべき物体を検出し、走行を制御できる(具体的な検出および制御方法については後述する)。
The
図5は、本実施例の掃除機100の制御部30の構成の例を示す説明図である。
制御部30は、リモコン200から送信された指示を、リモコン受信部11を介して受信する。また、制御部30は、センサ部10に含まれるその他のセンサによる検出結果を取得する。そして、受信した指示、および、取得した検出結果に基づいて、制御部30は、掃除機100の走行を制御する。
FIG. 5: is explanatory drawing which shows the example of a structure of the
The
制御部30の演算手段は、機能部として動作することができ、とくに、撮像制御部31、人検出部32、壁検出部33、エッジ抽出部34、物体検出部35、物体種類判定部36、および、走行制御部37として動作することができる。ここで、エッジ抽出部34および物体検出部35は、物体認識部を構成する。また、制御部30の記憶手段は記憶部38を有する。
The calculation means of the
これらの機能部は、ソフトウェア(たとえばプログラム)を用いて実装されてもよく、また、ハードウェア(たとえば集積回路)を用いて実装されてもよい。また、これらの機能部は、一つのプログラムまたは一つの集積回路によって実装されてもよい。また、これらの機能部の各々が複数のプログラムまたは複数の集積回路を用いて実装されてもよく、実行する処理ごとに異なるプログラムまたは集積装置の組み合わせによって実装されてもよい。 These functional units may be implemented by using software (for example, a program), or may be implemented by using hardware (for example, an integrated circuit). Further, these functional units may be implemented by one program or one integrated circuit. Further, each of these functional units may be implemented by using a plurality of programs or a plurality of integrated circuits, or may be implemented by a combination of different programs or integrated devices for each processing to be executed.
撮像制御部31は、近赤外線光源部13の動作を制御する機能を有し、すなわち光源制御部としての機能を有する。たとえば、近赤外線光源部13の向き(角度)、高さまたは出力(たとえば電流負荷)を調整する。このようにすると、より適切な角度範囲、高さ範囲または輝度の画像を取得することが可能となる。
The
また、撮像制御部31は、近赤外線光源部13の出力を、近赤外線光源部13が画像を撮像する間隔に合わせて、点灯および消灯させる。たとえば、近赤外線光源部13は、撮像部12による撮像動作が開始される直前(所定時間だけ前、たとえば10ミリ秒前)に点灯し、撮像部12による撮像動作が終了した直後(所定時間だけ後、たとえば10ミリ秒後)に消灯する。このように、照射タイミングを撮像部12による撮像タイミング前後に限定することにより、定常的に照射し続ける場合に比べて、近赤外線光源部13の寿命を延ばすことができ、また、消費電力を低減することができる。
Further, the
人検出部32は、撮像部12によって取得された画像に基づいて、室内の人の位置を検出する。壁検出部33は、撮像部12によって取得された画像に基づいて、室内の壁の位置を検出する。
The
物体認識部(エッジ抽出部34および物体検出部35)は、撮像部12によって取得された画像において表される物体を認識する。より具体的には、エッジ抽出部34は、画像において表されるエッジを抽出し、物体検出部35は、抽出されたエッジに基づいて物体を検出する。画像としては、たとえば可視光カットフィルタを介して撮像部12が撮像した近赤外線画像を用いることができ、その場合には、たとえば、気流の通り道に配置され、気流を遮る物体(ケーブル等)を認識することができる。
The object recognition unit (
物体種類判定部36は、認識された(検出された)物体について、掃除機100が避けて走行すべき対象(避けるべき物体)であるか、掃除機100がそれに向かって走行すべき対象(向かうべき物体)であるかを判定する。避けるべき物体とは、たとえば掃除機100の走行を遮ったり、その他掃除機100の走行の障害となる可能性がある物体を意味し、たとえばケーブルが含まれる。向かうべき物体は、たとえば掃除機100が吸い込むべき物体を意味し、たとえばゴミ片が含まれる。
For the recognized (detected) object, the object
走行制御部37は、物体認識部によって認識された物体の位置に基づいて、掃除機100の走行を制御する。この走行の制御は、さらに物体種類判定部36の判定結果に基づいて行われてもよい。たとえば、ケーブルを避けつつゴミ片に向かうよう掃除機100の走行を制御することができる。具体的な制御内容としては、たとえば掃除機100を前進させる、右回転させる、左回転させる、後進させる、等を制御単位とし、これらを組み合わせて実行することが可能である。
The
記憶部38は、撮像部12によって撮像された画像を表すデータ等を保持する記憶装置を用いて構成される。記憶部38は、電源投入中にデータを保持する揮発性メモリを含んでもよく、非一時的記憶媒体である補助記憶装置を含んでもよい。制御部30の各機能部は、処理に必要な情報および処理結果に係る情報を記憶部38に格納することができる。
The
人検出部32の具体的な動作は適宜設計可能であるが、一例を以下に説明する。人検出部32は、撮像部12が可視光に基づいて撮像した可視光画像に基づいて、人の有無および人の画像中における位置を検出する。また、人検出部32は、検出した人の画像中における位置に基づいて、掃除機100を基準とした人がいる方向、掃除機100と人との距離、および、掃除機100が設置された壁と人との距離を算出する。
Although the specific operation of the
また、人検出部32は、撮像部12により取得された画像以外にも、赤外線センサ、近赤外線センサ、サーモグラフィー、焦電型センサ、超音波センサおよび騒音センサのうち少なくとも一つによる測定結果を使用して、人の有無および位置を検出してもよい。
In addition to the image acquired by the
たとえば、人検出部32は、撮像部12によって撮像された画像から所定の範囲の大きさの円を人の頭部として検出し、検出した人の頭部の位置を人の位置として特定してもよい。また、人検出部32は、目、鼻および口を含む人の顔のパターンをあらかじめ保持し、人の顔のパターンを検出し、検出した人の顔のパターンに対応する領域の位置を人の位置として特定してもよい。
For example, the
また、人検出部32は、人の頭部の大きさおよび掃除機100と人との距離の対応関係をあらかじめ保持し、当該対応関係と検出した人の頭部の大きさとに基づいて、掃除機100と人との距離を算出してもよい。
Further, the
さらに、本実施例の人検出部32は、人の足元の位置も検出してもよい。たとえば、人検出部32は、撮像部12によって撮像された複数の画像を用いて、移動する対象の下端を、人の足元として直接的に検出してもよい。また、人検出部32は、人の頭部の位置を検出し、人の頭部の位置に対して所定の位置関係にある人の足元の位置を推定してもよい。
Furthermore, the
壁検出部33の具体的な動作は適宜設計可能であるが、一例を以下に説明する。壁検出部33は、撮像された画像に基づいて、画像内のエッジを抽出し、抽出したエッジのうちからさらに、所定の基準より太く長いエッジを複数抽出する。そして、壁検出部33は、抽出された太く長いエッジそれぞれによる直線を延長して、交点を生成し、交点の重心点を消失点とすることにより、室内のコーナを検出する。そして壁検出部33は、検出したコーナを、壁と壁との接線、壁と天井との接線、または、壁と床との接線として特定し、室内の壁、天井および床の面の位置を検出する。
Although the specific operation of the
なお、壁検出部33は、人検出部32によって過去に検出された人の位置を保持し、人の位置の累積データに基づいて、コーナの検出結果を補完してもよい。これは、室内の壁は、人の位置の累積データが占める空間の外側に存在する可能性が高く、人の位置の累積データが占める空間の内側に存在する可能性は低いという経験則に基づく。壁検出部33は、室内の壁の候補が人の位置の累積データが占める空間の内側の位置で検出された場合には、当該検出結果を室内の壁の候補から除外してもよい。
The
物体認識部(エッジ抽出部34および物体検出部35)は、撮像された画像に基づいて物体を認識する。物体は、たとえば、テーブル、こたつ、椅子、ソファ、本棚、食器棚、箪笥、建具(壁、床、天井、戸、窓、小梁、欄間等)、ケーブル、ゴミ、食器(箸等)を含む。また、物体は、大きな置物、および、鉢植えの鉢等を含む。
The object recognition unit (
本実施例において、物体種類判定部36は、認識された(検出された)各物体について、物体の種類の判定を行う。
In the present embodiment, the object
図6は、本実施例の制御部30による制御処理例の概要を示すフローチャートである。この処理は、たとえばリモコン200から所定の指示が送信されることに応じて開始される。図6の処理において、まず物体認識部が、掃除する空間に配置される物体を認識する(ステップS1、詳細は図7等を用いて後述する)。
FIG. 6 is a flowchart showing an outline of a control processing example by the
次に、物体種類判定部36が、物体の種類を判定する(ステップS2)。物体の種類の定義および判定処理は、当業者が適宜設計可能であるが、一例を以下に示す。物体の種類は、避けるべき物体と、向かうべき物体とを含む。これ以外の種類(充電装置等)の定義を含んでもよい。避けるべき物体の例は、掃除機100の走行を遮る可能性があるケーブルであり、向かうべき物体の例は、吸い込むべき小さなゴミである。
Next, the object
判定処理は、たとえば物体認識の際に算出されたパラメータを用いて行うことができる。たとえば、各物体について円形度、面積および輝度複雑度(いずれも図8に関連して後述する)がステップS1において算出されている場合には、これらを用いて判定を行ってもよい。より具体的な例として、物体種類判定部36は、ある物体について、円形度が所定の閾値より大きく、かつ面積が所定の閾値より小さく、かつ輝度複雑度が所定の閾値より小さい場合に、その物体は向かうべき物体であると判定する。また、そうでない場合(すなわち、円形度が所定の閾値以下であるか、または面積が所定の閾値以上であるか、または輝度複雑度が所定の閾値以上である場合)に、その物体は避けるべき物体であると判定する。
The determination process can be performed using, for example, the parameters calculated at the time of object recognition. For example, if the circularity, area, and brightness complexity (each of which will be described later with reference to FIG. 8) have been calculated for each object in step S1, the determination may be performed using these. As a more specific example, the object
次に、人検出部32が人を検出する(ステップS3)。人の検出は、たとえば撮像部12で撮像された画像に基づいて行うことができるが、撮像部12に代えて(または撮像部12に加えて)、焦電型赤外線センサ等を用いて人の位置を把握するようにしてもよい。人検出部32は、人の有無、人の画像中における位置、掃除機100を基準とした人がいる方向、人と掃除機100との距離、および、壁と人との距離を取得する。人検出部32は、記憶部38に取得した情報を格納してもよい。
Next, the
次に、壁検出部33が、室内のコーナを検出する(ステップS4)とともに間仕切りの開閉を検出する(ステップS5)。
Next, the
ステップS3〜5における処理結果に基づいて(たとえば、人の位置およびコーナの位置の検出結果に基づいて)、制御部30は、室内の大きさ(たとえば形状および寸法)を判定する。
Based on the processing results in steps S3 to 5 (for example, based on the detection result of the position of the person and the position of the corner),
次に、走行制御部37が、S1〜S5の処理結果に基づいて、掃除機100の走行を制御する(ステップS6、詳細は図9等を用いて後述する)。たとえば、走行制御部37は、S1〜S5の処理結果に基づいて走行方法を決定し、決定した走行方法に従って掃除機100を走行させる。走行は、前進、右回転、左回転、後進等の動き含むものであってもよい。
Next, the traveling
図7は、図6のステップS1の処理をより詳細に説明するフローチャートである。図7の処理において、まず撮像制御部31は、可視光カットフィルタをオンに切り替える(ステップS11)。たとえば、可視光カットフィルタを撮像部12の前に移動する。次に、撮像部12は、ステップS12〜S17のループ処理を繰り返して複数の画像を撮像する。
FIG. 7 is a flowchart illustrating the process of step S1 of FIG. 6 in more detail. In the process of FIG. 7, the
ループ処理において、まず撮像部12は撮像方向を変更する(ステップS12)。撮像方向の変更は、たとえばカメラの移動または回転もしくは回動によって行われる。この撮像方向の変更処理により、1つの撮像装置で複数方向またはより広い範囲を撮像することができる。撮像方向は、たとえば、左方向、中央方向および右方向の3方向とすることができる。
In the loop processing, first, the
次に、撮像制御部31は、近赤外線光源部13を点灯させ、これによって近赤外線を室内に照射する(近赤外線照射ON)(ステップS13)。次に、撮像部12は掃除機100の周辺の画像を撮像する(ステップS14)。次に、撮像制御部31は、近赤外線光源部13を消灯させ、これによって近赤外線の照射を停止する(近赤外線照射OFF)(ステップS15)。
Next, the
次に、物体認識部(エッジ抽出部34および物体検出部35)が、撮像部12により取得された画像に基づいて、物体を認識する(ステップS16、詳細は図8等を用いて後述する)。これによって、室内に物体が存在するか否かが判定される。なお、図6のステップS2の処理(物体の種類の判定)は、図6に示すようにステップS1終了後に実行されてもよいし、ステップS1の実行中(たとえばステップS16の後かつステップS17の前)に実行されてもよい。
Next, the object recognition unit (the
次に、撮像制御部31は、指定された複数方向の撮像が終了したか否かを判定し(ステップS17)、指定された複数方向の撮像が終了していない場合には(S17:No)、処理をステップS12に戻す。一方、指定した複数方向の撮像が終了している場合には(S17:Yes)、撮像制御部31は、可視光カットフィルタをオフに切り替える(ステップS18)。たとえば、可視光カットフィルタを撮像部12の前から取り除く。その後、撮像制御部31は図7の処理を終了する。
Next, the
図6および図7の各処理の実行タイミングは、当業者が適宜変更可能である。たとえば、ステップS1およびS2の処理は、ステップS3〜S6とは独立して実行されてもよく、その場合には、リモコン200のボタン201または他の特定のボタンが操作されることに応じてステップS1およびS2の処理が実行されるように構成してもよい。また、ステップS1およびS2の処理は、所定の時間ごとに実行されるよう構成してもよい。
A person skilled in the art can appropriately change the execution timing of each process of FIGS. 6 and 7. For example, the processes of steps S1 and S2 may be executed independently of steps S3 to S6, in which case the steps are performed in response to operation of
図8は、図7のステップS16の処理をより詳細に説明するフローチャートである。図8の処理において、まずエッジ抽出部34が画像を取得する(ステップS21)。画像はたとえば可視光画像および近赤外線画像であるが、これらのうち一方であってもよい。これらのうちいずれかを後続の処理に用いるかは、様々な条件に応じて当業者が適宜決定可能である。たとえば、可視光画像には物体の色彩または模様が現れるので、物体のエッジを正確に検出できない場合があるが、近赤外線画像を用いるとそのような問題は軽減される。
FIG. 8 is a flowchart for explaining the process of step S16 of FIG. 7 in more detail. In the process of FIG. 8, the
次に、エッジ抽出部34は、画像に平滑化処理を実行する(ステップS22)。具体的には、エッジ抽出部34は、輝度等が周囲の多数の画素と大きく輝度が異なる画素の輝度を、周囲の画素と同じ輝度に変換する。これによって画像からノイズが削除される。なおステップS22は省略してもよい。次に、エッジ抽出部34は、画像中のエッジを抽出する(ステップS23)。画像中のエッジを抽出するための具体的な処理は、当業者が公知技術に基づいて適宜設計可能である。
Next, the
次に、物体検出部35は、抽出されたエッジに基づいて、画像中の物体を検出する。物体を検出すための具体的な処理は、当業者が公知技術に基づいて適宜設計可能であるが、一例を図8のステップS24以降に示し、以下に説明する。
Next, the
物体検出部35は、画像を複数の領域に分割する(ステップS24)。たとえば、閉じた図形を構成する1つながりのエッジについて、エッジに囲まれた領域を抽出し、エッジの外側の領域から分離する。次に、物体検出部35は、以下のステップS26〜S33の処理を、分割された領域のそれぞれについて実行することにより、抽出された領域に基づいて物体を検出する。たとえば、ステップS26〜S33の処理がすべての領域についてすでに実行されたか否かを判定し(ステップS25)、すべての領域についてすでに実行されていた場合には、図8の処理を終了する。
The
なお、以下から明らかなように、図8の処理は、1枚の画像から領域を抽出できれば実行可能であり、ステレオ画像を用いた深度計算等の複雑な処理や距離測定のための追加の装置等は不要であるため、比較的簡易な構成で実現可能である(ただし、ステレオ画像等を用いた処理を本発明の範囲から除外するものではない)。 Note that, as will be apparent from the following, the process of FIG. 8 can be executed if an area can be extracted from one image, and an additional device for distance measurement and complicated processes such as depth calculation using a stereo image. Since these are unnecessary, it can be realized with a relatively simple configuration (however, processing using a stereo image or the like is not excluded from the scope of the present invention).
未処理の領域が存在する場合には、物体検出部35は、その領域の円形度を算出する(ステップS26)。ここで、円形度とはある領域の「円らしさ」を表す値であり、たとえば次式によって定義される:
円形度 = 4πS/(L2)
ただしπは円周率、Sは領域の面積、Lは領域の周囲長(たとえばエッジの長さ)である。円形度が大きいほど領域は円に近いと言うことができ、円形度が1の場合には領域は真円となる。
If there is an unprocessed area, the
Circularity = 4πS/(L 2 )
Here, π is the pi, S is the area of the region, and L is the perimeter of the region (for example, the length of the edge). It can be said that the larger the circularity is, the closer the area is to a circle. When the circularity is 1, the area is a perfect circle.
次に、物体検出部35は、算出した円形度が、物体の円形度として適切な所定の範囲内に含まれるか否かを判定する(ステップS27)。この所定の範囲またはその境界を表す値は、あらかじめ記憶部38に記憶されていてもよい。円形度が所定の範囲に含まれない場合には、物体検出部35は、処理をステップS25に戻す。この場合には、その領域が物体を表す可能性は低いと判定されたと言える。
Next, the
円形度が所定の範囲に含まれる場合には、その領域が物体を表す可能性が高いと判定されたと言える。この場合には、物体検出部35は、その領域の面積を算出する(ステップS28)。ここで算出する面積は、たとえば画像中における面積である。
When the circularity is included in the predetermined range, it can be said that the area is determined to have a high possibility of representing an object. In this case, the
次に、物体検出部35は、算出した面積が、物体の面積として適切な所定の範囲内に含まれるか否かを判定する(ステップS29)。この所定の範囲またはその境界を表す値は、あらかじめ記憶部38に記憶されていてもよい。面積が所定の範囲に含まれない場合には、物体検出部35は、処理をステップS25に戻す。この場合には、その領域が物体を表す可能性は低いと判定されたと言える。
Next, the
面積が所定の範囲に含まれる場合には、その領域が物体を表す可能性が高いと判定されたと言える。この場合には、物体検出部35は、その領域の輝度複雑度を算出する(ステップS30)。輝度複雑度は、たとえば領域に含まれる各画素の輝度のばらつきの度合いであり、たとえば各画素の輝度の分散として定義することができる。
When the area is included in the predetermined range, it can be said that the area is determined to have a high possibility of representing an object. In this case, the
次に、物体検出部35は、算出した輝度複雑度が、物体の輝度複雑度として適切な所定の範囲内に含まれるか否かを判定する(ステップS31)。この所定の範囲またはその境界を表す値は、あらかじめ記憶部38に記憶されていてもよい。ケーブルのような物体は、人に比べると輝度複雑度が低く、かつ、床に比べると輝度複雑度が高いため、適切な範囲を設定しておくことにより、そのような物体を適切に認識することができる。輝度複雑度が所定の範囲に含まれない場合には、物体検出部35は、処理をステップS25に戻す。この場合には、その領域が物体を表す可能性は低いと判定されたと言える。
Next, the
輝度複雑度が所定の範囲に含まれる場合には、その領域が物体を表す可能性が高いと判定されたと言える。この場合には、物体検出部35は、その領域が物体を表すものであると決定する(ステップS32)。このようにして、画像において表される物体が認識される。
When the brightness complexity is included in the predetermined range, it can be said that the area is determined to have a high possibility of representing an object. In this case, the
このように、図8の例では、物体検出部35は、円形度、面積および輝度複雑度に基づいて、各領域が物体を表すか否かを判定する。このように3つの特徴に基づいて判定を行うことにより、より正確な判定が可能になる。なお、変形例として、物体検出部35は、円形度、面積および輝度複雑度のうち1つまたは2つのみに基づいて判定を行ってもよい。いずれか1つまたは2つのみに基づく判定であっても、比較的簡素な判定処理により、比較的正確な物体検出が可能である。さらに、物体検出部35は、円形度、面積および輝度複雑度以外のいかなる指標を用いてこの判定を行ってもよい。
As described above, in the example of FIG. 8, the
次に、物体検出部35は、物体を表すと決定された領域について、位置および距離等を算出する(ステップS33)。たとえば、領域について画像中における位置(たとえば2次元座標によって表される)を求め、求めた位置に基づいて、現実の空間内で物体が配置された位置(たとえば掃除機100を基準とした3次元座標によって表される)を算出する。現実の空間内での物体の位置は、掃除機100と当該物体との位置関係によって表すことができる。位置関係は、たとえば掃除機100からみた当該物体の方向と、当該物体と掃除機100との距離とを用いて表される。また、物体検出部35は、壁と物体との距離を算出してもよい。
Next, the
また、物体検出部35は、図8の処理の結果に基づき、物体の有無、各物体の画像中における位置、および掃除機100と各物体との位置関係を、記憶部38に格納してもよい。さらに、物体検出部35は、壁と各物体との距離を記憶部38に格納してもよい。
In addition, the
このようにして、認識された物体すべてについて、掃除機100との位置関係が特定される。制御部30は、この位置関係に基づき、掃除機100の動作(たとえば走行動作)を制御する。この際の具体的な制御内容は、当業者が適宜設計可能であるが、一例を以下に示す。
In this way, the positional relationship with the cleaner 100 is specified for all the recognized objects. The
図9は、図6のステップS6の処理をより詳細に説明するフローチャートである。なお、この例は物体が1つだけ認識された場合の処理である。図9の処理において、まず走行制御部37は、ステップS2の判定結果を参照し、物体が避けるべき物体であるか否かを判定する(ステップS51)。避けるべき物体である場合には、その物体が掃除機100の正面にあるか否か判定する(ステップS52)。避けるべき物体が正面にある場合には、走行制御部37は、その物体を避けるように走行経路を構成し、これに従って掃除機100を走行させる(ステップS53)。走行経路は、たとえば、前進、右回転、左回転および後進を組み合わせて構成することができる。ある物体を避ける走行経路の構成方法は、当業者が適宜設計可能であるが、たとえばまず右回転または左回転によって物体が正面から外れるまで掃除機100の向きを変更し、その後に前進する経路とすることができる。ステップS53の後、走行制御部37は処理を終了してもよいし、ステップS52に処理を戻し、避けるべき物体が正面から外れるまで繰り返し判定を実行してもよい。
FIG. 9 is a flowchart for explaining the process of step S6 of FIG. 6 in more detail. Note that this example is processing when only one object is recognized. In the process of FIG. 9, the traveling
ステップS51において、物体が避けるべき物体でなかった場合には、走行制御部37は、さらにステップS2の判定結果を参照し、物体が向かう物体であるか否かを判定する(ステップS54)。向かうべき物体である場合には、その物体が掃除機100の正面にあるか否か判定する(ステップS55)。向かうべき物体が正面にある場合には、走行制御部37は、その物体に向かうように走行経路を構成し、これに従って掃除機100を走行させる(ステップS56)。走行経路は、たとえば、前進、右回転、左回転および後進を組み合わせて構成することができる。ある物体に向かう走行経路の構成方法は、当業者が適宜設計可能であるが、たとえばそのまま正面に向かって前進する経路とすることができる。ステップS56の後、走行制御部37は処理を終了してもよいし、ステップS55に処理を戻し、向かうべき物体が正面に維持されるよう繰り返し判定を実行してもよい。
When the object is not the object to be avoided in step S51, the traveling
ステップS52において避けるべき物体が正面にないと判定された場合には、走行制御部37は処理を終了する。また、ステップS54において向かうべき物体ではないと判定された場合にも、走行制御部37は処理を終了する。さらに、ステップS55において向かうべき物体が正面にないと判定された場合には、図9の例では走行制御部37は処理を終了するが、変形例として、その物体に向かうように走行経路を構成し、これに従って掃除機100を走行させてもよい。
When it is determined in step S52 that the object to be avoided is not in front, the traveling
なお、図9は物体が1つだけ認識された場合の処理の例であるが、物体が複数認識された場合(避けるべき物体が複数認識された場合、向かうべき物体が複数認識された場合、避けるべき物体と向かうべき物体とが同時に認識された場合、等)の処理については、図9に関する上記の説明および公知技術等に基づいて当業者が適宜設計可能である。 Note that FIG. 9 is an example of the processing when only one object is recognized, but when a plurality of objects are recognized (when a plurality of objects to be avoided are recognized, when a plurality of objects to be headed are recognized, A person skilled in the art can appropriately design the processing such as (when the object to be avoided and the object to be headed are recognized at the same time) based on the above description with reference to FIG. 9 and known techniques.
このような制御により、掃除機100は、物体の形状に基づいて、掃除する空間に存在する物体に遮られることなく走行することができる一方で、掃除する空間に存在するゴミに向かって積極的に移動し掃除することができ、掃除する空間の掃除性能を高めることができる。 With such control, the cleaner 100 can travel without being blocked by an object existing in the space to be cleaned based on the shape of the object, while being positive toward the dust existing in the space to be cleaned. It can be moved to and cleaned to improve the cleaning performance of the space to be cleaned.
また、特許文献1に記載された技術と比較すると、特許文献1の技術は、障害物の有無および位置を検出するものではあるが、その結果に基づいて装置を走行させるものではなく、また、ケーブルのような障害物の個々の特徴に基づく制御を行うものでもない。実施例1に係る掃除機100は、床に配置されたケーブルなどが走行の障害となる課題や、部屋全体のゴミをしっかり吸引したいというニーズに対して、より良い解決策を提供することができる。
Further, as compared with the technique described in
さらに、特許文献2に記載された技術と比較すると、本発明の実施例1に係る掃除機100の撮像部12はステレオカメラや距離測定装置等を備える必要はなく、単一のカメラでも本発明の効果を得ることができるので、比較的簡易な構成で物体を認識することが可能である。
Further, as compared with the technique described in
実施例2.
実施例2は、実施例1の物体種類判定処理(図6のステップS2)の内容を一部変更するものである。以下、実施例1との相違を説明する。
Example 2.
The second embodiment is a partial modification of the content of the object type determination process (step S2 in FIG. 6) of the first embodiment. The difference from the first embodiment will be described below.
図10は、実施例2における物体種類判定処理(ステップS2’とする)の内容を説明するフローチャートである。実施例2における判定処理では、物体種類判定部36は、まず認識された物体の形状に基づいて、物体の重心の高さを求める(ステップS101)。重心の高さは、たとえば画像中における重心の高さである。画像中における重心の高さは、任意の方法で算出することができ、たとえば物体を表す領域を構成する画素の高さ(たとえばY座標値)の平均として算出してもよい。
FIG. 10 is a flowchart illustrating the contents of the object type determination process (referred to as step S2') in the second embodiment. In the determination process according to the second embodiment, the object
次に、物体種類判定部36は、画像中における物体の高さを算出する(ステップS102)。物体の高さは、任意の方法で算出することができ、たとえば物体のうち最も高い位置にある画素の高さ位置として算出してもよい。
Next, the object
次に、物体種類判定部36は、物体の高さに基づき、その物体の基準重心高さ(第1の高さ)を算出する(ステップS103)。基準重心高さは、任意の方法で算出することができ、たとえば物体の高さに所定比率(第1の所定比率)を乗じた値として算出してもよい。または、物体の形状に応じて基準となる重心の高さを決定する任意の方法を用いることができる。
Next, the object
次に、物体種類判定部36は、ステップS101で求めた重心の高さと、ステップS103で求めた基準重心高さとを比較する(ステップS104)。重心の高さが基準重心高さ未満である場合には、物体種類判定部36は、当該物体は向かうべき物体であると判定する(ステップS105)。一方、重心の高さが基準重心高さを超える場合には、物体種類判定部36は、当該物体は避けるべき物体であると判定する(ステップS106)。これらが等しい場合の分岐は任意に設計可能である。
Next, the object
このような判定方法によれば、比較的簡易な判定方法によって比較的正確に物体の種類を判定することができる。 According to such a determination method, the type of the object can be determined relatively accurately by a relatively simple determination method.
上述の実施例2では、「高さ」として画像中における高さを用いたが、変形例として、実空間における高さを用いてもよい。実空間における高さは、たとえば掃除機100(またはその基準部位)の高さとの差分として表されてもよい。その場合の変換規則および重心位置の求め方等は当業者が適宜設計可能であるが、一例を以下に示す。たとえば、物体種類判定部36が、撮像部12によって撮像された画像における高さと、実空間における高さとの対応関係をあらかじめ保持する。物体種類判定部36は、領域の下端の、画像における高さと、当該対応関係とに基づいて、その領域が示す物体の高さを求めてもよい。このようにすると、床に設置された物体または床に落ちている物体について、高さを適切に決定することができる。
Although the height in the image is used as the “height” in the second embodiment described above, the height in the real space may be used as a modified example. The height in the real space may be represented as a difference from the height of the vacuum cleaner 100 (or its reference portion), for example. Those skilled in the art can appropriately design the conversion rule and the method of obtaining the position of the center of gravity in that case, but an example is shown below. For example, the object
実施例3.
実施例3は、実施例1の物体種類判定処理(図6のステップS2)の内容を一部変更するものである。以下、実施例1との相違を説明する。
図11は、実施例3における物体種類判定処理を説明する図である。以下、実施例1との相違を説明する。
Example 3.
The third embodiment is a partial modification of the content of the object type determination process (step S2 in FIG. 6) of the first embodiment. The difference from the first embodiment will be described below.
FIG. 11 is a diagram illustrating the object type determination process according to the third embodiment. The difference from the first embodiment will be described below.
実施例3において、物体種類判定部36は、過去に実行された物体種類判定処理の結果を、記憶部38に保持する。図11の例では、過去10回の結果が保持される。判定処理の結果はどのような形式で表されてもよいが、図11の例では、画像を複数の領域に分割し、各領域において、避けるべき物体の専有面積の大きさを表す値が算出されている。
In the third embodiment, the object
各領域はたとえば矩形のセルであり、縦横それぞれ所定画素数を有する同一形状に区分される。また、専有面積の大きさは、たとえば1〜5の5段階で表され、当該領域の画素のうちその物体に対応する画素が20%未満の場合には1、20%以上40%未満の場合には2、40%以上60%未満の場合には3、60%以上80%未満の場合には4、80%以上の場合には5、というように決定される。 Each area is, for example, a rectangular cell and is divided into the same shape having a predetermined number of pixels in each of the vertical and horizontal directions. In addition, the size of the occupied area is represented by, for example, five levels of 1 to 5, and when the pixel corresponding to the object among the pixels in the region is less than 20%, it is 1, 20% or more and less than 40%. Is 2, 40% or more and less than 60%, 3, 60% or more and less than 80%, 4 or 80% or more, and so on.
図11の例では、画像を複数のセルに分割することによって、複数のセルを含むマトリクス50が生成されている。マトリクス50は、撮像部12によって撮像された画像のマトリクスであり、縦5セル×横10セルに画像を分割することによって生成される。
In the example of FIG. 11, the
物体種類判定部36は、各領域について、専有面積の大きさを表す値の過去の結果の多数決をとる。たとえば、ある領域について10回の結果のうち「2」が7回、「1」が3回であれば、多数決の結果としてその領域における避けるべき物体の専有面積の大きさは「2」となる。
The object
そして、物体種類判定部36は、多数決の結果に基づいて、領域ごとに避けるべき物体の有無を判定し、これによって避けるべき物体の位置を決定する。たとえば、避けるべき物体の専有面積の大きさが「2」以下である領域については、避けるべき物体は存在しないと判定し、避けるべき物体の専有面積の大きさが「3」以上である領域については、避けるべき物体が存在すると判定する。なお、画像中の領域の位置または座標(たとえば2次元座標)と、その領域が実空間において表す部分の位置または座標(たとえば3次元座標)との対応関係および変換規則は、当業者が公知技術等に基づいて適宜設計可能である。
Then, the object
実施例3の変形例として、物体の有無は領域ごとでなく領域の列ごとに決定されてもよい。領域の列は、たとえば画像中において縦に並ぶ領域(たとえばX座標が一致する領域)すべてによって構成される。領域の各列において、その列に含まれる領域の、避けるべき物体の専有面積の大きさを合計し、合計値が所定値(たとえば「7」)以上となる列については避けるべき物体が存在すると判定し、合計値が所定値未満となる列については避けるべき物体が存在しないと判定することができる。たとえば図11の多数決の例では、左から2列目〜4列目の領域列と、右から2列目および3列目の領域列とに物体が存在すると判定される。 As a modification of the third embodiment, the presence/absence of an object may be determined not for each region but for each column of the region. The row of regions is composed of, for example, all regions vertically aligned in the image (for example, regions having the same X coordinate). In each column of the region, the size of the area occupied by the objects to be avoided in the regions included in the column is summed up, and there is an object to be avoided in the column whose total value is equal to or greater than a predetermined value (eg, “7”). It is possible to determine that there is no object that should be avoided for the columns whose total value is less than the predetermined value. For example, in the example of majority vote in FIG. 11, it is determined that an object exists in the second to fourth region columns from the left and the second and third region columns from the right.
実施例3の別の変形例として、各領域について、避けるべき物体の専有面積の大きさを表す値に代えて、またはこれに加えて、その領域に存在する物体の種類を表す値が記録されてもよい。たとえば、各領域について、物体が存在しない場合には「0」、避けるべき物体が存在する場合には「1」、向かうべき物体が存在する場合には「2」、等というように値が記録されてもよい。 As another modification of the third embodiment, a value representing the type of the object existing in the area is recorded instead of or in addition to the value representing the size of the occupied area of the object to be avoided for each area. May be. For example, for each area, the value is recorded as "0" when there is no object, "1" when there is an object to be avoided, "2" when there is an object to be headed, etc. May be done.
実施例3の変形例として、任意の判定ルールを追加してもよい。たとえば、向かうべき物体が存在すると過去に判定されていた領域について、1回以上その領域を掃除機100が通過した後でも依然として向かうべき物体が存在すると判定される場合には、その領域には物体が存在しないと判定するようにしてもよい。このようにすると、不適切な判定を自動的に修正することができる。 As a modified example of the third embodiment, an arbitrary determination rule may be added. For example, when it is determined that there is an object to be headed even after the cleaner 100 has passed through the area once or more in the area where it was previously determined that there is an object to head, an object in that area is present. May be determined not to exist. By doing so, it is possible to automatically correct the inappropriate determination.
このように、画素単位でなく領域単位で物体の有無を判定することにより、記憶容量の要件を緩和することができる。または、限られた記憶容量で多くの過去の処理結果を保持することができる。 In this way, by determining the presence/absence of an object not in units of pixels but in units of regions, the storage capacity requirement can be relaxed. Alternatively, many past processing results can be held with a limited storage capacity.
上述の実施例1〜3において、以下のような変形を施すことができる。
実施例1〜3において、さらに掃除機100と通信可能な外部機器を追加してもよい。この外部機器は、リモコン200とは分離して構成されるモバイル端末であってもよい。モバイル端末は、たとえばスマートフォンまたはタブレット端末等であってもよい。
The following modifications can be made in the first to third embodiments described above.
In the first to third embodiments, an external device that can communicate with the
図12に、このような変形例において用いられるモバイル端末の構成の例を示す。このモバイル端末は、掃除機100から送信される情報に基づき、フィードバック画面を表示する機能を有する。図12では、掃除機100が向かうべき物体を検出した場合のフィードバック画面300の例が示されている。
FIG. 12 shows an example of the configuration of a mobile terminal used in such a modification. This mobile terminal has a function of displaying a feedback screen based on the information transmitted from the
フィードバック画面300では、部屋の間取り図と、向かうべき物体の検出結果とが、1つの画面内に表示されている。向かうべき物体の位置は、図12の例では間取り図上に「ゴミ」として示される。また、フィードバック画面300には、間取り図上に掃除機100の位置が示される。掃除機100の位置は、図12の例では「掃除機」として示される。さらに、フィードバック画面300には、向かうべき物体(ゴミ等)に対する掃除の進捗度を示すレベルゲージ301が表示されている。レベルゲージ301は向かうべき物体の量を示し、たとえば最大値が100であり、向かうべき物体の量が多いほどレベルゲージの値が上昇する。これにより、掃除機100のユーザは、掃除の進捗状況を一見して把握することができる。また、フィードバック画面300の表示には掃除機の走行データを使用してもよく、たとえば決定された走行経路を間取り図に重畳して表示してもよい。
On the
実施例1〜3の掃除機100は、自律走行型掃除機であり、すなわち、自律して掃除が可能な掃除機である。「自律して掃除が可能」という表現の意味は当業者が適宜解釈可能であるが、たとえば、所定の掃除動作単位の開始から終了まで、外部からの制御入力を受けずに動作可能であるということを意味する。このような構成によれば、掃除機の外部に複雑な制御システムを配置する必要がなく、全体の構成が簡素になる。なお、掃除以外の動作(充電、設定変更、等)については、外部からの制御入力を要するものであってもよい。
The
実施例1〜3の掃除機100は、単体で制御システムおよび掃除機を備える掃除システムとして構成されているが、制御システム(またはその一部)と掃除機とは分離して設けられてもよい。とくに、掃除機が外部の制御システムと通信しつつ、制御システムから司令を受信して掃除を行うように構成することも可能である。たとえば、掃除機が撮像した画像をインターネット上のサーバに送信し、サーバが物体の認識を行い、結果を掃除機に送信してもよい。とくに、撮像制御部31、人検出部32、壁検出部33、エッジ抽出部34、物体検出部35、物体種類判定部36、走行制御部37および記憶部38のうち少なくとも一部は、掃除機の外部に設けることが可能である。そのような構成では、掃除機は、少なくとも撮像部12と、近赤外線光源部13(存在する場合)とを備え、制御システムと通信する機能と、制御システムからの指示に基づいて走行する機能と、ゴミを吸い込む機能とを有するものとなる。このような構成によれば、掃除機の構成をより簡素なものとすることができる。
The
リモコン200は省略してもよい。その場合には、リモコン200の入力機能部(ボタン等)は、掃除機に設けられてもよい。
The
実施の形態1〜3では、物体認識部がエッジ抽出部34および物体検出部35を含む。このようにすると物体の適切な認識が可能であるが、物体認識部の構成はこれに限らない。
In the first to third embodiments, the object recognition unit includes the
実施の形態1〜3では、検出された物体について種類の判定が行われるが、種類の判定は省略可能である(その場合には物体種類判定部36は不要である)。たとえば、避けるべき物体のみを検出するように構成しておけば、検出された物体は種類に関わらずすべて避けるように走行させることができる。また、避けるべき物体を検出する必要がない場合等には、向かうべき物体のみを検出するように構成しておけば、検出された物体は種類に関わらずすべて向かうように走行させることができる。
In the first to third embodiments, the type of the detected object is determined, but the type determination can be omitted (in that case, the object
実施の形態1〜3におけるステップS3〜S5は任意に省略可能である。いずれかが省略される場合には、走行制御部37は、省略されたステップにおける検出結果を用いずに掃除機100の走行を制御する。
Steps S3 to S5 in the first to third embodiments can be arbitrarily omitted. When either of them is omitted, the traveling
実施例1〜3では、掃除機100の走行経路は、認識された物体のみに基づいて決定されるが、変形例として、さらに他の要因を参照して走行経路を決定してもよい。たとえば、室内のコーナ、間仕切り、人(または人の足元)、等の位置を参照してもよい。 In the first to third embodiments, the traveling route of the cleaner 100 is determined based on only the recognized object, but as a modified example, the traveling route may be determined with reference to other factors. For example, the position of a corner, partition, person (or person's foot), etc. in a room may be referred to.
実施例1〜3において、物体の面積として、物体を表す領域の、画像中における面積が用いられるが(ステップS28等)、変形例として、その領域に対応する物体の、実空間における投影面積を用いてもよい。その場合には、物体検出部35は、領域の実空間における投影面積を算出するために、掃除機100から物体までの距離を算出するための適切な処理を実行してもよい。
In Examples 1 to 3, the area of the region representing the object in the image is used as the area of the object (step S28 and the like), but as a modification, the projected area of the object corresponding to the region in the real space is used. You may use. In that case, the
この処理の一例を以下に示す。物体検出部35は、ある領域が示す物体の高さと、その領域の画像中における面積と、実空間における物体の投影面積との対応関係をあらかじめ保持しておき、この対応関係を参照し、その物体と他の基準構造物(たとえば壁)との距離とに基づいて、実空間における物体の投影面積を求めてもよい。
An example of this processing is shown below. The
なお、物体検出部35は、物体を表す領域であると決定された各領域について、その領域の位置、掃除機100から見た方向、その領域が示す物体の高さ、および、その領域が示す物体と掃除機100との距離を、記憶部38に格納してもよい。
Note that the
実施例1〜3では、撮像制御部31が、近赤外線光源部13の出力を、撮像部12が画像を撮像する間隔に合わせて、点灯および消灯させる。そのタイミングは任意に設計可能である。また、変形例として、撮像制御部31の制御内容は任意に設計可能である。たとえば、近赤外線光源部13は常に点灯していてもよい。また、撮像部12は、左右方向の回動に代えて、またはこれに加えて、上下方向に回動し、各方向の撮像を行ってもよい。また、撮像部12が広い範囲を撮像できるカメラを有する場合には、撮像部12は回動せず、単一方向の広角な範囲を撮像してもよい(その場合には図7の処理においてループ構造は不要である)。
In Examples 1 to 3, the
実施例1〜3において、近赤外線光源部13は、約850nm付近に波長のピークを持つ近赤外線を照射する。近赤外線の反射光を撮像した画像は、反射光の方向が撮像部12の方向に一致するほど白く(明るく、または輝度が強く)、撮像部12の方向から隔たるほど黒く(暗く、または輝度が弱く)なる。
In Examples 1 to 3, the near-infrared
一般に、木、布、金属、および紙等は、表面が粗く、近赤外線はその表面で拡散反射する。撮像部12が、拡散して反射した近赤外線のうち撮像部12の方向に反射した近赤外線を撮像することで、物体認識部は、反射する物体が反射した方向に存在することを検出することができる。
Generally, wood, cloth, metal, paper and the like have a rough surface, and near infrared rays are diffusely reflected on the surface. The object recognition unit detects that the reflecting object exists in the reflecting direction by the
このため、近赤外線の反射光を撮像した画像を用いることにより、物体認識部において、一般に室内に存在する物体の材質と、床、壁またはその他の物体の材質との相違を考慮した判定を行わせることができる。そして、物体等の物体の形状を、壁または床等の背景とは明確に識別できる画像を取得でき、立体的な物体の形状を明確に映す画像を取得することができる。 Therefore, by using an image obtained by capturing the reflected light of near infrared rays, the object recognition unit makes a determination in consideration of the difference between the material of the object generally existing in the room and the material of the floor, wall, or other object. Can be made. Then, an image that can clearly identify the shape of an object such as an object from a background such as a wall or a floor can be acquired, and an image that clearly reflects the shape of a three-dimensional object can be acquired.
撮像部12が上述のように850nm近傍の近赤外線を撮像した場合、画像には撮像された物体の色彩および模様が映されにくく、物体の形状だけが映されやすい。これは、近赤外線は、物体の材質および角度等により反射光が変化するものであり、色彩および模様等によっては反射光が変化しないためである。このため、物体の形状をより的確に認識できる可能性がある。
When the
なお、約850nm付近にピークを持つ近赤外線を近赤外線光源部13が照射する場合、その照射スペクトルには可視光も一部含まれるように構成することができる。このようにすると、近赤外線光源部13が点灯している場合に、室内の人が掃除機100を見ると、近赤外線光源部13が赤く点灯しているように見える。このため、近赤外線光源部13を設置した場合、近赤外線が点灯中であるか否かを表示する表示部が不要となるため、コストを低減することが可能となる。また、近赤外線画像には色彩が現れないため、画像を表すのに必要とされる情報量が低減される。また、色彩が現れないので、画像中のノイズが低減され、物体を検出する際の精度が向上する。
When the near-infrared
また、実施例1〜3では、近赤外線光源部13が点灯することにより反射光を用いて物体の立体的形状を正確に把握することが可能であるが、そのような利点がとくに有用でない場合には、近赤外線光源部13を省略してもよい。
In addition, in Examples 1 to 3, it is possible to accurately grasp the three-dimensional shape of the object by using the reflected light by turning on the near infrared
実施例1〜3では、撮像部12は可視光および近赤外線を用いた撮像が可能である。変形例として、これらのうち一方のみを用いてもよいし、これらに代えて、またはこれらに加えて、他の波長を用いて撮像を行ってもよい。
In Examples 1 to 3, the
実施例1〜3の掃除機100は、主に掃除を行うための装置であるが、変形例として、空気清浄や見守り機能等、その他の機能を備えてもよい。
The
なお、本発明の範囲は上記した実施例および変形例に限定されるものではなく、他の様々な変形例を含む。たとえば、上記した実施例および変形例は本発明を分かりやすく説明するために詳細に説明したものであり、本発明は説明した全ての構成を備えるものに限定されるものではない。 The scope of the present invention is not limited to the above-described embodiments and modified examples, and includes various other modified examples. For example, the above-described embodiments and modified examples have been described in detail in order to explain the present invention in an easy-to-understand manner, and the present invention is not limited to those having all the configurations described.
また、ある実施例または変形例の構成の一部を、他の実施例または変形例の構成の一部に置き換えることが可能であり、また、ある実施例または変形例の構成に、他の実施例または変形例の構成の一部を加えることも可能である。また、各実施例または変形例の構成の一部について、他の実施例または変形例の構成の一部を追加、削除または置換することが可能である。 Further, it is possible to replace a part of the configuration of a certain embodiment or a modified example with a part of the configuration of another example or a modified example. It is also possible to add a part of the configuration of the example or the modified example. Further, it is possible to add, delete or replace a part of the configuration of each embodiment or the modification with a part of the configuration of the other embodiment or the modification.
また、上記の各構成、機能、処理部、処理手順等は、それらの一部または全部を、たとえば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することにより、ソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、またはファイル等の情報は、メモリ、ハードディスク若しくはSSD(Solid State Drive)等の記録装置、または、ICカード、SDカード若しくはDVD等の記録媒体に置くことができる。 Further, each of the above-described configurations, functions, processing units, processing procedures, and the like may be realized by hardware by designing a part or all of them with, for example, an integrated circuit. Further, each of the above-described configurations, functions, and the like may be realized by software by a processor interpreting and executing a program that realizes each function. Information such as a program, a table, or a file that realizes each function can be placed in a recording device such as a memory, a hard disk or an SSD (Solid State Drive), or a recording medium such as an IC card, an SD card or a DVD.
また、制御線または情報線の構成は任意に設計可能である。 Further, the configuration of the control line or the information line can be designed arbitrarily.
10 センサ部(11 リモコン受信部、12 撮像部、13 近赤外線光源部、14 光透過部材)、20 モニター、30 制御部(31 撮像制御部、32 人検出部、33 壁検出部、34 エッジ抽出部、35 物体検出部、36 物体種類判定部、37 走行制御部、38 記憶部)、40 前面パネル、50 マトリクス、100 掃除機、200 リモコン、201 ボタン、300 フィードバック画面、301 レベルゲージ。 10 sensor section (11 remote control receiving section, 12 imaging section, 13 near infrared light source section, 14 light transmitting member), 20 monitor, 30 control section (31 imaging control section, 32 person detecting section, 33 wall detecting section, 34 edge extraction Section, 35 object detection section, 36 object type determination section, 37 running control section, 38 storage section), 40 front panel, 50 matrix, 100 vacuum cleaner, 200 remote controller, 201 button, 300 feedback screen, 301 level gauge.
Claims (11)
前記掃除機に搭載され、前記掃除機の周辺の画像を撮像する撮像部と、
前記画像において表されるエッジを抽出するエッジ抽出部と、
抽出された前記エッジに囲まれた領域を抽出し、抽出された前記領域に基づいて物体を検出する物体検出部と、
検出された前記物体の位置に基づいて、掃除機の走行を制御する走行制御部と、
を有する、制御システム。 A control system for a vacuum cleaner,
An image pickup unit mounted on the vacuum cleaner and configured to pick up an image of the vicinity of the vacuum cleaner,
An edge extractor for extracting edges represented in the image,
An object detection unit that extracts a region surrounded by the extracted edges, and detects an object based on the extracted region,
Based on the detected position of the object, a traveling control unit that controls traveling of the cleaner,
A control system.
前記撮像部は、近赤外線に基づいて前記画像を撮像する、制御システム。 The control system according to claim 1, wherein
The control system, wherein the imaging unit captures the image based on near infrared rays.
前記掃除機に搭載され、近赤外線を照射する近赤外線光源部と、
前記近赤外線光源部の動作を制御する光源制御部と
をさらに備え、
前記光源制御部は、前記近赤外線光源部の向き、高さまたは出力を調整する、
制御システム。 The control system according to claim 1 or 2, wherein
A near-infrared light source unit that is mounted on the vacuum cleaner and emits near-infrared rays,
Further comprising a light source control unit for controlling the operation of the near infrared light source unit,
The light source control unit adjusts the orientation, height or output of the near infrared light source unit,
Control system.
物体の種類を判定する物体種類判定部をさらに有し、
前記物体種類判定部は、
検出された前記物体の形状に基づいて、当該物体の重心の高さを求め、
前記重心の高さと、当該物体の画像中の高さに第1の所定比率を乗じた第1の高さとを比較し、
前記重心の高さが前記第1の高さ未満である場合、前記物体は前記掃除機が向かうべき物体であると判定し、
前記重心の高さが前記第1の高さを超える場合、前記物体は前記掃除機が避けるべき物体であると判定する、
制御システム。 The control system according to any one of claims 1 to 4,
It further has an object type determination unit for determining the type of object,
The object type determination unit,
Based on the detected shape of the object, find the height of the center of gravity of the object,
Comparing the height of the center of gravity and the first height obtained by multiplying the height in the image of the object by a first predetermined ratio,
When the height of the center of gravity is less than the first height, it is determined that the object is an object to which the cleaner should head,
If the height of the center of gravity exceeds the first height, the object is determined to be an object that the cleaner should avoid.
Control system.
前記物体検出部は、
抽出された前記領域の輝度複雑度を算出し、
算出された前記輝度複雑度が所定の範囲内に含まれるか否かに基づいて、当該領域が物体を表すか否かを判定する、
制御システム。 The control system according to claim 1, wherein
The object detection unit,
Calculating the brightness complexity of the extracted region,
Based on whether or not the calculated brightness complexity is included in a predetermined range, it is determined whether or not the region represents an object,
Control system.
前記物体検出部は、
抽出された前記領域の円形度を算出し、
算出された前記円形度が所定の範囲内に含まれるか否かに基づいて、当該領域が物体を表すか否かを判定する、
制御システム。 The control system according to claim 1 or 6, wherein
The object detection unit,
Calculate the circularity of the extracted region,
Based on whether or not the calculated circularity is included in a predetermined range, it is determined whether or not the region represents an object,
Control system.
前記物体検出部は、
抽出された前記領域の面積を算出し、
算出された前記面積が所定の範囲内に含まれるか否かに基づいて、当該領域が物体を表すか否かを判定する、
制御システム。 The control system according to any one of claims 1 to 7,
The object detection unit,
Calculate the area of the extracted region,
Based on whether or not the calculated area is included in a predetermined range, it is determined whether or not the region represents an object,
Control system.
ゴミを吸い込む掃除機と、
を備える、掃除システム。 A control system according to any one of claims 1 to 8,
A vacuum cleaner that sucks in trash,
A cleaning system.
前記掃除機の周辺の画像を撮像するステップと、
前記画像において表されるエッジを抽出するステップと、
抽出された前記エッジに囲まれた領域を抽出し、抽出された前記領域に基づいて物体を検出するステップと、
検出された前記物体の位置に基づいて、前記掃除機の走行を制御するステップと、
を有する、制御方法。 A method of controlling a vacuum cleaner,
Capturing an image of the area around the vacuum cleaner,
Extracting the edges represented in the image,
Extracting a region surrounded by the extracted edge, and detecting an object based on the extracted region,
Controlling the travel of the vacuum cleaner based on the detected position of the object;
And a control method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018224600A JP7173846B2 (en) | 2018-11-30 | 2018-11-30 | Vacuum cleaner control system, autonomous vacuum cleaner, cleaning system, and vacuum cleaner control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018224600A JP7173846B2 (en) | 2018-11-30 | 2018-11-30 | Vacuum cleaner control system, autonomous vacuum cleaner, cleaning system, and vacuum cleaner control method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020087240A true JP2020087240A (en) | 2020-06-04 |
JP7173846B2 JP7173846B2 (en) | 2022-11-16 |
Family
ID=70908446
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018224600A Active JP7173846B2 (en) | 2018-11-30 | 2018-11-30 | Vacuum cleaner control system, autonomous vacuum cleaner, cleaning system, and vacuum cleaner control method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7173846B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112386177A (en) * | 2020-11-04 | 2021-02-23 | 深圳市云视机器人有限公司 | Cleaning device motion control method, storage medium and cleaning device |
CN113786134A (en) * | 2021-09-27 | 2021-12-14 | 汤恩智能科技(上海)有限公司 | Cleaning method, program product, readable medium and electronic device |
CN114913223A (en) * | 2021-02-09 | 2022-08-16 | 北京盈迪曼德科技有限公司 | Positive direction identification method and system of visual sweeper |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006047067A (en) * | 2004-08-03 | 2006-02-16 | Funai Electric Co Ltd | Human body detecting device and human body detecting method |
WO2014196272A1 (en) * | 2013-06-03 | 2014-12-11 | Sako Yoichiro | Vacuum cleaner |
JP2015181062A (en) * | 2010-12-30 | 2015-10-15 | アイロボット コーポレイション | coverage robot navigation |
JP2016061457A (en) * | 2014-09-16 | 2016-04-25 | 日立アプライアンス株式会社 | Air conditioner |
-
2018
- 2018-11-30 JP JP2018224600A patent/JP7173846B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006047067A (en) * | 2004-08-03 | 2006-02-16 | Funai Electric Co Ltd | Human body detecting device and human body detecting method |
JP2015181062A (en) * | 2010-12-30 | 2015-10-15 | アイロボット コーポレイション | coverage robot navigation |
WO2014196272A1 (en) * | 2013-06-03 | 2014-12-11 | Sako Yoichiro | Vacuum cleaner |
JP2016061457A (en) * | 2014-09-16 | 2016-04-25 | 日立アプライアンス株式会社 | Air conditioner |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112386177A (en) * | 2020-11-04 | 2021-02-23 | 深圳市云视机器人有限公司 | Cleaning device motion control method, storage medium and cleaning device |
CN114913223A (en) * | 2021-02-09 | 2022-08-16 | 北京盈迪曼德科技有限公司 | Positive direction identification method and system of visual sweeper |
CN113786134A (en) * | 2021-09-27 | 2021-12-14 | 汤恩智能科技(上海)有限公司 | Cleaning method, program product, readable medium and electronic device |
CN113786134B (en) * | 2021-09-27 | 2023-02-03 | 汤恩智能科技(上海)有限公司 | Cleaning method, program product, readable medium and electronic device |
Also Published As
Publication number | Publication date |
---|---|
JP7173846B2 (en) | 2022-11-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11042760B2 (en) | Mobile robot, control method and control system thereof | |
US11467603B2 (en) | Moving robot and control method thereof | |
US9629514B2 (en) | Traveling cleaning appliance and method for operating such an appliance | |
US10545497B1 (en) | Control method and device for mobile robot, mobile robot | |
RU2620236C1 (en) | Automated cleaning system, cleaning robot and method for cleaning robot control | |
CN106983449B (en) | Mapping with area division | |
CN112739244A (en) | Mobile robot cleaning system | |
JP7173846B2 (en) | Vacuum cleaner control system, autonomous vacuum cleaner, cleaning system, and vacuum cleaner control method | |
EP3308911A1 (en) | Mobile robot and method of controlling same | |
US11759075B2 (en) | Cleaner and control method thereof | |
EP3432107A1 (en) | Cleaning robot and controlling method thereof | |
EP2623010A2 (en) | Robot cleaner | |
EP2677386A1 (en) | Robot cleaner and obstacle detection control method of the same | |
US12059115B2 (en) | Cleaner and method for controlling same | |
US20220257075A1 (en) | Moving robot and method of controlling the same | |
CN113703439A (en) | Autonomous mobile device control method, device, equipment and readable storage medium | |
JP7346912B2 (en) | Cleaning support device, cleaning support system, vacuum cleaner, and cleaning support method | |
WO2022135556A1 (en) | Cleaning robot and cleaning control method therefor | |
KR102397035B1 (en) | Use of augmented reality to exchange spatial information with robotic vacuums | |
KR102711192B1 (en) | A moving robot and an controlling method for the same | |
KR20210122921A (en) | Robot cleaner and Controlling method for the same | |
US20240335083A1 (en) | Mobile terminal and system | |
JP7417944B2 (en) | Autonomous vacuum cleaner, autonomous vacuum cleaner control method, and program | |
KR102711193B1 (en) | A moving robot and an controlling method for the same | |
JP2022165192A (en) | Area recognition system, moving object and area recognition device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210623 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220531 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220607 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220805 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221004 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221104 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7173846 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |