JP7417944B2 - Autonomous vacuum cleaner, autonomous vacuum cleaner control method, and program - Google Patents
Autonomous vacuum cleaner, autonomous vacuum cleaner control method, and program Download PDFInfo
- Publication number
- JP7417944B2 JP7417944B2 JP2020124569A JP2020124569A JP7417944B2 JP 7417944 B2 JP7417944 B2 JP 7417944B2 JP 2020124569 A JP2020124569 A JP 2020124569A JP 2020124569 A JP2020124569 A JP 2020124569A JP 7417944 B2 JP7417944 B2 JP 7417944B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- recognition
- unit
- vacuum cleaner
- autonomous vacuum
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 51
- 238000003672 processing method Methods 0.000 claims description 10
- 238000004891 communication Methods 0.000 description 58
- 238000004140 cleaning Methods 0.000 description 57
- 238000012545 processing Methods 0.000 description 34
- 238000010586 diagram Methods 0.000 description 30
- 230000008569 process Effects 0.000 description 25
- 238000001514 detection method Methods 0.000 description 24
- 238000004590 computer program Methods 0.000 description 4
- 230000010354 integration Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000007423 decrease Effects 0.000 description 3
- 239000000428 dust Substances 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 238000010411 cooking Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000001172 regenerating effect Effects 0.000 description 1
Images
Landscapes
- Electric Vacuum Cleaner (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Description
本発明は、所定の空間を自律走行して掃除する自律走行型掃除機、自律走行型掃除機の制御方法、及び、プログラムに関する。 The present invention relates to an autonomous vacuum cleaner that autonomously moves and cleans a predetermined space, a method for controlling the autonomous vacuum cleaner, and a program.
従来、家屋内等の所定の空間を自律走行して掃除する自律走行型掃除機がある。 2. Description of the Related Art Conventionally, there are autonomous vacuum cleaners that autonomously run and clean a predetermined space such as inside a house.
例えば、特許文献1には、自律走行型掃除機として、周囲を撮像することで画像を取得し、取得した画像を画像解析することで周囲に位置する物体を認識し、認識した物体に基づいて走行して掃除する清掃ロボットが開示されている。また、例えば、特許文献2には、自律走行型掃除機として、周囲を撮像することで画像を取得し、当該画像を画像解析することで自装置が位置するシーンを推定し、推定したシーンに基づいて動作する移動体装置が開示されている。 For example, in Patent Document 1, an autonomous vacuum cleaner acquires an image by capturing the surroundings, analyzes the acquired image to recognize objects located in the surroundings, and based on the recognized object. A cleaning robot that moves and cleans is disclosed. For example, in Patent Document 2, an autonomous vacuum cleaner acquires an image by capturing the surroundings, analyzes the image to estimate the scene in which the device is located, and uses the estimated scene. A mobile device is disclosed that operates based on the invention.
上記した特許文献1に開示されている清掃ロボットは、画像解析することで当該画像に含まれる物体を認識する。物体の認識では、例えば、画像に含まれる特徴点等から物体を抽出し、抽出した物体が予め定められる認識対象であるか否かが判定される。抽出した物体が予め定められる認識対象であると判定した場合、当該物体が認識対象であると認識される。 The cleaning robot disclosed in Patent Document 1 mentioned above recognizes objects included in an image by analyzing the image. In object recognition, for example, an object is extracted from feature points included in an image, and it is determined whether the extracted object is a predetermined recognition target. If it is determined that the extracted object is a predetermined recognition target, the object is recognized as a recognition target.
ここで、予め定められる認識対象の数が多い場合、当該物体が認識対象であるか否かの判定精度、つまり、認識率が低下する。一方、認識対象の数を無作為に減らすと、カメラ等から得られる画像に物体が含まれていたとしても、当該物体を認識対象として認識できないために自律走行型掃除機が回避して走行すべき物体に乗り上げてしまう等して走行できなくなる等の不具合が発生する可能性がある。 Here, when the number of predetermined recognition targets is large, the accuracy of determining whether the object is a recognition target, that is, the recognition rate decreases. On the other hand, if the number of recognition targets is randomly reduced, even if an object is included in the image obtained from a camera, etc., the autonomous vacuum cleaner will avoid the object because it cannot be recognized as a recognition target. There is a possibility that problems such as running over an object and being unable to drive may occur.
本発明は、認識対象を認識する認識率を向上できる自律走行型掃除機等を提供する。 The present invention provides an autonomous vacuum cleaner and the like that can improve the recognition rate of recognition targets.
本発明の一態様に係る自律走行型掃除機は、所定の空間を自律走行して掃除する自律走行型掃除機であって、前記所定の空間における前記自律走行型掃除機の自己位置を取得する自己位置取得部と、それぞれが画像に含まれる認識対象を認識するための画像処理方法を示す認識情報であって、互いに1以上の認識対象が異なる複数の認識情報の中から1つの認識情報を前記自己位置に基づいて決定する決定部と、前記所定の空間を撮影するカメラから得られる撮影画像を、前記決定部が決定した前記1つの認識情報を用いて画像解析することで、前記撮影画像に含まれる認識対象を認識する認識部と、前記認識部の認識結果に基づいて、前記自律走行型掃除機を走行させて掃除させる制御部と、を備える。 An autonomous vacuum cleaner according to one aspect of the present invention is an autonomous vacuum cleaner that autonomously moves and cleans a predetermined space, and acquires a self-position of the autonomous vacuum cleaner in the predetermined space. A self-position acquisition unit and recognition information each indicating an image processing method for recognizing a recognition target included in an image, each of which recognizes one recognition information from a plurality of recognition information that differ in one or more recognition targets from each other. The determination unit that determines based on the self-position and the camera that photographs the predetermined space perform image analysis on the captured image using the one recognition information determined by the determination unit, thereby determining the captured image. A recognition unit that recognizes a recognition target included in the recognition unit, and a control unit that causes the autonomous vacuum cleaner to travel and clean based on the recognition result of the recognition unit.
また、本発明の一態様に係る自律走行型掃除機の制御方法は、所定の空間を自律走行して掃除する自律走行型掃除機の制御方法であって、前記所定の空間における前記自律走行型掃除機の自己位置を取得する自己位置取得ステップと、それぞれが画像に含まれる認識対象を認識するための画像処理方法を示す複数の認識情報であって、互いに1以上の認識対象が異なる複数の認識情報の中から1つの認識情報を前記自己位置に基づいて決定する決定ステップと、前記所定の空間を撮影するカメラから得られる撮影画像を、前記決定ステップで決定した前記1つの認識情報を用いて画像解析することで、前記撮影画像に含まれる認識対象を認識する認識ステップと、前記認識ステップでの認識結果に基づいて、前記自律走行型掃除機を走行させて掃除させる制御ステップと、を含む。 Further, a method for controlling an autonomous vacuum cleaner according to one aspect of the present invention is a method for controlling an autonomous vacuum cleaner that autonomously moves and cleans a predetermined space, the autonomous vacuum cleaner cleaning in the predetermined space. A self-position acquisition step for acquiring the self-position of the vacuum cleaner, and a plurality of pieces of recognition information each indicating an image processing method for recognizing a recognition target included in an image, the plurality of pieces of recognition information each having one or more recognition targets different from each other. a determining step of determining one recognition information from recognition information based on the self-position; and a photographed image obtained from a camera photographing the predetermined space using the one recognition information determined in the determining step. a recognition step of recognizing a recognition target included in the photographed image by analyzing the image; and a control step of causing the autonomous vacuum cleaner to run and clean based on the recognition result in the recognition step. include.
また、本発明の一態様に係るプログラムは、上記記載の自律走行型掃除機の制御方法をコンピュータに実行させるためのプログラムである。 Further, a program according to one aspect of the present invention is a program for causing a computer to execute the method for controlling an autonomous vacuum cleaner described above.
なお、本発明は、上記プログラムを記録したコンピュータによって読み取り可能なCD-ROM等の非一時的な記録媒体として実現されてもよい。また、本発明は、そのプログラムを示す情報、データ又は信号として実現されてもよい。そして、それらプログラム、情報、データ及び信号は、インターネット等の通信ネットワークを介して配信されてもよい。 Note that the present invention may be realized as a non-temporary recording medium such as a computer-readable CD-ROM in which the above program is recorded. Further, the present invention may be realized as information, data, or a signal indicating the program. These programs, information, data, and signals may be distributed via a communication network such as the Internet.
本発明の一態様に係る自律走行型掃除機等によれば、認識対象を認識する認識率を向上できる。 According to an autonomous vacuum cleaner or the like according to one aspect of the present invention, the recognition rate for recognizing a recognition target can be improved.
以下では、本発明に係る自律走行型掃除機等の実施の形態について、図面を用いて詳細に説明する。なお、以下に説明する実施の形態は、いずれも本発明の好ましい一具体例を示すものである。したがって、以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置及び接続形態、ステップ、ステップの順序等は、一例であり、本発明を限定する主旨ではない。 DESCRIPTION OF THE PREFERRED EMBODIMENTS Below, embodiments of an autonomous vacuum cleaner and the like according to the present invention will be described in detail with reference to the drawings. It should be noted that the embodiments described below each represent a preferred specific example of the present invention. Therefore, the numerical values, shapes, materials, components, arrangement and connection forms of the components, steps, order of steps, etc. shown in the following embodiments are merely examples, and do not limit the present invention.
なお、当業者が本発明を十分に理解するために添付図面及び以下の説明を提供するのであって、これらによって特許請求の範囲に記載の主題を限定することを意図するものではない。 The accompanying drawings and the following description are provided to enable those skilled in the art to fully understand the present invention, and are not intended to limit the subject matter recited in the claims.
また、各図は、模式図であり、必ずしも厳密に図示されたものではない。また、各図において、実質的に同一の構成に対しては同一の符号を付しており、重複する説明は省略又は簡略化される場合がある。 Furthermore, each figure is a schematic diagram and is not necessarily strictly illustrated. Furthermore, in each figure, substantially the same configurations are denoted by the same reference numerals, and overlapping explanations may be omitted or simplified.
また、以下の実施の形態においては、略三角形等の「略」を用いた表現を用いている。例えば、略三角形とは、完全に三角形であることを意味するだけでなく、実質的に三角形である、すなわち、例えば角丸な三角形等も含むことも意味する。他の「略」を用いた表現についても同様である。 Furthermore, in the following embodiments, expressions using "approximately", such as approximately triangular, are used. For example, "substantially triangular" means not only a complete triangle but also a substantially triangular shape, that is, a triangle with rounded corners, for example. The same applies to other expressions using "abbreviation".
また、以下の実施の形態においては、所定の空間のフロアを走行して掃除する自律走行型掃除機を鉛直上方側から見た場合を上面視とし、鉛直下方側から見た場合を底面視として記載する場合がある。 In addition, in the following embodiments, when an autonomous vacuum cleaner that runs and cleans a floor in a predetermined space is viewed from vertically above, it is referred to as a top view, and when viewed from vertically below, it is referred to as a bottom view. May be stated.
(実施の形態)
[構成]
まず、実施の形態に係る自律走行型掃除機100の構成について、図1~図6を参照しながら説明する。
(Embodiment)
[composition]
First, the configuration of an
図1は、実施の形態に係る自律走行型掃除機100の外観を示す外観図である。図2は、実施の形態に係る自律走行型掃除機100の外観を示す底面図である。図3は、実施の形態に係る自律走行型掃除機100の機能構成を示すブロック図である。
FIG. 1 is an external view showing the external appearance of an
自律走行型掃除機100は、居室等の所定の空間を自律走行して掃除する自律走行型の掃除機である。
The
まず、自律走行型掃除機100は、レーザ測距計40、カメラ70等を用いて所定の空間(より具体的には、所定の空間内)を撮像しながら走り回ることで、所定の空間の地図を示す地図情報210(データ)を生成する。
First, the
次に、自律走行型掃除機100は、生成した地図情報210に基づいて、所定の空間を掃除する際に走行する走行経路を算出する。
Next, the
次に、自律走行型掃除機100は、算出した走行経路で、所定の空間を走行して掃除する。
Next, the
自律走行型掃除機100は、所定の空間の様子をカメラ70、及び、クリフセンサ等のセンサを用いて観測することにより、所定の空間に存在する物体(障害物)を避けるかを自律的に判定し、物体が存在する場合には算出した走行経路から離脱して、つまり、当該物体を回避する走行経路を新たに算出し、当該物体を避けながら走行して掃除する。
The
自律走行型掃除機100は、例えば、SLAM(Simultaneous Localization and Mapping)により、掃除する所定の空間の地図情報210の生成と、生成した地図情報210に示される地図における自律走行型掃除機100の自己位置の推定とを行う。
The
図1及び図2に示すように、自律走行型掃除機100は、例えば、本体部10と、2つの車輪20と、2つのサイドブラシ30と、レーザ測距計40と、メインブラシ50と、カメラ70と、深度センサ90と、を備える。
As shown in FIGS. 1 and 2, the
本体部10は、自律走行型掃除機100が備える各構成要素が配置(より具体的には、収容)される筐体である。本実施の形態では、本体部10は、上面視において、略三角形状である。なお、本体部10の上面視における形状は、特に限定されない。本体部10の上面視形状は、例えば、略矩形状でもよいし、略円形状でもよい。図2に示すように、本体部10は、底面に吸込口11を有する。
The
2つの車輪20は、自律走行型掃除機100を走行させるための車輪である。
The two
サイドブラシ30は、本体部10の下面に設けられ、所定の空間のフロア(以下、単にフロアともいう)を掃除するためのブラシである。本実施の形態では、自律走行型掃除機100は、2つのサイドブラシ30を備える。自律走行型掃除機100が備えるサイドブラシ30の数は、1つでもよいし、3つ以上でもよく、特に限定されない。
The
レーザ測距計40は、自律走行型掃除機100と、所定の空間における物体、壁面等との距離を測定するためのセンサである。レーザ測距計40は、例えば、本体部10の上部に設けられている。レーザ測距計40は、例えば、いわゆるLIDAR(Light Detection and Ranging)である。
The
メインブラシ50は、本体部10の下面に設けられている開口である吸込口11に配置され、フロアのゴミを吸引するためのブラシである。
The
カメラ70は、所定の空間を撮影することで画像を生成する撮像装置である。具体的には、カメラ70は、本体部10に配置され、自律走行型掃除機100の周囲(より具体的には、自律走行型掃除機100が進行する向き)を撮影することで、画像を生成する。カメラ70は、生成した画像を認識部115に出力する。
The
なお、カメラ70は、本実施の形態では、本体部10に配置されているが、所定の空間を撮影できればよく、本体部10に配置されていなくてもよい。
Note that although the
深度センサ90は、所定の空間を撮影することで画像(深度画像)を生成し、生成した深度画像に含まれる被写体である物体(より具体的には、被写体を構成する各ピクセル)と自律走行型掃除機100との距離を検出するセンサである。深度センサ90は、例えば、赤外線カメラである。
The
図3に示すように、自律走行型掃除機100は、レーザ測距計40、カメラ70、及び、深度センサ90等の上記した各種センサと、自己位置取得部112と、対応情報取得部113と、決定部114と、認識部115と、形状検知部116と、座標検知部117と、計画生成部120と、制御部130と、記憶部140と、清掃部150と、駆動部160と、吸引部170と、通知部180と、受付部190と、登録部191と、を備える。
As shown in FIG. 3, the
自己位置取得部112は、所定の空間における自律走行型掃除機100の自己位置を取得する処理部である。より具体的には、自己位置取得部112は、所定の空間を示す地図における自律走行型掃除機100の自己位置を示す地図における座標を示す情報である自己位置情報を取得する。本実施の形態では、自己位置取得部112は、レーザ測距計40の検出結果に基づいて、所定の空間における自己位置を推定することで、当該自己位置を取得する。自己位置取得部112は、例えば、レーザ測距計40から入力された自律走行型掃除機100の周囲に位置する、障害物、壁等を含む物体との距離と、記憶部140に記憶されている、所定の空間を示す地図(地図情報210)とに基づいて、当該地図における自律走行型掃除機100の座標を算出する。自己位置取得部112は、自己位置を取得した時刻等と紐づけて、決定部114及び座標検知部117に出力する。
The self-
なお、自己位置取得部112は、図示しないコンピュータ等の外部装置と通信することで、当該外部装置から自己位置情報を取得してもよい。この場合、自己位置取得部112は、外部装置と通信するための通信インターフェースを有し、当該通信インターフェースを介して自己位置情報を取得してもよい。
Note that the self-
また、本実施の形態では、地図情報210は、記憶部140に予め記憶されている。記憶部140に地図情報210が予め記憶されていない場合、例えば、後述する制御部130は、上記したSLAMにより、レーザ測距計40、カメラ70、駆動部160等を制御することで、所定の空間を撮像させながら走行させることで、所定の空間の地図を示す地図情報210を生成して記憶部140に記憶させてもよい。
Further, in the present embodiment,
対応情報取得部113は、対応情報220を取得する処理部である。
The correspondence
対応情報220は、それぞれが所定の空間の一部の領域であって、互いに異なる複数の領域ごとに、互いに1以上の認識対象が異なる認識情報が紐付けられた情報である。対応情報220は、例えば、それぞれが所定の空間の一部の領域であって、互いに異なる複数の領域を示す領域情報221と、それぞれが画像に含まれる認識対象を認識するための画像処理方法を示す認識情報(認識モデル)であって、互いに1以上の認識対象が異なる複数の認識情報を含むモデル情報222と、を含む情報である。複数の領域は、それぞれ、複数の認識情報のいずれかと紐付けられている。
The
認識情報は、カメラ70によって生成された画像に含まれる物体の種別を認識(特定)するための処理方法(より具体的には、プログラム)である。例えば、異なる認識情報とは、認識する物体の種別(種類)が1以上異なるプログラムである。対応情報220の具体例については、後述する。
The recognition information is a processing method (more specifically, a program) for recognizing (identifying) the type of object included in the image generated by the
本実施の形態では、対応情報220は、記憶部140に記憶されており、記憶部140から対応情報220を取得する。
In this embodiment, the
なお、対応情報取得部113は、図示しないコンピュータ等の外部装置(例えば、図11Aに示す通信端末300)と通信することで、当該外部装置から対応情報220を取得してもよい。この場合、対応情報取得部113は、外部装置と通信するための通信インターフェースを有し、当該通信インターフェースを介して対応情報220を取得してもよい。
Note that the correspondence
対応情報取得部113は、自己位置取得部112が取得した自己位置と、対応情報220とに基づいて、複数の領域の中で所定の空間において自律走行型掃除機100が位置する領域を決定し、決定した領域を示す情報(より具体的には、後述する場所ID(ID/Identification))を決定部114に出力する。
The correspondence
決定部114は、それぞれが画像に含まれる認識対象を認識するための画像処理方法を示す認識情報であって、互いに1以上の認識対象が異なる複数の認識情報の中から1つの認識情報を自己位置に基づいて決定する処理部である。具体的には、決定部114は、自己位置取得部112が取得した自律走行型掃除機100の自己位置に対応する領域に応じて、自律走行型掃除機100の周囲に位置する特定の認識対象を認識するための認識情報を決定する。より具体的には、決定部114は、自律走行型掃除機100の自己位置と、対応情報取得部113から出力された場所IDとに基づいて、自律走行型掃除機100の周囲に位置する特定の認識対象のみを認識するための認識情報を決定する。
The determining
例えば、決定部114は、自律走行型掃除機100の自己位置と対応情報220とに基づいて、複数の認識対象から1以上の認識対象を決定する。言い換えると、決定部114は、自律走行型掃除機100の自己位置と対応情報220とに基づいて、モデル情報222に含まれる複数の認識情報から1つの認識情報を決定する。
For example, the determining
例えば、決定部114は、複数の領域における一の領域から他の領域に移動した場合、当該一の領域に応じた認識情報を他の領域に応じた認識情報に切り替える。決定部114は、決定した認識情報の種別を示す情報(例えば、モデルID)を認識部115に出力する。
For example, when the determining
認識部115は、所定の空間を撮影するカメラ70から得られる画像(撮影画像)を、決定部114が決定した1つの認識情報を用いて画像解析することで、当該撮影画像に含まれる認識対象を認識する処理部である。具体的には、認識部115は、所定の空間を撮影するカメラ70から得られる撮影画像に含まれる、決定部114が決定した認識情報を用いて1以上の認識対象のみを認識するための画像処理をする。より具体的には、認識部115は、所定の空間を撮影するカメラ70から得られる撮影画像に含まれる、決定部114が決定した認識情報を用いて1以上の認識対象のみを認識するための画像処理をすることで、当該撮影画像に当該1以上の認識対象のいずれかが含まれているか否かを判定する。
The
例えば、認識部115は、カメラ70から得られる撮影画像と、決定部が決定した認識情報を用いて、認識対象の画像等の情報と比較することで、認識対象が画像に含まれているかを判定することで認識対象を認識する。より具体的、認識部115は、カメラ70から撮影画像を生成した時刻と、当該撮影画像のR(Red)、G(Green)、及び、B(Blue)を示す数値及び撮影画像における位置を示す識別番号(ピクセル番号)等、つまり、ピクセルごとのRGB値と、をカメラ70から取得し、取得した情報に基づいて画像解析することで、物体の種別を特定することで、認識対象を認識する。
For example, the
例えば、認識部115は、「ペットボトル」及び「リモコン」を認識対象とする認識情報を用いた場合、カメラ70から得られる撮影画像に「ペットボトル」又は「リモコン」が含まれているときにはそれぞれ認識できるが、「ペットボトル」及び「リモコン」以外の物体が画像に含まれていても認識できない。つまり、認識部115は、決定部114が決定した認識情報に応じた認識対象のみを認識し、当該認識対象以外の物体については画像に含まれていたとしても認識できない。
For example, when the
認識部115は、認識した認識対象の種別と、認識対象が含まれる撮影画像が撮影された時刻を示す時刻情報とを紐づけて座標検知部117に出力する。より具体的には、認識部115は、撮影画像に含まれる認識対象のバウンディングボックス(認識対象を囲む外接矩形の枠)を算出し、算出したバウンディングボックスの位置(より具体的には、ピクセル位置)を示す情報を座標検知部117に出力する。
The
形状検知部116は、深度センサ90が生成した深度画像及び当該深度画像が撮影された時刻を示す情報等を取得し、当該深度画像を解析することで当該深度画像に含まれる物体と自律走行型掃除機100との距離(相対距離、より具体的には相対位置)、及び、当該物体の幅、高さ等を検知(算出)する処理部である。
The
例えば、記憶部140には、本体部10における深度センサ90の設置位置を示す位置情報、及び、本体部10のサイズを示すサイズ情報等が予め記憶されている。形状検知部116は、これらの情報に基づいて、本体部10と深度画像に含まれる物体との距離(より具体的には、最も近接する距離である最近接距離)を算出する。形状検知部116は、算出した物体までの距離、及び、物体の幅、高さ等を物体の形状情報と、深度画像が撮影された時刻とを紐づけて座標検知部117に出力する。
For example, the
座標検知部117は、形状検知部116が検知した自律走行型掃除機100と物体との相対距離(より具体的には、相対位置)と、自己位置取得部112が取得した自律走行型掃除機100の地図における位置とから、地図における物体の位置(座標)を算出(検知)する処理部である。また、座標検知部117は、例えば、認識部115が認識した認識対象と、形状検知部116が検知した物体とを、時刻等によって紐づける。これにより、座標検知部117は、形状検知部116が検知した物体の位置、形状、及び、種別を特定する。座標検知部117は、例えば、検知した物体の座標を示す情報を記憶部140に記憶させる。
The coordinate
また、座標検知部117は、認識部115が認識対象を認識した時刻(つまり、形状検知部116が物体を検知した時刻)を示す時刻情報と、検知した物体の位置を示す位置情報と、物体の種別を示す種別情報と、を計画生成部120に出力する。
The coordinate
計画生成部120は、自律走行型掃除機100の走行経路、メインブラシ50等の駆動のタイミング等の掃除の仕方(掃除態様)を示す計画情報を生成する処理部である。例えば、自律走行型掃除機100が所定の空間をどのように走行して掃除するかを示す掃除計画(計画情報)を生成する。
The
例えば、計画生成部120は、地図情報210に基づいて、自律走行型掃除機100が所定の領域全体を走行するように、走行経路を生成する。また、例えば、計画生成部120は、所定の空間の位置に応じた自律走行型掃除機100の車輪モータ161の回転数、車輪20の向き等の駆動部160の制御方法である走行方法を決定する。また、例えば、計画生成部120は、所定の空間の位置に応じた自律走行型掃除機100の清掃部150の制御方法(例えば、ブラシモータ151の回転数)、及び、吸引部170の制御方法(例えば、吸引力、より具体的には、吸引モータ171の回転数)等を含む掃除方法を示す掃除方法情報を含む計画情報を生成する。
For example, the
また、例えば、計画生成部120は、認識部115が認識した認識対象の周囲を走行する場合、走行パターン情報230に基づいて、自律走行型掃除機100が走行する走行経路を生成する。例えば、走行パターン情報230は、認識対象の種別に応じた走行経路及び掃除方法情報を含み、計画生成部120は、例えば、走行パターン情報230に基づいて、計画情報を生成する。走行パターン情報230の詳細については、後述する。
For example, when the
このように、計画生成部120は、認識部115で認識された認識対象に対して、どのように走行及び掃除するか、つまり、走行経路、走行方法及び掃除方法を示す掃除態様(つまり、掃除の仕方)を決定し、決定した掃除態様となるように自律走行型掃除機100、より具体的には、清掃部150、駆動部160、及び、吸引部170を制御部130に制御させるための制御内容を示す計画情報を生成する。
In this way, the
なお、計画生成部120は、各種センサによって検知された物体であって、認識対象として認識されなかった物体に対しては、予め定められた走行態様で当該物体を回避させるように、計画情報を生成してもよい。例えば、計画生成部120は、自律走行型掃除機100が走行中に認識部115がカメラ70から得られる画像に基づいて認識対象を認識できない場合に、深度センサ90から自律走行型掃除機100の走行の妨げとなる物体が検出されたとき、予め定められた走行態様で当該物体を回避させるような計画情報を再生成してもよいし、計画情報を再生成せずに当該物体に自律走行型掃除機100を乗り上げさせて走行させ続けてもよい。
Note that for objects detected by various sensors but not recognized as recognition targets, the
制御部130は、認識部115の認識結果(より具体的には、認識部115が認識対象を認識した場合の当該認識対象の種別)に基づいて、自律走行型掃除機100を走行させて掃除させる処理部である。具体的には、制御部130は、計画生成部120が生成した計画情報に基づいて、自律走行型掃除機100を制御する。より具体的には、制御部130は、計画生成部120が生成した計画情報に基づいて、清掃部150、駆動部160、及び、吸引部170を制御することで、自律走行型掃除機100を所定の空間を走行させて掃除させる。
The
例えば、制御部130は、自律走行型掃除機100が走行して掃除している際に、認識部115が認識対象を認識した場合、当該認識対象の種別と、走行パターン情報230とに基づいて、自律走行型掃除機100を走行させて掃除させる。本実施の形態では、例えば、自律走行型掃除機100が走行して掃除している際に、認識部115が認識対象を認識した場合、計画生成部120が、当該認識対象の種別と、走行パターン情報230とに基づいて、走行経路等の情報を含む計画情報を再生成する。制御部130は、計画生成部120に再生成された計画情報に基づいて自律走行型掃除機100を走行させて掃除させる。
For example, when the
記憶部140は、各種情報、各処理部が実行する制御プログラム等を記憶する記憶装置である。記憶部140は、例えば、地図情報210と、対応情報220と、走行パターン情報230と、を記憶している。対応情報220には、領域情報221と、モデル情報222とが含まれる。
The
図4は、領域情報221の一例を示す図である。
FIG. 4 is a diagram showing an example of the
領域情報221は、それぞれが所定の空間の一部の領域(つまり、地図情報210に示される地図の領域の一部)であって、互いに異なる複数の領域を示す情報である。
The
領域情報221は、例えば、場所ID情報221Aと、座標情報221Bと、エリアID情報221Cと、を含む。
The
場所ID情報221Aは、座標情報221Bで指定される領域の名称を示す情報である。本実施の形態では、場所ID情報221Aは、場所名と、当該場所名に対応するIDである数値とを含む。
The
座標情報221Bは、所定の空間(つまり、地図情報210に示される地図の領域)において任意に指定される領域を示す座標である。本実施の形態は、地図情報210は、XY座標で位置(座標)が指定される二次元の地図である。また、本実施の形態では、座標情報221Bは、4つの位置(X軸の最小値(Xmin)、X軸の最大値(Xmax)、Y軸の最小値(Ymin)、及び、Y軸の最大値(Ymax))で表現される。当該4つの位置を示で囲まれた領域が、複数に分割された所定の空間のうちの1つの領域である。
The coordinate
エリアID情報221Cは、座標情報221Bが示す領域ごとに固有に定められるID(数値)である。
The
図4に示す例では、例えば、「リビング」は、場所IDが0001であり、X座標が0~10000、且つ、Y座標が0~8000の範囲で囲まれた領域であり、且つ、エリアIDが0001である。 In the example shown in FIG. 4, for example, "Living" has a place ID of 0001, is an area surrounded by an X coordinate of 0 to 10000, and a Y coordinate of 0 to 8000, and has an area ID of is 0001.
領域情報221は、予め記憶部140に記憶されてもよいし、受付部190を介して登録部191に取得され、記憶部140に記憶されてもよい。例えば、後述する登録部191は、受付部190を介して場所ID情報221Aに含まれる場所名と、当該場所名に紐づけられた座標情報221Bと、を取得する。登録部191は、取得した場所名と、当該場所名に対応付けられた領域とのそれぞれに固有のID(数値)を付与して記憶部140に記憶させる。
The
図5は、対応情報220の一例を示す図である。なお、図5に示す例では、領域情報221のうち、場所ID情報221Aと、エリアID情報221Cと、が示されており、図4に示す座標情報221Bの図示が省略されている。
FIG. 5 is a diagram showing an example of the
対応情報220は、場所ID情報221Aと、エリアID情報221Cと、モデル情報222と、を含む。
The
場所ID情報221Aに含まれる各場所IDは、エリアID情報221Cに含まれる各エリアIDのいずれか、及び、モデル情報222に含まれる複数の認識情報のいずれかと紐づけられている。つまり、領域情報221で示される複数の領域は、それぞれ、モデル情報222に含まれる複数の認識情報のいずれかと紐づけられている。これにより、例えば、決定部114は、自己位置取得部112が取得した自己位置(座標)が位置する領域(エリアID)を特定し、特定した領域に対応する認識情報を決定できる。
Each place ID included in the
モデル情報222は、複数の認識情報を含む情報である。複数の認識情報のそれぞれには、固有のモデルID(数値)が割り当てられている。
The
例えば、モデルIDが0001は、場所IDが「リビング:0001」に対応し、認識対象が「ペットボトル」及び「リモコン」である認識情報のIDである。例えば、認識部115は、決定部114が決定した認識情報の認識対象が「ペットボトル」及び「リモコン」である場合(つまり、自己位置が「リビング」であり、モデルIDを0001と決定した場合)、カメラ70から得られた撮影画像に「ペットボトル」及び「リモコン」のいずれかがを含まれているか否かを判定する。
For example, a model ID of 0001 is an ID of recognition information whose location ID corresponds to "living room: 0001" and whose recognition targets are "plastic bottle" and "remote control." For example, when the recognition targets of the recognition information determined by the determining
このように、認識部115は、自律走行型掃除機100の自己位置に応じて、認識対象(つまり、認識情報)を切り替えながら、カメラ70から得られる撮影画像に含まれる物体の認識を行う。
In this way, the
なお、複数の認識情報は、それぞれ、1つの認識対象を認識するための画像処理方法(プログラム)でもよいし、2以上の認識対象を認識するためのプログラムでもよい。また、複数の認識情報は、互いに認識対象が完全に一致していなければよく、一部の認識対象が重複していてもよい。 Note that each of the plural pieces of recognition information may be an image processing method (program) for recognizing one recognition target, or may be a program for recognizing two or more recognition targets. Furthermore, the recognition targets of the plural pieces of recognition information do not have to completely match each other, and some of the recognition targets may overlap.
図6は、走行パターン情報230の一例を示す図である。
FIG. 6 is a diagram showing an example of the driving
走行パターン情報230は、認識対象に対して自律走行型掃除機100がどのように走行するかを示すデータベースである。
The
走行パターン情報230は、種別名情報230Aと、距離情報230Bと、パターン情報230Cと、を含む。種別名情報230Aと、距離情報230Bと、パターン情報230Cとは、それぞれに含まれる互いに情報が対応付けられて記憶されている。
The driving
種別名情報230Aは、物体の種別を示す情報である。図6には、種別名情報230Aとして、「衣類」と「リモコン」とについて例示している。
The
距離情報230Bは、種別名情報230Aが示す物体と自律走行型掃除機100との距離を示す情報である。
The
パターン情報230Cは、制御部130が駆動部160を制御することで自律走行型掃除機100をどのように走行させるかを示す情報である。
The
例えば、計画生成部120は、カメラ70から得られた撮影画像から認識部115が「衣類」を認識した場合、種別名情報230Aに含まれる「衣類」に対応した計画情報を生成する。
For example, when the
例えば、計画生成部120は、「衣類」と自律走行型掃除機100との距離が1000mm以上では、1000mmまでは第1速度で走行して接近する計画情報(走行経路)を生成する。或いは、例えば、計画生成部120は、当該距離が500mm以上1000mm未満)では、500mmまでは第1速度より遅い第2速度に減速させて走行して接近する計画情報を生成する。例えば、計画生成部120は、当該距離が500mm未満では、停止して「衣類」を回避するような計画情報を生成する。
For example, when the distance between "clothing" and the
なお、計画生成部120は、自律走行型掃除機100が走行して掃除を開始する前に、物体の種別と位置とが特定できている場合、上記したような計画情報を予め生成してもよい。或いは、計画生成部120は、自律走行型掃除機100が走行して掃除を行っている再に、カメラ70から得られた撮影画像に含まれる物体が認識部115に認識された場合、レーザ測距計40から物体と自律走行型掃除機100との距離を示す情報を取得し、取得した情報と走行パターン情報230とから、自律走行型掃除機100をどのように走行させるか(つまり、走行態様)を決定し、既に生成している計画情報が決定した走行態様と異なる場合、決定した走行態様となるように、計画情報を再生成する。
Note that if the type and position of the object can be identified before the
記憶部140は、例えば、HDD(Hard Disk Drive)、フラッシュメモリ等により実現される。また、記憶部140には、例えば、制御部130等の各種処理部が実行する制御プログラムが記憶されている。
The
清掃部150は、フロア面を清掃するための機構である。清掃部150は、例えば、ブラシモータ151を備える。
The
ブラシモータ151は、メインブラシ50等のブラシと接続され、メインブラシ50等のブラシを駆動(回転)させるためのモータである。
The
駆動部160は、自律走行型掃除機100を走行させるための機構である。駆動部160は、例えば、車輪モータ161を備える。
The
車輪モータ161は、車輪20と接続され、車輪20を回転させるためのモータである。
The
自律走行型掃除機100は、車輪モータ161と接続された2つの車輪20の回転が独立して制御されることで、直進、後退、左回転、右回転等、自在に走行することができる。なお、自律走行型掃除機100は、車輪モータ161により回転させない車輪(補助輪)をさらに備えてもよい。
The
吸引部170は、所定の空間のフロア面を吸引することで、当該フロア面のゴミを吸引するための機構である。吸引部170は、例えば、吸引モータ171を備える。
The
吸引モータ171は、例えば、ファンと接続され、当該ファンを回転させることでフロア面のゴミを吸引するためのモータである。 The suction motor 171 is, for example, a motor that is connected to a fan and sucks up dust on the floor by rotating the fan.
通知部180は、映像、音声等によってユーザに情報を通知するための機器である。
The
通知部180は、例えば、認識部115が認識対象を認識した場合、認識された認識対象の種別と、認識された認識対象の位置と、を通知する。具体的には、制御部130は、例えば、認識部115が認識対象を認識した場合、認識対象の種別を示す種別情報と、複数の領域のうちで認識対象が位置する領域を示す位置情報と、を通知部180に通知させる。
For example, when the
例えば、通知部180が音を発生するアンプ、スピーカ等を備える音響機器である場合、制御部130は、認識部115が認識対象を認識したタイミングで、通知部180を制御することで音声を発生させて、認識対象の種別を示す種別情報と、複数の領域のうちで認識対象が位置する領域を示す位置情報と、をユーザに通知する。或いは、通知部180が通信端末300と通信するための通信インターフェースである場合、制御部130は、認識部115が認識対象を認識したタイミングで、認識対象の種別を示す種別情報と、複数の領域のうちで認識対象が位置する領域を示す位置情報とを、通知部180を介してユーザが所有する通信端末300(例えば、図9A参照)に送信する。通信端末300は、例えば、受信した情報を示す画像を通信端末300が備えるディスプレイ等の表示部に表示させる。これにより、制御部130は、認識された認識対象の種別と、認識された認識対象の位置と、通知部180によってユーザに通知する。
For example, if the
また、例えば、通知部180は、決定部114が、認識部115が用いている認識情報を切り替えたタイミングで、認識モデルを切り替えたことを通知する。
Further, for example, the
例えば、通知部180が音を発生するアンプ、スピーカ等を備える音響機器である場合、制御部130は、決定部114が認識情報を切り替えたタイミングで、通知部180を制御することで音声を発生させて、認識情報を切り替えたことをユーザに通知する。或いは、通知部180が通信端末300と通信するための通信インターフェースである場合、制御部130は、決定部114が認識情報を切り替えたタイミングで、認識情報を切り替えたことを示す情報を、通知部180を介して通信端末300に送信する。通信端末300は、例えば、受信した情報を示す画像を上記した表示部に表示させる。
For example, if the
なお、記憶部140に記憶されている各種情報(各種データ)は、記憶部140に予め記憶されていてもよいし、自律走行型掃除機100と通信可能な外部装置(例えば、通信端末300)等から受信してもよい。
The various information (various data) stored in the
受付部190は、ユーザの操作を受け付けるための機器である。例えば、受付部190は、ユーザが操作する操作端末(例えば、通信端末300)と通信することで、対応情報220等の情報を受信する通信インターフェースである。例えば、受付部190は、アンテナと、無線通信回路と、を有する。なお、自律走行型掃除機100と通信端末300とは、無線通信ではなく、有線通信してもよい。この場合、受付部190は、通信線が接続される端子でもよい。
The
また、受付部190は、ユーザの操作を受け付けることができればよく、ユーザの入力を受け付けるタッチパネル、ボタン等のユーザインターフェースでもよい。
Further, the
また、受付部190は、個別領域情報と、個別対象情報と、を含む個別情報を受け付ける。
Further, the receiving
個別領域情報は、所定の空間のうちの一部の領域を示す情報である。 The individual area information is information indicating a part of a predetermined space.
個別対象情報は、認識対象を示す情報である。 Individual target information is information indicating a recognition target.
例えば、ユーザは、通信端末300を操作することで、所定の空間の地図を示す地図情報210を自律走行型掃除機100から取得し、取得した地図情報210が示す地図における領域の一部を選択する。さらに、ユーザは、選択した領域において自律走行型掃除機100に認識させたい物体の種別を示す情報、当該物体の画像等の情報を選択する。ユーザは、選択した領域を示す情報である個別領域情報と、選択した領域において自律走行型掃除機100に認識させたい物体の種別を示す情報、当該物体の画像等の情報である個別対象情報と、を含む個別情報を、自律走行型掃除機100へ通信端末300に送信させる。これにより、受付部190は、個別情報を受け付ける。
For example, by operating the
登録部191は、受付部190が受け付けた情報を記憶部140に記憶させる処理部である。例えば、登録部191は、受付部190を介して、地図情報210、対応情報220、及び、走行パターン情報230等の各種情報を外部装置から取得して記憶部140に記憶させる。
The
また、例えば、登録部191は、受付部190が受け付けた、個別領域情報が示す領域において、個別対象情報が示す認識対象を認識できる認識情報を当該領域に紐づけて記憶部140に記憶させる。
For example, the
具体的に例えば、登録部191は、受付部190で受け付けた個別領域情報に対応する領域に、リビング、キッチン等の場所(領域)の種別を特定するための識別情報である場所IDを紐づけて記憶部140に記憶させる。つまり、登録部191は、複数の領域のそれぞれに場所IDを付与することで登録処理をする。
Specifically, for example, the
例えば、場所名と場所IDとは、予め任意に定められている。登録部191は、場所名と座標情報221Bとを受付部190を介して取得した場合、これらの情報に場所名に応じた場所IDを付与して記憶部140に記憶させる。
For example, the place name and place ID are arbitrarily determined in advance. When the
さらに、登録部191は、受付部190で受け付けたを個別対象情報が示す認識対象を認識するための認識情報に、モデルIDを付与して個別領域情報に対応する領域に紐付けて記憶部140に記憶させる。
Further, the
登録部191は、個別対象情報が示す認識対象を認識するための認識情報が記憶部140に記憶されている場合、複数の認識情報の中から該当する認識対象を選択して、個別領域情報に対応する領域に紐付けて記憶部140に記憶させてもよい。
When recognition information for recognizing the recognition target indicated by the individual target information is stored in the
或いは、例えば、登録部191は、複数の領域ごとに認識情報が予め紐付けられている場合、個別領域情報に対応する領域に応じた認識情報が、個別対象情報が示す認識対象を認識できるように、個別対象情報に含まれる画像等を用いて図示しない処理部である学習部に機械学習させてもよい。或いは、例えば、登録部191は、自律走行型掃除機100が備える図示しない通信インターフェースを介して複数の認識情報を記憶している外部端末と通信することで、当該外部端末から、個別対象情報が示す認識対象を認識できる認識情報を取得してもよい。
Alternatively, for example, if recognition information is linked in advance to each of a plurality of areas, the
自己位置取得部112、対応情報取得部113、決定部114、認識部115、形状検知部116、座標検知部117、計画生成部120、制御部130、及び、登録部191等の各種処理部は、例えば、上記した処理を実行するための制御プログラムと、当該制御プログラムを実行するCPU(Central Processing Unit)とから実現される。各種処理部は、1つのCPUで実現されてもよいし、複数のCPUで実現されてもよい。
Various processing units such as a self-
なお、自律走行型掃除機100は、例えば、各種センサとして、レーザ測距計40、カメラ70、及び、深度センサ90以外にも、自律走行型掃除機100が設置されている位置からフロア面までの距離を計測するクリフセンサ、自律走行型掃除機100の移動を検知するスリップセンサ、自律走行型掃除機100から任意の物体までの距離を検知する超音波センサ、接触センサ等を備えてもよい。また、例えば、自律走行型掃除機100は、自律走行型掃除機100が進行する方向を算出するために用いられるオドメトリ情報を検出するためのセンサを備えてもよい。
Note that the
[処理手順]
続いて、自律走行型掃除機100の処理手順の概要について、図7~図14を参照しながら説明する。
[Processing procedure]
Next, an overview of the processing procedure of the
<概要>
図7は、実施の形態に係る自律走行型掃除機100が実行する処理の概要を示すフローチャートである。
<Summary>
FIG. 7 is a flowchart showing an overview of processing executed by the
まず、ユーザ等により、自律走行型掃除機100の電源がオンにされたとする(ステップS101)。これにより、自律走行型掃除機100は、動作を開始する。
First, assume that the
例えば、登録部191は、記憶部140に地図情報210が登録(記憶)されているか否かを判定する(ステップS102)。
For example, the
登録部191が、記憶部140に地図情報210が登録されていないと判定した場合(ステップS102でNo)、例えば、制御部130は、上記したSLAMにより各種センサ及び駆動部160等を制御することで地図情報210を生成し、記憶部140に記憶させる(ステップS110)。
If the
登録部191は、記憶部140に地図情報210が登録されていると判定した場合(ステップS102でYes)、記憶部140に領域情報221が登録(記憶)されているか否かを判定する(ステップS103)。
When the
登録部191が、記憶部140に領域情報221が登録されていないと判定した場合(ステップS103でNo)、又は、ステップS110の次に、領域情報221の登録処理を実行する(ステップS130)。登録部191は、領域情報221の登録処理を実行することで、記憶部140に領域情報221を記憶させる。
If the
登録部191は、記憶部140に領域情報221が登録されていると判定した場合(ステップS103でYes)、記憶部140にモデル情報222が登録(記憶)されているか否かを判定する(ステップS104)。
When the
登録部191が、記憶部140にモデル情報222が登録されていないと判定した場合(ステップS104でNo)、又は、ステップS130の次に、モデル情報222の登録処理を実行する(ステップS150)。登録部191は、モデル情報222の登録処理を実行することで、記憶部140にモデル情報222を記憶させる。
If the
登録部191が、記憶部140にモデル情報222が登録されていると判定した場合(ステップS104でYes)、又は、ステップS150の次に、自己位置取得部112、対応情報取得部113、決定部114、認識部115、計画生成部120、及び、制御部130等の各処理部は、掃除処理を実行する(ステップS170)。ステップS170で、自律走行型掃除機100は、所定の空間を自律走行して掃除する。
If the
<領域情報の登録処理>
図8は、領域情報221の登録処理(図7に示すステップS130)の詳細を示すフローチャートである。図9A~図9Fは、それぞれ、領域情報221の登録処理におけるユーザの操作の例を示す図である。図9A~図9Fには、それぞれ、ユーザが操作する通信端末300と、通信端末300に表示される画像とを例示している。
<Area information registration process>
FIG. 8 is a flowchart showing details of the
通信端末300は、ユーザが操作するパーソナルコンピュータ、スマートフォン、タブレット端末等の、自律走行型掃除機100と通信可能なコンピュータである。通信端末300は、例えば、ユーザの操作を受け付ける受付部、自律走行型掃除機100から取得した画像を表示する表示部、及び、自律走行型掃除機100と通信するための通信インターフェース等を備える。本実施の形態では、通信端末300は、スマートフォンであって、ユーザの操作を受け付け、且つ、自律走行型掃除機100から取得した画像を表示するタッチパネルディスプレイを備える。
The
例えば、登録部191は、受付部190を介して領域情報221を受け付ける(ステップS131)。例えば、登録部191は、受付部190を介して地図情報210を通信端末300に送信する。通信端末300は、地図情報210を受信した場合、図9Aに示すように、地図情報210を表示する。ユーザは、通信端末300の画面をフリック操作することで、例えば、地図情報210に示される地図の領域の一部の範囲を指定する。通信端末300は、指定された範囲を示す情報(個別領域情報)を自律走行型掃除機100に送信する。これにより、登録部191は、受付部190を介して個別領域情報を含む領域情報221を受け付ける。
For example, the
次に、登録部191は、受け付けた領域情報221に示される領域にエリアIDを付与する(ステップS132)。エリアIDは、領域ごとに固有であればよい。例えば、登録部191は、付与したエリアIDを示す情報を、受付部190を介して通信端末300に送信する。これにより、例えば、通信端末300は、図9Cに示すように、受け付けたエリアIDを示す情報に基づいて、ユーザにより指定された領域に重畳させるようにエリアIDを表示する。
Next, the
ステップS131及びステップS132が、地図における異なる領域が指定されて繰り返されることで、図9Dに示すように、地図の複数の領域にエリアIDが付与される。 By repeating steps S131 and S132 with different areas on the map designated, area IDs are assigned to multiple areas on the map, as shown in FIG. 9D.
次に、登録部191は、それぞれの領域に対して場所ID(場所ID情報221A)を付与する(ステップS133)。例えば、ユーザは、図9Dに示すように、通信端末300に表示されたエリアIDのいずれかをタップ操作する。ここでは、ユーザは、「エリアID:0001」をタップ操作したとする。次に、通信端末300は、図9Eに示すように、場所候補を表示する。例えば、場所候補となる場所の情報は、登録部191がエリアIDを示す情報を、受付部190を介して送信する際に併せて送信する。ユーザは、表示された場所候補から1つの場所を選択する。これにより、ユーザによって領域に対する場所(場所名)が選択される。通信端末300は、ユーザによって選択された領域に対する場所名を示す情報を自律走行型掃除機100に送信する。これにより、登録部191は、受付部190を介して領域に対する場所名を示す情報を受信し、受信した情報に基づいて、領域ごとに場所IDを付与する。
Next, the
<モデル情報の登録処理>
図10は、モデル情報222の登録処理(図7に示すステップS150)の詳細を示すフローチャートである。図11A~図11Dは、それぞれ、モデル情報222の登録処理におけるユーザの操作の例を示す図である。図9A~図9Fには、それぞれ、ユーザが操作する通信端末300と、通信端末300に表示される画像とを例示している。
<Model information registration process>
FIG. 10 is a flowchart showing details of the
モデル情報222は、例えば、記憶部140に予め記憶されている。例えば、登録部191は、領域情報221に含まれる場所ID情報221Aに応じて、認識情報を紐づけて記憶部140に記憶させる。以下で説明するモデル情報222の登録処理では、例えば、元々記憶部140に記憶されている認識情報によって認識される認識対象に、ユーザから受け付けた個別認識情報が示す認識対象をさらに追加する。
The
なお、図10は、上記したステップS133の後の処理であり、通信端末300には、図9Fに示す画像が表示されているとする。
Note that FIG. 10 shows the process after step S133 described above, and it is assumed that the image shown in FIG. 9F is displayed on the
まず、登録部191は、受付部190を介して個別領域情報を取得する(ステップS151)。例えば、ユーザは、図11Aに示すように、通信端末300に表示された領域(例えば、エリアID)のいずれかをタップ操作する。ここでは、ユーザは、「エリアID:0001」の領域をタップ操作したとする。通信端末300、例えば、ユーザにタップ操作された領域を示す情報を自律走行型掃除機100に送信する。これにより、登録部191は、受付部190を介してユーザにタップ操作された領域を示す個別領域情報を受信することで、個別領域情報を取得する。
First, the
次に、登録部191は、選択された領域に登録(追加)される認識対象を示す個別対象情報を取得する(ステップS152)。
Next, the
次に、登録部191は、取得した個別対象情報が示す認識対象の名称(ラベル)を示すラベル情報を取得する(ステップS153)。
Next, the
例えば、通信端末300は、「エリアID:0001」の領域がタップ操作された場合、図11Bに示すように、「認識対象」と表示し、ユーザの操作によって認識対象を登録(追加)できるように処理する。例えば、ユーザは、図11Cに示すように、認識対象として登録したい物体の写真及び名称(ラベル)を通信端末300に入力する。物体の写真が、モデル情報222の一例である。図11Cには、ユーザが、「エリアID:0001」の領域に、「ペットボトル」及び「リモコン」を認識対象として入力した場合を例示している。通信端末300は、ユーザによって選択された領域、並びに、ユーザによって入力された写真及びラベル情報を、自律走行型掃除機100に送信する。これにより、登録部191は、受付部190を介して、ユーザによって選択された領域を示す個別領域情報と、個別領域情報が示す領域においてユーザが認識させたい認識対象を示す個別対象情報と、ラベル情報とを取得する。ユーザは、例えば、図11Dに示すように、上記した操作を各領域において実行することで、各領域において自律走行型掃除機100に認識させる認識対象を決定する。
For example, when the area of "area ID: 0001" is tapped, the
次に、登録部191は、受付部190を介して取得した、個別領域情報が示す領域と、個別対象情報が示す認識対象が認識できる認識情報と、ラベル情報とを紐づけて記憶部140に記憶させる(ステップS154)。上記したように、登録部191は、個別対象情報が示す認識対象を認識するための認識情報が記憶部140に記憶されている場合、複数の認識情報の中から該当する認識対象を選択してもよいし、個別対象情報が示す認識対象を認識できるように、個別対象情報に含まれる画像等を用いて図示しない学習部に機械学習させてもよいし、外部端末と通信することで、当該外部端末から、個別対象情報が示す認識対象を認識できる認識情報を取得してもよい。
Next, the
これにより、自律走行型掃除機100は、ユーザによって選択された領域において、ユーザが選択した認識対象を認識するようになる。
Thereby, the
<掃除処理>
図12は、掃除処理(図7に示すステップS170)の詳細を示すフローチャートである。
<Cleaning process>
FIG. 12 is a flowchart showing details of the cleaning process (step S170 shown in FIG. 7).
まず、自律走行型掃除機100は、掃除開始信号を受信する(ステップS171)。例えば、自律走行型掃除機100は、図示しない受信部を備える。ユーザは、操作卓等を操作して自律走行型掃除機100に掃除を開始する旨を示す掃除開始信号を送信する。自律走行型掃除機100は、当該掃除開始信号を、当該受信部で受信する。当該受信部は、例えば、信号を受信するための光センサ、信号がスマートフォン等の通信機器から送信される場合は無線通信回路等の通信インターフェース等である。なお、自律走行型掃除機100は、受信部ではなく、本体部10に取り付けられ、ユーザからの指示を取得するためのボタン等の操作部を有してもよい。自律走行型掃除機100は、当該操作部がユーザに操作されることで、掃除開始信号を取得してもよい。
First, the
次に、自己位置取得部112は、自律走行型掃除機100の自己位置を取得する(S172)。例えば、自己位置取得部112は、レーザ測距計40及び地図情報210に基づいて、地図情報210に示される所定の空間の地図における座標を算出する。
Next, the self-
次に、決定部114は、自律走行型掃除機100の自己位置に基づいて、互いに1以上の認識対象が異なる複数の認識情報の中から1つの認識情報を決定する(ステップS173)。ステップS173では、例えば、まず、対応情報取得部113が、それぞれが所定の空間の一部の領域であって、互いに異なる複数の領域ごとに、互いに1以上の認識対象が異なる認識情報が紐付けられた対応情報220を取得する。それから、決定部114は、自律走行型掃除機100の自己位置と対応情報220とに基づいて、1つの認識情報を決定する。
Next, the
次に、計画生成部120は、計画情報を生成する(ステップS174)。例えば、計画生成部120は、記憶部140に記憶されている所定の空間の地図を示す地図情報210に基づいて、走行経路を算出し、算出した走行経路で清掃部150、駆動部160、及び、吸引部170を制御することで、自律走行型掃除機100に所定の空間を走行させて掃除させるための計画情報を生成する。
Next, the
次に、制御部130は、計画生成部120が生成した計画情報に基づいて、清掃部150、駆動部160、及び、吸引部170を制御することで、自律走行型掃除機100に所定の空間を走行させて掃除させることを開始させる(ステップS175)。
Next, the
自律走行型掃除機100は、カメラ70から得られる撮影画像を画像解析することで、認識対象が当該画像に含まれるか否かを判定しながら、計画情報に基づいて所定の空間を走行して掃除する。
The
次に、計画生成部120は、掃除が完了したか否かを判定する(ステップS176)。例えば、計画生成部120は、自己位置取得部112等の取得結果に基づいて、自律走行型掃除機100が走行した経路の軌跡を算出し、算出した軌跡が、計画情報が示す走行経路と一致する、つまり、計画情報が示す走行経路を全て走行したか否かを判定する。
Next, the
計画生成部120が、掃除計画が完了したと判定した場合(ステップS176でYes)、例えば、制御部130は、駆動部160を駆動させて走行を開始した初期位置に自律走行型掃除機100を戻し、処理を終了する。
When the
一方、計画生成部120が、掃除が完了していないと判定した場合(ステップS176でNo)、自己位置取得部112は、自律走行型掃除機100の自己位置を再度取得する(ステップS177)。
On the other hand, if the
次に、計画生成部120は、自律走行型掃除機100の自己位置に基づいて、自律走行型掃除機100が掃除する部屋(領域)が変更されたか否かを判定する(ステップS178)。具体的には、計画生成部120は、自己位置及び対応情報220に基づいて、自律走行型掃除機100が掃除中の領域が、一の領域から他の領域に移動されたか否かを判定する。
Next, the
次に、計画生成部120が、自律走行型掃除機100が掃除する部屋が変更されたと判定した場合(ステップS178でYes)、決定部114は、変更された部屋における認識対象を認識部115に認識させるように、認識情報を再決定する(ステップS179)。つまり、決定部114は、自律走行型掃除機100の自己位置と対応情報220とに基づいて、認識部115が用いる認識情報を変更する。
Next, if the
制御部130は、自律走行型掃除機100が掃除する部屋が変更されていないと判定した場合(ステップS178でNo)、又は、ステップS179の次に、制御部130は、所定の空間を撮影するカメラ70から得られる撮影画像において、認識部115によって認識対象が認識されたか否かを判定する(ステップS180)。つまり、認識部115は、カメラ70から得られる撮影画像に認識対象が含まれているか否かを判定する。
If the
制御部130は、認識部115によって認識対象が認識されない場合(ステップS180でNo)、処理をステップS176に戻し、清掃部150、駆動部160、及び、吸引部170を制御することで、自律走行型掃除機100に所定の空間を走行させて掃除させ(ステップS180)、処理をステップS176に戻す。
If the recognition target is not recognized by the recognition unit 115 (No in step S180), the
一方、制御部130は、認識部115によって認識対象が認識されたと判定した場合(ステップS180でYes)、認識結果に基づいて、清掃部150、駆動部160、及び、吸引部170を制御することで、自律走行型掃除機100に所定の空間を走行させて掃除させ(ステップS181)、処理をステップS176に戻す。例えば、計画生成部120は、認識部115が認識対象を認識した場合、認識対象の種別、自律走行型掃除機100と認識対象との距離、及び、走行パターン情報230に基づいて、認識対象の周囲における計画情報を再生成する。制御部130は、再生成された計画情報に基づいて、自律走行型掃除機100を走行させて掃除させる。
On the other hand, when the
また、例えば、制御部130は、認識部115が認識対象を認識した場合、当該認識対象の種別を示す種別情報と、複数の領域のうちで認識対象が位置する領域を示す位置情報と、通知部180によってユーザに通知する。例えば、通知部180が音響機器である場合、「リビング」で「ペットボトル」が認識されたとき、制御部130は、通知部180に、「リビングでペットボトルを見つけました。」等の音声を出力させてもよい。
Further, for example, when the
<掃除動作の具体例>
図13A~図13Dは、実施の形態に係る自律走行型掃除機100の掃除動作の第1例を示す図である。なお、図13A、図13B、図13C及び図13Dは、自律走行型掃除機100がこの順の時系列で走行等の処理をしている場合を示す図である。また、図13A~図13Dは、所定の空間CAを上方から見た模式図である。
<Specific example of cleaning operation>
13A to 13D are diagrams showing a first example of the cleaning operation of the
図13Aに示すように、計画生成部120は、例えば、掃除開始信号を受信した場合、所定の空間CAの地図を示す地図情報210に基づいて、破線矢印で示す走行経路PPを生成する。また、計画生成部120は、走行を開始する場所を原点とする座標を算出する。
As shown in FIG. 13A, for example, when the
なお、自律走行型掃除機100は、地図情報210を保持していない場合、所定の空間CAを走り回りながらSLAMにより地図情報210を生成する。その場合、計画生成部120は、座標の原点として、例えば、充電器250の位置を設定してもよい。
Note that if the
本具体例では、自律走行型掃除機100は、地図情報210を予め保持(つまり、記憶部140に記憶)しており、且つ、充電器250に接続されており、充電器250に接続された位置を原点としたとする。
In this specific example, the
また、例えば、計画生成部120は、進行する向きをX軸正方向とし、X軸に直交する方向をY軸方向と設定する。この場合、自律走行型掃除機100が走行を開始する前は、自己位置が(X、Y、進行する向き)=(0m、0m、0°)となる。
Further, for example, the
なお、(X、Y、進行する向き)のXには、例えば、原点からのX軸方向への距離が含まれる。また、例えば、(X、Y、進行する向き)のYには、原点からのY軸方向への距離が含まれる。また、例えば、(X、Y、進行する向き)の進行する向きには、X軸正方向に対して自律走行型掃除機100が進行する角度が含まれる。
Note that X in (X, Y, direction of movement) includes, for example, the distance from the origin in the X-axis direction. Further, for example, Y in (X, Y, direction of movement) includes the distance from the origin in the Y-axis direction. Further, for example, the direction of movement (X, Y, direction of movement) includes the angle at which the
自律走行型掃除機100は、認識情報を決定し、計画情報及び認識部115の認識結果に基づいて、領域CA1を走行して掃除する。
The
なお、例えば、制御部130は、自律走行型掃除機100が掃除中の領域CA1を示す情報、及び、認識対象となっている物体の種別を示す種別情報と、を通知部180によってユーザに通知してもよい。
Note that, for example, the
図14は、実施の形態に係る自律走行型掃除機100が掃除中に通信端末300に表示される画像の一例を示す図である。
FIG. 14 is a diagram showing an example of an image displayed on the
例えば、制御部130は、通知部180が、通信端末300と通信するための通信インターフェースである場合、自律走行型掃除機100が、認識対象を「ペットボトル」及び「リモコン」として、「リビング」を掃除中であるとき、通知部180を介して、現在の認識対象を示す画像、ラベル等の情報、及び、掃除場所を示す情報を通信端末300に送信する。通信端末300は、現在の認識対象及び掃除場所を示す情報を受信した場合、例えば、図14に示すように、当該情報を示す画像を表示する。これにより、制御部130は、自律走行型掃除機100が掃除中の領域CA1を示す情報、及び、認識対象となっている物体の種別を示す種別情報と、を通知部180によってユーザに通知する。
For example, if the
次に、図13Bに示すように、自律走行型掃除機100が図13Aに示す状態から走行経路PPに沿って軌跡Tを通過して走行したとする。自律走行型掃除機100は、例えば、カメラ70で撮影範囲Vを撮影して自律走行型掃除機100の周囲に物体(例えば、認識対象)が存在するか否かを判定しながら走行し続ける。
Next, as shown in FIG. 13B, it is assumed that the
ここで、認識部115が、計画情報に示される走行経路PP上に物体400を認識対象として認識したとする。この場合、計画生成部120は、認識対象の種別、物体400と自律走行型掃除機100との距離、及び、走行パターン情報230に基づいて、計画情報を再生成する。例えば、計画生成部120は、物体400を回避するような走行経路PP1を含む計画情報を再生成する。制御部130は、再生成された計画情報に基づいて、自律走行型掃除機100を走行させる制御をする。
Here, it is assumed that the
次に、図13Cに示すように、自律走行型掃除機100は、領域CA1の掃除が終了したとする。この場合、例えば、計画生成部120は、領域CA2の走行経路等を含む計画情報を生成する。また、制御部130は、例えば、自律走行型掃除機100が掃除する領域を変更する場合、変更した旨を通知部180によってユーザに通知する。例えば、通知部180が音響機器である場合、掃除する領域が「寝室」に変更された場合、制御部130は、通知部180に、「寝室に移動しました。認識対象を切り替えます」等の音声を出力させる。
Next, as shown in FIG. 13C, it is assumed that the
次に、自律走行型掃除機100は、認識対象を再決定し、領域CA2の走行経路PP2等を含む計画情報を再生成し、再生成した計画情報及び認識部115の認識結果に基づいて、領域CA2を走行して掃除する。
Next, the
なお、図13A~図13Dに示す例では、計画生成部120は、それぞれが所定の空間CAの領域の一部である領域CA1及び領域CA2について、領域CA1の掃除が終わった後に領域CA2の走行経路(つまり、領域CA2における計画情報)を生成しているが、これに限定されない。計画生成部120は、自律走行型掃除機100が所定の空間CAの掃除を開始する前に、所定の空間CA全体の走行経路等を含む計画情報を生成してもよい。
Note that in the example shown in FIGS. 13A to 13D, the
[効果等]
以上説明したように、実施の形態に係る自律走行型掃除機100は、自律走行型掃除機100は、所定の空間を自律走行して掃除する自律走行型掃除機である。自律走行型掃除機100は、所定の空間における自律走行型掃除機100の自己位置を取得する自己位置取得部112と、それぞれが画像に含まれる認識対象を認識するための画像処理方法を示す認識情報であって、互いに1以上の認識対象が異なる複数の認識情報の中から1つの認識情報を自己位置に基づいて決定する決定部114と、所定の空間を撮影するカメラ70から得られる撮影画像を、決定部114が決定した当該1つの認識情報を用いて画像解析することで、当該撮影画像に含まれる認識対象を認識する認識部115と、認識部115の認識結果に基づいて、自律走行型掃除機100を走行させて掃除させる制御部130と、を備える。
[Effects etc.]
As described above, the
所定の領域が、上記したように、「リビング」、「寝室」、「キッチン」等の種別の異なる複数の部屋を含む家屋等の場所である場合、それぞれの部屋において、自律走行型掃除機100が走行するフロアに落ちている可能性の高い物体が異なる。例えば、「キッチン」には、料理器具がフロアに落ちている可能性があるが、「リビング」には、料理器具がフロアに落ちている可能性は非常に低いと考えられる。ここで、認識部115で認識できる物体の数を増やしすぎると、認識率が低下する問題がある。例えば、同じ種別の物体であっても、デザイン、形状等が異なるため、これらの複数のデザイン、形状等にも応じた認識対象とすると、認識部115での認識対象が膨大になる。つまり、多クラス対応にすると、1クラス当たりの認識率が低下する。言い換えると、認識部115は、認識できる物体の数を増やすと、認識部115が認識した物体の種別を間違えて判定する可能性が高まる。そこで、自律走行型掃除機100は、自己位置に基づいて、認識対象を適宜変更する。これによれば、例えば、自律走行型掃除機100が掃除中の領域で、当該領域に落ちている可能性が低い物体を認識対象からはずすことができる。そのため、自律走行型掃除機100は、不要な認識対象を適切に減らすことができるため、認識対象の認識率を向上できる。
As described above, if the predetermined area is a place such as a house that includes multiple rooms of different types such as "living room", "bedroom", "kitchen", etc., the
また、例えば、自律走行型掃除機100は、さらに、それぞれが所定の空間の一部の領域であって、互いに異なる複数の領域ごとに、互いに1以上の認識対象が異なる認識情報が紐付けられた対応情報220を取得する対応情報取得部113を備える。この場合、決定部114は、自己位置及び対応情報220に基づいて当該1つの認識情報を決定する。
For example, the
これによれば、決定部114は、所定の領域に含まれる複数の領域の種別ごとに、適切な認識対象を決定できる。
According to this, the determining
また、例えば、自律走行型掃除機100は、さらに、所定の空間のうちの一部の領域を示す個別領域情報と、認識対象を示す個別対象情報と、を含む個別情報を受け付けるための受付部190と、個別領域情報が示す領域において、当該個別対象情報が示す認識対象を認識できる認識情報を当該領域に紐づけて記憶部140に記憶させる登録部191と、を備える。
For example, the
これによれば、自律走行型掃除機100は、ユーザが所望の認識対象を登録部191によって記憶できる。そのため、決定部114は、所定の領域に含まれる複数の領域の種別ごとに、ユーザが所望する認識対象を決定できる。
According to this, in the
また、例えば、自律走行型掃除機100は、さらに、認識部115が認識対象を認識した場合、認識された認識対象の種別と、認識された認識対象の位置と、を通知するための通知部180を備える。
For example, the
これによれば、ユーザは、自律走行型掃除機100に認識してほしい物体を、自律走行型掃除機100が適切に認識できているか否かを判定できる。
According to this, the user can determine whether or not the
また、実施の形態に係る自律走行型掃除機100の制御方法は、所定の空間を自律走行して掃除する自律走行型掃除機の制御方法である。自律走行型掃除機100の制御方法は、所定の空間における自律走行型掃除機100の自己位置を取得する自己位置取得ステップ(ステップS172)と、それぞれが画像に含まれる認識対象を認識するための画像処理方法を示す複数の認識情報であって、互いに1以上の認識対象が異なる複数の認識情報の中から1つの認識情報を自己位置に基づいて決定する決定ステップ(ステップS173)と、所定の空間を撮影するカメラ70から得られる撮影画像を、決定ステップで決定した1つの認識情報を用いて画像解析することで、当該撮影画像に含まれる認識対象を認識する認識ステップ(ステップS180)と、認識ステップでの認識結果に基づいて、自律走行型掃除機100を走行させて掃除させる制御ステップ(ステップS181)と、を含む。
Furthermore, the method for controlling the
これによれば、自律走行型掃除機100と同様の効果を奏する。
According to this, effects similar to those of the
なお、本発明は、上記した実施の形態に係る自律走行型掃除機100の制御方法に含まれるステップをコンピュータに実行させるプログラムとして実現されてもよい。
Note that the present invention may be realized as a program that causes a computer to execute the steps included in the method for controlling the
これによれば、本実施の形態に係る自律走行型掃除機100の制御方法が、コンピュータにより簡便に実行され得る。
According to this, the method for controlling the
また、本発明は、上記プログラムを記録したコンピュータによって読み取り可能なCD-ROM等の非一時的な記録媒体として実現されてもよい。また、本発明は、そのプログラムを示す情報、データ又は信号として実現されてもよい。そして、それらプログラム、情報、データ及び信号は、インターネット等の通信ネットワークを介して配信されてもよい。 Further, the present invention may be realized as a non-temporary recording medium such as a computer readable CD-ROM in which the above program is recorded. Further, the present invention may be realized as information, data, or a signal indicating the program. These programs, information, data, and signals may be distributed via a communication network such as the Internet.
(その他の実施の形態)
以上、本発明に係る自律走行型掃除機等について、上記実施の形態及び変形例に基づいて説明したが、本発明は、上記実施の形態及び変形例に限定されるものではない。
(Other embodiments)
Although the autonomous vacuum cleaner and the like according to the present invention have been described above based on the above embodiments and modifications, the present invention is not limited to the above embodiments and modifications.
また、例えば、上記実施の形態では自律走行型掃除機が備える計画生成部及び制御部等の処理部は、それぞれCPUと制御プログラムとによって実現されると説明した。例えば、それぞれの当該処理部の構成要素は、それぞれ1つ又は複数の電子回路で構成されてもよい。1つ又は複数の電子回路は、それぞれ、汎用的な回路でもよいし、専用の回路でもよい。1つ又は複数の電子回路には、例えば、半導体装置、IC(Integrated Circuit)、又は、LSI(Large Scale Integration)等が含まれてもよい。IC又はLSIは、1つのチップに集積されてもよく、複数のチップに集積されてもよい。ここでは、IC又はLSIと呼んでいるが、集積の度合いによって呼び方が変わり、システムLSI、VLSI(Very Large Scale Integration)、又は、ULSI(Ultra Large Scale Integration)と呼ばれるかもしれない。また、LSIの製造後にプログラムされるFPGA(Field Programmable Gate Array)も同じ目的で使うことができる。 Further, for example, in the above embodiment, it has been explained that the processing units such as the plan generation unit and the control unit included in the autonomous vacuum cleaner are realized by the CPU and the control program, respectively. For example, each of the components of the processing unit may be composed of one or more electronic circuits. Each of the one or more electronic circuits may be a general-purpose circuit or a dedicated circuit. The one or more electronic circuits may include, for example, a semiconductor device, an IC (Integrated Circuit), an LSI (Large Scale Integration), or the like. An IC or LSI may be integrated into one chip or into multiple chips. Here, it is called an IC or LSI, but the name changes depending on the degree of integration, and may be called a system LSI, VLSI (Very Large Scale Integration), or ULSI (Ultra Large Scale Integration). Furthermore, an FPGA (Field Programmable Gate Array) that is programmed after the LSI is manufactured can also be used for the same purpose.
また、本発明の全般的又は具体的な態様は、システム、装置、方法、集積回路又はコンピュータプログラムで実現されてもよい。或いは、当該コンピュータプログラムが記憶された光学ディスク、HDD(Hard Disk Drive)若しくは半導体メモリ等のコンピュータ読み取り可能な非一時的記録媒体で実現されてもよい。また、システム、装置、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。 Further, general or specific aspects of the invention may be implemented in a system, apparatus, method, integrated circuit, or computer program product. Alternatively, the computer program may be realized by a computer-readable non-temporary recording medium such as an optical disk, an HDD (Hard Disk Drive), or a semiconductor memory in which the computer program is stored. Further, the present invention may be realized by any combination of a system, an apparatus, a method, an integrated circuit, a computer program, and a recording medium.
その他、実施の形態及び変形例に対して当業者が思いつく各種変形を施して得られる形態や、本発明の趣旨を逸脱しない範囲で実施の形態における構成要素及び機能を任意に組み合わせることで実現される形態も本発明に含まれる。 In addition, forms obtained by applying various modifications to the embodiments and modifications that those skilled in the art can think of, or by arbitrarily combining the components and functions of the embodiments without departing from the spirit of the present invention. The present invention also includes such forms.
本発明は、自律移動しながら掃除する自律走行型掃除機に広く利用可能である。 INDUSTRIAL APPLICABILITY The present invention can be widely used in autonomous vacuum cleaners that clean while autonomously moving.
10 本体部
11 吸込口
20 車輪
30 サイドブラシ
40 レーザ測距計
50 メインブラシ
70 カメラ
90 深度センサ
100 自律走行型掃除機
112 自己位置取得部
113 対応情報取得部
114 決定部
115 認識部
116 形状検知部
117 座標検知部
120 計画生成部
130 制御部
140 記憶部
150 清掃部
151 ブラシモータ
160 駆動部
161 車輪モータ
170 吸引部
171 吸引モータ
180 通知部
190 受付部
191 登録部
210 地図情報
220 対応情報
221 領域情報
221A 場所ID情報
221B 座標情報
221C エリアID情報
222 モデル情報
230 走行パターン情報
230A 種別名情報
230B 距離情報
230C パターン情報
250 充電器
300 通信端末
400 物体
CA 所定の空間
CA1、CA2 領域
PP、PP1、PP2 走行経路
T 軌跡
V 撮影範囲
10
Claims (6)
前記所定の空間における前記自律走行型掃除機の自己位置を取得する自己位置取得部と、
それぞれが画像に含まれる認識対象を認識するための画像処理方法を示す認識情報であって、互いに1以上の認識対象が異なる複数の認識情報の中から1つの認識情報を前記自己位置に基づいて決定する決定部と、
前記所定の空間を撮影するカメラから得られる撮影画像を、前記決定部が決定した前記1つの認識情報を用いて画像解析することで、前記撮影画像に含まれる認識対象を認識する認識部と、
前記認識部の認識結果に基づいて、前記自律走行型掃除機を走行させて掃除させる制御部と、を備える
自律走行型掃除機。 An autonomous vacuum cleaner that autonomously moves and cleans a predetermined space,
a self-position acquisition unit that acquires the self-position of the autonomous vacuum cleaner in the predetermined space;
Each piece of recognition information indicates an image processing method for recognizing a recognition target included in an image, and one recognition information is selected from a plurality of pieces of recognition information that differ from each other in one or more recognition targets based on the self-position. a deciding section that decides;
a recognition unit that recognizes a recognition target included in the photographed image by analyzing the photographed image obtained from the camera that photographs the predetermined space using the one recognition information determined by the determination unit;
An autonomous vacuum cleaner, comprising: a control unit that causes the autonomous vacuum cleaner to travel and clean based on the recognition result of the recognition unit.
前記決定部は、前記自己位置及び前記対応情報に基づいて前記1つの認識情報を決定する
請求項1に記載の自律走行型掃除機。 Furthermore, a correspondence information acquisition unit that acquires correspondence information in which recognition information in which one or more recognition targets are different from each other is linked for each of a plurality of mutually different regions, each of which is a part of the predetermined space. Prepare,
The autonomous vacuum cleaner according to claim 1, wherein the determining unit determines the one recognition information based on the self-position and the correspondence information.
前記個別領域情報が示す領域において、前記個別対象情報が示す認識対象を認識できる認識情報を当該領域に紐づけて記憶部に記憶させる登録部と、を備える
請求項1又は2に記載の自律走行型掃除機。 Further, a reception unit for receiving individual information including individual area information indicating a part of the predetermined space and individual target information indicating a recognition target;
Autonomous driving according to claim 1 or 2, further comprising: a registration unit that stores recognition information capable of recognizing a recognition target indicated by the individual target information in a storage unit in a region indicated by the individual region information in association with the region. type vacuum cleaner.
請求項2又は3に記載の自律走行型掃除機。 The autonomous driving according to claim 2 or 3, further comprising a notification unit for notifying the type of the recognized recognition target and the position of the recognized recognition target when the recognition unit recognizes the recognition target. type vacuum cleaner.
前記所定の空間における前記自律走行型掃除機の自己位置を取得する自己位置取得ステップと、
それぞれが画像に含まれる認識対象を認識するための画像処理方法を示す複数の認識情報であって、互いに1以上の認識対象が異なる複数の認識情報の中から1つの認識情報を前記自己位置に基づいて決定する決定ステップと、
前記所定の空間を撮影するカメラから得られる撮影画像を、前記決定ステップで決定した前記1つの認識情報を用いて画像解析することで、前記撮影画像に含まれる認識対象を認識する認識ステップと、
前記認識ステップでの認識結果に基づいて、前記自律走行型掃除機を走行させて掃除させる制御ステップと、を含む
自律走行型掃除機の制御方法。 A method of controlling an autonomous vacuum cleaner that autonomously moves and cleans a predetermined space,
a self-position acquisition step of acquiring a self-position of the autonomous vacuum cleaner in the predetermined space;
A plurality of pieces of recognition information, each of which indicates an image processing method for recognizing a recognition target included in an image, and one piece of recognition information from among the plurality of pieces of recognition information that differ from each other in one or more recognition targets is placed at the self-position. a decision step of deciding based on;
a recognition step of recognizing a recognition target included in the photographed image by analyzing the photographed image obtained from the camera photographing the predetermined space using the one recognition information determined in the determining step;
A method for controlling an autonomous vacuum cleaner, including a control step of causing the autonomous vacuum cleaner to run and clean based on the recognition result in the recognition step.
プログラム。 A program for causing a computer to execute the method for controlling an autonomous vacuum cleaner according to claim 5.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020124569A JP7417944B2 (en) | 2020-07-21 | 2020-07-21 | Autonomous vacuum cleaner, autonomous vacuum cleaner control method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020124569A JP7417944B2 (en) | 2020-07-21 | 2020-07-21 | Autonomous vacuum cleaner, autonomous vacuum cleaner control method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022021145A JP2022021145A (en) | 2022-02-02 |
JP7417944B2 true JP7417944B2 (en) | 2024-01-19 |
Family
ID=80220196
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020124569A Active JP7417944B2 (en) | 2020-07-21 | 2020-07-21 | Autonomous vacuum cleaner, autonomous vacuum cleaner control method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7417944B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7558718B2 (en) | 2020-08-25 | 2024-10-01 | 日本信号株式会社 | Floor cleaner |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014194729A (en) | 2013-02-27 | 2014-10-09 | Sharp Corp | Circumferential environment recognition device, autonomous mobile system using the same, and circumferential environment recognition method |
JP2017501473A (en) | 2013-12-19 | 2017-01-12 | アクチエボラゲット エレクトロルックス | Robot vacuum cleaner |
JP2017143983A (en) | 2016-02-16 | 2017-08-24 | 東芝ライフスタイル株式会社 | Autonomous travel body |
WO2018087971A1 (en) | 2016-11-08 | 2018-05-17 | シャープ株式会社 | Movable body control apparatus and movable body control program |
JP2019121364A (en) | 2018-01-05 | 2019-07-22 | アイロボット・コーポレーション | Mobile cleaning robot artificial intelligence for situational awareness |
-
2020
- 2020-07-21 JP JP2020124569A patent/JP7417944B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014194729A (en) | 2013-02-27 | 2014-10-09 | Sharp Corp | Circumferential environment recognition device, autonomous mobile system using the same, and circumferential environment recognition method |
JP2017501473A (en) | 2013-12-19 | 2017-01-12 | アクチエボラゲット エレクトロルックス | Robot vacuum cleaner |
JP2017143983A (en) | 2016-02-16 | 2017-08-24 | 東芝ライフスタイル株式会社 | Autonomous travel body |
WO2018087971A1 (en) | 2016-11-08 | 2018-05-17 | シャープ株式会社 | Movable body control apparatus and movable body control program |
JP2019121364A (en) | 2018-01-05 | 2019-07-22 | アイロボット・コーポレーション | Mobile cleaning robot artificial intelligence for situational awareness |
Also Published As
Publication number | Publication date |
---|---|
JP2022021145A (en) | 2022-02-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7442063B2 (en) | Vacuum cleaner control method and control system | |
US10705535B2 (en) | Systems and methods for performing simultaneous localization and mapping using machine vision systems | |
US9526390B2 (en) | Robot cleaner | |
JP2019171018A (en) | Autonomous mobile cleaner, cleaning method by the same and program for the same | |
JP2019171001A (en) | Autonomous mobile cleaner, cleaning method and program | |
JP7296552B2 (en) | CLEANING MAP DISPLAY DEVICE AND CLEANING MAP DISPLAY METHOD | |
JP2018197928A (en) | Vacuum cleaner | |
KR20150009048A (en) | Cleaning robot and method for controlling the same | |
KR20220056643A (en) | Robot cleaner and driving method thereof | |
JP7417944B2 (en) | Autonomous vacuum cleaner, autonomous vacuum cleaner control method, and program | |
WO2018193653A1 (en) | Mobile device, object detection method, and program | |
JP7345132B2 (en) | Autonomous vacuum cleaner, autonomous vacuum cleaner control method, and program | |
US11612286B2 (en) | Using augmented reality to exchange spatial information with a robotic cleaning device | |
JP7519579B2 (en) | Vacuum cleaner system and method for posting dangerous positions | |
WO2020059292A1 (en) | Autonomous traveling cleaner | |
KR102302198B1 (en) | Cleaning apparatus and controlling method thereof | |
KR20200142865A (en) | A robot cleaner using artificial intelligence and control method thereof | |
JP2021144594A (en) | Autonomous mobile vacuum cleaner, control method of autonomous mobile vacuum cleaner, and program | |
JP2021153979A (en) | Autonomous travel type cleaner, autonomous travel type cleaner control method, and program | |
US20230324914A1 (en) | Travel map generation device, autonomously traveling robot, travel control system for autonomously traveling robot, travel control method for autonomously traveling robot, and recording medium | |
US20220031136A1 (en) | Vacuum cleaner system and vacuum cleaner | |
JP7349624B2 (en) | Autonomous vacuum cleaner, autonomous vacuum cleaner control method, and program | |
EP2325713B1 (en) | Methods and systems for movement of robotic device using video signal | |
JP2023018577A (en) | Cleaner | |
KR20230134800A (en) | A robot cleaner and control method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221206 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230721 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230905 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231219 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231225 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7417944 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |