JP7417944B2 - Autonomous vacuum cleaner, autonomous vacuum cleaner control method, and program - Google Patents

Autonomous vacuum cleaner, autonomous vacuum cleaner control method, and program Download PDF

Info

Publication number
JP7417944B2
JP7417944B2 JP2020124569A JP2020124569A JP7417944B2 JP 7417944 B2 JP7417944 B2 JP 7417944B2 JP 2020124569 A JP2020124569 A JP 2020124569A JP 2020124569 A JP2020124569 A JP 2020124569A JP 7417944 B2 JP7417944 B2 JP 7417944B2
Authority
JP
Japan
Prior art keywords
information
recognition
unit
vacuum cleaner
autonomous vacuum
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020124569A
Other languages
Japanese (ja)
Other versions
JP2022021145A (en
Inventor
智章 井上
幸治 浅井
優子 津坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2020124569A priority Critical patent/JP7417944B2/en
Publication of JP2022021145A publication Critical patent/JP2022021145A/en
Application granted granted Critical
Publication of JP7417944B2 publication Critical patent/JP7417944B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electric Vacuum Cleaner (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

本発明は、所定の空間を自律走行して掃除する自律走行型掃除機、自律走行型掃除機の制御方法、及び、プログラムに関する。 The present invention relates to an autonomous vacuum cleaner that autonomously moves and cleans a predetermined space, a method for controlling the autonomous vacuum cleaner, and a program.

従来、家屋内等の所定の空間を自律走行して掃除する自律走行型掃除機がある。 2. Description of the Related Art Conventionally, there are autonomous vacuum cleaners that autonomously run and clean a predetermined space such as inside a house.

例えば、特許文献1には、自律走行型掃除機として、周囲を撮像することで画像を取得し、取得した画像を画像解析することで周囲に位置する物体を認識し、認識した物体に基づいて走行して掃除する清掃ロボットが開示されている。また、例えば、特許文献2には、自律走行型掃除機として、周囲を撮像することで画像を取得し、当該画像を画像解析することで自装置が位置するシーンを推定し、推定したシーンに基づいて動作する移動体装置が開示されている。 For example, in Patent Document 1, an autonomous vacuum cleaner acquires an image by capturing the surroundings, analyzes the acquired image to recognize objects located in the surroundings, and based on the recognized object. A cleaning robot that moves and cleans is disclosed. For example, in Patent Document 2, an autonomous vacuum cleaner acquires an image by capturing the surroundings, analyzes the image to estimate the scene in which the device is located, and uses the estimated scene. A mobile device is disclosed that operates based on the invention.

特開2019-121364号公報Japanese Patent Application Publication No. 2019-121364 国際公開第2018/087971号International Publication No. 2018/087971

上記した特許文献1に開示されている清掃ロボットは、画像解析することで当該画像に含まれる物体を認識する。物体の認識では、例えば、画像に含まれる特徴点等から物体を抽出し、抽出した物体が予め定められる認識対象であるか否かが判定される。抽出した物体が予め定められる認識対象であると判定した場合、当該物体が認識対象であると認識される。 The cleaning robot disclosed in Patent Document 1 mentioned above recognizes objects included in an image by analyzing the image. In object recognition, for example, an object is extracted from feature points included in an image, and it is determined whether the extracted object is a predetermined recognition target. If it is determined that the extracted object is a predetermined recognition target, the object is recognized as a recognition target.

ここで、予め定められる認識対象の数が多い場合、当該物体が認識対象であるか否かの判定精度、つまり、認識率が低下する。一方、認識対象の数を無作為に減らすと、カメラ等から得られる画像に物体が含まれていたとしても、当該物体を認識対象として認識できないために自律走行型掃除機が回避して走行すべき物体に乗り上げてしまう等して走行できなくなる等の不具合が発生する可能性がある。 Here, when the number of predetermined recognition targets is large, the accuracy of determining whether the object is a recognition target, that is, the recognition rate decreases. On the other hand, if the number of recognition targets is randomly reduced, even if an object is included in the image obtained from a camera, etc., the autonomous vacuum cleaner will avoid the object because it cannot be recognized as a recognition target. There is a possibility that problems such as running over an object and being unable to drive may occur.

本発明は、認識対象を認識する認識率を向上できる自律走行型掃除機等を提供する。 The present invention provides an autonomous vacuum cleaner and the like that can improve the recognition rate of recognition targets.

本発明の一態様に係る自律走行型掃除機は、所定の空間を自律走行して掃除する自律走行型掃除機であって、前記所定の空間における前記自律走行型掃除機の自己位置を取得する自己位置取得部と、それぞれが画像に含まれる認識対象を認識するための画像処理方法を示す認識情報であって、互いに1以上の認識対象が異なる複数の認識情報の中から1つの認識情報を前記自己位置に基づいて決定する決定部と、前記所定の空間を撮影するカメラから得られる撮影画像を、前記決定部が決定した前記1つの認識情報を用いて画像解析することで、前記撮影画像に含まれる認識対象を認識する認識部と、前記認識部の認識結果に基づいて、前記自律走行型掃除機を走行させて掃除させる制御部と、を備える。 An autonomous vacuum cleaner according to one aspect of the present invention is an autonomous vacuum cleaner that autonomously moves and cleans a predetermined space, and acquires a self-position of the autonomous vacuum cleaner in the predetermined space. A self-position acquisition unit and recognition information each indicating an image processing method for recognizing a recognition target included in an image, each of which recognizes one recognition information from a plurality of recognition information that differ in one or more recognition targets from each other. The determination unit that determines based on the self-position and the camera that photographs the predetermined space perform image analysis on the captured image using the one recognition information determined by the determination unit, thereby determining the captured image. A recognition unit that recognizes a recognition target included in the recognition unit, and a control unit that causes the autonomous vacuum cleaner to travel and clean based on the recognition result of the recognition unit.

また、本発明の一態様に係る自律走行型掃除機の制御方法は、所定の空間を自律走行して掃除する自律走行型掃除機の制御方法であって、前記所定の空間における前記自律走行型掃除機の自己位置を取得する自己位置取得ステップと、それぞれが画像に含まれる認識対象を認識するための画像処理方法を示す複数の認識情報であって、互いに1以上の認識対象が異なる複数の認識情報の中から1つの認識情報を前記自己位置に基づいて決定する決定ステップと、前記所定の空間を撮影するカメラから得られる撮影画像を、前記決定ステップで決定した前記1つの認識情報を用いて画像解析することで、前記撮影画像に含まれる認識対象を認識する認識ステップと、前記認識ステップでの認識結果に基づいて、前記自律走行型掃除機を走行させて掃除させる制御ステップと、を含む。 Further, a method for controlling an autonomous vacuum cleaner according to one aspect of the present invention is a method for controlling an autonomous vacuum cleaner that autonomously moves and cleans a predetermined space, the autonomous vacuum cleaner cleaning in the predetermined space. A self-position acquisition step for acquiring the self-position of the vacuum cleaner, and a plurality of pieces of recognition information each indicating an image processing method for recognizing a recognition target included in an image, the plurality of pieces of recognition information each having one or more recognition targets different from each other. a determining step of determining one recognition information from recognition information based on the self-position; and a photographed image obtained from a camera photographing the predetermined space using the one recognition information determined in the determining step. a recognition step of recognizing a recognition target included in the photographed image by analyzing the image; and a control step of causing the autonomous vacuum cleaner to run and clean based on the recognition result in the recognition step. include.

また、本発明の一態様に係るプログラムは、上記記載の自律走行型掃除機の制御方法をコンピュータに実行させるためのプログラムである。 Further, a program according to one aspect of the present invention is a program for causing a computer to execute the method for controlling an autonomous vacuum cleaner described above.

なお、本発明は、上記プログラムを記録したコンピュータによって読み取り可能なCD-ROM等の非一時的な記録媒体として実現されてもよい。また、本発明は、そのプログラムを示す情報、データ又は信号として実現されてもよい。そして、それらプログラム、情報、データ及び信号は、インターネット等の通信ネットワークを介して配信されてもよい。 Note that the present invention may be realized as a non-temporary recording medium such as a computer-readable CD-ROM in which the above program is recorded. Further, the present invention may be realized as information, data, or a signal indicating the program. These programs, information, data, and signals may be distributed via a communication network such as the Internet.

本発明の一態様に係る自律走行型掃除機等によれば、認識対象を認識する認識率を向上できる。 According to an autonomous vacuum cleaner or the like according to one aspect of the present invention, the recognition rate for recognizing a recognition target can be improved.

図1は、実施の形態に係る自律走行型掃除機の外観を示す斜視図である。FIG. 1 is a perspective view showing the appearance of an autonomous vacuum cleaner according to an embodiment. 図2は、実施の形態に係る自律走行型掃除機の外観を示す底面図である。FIG. 2 is a bottom view showing the appearance of the autonomous vacuum cleaner according to the embodiment. 図3は、実施の形態に係る自律走行型掃除機の機能構成を示すブロック図である。FIG. 3 is a block diagram showing the functional configuration of the autonomous vacuum cleaner according to the embodiment. 図4は、領域情報の一例を示す図である。FIG. 4 is a diagram showing an example of area information. 図5は、対応情報の一例を示す図である。FIG. 5 is a diagram showing an example of correspondence information. 図6は、走行パターン情報の一例を示す図である。FIG. 6 is a diagram illustrating an example of driving pattern information. 図7は、実施の形態に係る自律走行型掃除機が実行する処理の概要を示すフローチャートである。FIG. 7 is a flowchart showing an overview of processing executed by the autonomous vacuum cleaner according to the embodiment. 図8は、領域情報の登録処理の詳細を示すフローチャートである。FIG. 8 is a flowchart showing details of area information registration processing. 図9Aは、領域情報の登録処理におけるユーザの操作の第1例を示す図である。FIG. 9A is a diagram illustrating a first example of user operations in region information registration processing. 図9Bは、領域情報の登録処理におけるユーザの操作の第2例を示す図である。FIG. 9B is a diagram illustrating a second example of user operations in the area information registration process. 図9Cは、領域情報の登録処理におけるユーザの操作の第3例を示す図である。FIG. 9C is a diagram illustrating a third example of user operations in the area information registration process. 図9Dは、領域情報の登録処理におけるユーザの操作の第4例を示す図である。FIG. 9D is a diagram illustrating a fourth example of user operations in the area information registration process. 図9Eは、領域情報の登録処理におけるユーザの操作の第5例を示す図である。FIG. 9E is a diagram illustrating a fifth example of user operations in region information registration processing. 図9Fは、領域情報の登録処理におけるユーザの操作の第6例を示す図である。FIG. 9F is a diagram illustrating a sixth example of user operations in the region information registration process. 図10は、モデル情報の登録処理の詳細を示すフローチャートである。FIG. 10 is a flowchart showing details of the model information registration process. 図11Aは、モデル情報の登録処理におけるユーザの操作の第1例を示す図である。FIG. 11A is a diagram illustrating a first example of user operations in model information registration processing. 図11Bは、モデル情報の登録処理におけるユーザの操作の第2例を示す図である。FIG. 11B is a diagram illustrating a second example of user operations in model information registration processing. 図11Cは、モデル情報の登録処理におけるユーザの操作の第3例を示す図である。FIG. 11C is a diagram illustrating a third example of user operations in model information registration processing. 図11Dは、モデル情報の登録処理におけるユーザの操作の第4例を示す図である。FIG. 11D is a diagram illustrating a fourth example of user operations in model information registration processing. 図12は、掃除処理の詳細を示すフローチャートである。FIG. 12 is a flowchart showing details of the cleaning process. 図13Aは、実施の形態に係る自律走行型掃除機の掃除動作の第1例を示す図である。FIG. 13A is a diagram illustrating a first example of the cleaning operation of the autonomous vacuum cleaner according to the embodiment. 図13Bは、実施の形態に係る自律走行型掃除機の掃除動作の第2例を示す図である。FIG. 13B is a diagram illustrating a second example of the cleaning operation of the autonomous vacuum cleaner according to the embodiment. 図13Cは、実施の形態に係る自律走行型掃除機の掃除動作の第3例を示す図である。FIG. 13C is a diagram illustrating a third example of the cleaning operation of the autonomous vacuum cleaner according to the embodiment. 図13Dは、実施の形態に係る自律走行型掃除機の掃除動作の第4例を示す図である。FIG. 13D is a diagram illustrating a fourth example of the cleaning operation of the autonomous vacuum cleaner according to the embodiment. 図14は、実施の形態に係る自律走行型掃除機が掃除中に通信端末に表示される画像の一例を示す図である。FIG. 14 is a diagram illustrating an example of an image displayed on a communication terminal while the autonomous vacuum cleaner according to the embodiment is cleaning.

以下では、本発明に係る自律走行型掃除機等の実施の形態について、図面を用いて詳細に説明する。なお、以下に説明する実施の形態は、いずれも本発明の好ましい一具体例を示すものである。したがって、以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置及び接続形態、ステップ、ステップの順序等は、一例であり、本発明を限定する主旨ではない。 DESCRIPTION OF THE PREFERRED EMBODIMENTS Below, embodiments of an autonomous vacuum cleaner and the like according to the present invention will be described in detail with reference to the drawings. It should be noted that the embodiments described below each represent a preferred specific example of the present invention. Therefore, the numerical values, shapes, materials, components, arrangement and connection forms of the components, steps, order of steps, etc. shown in the following embodiments are merely examples, and do not limit the present invention.

なお、当業者が本発明を十分に理解するために添付図面及び以下の説明を提供するのであって、これらによって特許請求の範囲に記載の主題を限定することを意図するものではない。 The accompanying drawings and the following description are provided to enable those skilled in the art to fully understand the present invention, and are not intended to limit the subject matter recited in the claims.

また、各図は、模式図であり、必ずしも厳密に図示されたものではない。また、各図において、実質的に同一の構成に対しては同一の符号を付しており、重複する説明は省略又は簡略化される場合がある。 Furthermore, each figure is a schematic diagram and is not necessarily strictly illustrated. Furthermore, in each figure, substantially the same configurations are denoted by the same reference numerals, and overlapping explanations may be omitted or simplified.

また、以下の実施の形態においては、略三角形等の「略」を用いた表現を用いている。例えば、略三角形とは、完全に三角形であることを意味するだけでなく、実質的に三角形である、すなわち、例えば角丸な三角形等も含むことも意味する。他の「略」を用いた表現についても同様である。 Furthermore, in the following embodiments, expressions using "approximately", such as approximately triangular, are used. For example, "substantially triangular" means not only a complete triangle but also a substantially triangular shape, that is, a triangle with rounded corners, for example. The same applies to other expressions using "abbreviation".

また、以下の実施の形態においては、所定の空間のフロアを走行して掃除する自律走行型掃除機を鉛直上方側から見た場合を上面視とし、鉛直下方側から見た場合を底面視として記載する場合がある。 In addition, in the following embodiments, when an autonomous vacuum cleaner that runs and cleans a floor in a predetermined space is viewed from vertically above, it is referred to as a top view, and when viewed from vertically below, it is referred to as a bottom view. May be stated.

(実施の形態)
[構成]
まず、実施の形態に係る自律走行型掃除機100の構成について、図1~図6を参照しながら説明する。
(Embodiment)
[composition]
First, the configuration of an autonomous vacuum cleaner 100 according to an embodiment will be described with reference to FIGS. 1 to 6.

図1は、実施の形態に係る自律走行型掃除機100の外観を示す外観図である。図2は、実施の形態に係る自律走行型掃除機100の外観を示す底面図である。図3は、実施の形態に係る自律走行型掃除機100の機能構成を示すブロック図である。 FIG. 1 is an external view showing the external appearance of an autonomous vacuum cleaner 100 according to an embodiment. FIG. 2 is a bottom view showing the appearance of the autonomous vacuum cleaner 100 according to the embodiment. FIG. 3 is a block diagram showing the functional configuration of the autonomous vacuum cleaner 100 according to the embodiment.

自律走行型掃除機100は、居室等の所定の空間を自律走行して掃除する自律走行型の掃除機である。 The autonomous vacuum cleaner 100 is an autonomous vacuum cleaner that autonomously moves and cleans a predetermined space such as a living room.

まず、自律走行型掃除機100は、レーザ測距計40、カメラ70等を用いて所定の空間(より具体的には、所定の空間内)を撮像しながら走り回ることで、所定の空間の地図を示す地図情報210(データ)を生成する。 First, the autonomous vacuum cleaner 100 runs around while taking images of a predetermined space (more specifically, within the predetermined space) using the laser range finder 40, the camera 70, etc., thereby creating a map of the predetermined space. Map information 210 (data) indicating the map is generated.

次に、自律走行型掃除機100は、生成した地図情報210に基づいて、所定の空間を掃除する際に走行する走行経路を算出する。 Next, the autonomous vacuum cleaner 100 calculates a travel route to be traveled when cleaning a predetermined space based on the generated map information 210.

次に、自律走行型掃除機100は、算出した走行経路で、所定の空間を走行して掃除する。 Next, the autonomous vacuum cleaner 100 cleans a predetermined space by traveling along the calculated travel route.

自律走行型掃除機100は、所定の空間の様子をカメラ70、及び、クリフセンサ等のセンサを用いて観測することにより、所定の空間に存在する物体(障害物)を避けるかを自律的に判定し、物体が存在する場合には算出した走行経路から離脱して、つまり、当該物体を回避する走行経路を新たに算出し、当該物体を避けながら走行して掃除する。 The autonomous vacuum cleaner 100 autonomously determines whether to avoid objects (obstacles) existing in a predetermined space by observing the state of the predetermined space using a camera 70 and a sensor such as a cliff sensor. If the object is present, the vehicle departs from the calculated travel route, that is, calculates a new travel route that avoids the object, and cleans the vehicle while avoiding the object.

自律走行型掃除機100は、例えば、SLAM(Simultaneous Localization and Mapping)により、掃除する所定の空間の地図情報210の生成と、生成した地図情報210に示される地図における自律走行型掃除機100の自己位置の推定とを行う。 The autonomous vacuum cleaner 100 uses, for example, SLAM (Simultaneous Localization and Mapping) to generate map information 210 of a predetermined space to be cleaned, and to locate the autonomous vacuum cleaner 100 in a map shown in the generated map information 210. and perform position estimation.

図1及び図2に示すように、自律走行型掃除機100は、例えば、本体部10と、2つの車輪20と、2つのサイドブラシ30と、レーザ測距計40と、メインブラシ50と、カメラ70と、深度センサ90と、を備える。 As shown in FIGS. 1 and 2, the autonomous vacuum cleaner 100 includes, for example, a main body 10, two wheels 20, two side brushes 30, a laser range finder 40, a main brush 50, It includes a camera 70 and a depth sensor 90.

本体部10は、自律走行型掃除機100が備える各構成要素が配置(より具体的には、収容)される筐体である。本実施の形態では、本体部10は、上面視において、略三角形状である。なお、本体部10の上面視における形状は、特に限定されない。本体部10の上面視形状は、例えば、略矩形状でもよいし、略円形状でもよい。図2に示すように、本体部10は、底面に吸込口11を有する。 The main body 10 is a housing in which each component of the autonomous vacuum cleaner 100 is arranged (more specifically, housed). In this embodiment, the main body portion 10 has a substantially triangular shape when viewed from above. Note that the shape of the main body section 10 when viewed from above is not particularly limited. The top view shape of the main body portion 10 may be, for example, a substantially rectangular shape or a substantially circular shape. As shown in FIG. 2, the main body 10 has a suction port 11 on the bottom surface.

2つの車輪20は、自律走行型掃除機100を走行させるための車輪である。 The two wheels 20 are wheels for driving the autonomous vacuum cleaner 100.

サイドブラシ30は、本体部10の下面に設けられ、所定の空間のフロア(以下、単にフロアともいう)を掃除するためのブラシである。本実施の形態では、自律走行型掃除機100は、2つのサイドブラシ30を備える。自律走行型掃除機100が備えるサイドブラシ30の数は、1つでもよいし、3つ以上でもよく、特に限定されない。 The side brush 30 is a brush that is provided on the lower surface of the main body 10 and is used to clean the floor of a predetermined space (hereinafter also simply referred to as the floor). In this embodiment, the autonomous vacuum cleaner 100 includes two side brushes 30. The number of side brushes 30 provided in the autonomous vacuum cleaner 100 may be one, or may be three or more, and is not particularly limited.

レーザ測距計40は、自律走行型掃除機100と、所定の空間における物体、壁面等との距離を測定するためのセンサである。レーザ測距計40は、例えば、本体部10の上部に設けられている。レーザ測距計40は、例えば、いわゆるLIDAR(Light Detection and Ranging)である。 The laser range finder 40 is a sensor for measuring the distance between the autonomous vacuum cleaner 100 and objects, walls, etc. in a predetermined space. The laser range finder 40 is provided, for example, at the top of the main body 10. The laser range finder 40 is, for example, a so-called LIDAR (Light Detection and Ranging).

メインブラシ50は、本体部10の下面に設けられている開口である吸込口11に配置され、フロアのゴミを吸引するためのブラシである。 The main brush 50 is arranged at the suction port 11, which is an opening provided on the lower surface of the main body 10, and is a brush for sucking dust from the floor.

カメラ70は、所定の空間を撮影することで画像を生成する撮像装置である。具体的には、カメラ70は、本体部10に配置され、自律走行型掃除機100の周囲(より具体的には、自律走行型掃除機100が進行する向き)を撮影することで、画像を生成する。カメラ70は、生成した画像を認識部115に出力する。 The camera 70 is an imaging device that generates an image by photographing a predetermined space. Specifically, the camera 70 is arranged in the main body 10 and captures an image by photographing the surroundings of the autonomous vacuum cleaner 100 (more specifically, the direction in which the autonomous vacuum cleaner 100 is moving). generate. The camera 70 outputs the generated image to the recognition unit 115.

なお、カメラ70は、本実施の形態では、本体部10に配置されているが、所定の空間を撮影できればよく、本体部10に配置されていなくてもよい。 Note that although the camera 70 is arranged in the main body 10 in this embodiment, it is sufficient that it can photograph a predetermined space, and the camera 70 does not need to be arranged in the main body 10.

深度センサ90は、所定の空間を撮影することで画像(深度画像)を生成し、生成した深度画像に含まれる被写体である物体(より具体的には、被写体を構成する各ピクセル)と自律走行型掃除機100との距離を検出するセンサである。深度センサ90は、例えば、赤外線カメラである。 The depth sensor 90 generates an image (depth image) by photographing a predetermined space, and autonomously moves with an object that is a subject included in the generated depth image (more specifically, each pixel that constitutes the subject). This is a sensor that detects the distance to the vacuum cleaner 100. Depth sensor 90 is, for example, an infrared camera.

図3に示すように、自律走行型掃除機100は、レーザ測距計40、カメラ70、及び、深度センサ90等の上記した各種センサと、自己位置取得部112と、対応情報取得部113と、決定部114と、認識部115と、形状検知部116と、座標検知部117と、計画生成部120と、制御部130と、記憶部140と、清掃部150と、駆動部160と、吸引部170と、通知部180と、受付部190と、登録部191と、を備える。 As shown in FIG. 3, the autonomous vacuum cleaner 100 includes the various sensors described above, such as the laser range finder 40, the camera 70, and the depth sensor 90, a self-position acquisition unit 112, and a correspondence information acquisition unit 113. , determination section 114, recognition section 115, shape detection section 116, coordinate detection section 117, plan generation section 120, control section 130, storage section 140, cleaning section 150, drive section 160, suction It includes a section 170, a notification section 180, a reception section 190, and a registration section 191.

自己位置取得部112は、所定の空間における自律走行型掃除機100の自己位置を取得する処理部である。より具体的には、自己位置取得部112は、所定の空間を示す地図における自律走行型掃除機100の自己位置を示す地図における座標を示す情報である自己位置情報を取得する。本実施の形態では、自己位置取得部112は、レーザ測距計40の検出結果に基づいて、所定の空間における自己位置を推定することで、当該自己位置を取得する。自己位置取得部112は、例えば、レーザ測距計40から入力された自律走行型掃除機100の周囲に位置する、障害物、壁等を含む物体との距離と、記憶部140に記憶されている、所定の空間を示す地図(地図情報210)とに基づいて、当該地図における自律走行型掃除機100の座標を算出する。自己位置取得部112は、自己位置を取得した時刻等と紐づけて、決定部114及び座標検知部117に出力する。 The self-position acquisition unit 112 is a processing unit that acquires the self-position of the autonomous vacuum cleaner 100 in a predetermined space. More specifically, the self-location acquisition unit 112 acquires self-location information that is information indicating the coordinates of the self-position of the autonomous vacuum cleaner 100 on a map showing a predetermined space. In the present embodiment, the self-position acquisition unit 112 acquires the self-position by estimating the self-position in a predetermined space based on the detection result of the laser range finder 40. For example, the self-position acquisition unit 112 calculates distances to objects, including obstacles, walls, etc., located around the autonomous vacuum cleaner 100, which are input from the laser range finder 40, and which are stored in the storage unit 140. Based on a map (map information 210) indicating a predetermined space, the coordinates of the autonomous vacuum cleaner 100 on the map are calculated. The self-position acquisition unit 112 outputs the self-position to the determination unit 114 and the coordinate detection unit 117 in association with the time when the self-position was acquired.

なお、自己位置取得部112は、図示しないコンピュータ等の外部装置と通信することで、当該外部装置から自己位置情報を取得してもよい。この場合、自己位置取得部112は、外部装置と通信するための通信インターフェースを有し、当該通信インターフェースを介して自己位置情報を取得してもよい。 Note that the self-location acquisition unit 112 may acquire self-location information from an external device such as a computer (not shown) by communicating with the external device. In this case, the self-location acquisition unit 112 may have a communication interface for communicating with an external device, and may acquire self-location information via the communication interface.

また、本実施の形態では、地図情報210は、記憶部140に予め記憶されている。記憶部140に地図情報210が予め記憶されていない場合、例えば、後述する制御部130は、上記したSLAMにより、レーザ測距計40、カメラ70、駆動部160等を制御することで、所定の空間を撮像させながら走行させることで、所定の空間の地図を示す地図情報210を生成して記憶部140に記憶させてもよい。 Further, in the present embodiment, map information 210 is stored in storage unit 140 in advance. If the map information 210 is not stored in advance in the storage unit 140, for example, the control unit 130 (described later) controls the laser range finder 40, camera 70, drive unit 160, etc. using the SLAM described above to obtain a predetermined information. By driving the vehicle while capturing an image of the space, map information 210 indicating a map of a predetermined space may be generated and stored in the storage unit 140.

対応情報取得部113は、対応情報220を取得する処理部である。 The correspondence information acquisition unit 113 is a processing unit that acquires the correspondence information 220.

対応情報220は、それぞれが所定の空間の一部の領域であって、互いに異なる複数の領域ごとに、互いに1以上の認識対象が異なる認識情報が紐付けられた情報である。対応情報220は、例えば、それぞれが所定の空間の一部の領域であって、互いに異なる複数の領域を示す領域情報221と、それぞれが画像に含まれる認識対象を認識するための画像処理方法を示す認識情報(認識モデル)であって、互いに1以上の認識対象が異なる複数の認識情報を含むモデル情報222と、を含む情報である。複数の領域は、それぞれ、複数の認識情報のいずれかと紐付けられている。 The correspondence information 220 is information in which recognition information in which one or more recognition targets are different is linked to a plurality of mutually different regions, each of which is a part of a predetermined space. The correspondence information 220 includes, for example, area information 221 indicating a plurality of different areas, each of which is a part of a predetermined space, and an image processing method for recognizing a recognition target included in the image. This information includes model information 222 that includes a plurality of pieces of recognition information (recognition model) in which one or more recognition targets are different from each other. Each of the plurality of regions is associated with one of the plurality of pieces of recognition information.

認識情報は、カメラ70によって生成された画像に含まれる物体の種別を認識(特定)するための処理方法(より具体的には、プログラム)である。例えば、異なる認識情報とは、認識する物体の種別(種類)が1以上異なるプログラムである。対応情報220の具体例については、後述する。 The recognition information is a processing method (more specifically, a program) for recognizing (identifying) the type of object included in the image generated by the camera 70. For example, different recognition information is a program that differs in one or more types (types) of objects to be recognized. A specific example of the correspondence information 220 will be described later.

本実施の形態では、対応情報220は、記憶部140に記憶されており、記憶部140から対応情報220を取得する。 In this embodiment, the correspondence information 220 is stored in the storage unit 140, and the correspondence information 220 is acquired from the storage unit 140.

なお、対応情報取得部113は、図示しないコンピュータ等の外部装置(例えば、図11Aに示す通信端末300)と通信することで、当該外部装置から対応情報220を取得してもよい。この場合、対応情報取得部113は、外部装置と通信するための通信インターフェースを有し、当該通信インターフェースを介して対応情報220を取得してもよい。 Note that the correspondence information acquisition unit 113 may acquire the correspondence information 220 from an external device (for example, the communication terminal 300 shown in FIG. 11A) such as a computer (not shown) by communicating with the external device. In this case, the correspondence information acquisition unit 113 may have a communication interface for communicating with an external device, and may acquire the correspondence information 220 via the communication interface.

対応情報取得部113は、自己位置取得部112が取得した自己位置と、対応情報220とに基づいて、複数の領域の中で所定の空間において自律走行型掃除機100が位置する領域を決定し、決定した領域を示す情報(より具体的には、後述する場所ID(ID/Identification))を決定部114に出力する。 The correspondence information acquisition unit 113 determines an area in which the autonomous vacuum cleaner 100 is located in a predetermined space among the plurality of areas, based on the self-position acquired by the self-position acquisition unit 112 and the correspondence information 220. , and outputs information indicating the determined area (more specifically, a location ID (ID/Identification) to be described later) to the determining unit 114.

決定部114は、それぞれが画像に含まれる認識対象を認識するための画像処理方法を示す認識情報であって、互いに1以上の認識対象が異なる複数の認識情報の中から1つの認識情報を自己位置に基づいて決定する処理部である。具体的には、決定部114は、自己位置取得部112が取得した自律走行型掃除機100の自己位置に対応する領域に応じて、自律走行型掃除機100の周囲に位置する特定の認識対象を認識するための認識情報を決定する。より具体的には、決定部114は、自律走行型掃除機100の自己位置と、対応情報取得部113から出力された場所IDとに基づいて、自律走行型掃除機100の周囲に位置する特定の認識対象のみを認識するための認識情報を決定する。 The determining unit 114 selects one recognition information from a plurality of pieces of recognition information, each of which indicates an image processing method for recognizing a recognition target included in an image, and which differs from each other in one or more recognition targets. This is a processing unit that makes decisions based on location. Specifically, the determining unit 114 selects a specific recognition target located around the autonomous vacuum cleaner 100 according to the area corresponding to the self-position of the autonomous vacuum cleaner 100 acquired by the self-position acquisition unit 112. Determine recognition information for recognizing. More specifically, the determining unit 114 selects specific places located around the autonomous vacuum cleaner 100 based on the self-location of the autonomous vacuum cleaner 100 and the location ID output from the correspondence information acquisition unit 113. Determine recognition information for recognizing only the recognition target.

例えば、決定部114は、自律走行型掃除機100の自己位置と対応情報220とに基づいて、複数の認識対象から1以上の認識対象を決定する。言い換えると、決定部114は、自律走行型掃除機100の自己位置と対応情報220とに基づいて、モデル情報222に含まれる複数の認識情報から1つの認識情報を決定する。 For example, the determining unit 114 determines one or more recognition targets from among the plurality of recognition targets based on the self-position of the autonomous vacuum cleaner 100 and the correspondence information 220. In other words, the determination unit 114 determines one piece of recognition information from among the plurality of pieces of recognition information included in the model information 222, based on the self-position of the autonomous vacuum cleaner 100 and the correspondence information 220.

例えば、決定部114は、複数の領域における一の領域から他の領域に移動した場合、当該一の領域に応じた認識情報を他の領域に応じた認識情報に切り替える。決定部114は、決定した認識情報の種別を示す情報(例えば、モデルID)を認識部115に出力する。 For example, when the determining unit 114 moves from one region to another among a plurality of regions, the determination unit 114 switches the recognition information corresponding to the one region to the recognition information corresponding to the other region. The determining unit 114 outputs information indicating the determined type of recognition information (for example, model ID) to the recognizing unit 115.

認識部115は、所定の空間を撮影するカメラ70から得られる画像(撮影画像)を、決定部114が決定した1つの認識情報を用いて画像解析することで、当該撮影画像に含まれる認識対象を認識する処理部である。具体的には、認識部115は、所定の空間を撮影するカメラ70から得られる撮影画像に含まれる、決定部114が決定した認識情報を用いて1以上の認識対象のみを認識するための画像処理をする。より具体的には、認識部115は、所定の空間を撮影するカメラ70から得られる撮影画像に含まれる、決定部114が決定した認識情報を用いて1以上の認識対象のみを認識するための画像処理をすることで、当該撮影画像に当該1以上の認識対象のいずれかが含まれているか否かを判定する。 The recognition unit 115 analyzes the image obtained from the camera 70 photographing a predetermined space (photographed image) using one piece of recognition information determined by the determination unit 114, thereby identifying the recognition target included in the photographed image. This is a processing unit that recognizes. Specifically, the recognition unit 115 uses the recognition information determined by the determination unit 114, which is included in the photographed image obtained from the camera 70 photographing a predetermined space, to recognize only one or more recognition targets. Process. More specifically, the recognition unit 115 uses the recognition information determined by the determination unit 114 to recognize only one or more recognition targets, which is included in the captured image obtained from the camera 70 that photographs a predetermined space. By performing image processing, it is determined whether the captured image includes any of the one or more recognition targets.

例えば、認識部115は、カメラ70から得られる撮影画像と、決定部が決定した認識情報を用いて、認識対象の画像等の情報と比較することで、認識対象が画像に含まれているかを判定することで認識対象を認識する。より具体的、認識部115は、カメラ70から撮影画像を生成した時刻と、当該撮影画像のR(Red)、G(Green)、及び、B(Blue)を示す数値及び撮影画像における位置を示す識別番号(ピクセル番号)等、つまり、ピクセルごとのRGB値と、をカメラ70から取得し、取得した情報に基づいて画像解析することで、物体の種別を特定することで、認識対象を認識する。 For example, the recognition unit 115 uses the captured image obtained from the camera 70 and the recognition information determined by the determination unit to determine whether the recognition target is included in the image by comparing it with information such as the image of the recognition target. Recognize the recognition target by making a judgment. More specifically, the recognition unit 115 indicates the time when the captured image was generated from the camera 70, numerical values indicating R (Red), G (Green), and B (Blue) of the captured image, and the position in the captured image. The identification number (pixel number), etc., that is, the RGB value of each pixel, is acquired from the camera 70, and the image is analyzed based on the acquired information to identify the type of object and recognize the recognition target. .

例えば、認識部115は、「ペットボトル」及び「リモコン」を認識対象とする認識情報を用いた場合、カメラ70から得られる撮影画像に「ペットボトル」又は「リモコン」が含まれているときにはそれぞれ認識できるが、「ペットボトル」及び「リモコン」以外の物体が画像に含まれていても認識できない。つまり、認識部115は、決定部114が決定した認識情報に応じた認識対象のみを認識し、当該認識対象以外の物体については画像に含まれていたとしても認識できない。 For example, when the recognition unit 115 uses recognition information that recognizes "plastic bottle" and "remote control", when the captured image obtained from the camera 70 includes "plastic bottle" or "remote control", the recognition unit 115 respectively However, objects other than "plastic bottle" and "remote control" cannot be recognized even if they are included in the image. In other words, the recognition unit 115 recognizes only the recognition target according to the recognition information determined by the determination unit 114, and cannot recognize objects other than the recognition target even if they are included in the image.

認識部115は、認識した認識対象の種別と、認識対象が含まれる撮影画像が撮影された時刻を示す時刻情報とを紐づけて座標検知部117に出力する。より具体的には、認識部115は、撮影画像に含まれる認識対象のバウンディングボックス(認識対象を囲む外接矩形の枠)を算出し、算出したバウンディングボックスの位置(より具体的には、ピクセル位置)を示す情報を座標検知部117に出力する。 The recognition unit 115 outputs the recognized type of recognition target to the coordinate detection unit 117 in association with time information indicating the time when the photographed image including the recognition target was photographed. More specifically, the recognition unit 115 calculates a bounding box (a circumscribed rectangular frame surrounding the recognition target) of the recognition target included in the captured image, and calculates the position of the calculated bounding box (more specifically, the pixel position). ) is output to the coordinate detection unit 117.

形状検知部116は、深度センサ90が生成した深度画像及び当該深度画像が撮影された時刻を示す情報等を取得し、当該深度画像を解析することで当該深度画像に含まれる物体と自律走行型掃除機100との距離(相対距離、より具体的には相対位置)、及び、当該物体の幅、高さ等を検知(算出)する処理部である。 The shape detection unit 116 acquires the depth image generated by the depth sensor 90 and information indicating the time when the depth image was taken, and analyzes the depth image to identify the object included in the depth image and the autonomous driving type. This is a processing unit that detects (calculates) the distance (relative distance, more specifically, relative position) to the vacuum cleaner 100, and the width, height, etc. of the object.

例えば、記憶部140には、本体部10における深度センサ90の設置位置を示す位置情報、及び、本体部10のサイズを示すサイズ情報等が予め記憶されている。形状検知部116は、これらの情報に基づいて、本体部10と深度画像に含まれる物体との距離(より具体的には、最も近接する距離である最近接距離)を算出する。形状検知部116は、算出した物体までの距離、及び、物体の幅、高さ等を物体の形状情報と、深度画像が撮影された時刻とを紐づけて座標検知部117に出力する。 For example, the storage unit 140 stores in advance position information indicating the installation position of the depth sensor 90 in the main body 10, size information indicating the size of the main body 10, and the like. The shape detection section 116 calculates the distance between the main body section 10 and the object included in the depth image (more specifically, the closest distance, which is the closest distance) based on this information. The shape detection unit 116 outputs the calculated distance to the object, the width, height, etc. of the object to the coordinate detection unit 117 in association with the shape information of the object and the time when the depth image was captured.

座標検知部117は、形状検知部116が検知した自律走行型掃除機100と物体との相対距離(より具体的には、相対位置)と、自己位置取得部112が取得した自律走行型掃除機100の地図における位置とから、地図における物体の位置(座標)を算出(検知)する処理部である。また、座標検知部117は、例えば、認識部115が認識した認識対象と、形状検知部116が検知した物体とを、時刻等によって紐づける。これにより、座標検知部117は、形状検知部116が検知した物体の位置、形状、及び、種別を特定する。座標検知部117は、例えば、検知した物体の座標を示す情報を記憶部140に記憶させる。 The coordinate detection unit 117 detects the relative distance between the autonomous vacuum cleaner 100 and the object detected by the shape detection unit 116 (more specifically, the relative position), and the autonomous vacuum cleaner acquired by the self-position acquisition unit 112. This is a processing unit that calculates (detects) the position (coordinates) of an object on the map from the position on the 100 maps. Further, the coordinate detection unit 117 links the recognition target recognized by the recognition unit 115 and the object detected by the shape detection unit 116, for example, by time or the like. Thereby, the coordinate detection unit 117 identifies the position, shape, and type of the object detected by the shape detection unit 116. For example, the coordinate detection unit 117 causes the storage unit 140 to store information indicating the coordinates of the detected object.

また、座標検知部117は、認識部115が認識対象を認識した時刻(つまり、形状検知部116が物体を検知した時刻)を示す時刻情報と、検知した物体の位置を示す位置情報と、物体の種別を示す種別情報と、を計画生成部120に出力する。 The coordinate detection unit 117 also collects time information indicating the time at which the recognition unit 115 recognized the recognition target (that is, the time at which the shape detection unit 116 detected the object), position information indicating the position of the detected object, and information about the object. type information indicating the type of .

計画生成部120は、自律走行型掃除機100の走行経路、メインブラシ50等の駆動のタイミング等の掃除の仕方(掃除態様)を示す計画情報を生成する処理部である。例えば、自律走行型掃除機100が所定の空間をどのように走行して掃除するかを示す掃除計画(計画情報)を生成する。 The plan generation unit 120 is a processing unit that generates plan information indicating how to clean (cleaning mode) such as the travel route of the autonomous vacuum cleaner 100 and the timing of driving the main brush 50 and the like. For example, a cleaning plan (plan information) indicating how the autonomous vacuum cleaner 100 will travel and clean a predetermined space is generated.

例えば、計画生成部120は、地図情報210に基づいて、自律走行型掃除機100が所定の領域全体を走行するように、走行経路を生成する。また、例えば、計画生成部120は、所定の空間の位置に応じた自律走行型掃除機100の車輪モータ161の回転数、車輪20の向き等の駆動部160の制御方法である走行方法を決定する。また、例えば、計画生成部120は、所定の空間の位置に応じた自律走行型掃除機100の清掃部150の制御方法(例えば、ブラシモータ151の回転数)、及び、吸引部170の制御方法(例えば、吸引力、より具体的には、吸引モータ171の回転数)等を含む掃除方法を示す掃除方法情報を含む計画情報を生成する。 For example, the plan generation unit 120 generates a travel route based on the map information 210 so that the autonomous vacuum cleaner 100 travels throughout a predetermined area. For example, the plan generating unit 120 determines a traveling method, which is a method of controlling the drive unit 160, such as the rotation speed of the wheel motor 161 of the autonomous vacuum cleaner 100 and the direction of the wheels 20, depending on the position of the predetermined space. do. For example, the plan generating unit 120 may also determine a method of controlling the cleaning unit 150 of the autonomous vacuum cleaner 100 (for example, the number of rotations of the brush motor 151) and a method of controlling the suction unit 170 according to the position of the predetermined space. (For example, the suction force, more specifically, the number of rotations of the suction motor 171), etc., is generated.

また、例えば、計画生成部120は、認識部115が認識した認識対象の周囲を走行する場合、走行パターン情報230に基づいて、自律走行型掃除機100が走行する走行経路を生成する。例えば、走行パターン情報230は、認識対象の種別に応じた走行経路及び掃除方法情報を含み、計画生成部120は、例えば、走行パターン情報230に基づいて、計画情報を生成する。走行パターン情報230の詳細については、後述する。 For example, when the plan generation unit 120 travels around the recognition target recognized by the recognition unit 115, the plan generation unit 120 generates a travel route along which the autonomous vacuum cleaner 100 travels based on the travel pattern information 230. For example, the driving pattern information 230 includes driving route and cleaning method information according to the type of recognition target, and the plan generation unit 120 generates plan information based on the driving pattern information 230, for example. Details of the driving pattern information 230 will be described later.

このように、計画生成部120は、認識部115で認識された認識対象に対して、どのように走行及び掃除するか、つまり、走行経路、走行方法及び掃除方法を示す掃除態様(つまり、掃除の仕方)を決定し、決定した掃除態様となるように自律走行型掃除機100、より具体的には、清掃部150、駆動部160、及び、吸引部170を制御部130に制御させるための制御内容を示す計画情報を生成する。 In this way, the plan generation unit 120 creates a cleaning mode (i.e., a cleaning mode) indicating how to run and clean the recognition target recognized by the recognition unit 115, that is, a running route, a running method, and a cleaning method. method), and for causing the control unit 130 to control the autonomous vacuum cleaner 100, more specifically, the cleaning unit 150, the drive unit 160, and the suction unit 170, so as to achieve the determined cleaning mode. Generate plan information indicating control details.

なお、計画生成部120は、各種センサによって検知された物体であって、認識対象として認識されなかった物体に対しては、予め定められた走行態様で当該物体を回避させるように、計画情報を生成してもよい。例えば、計画生成部120は、自律走行型掃除機100が走行中に認識部115がカメラ70から得られる画像に基づいて認識対象を認識できない場合に、深度センサ90から自律走行型掃除機100の走行の妨げとなる物体が検出されたとき、予め定められた走行態様で当該物体を回避させるような計画情報を再生成してもよいし、計画情報を再生成せずに当該物体に自律走行型掃除機100を乗り上げさせて走行させ続けてもよい。 Note that for objects detected by various sensors but not recognized as recognition targets, the plan generation unit 120 generates plan information so as to avoid the objects in a predetermined driving manner. may be generated. For example, if the recognition unit 115 cannot recognize the recognition target based on the image obtained from the camera 70 while the autonomous vacuum cleaner 100 is running, the plan generation unit 120 may detect the autonomous vacuum cleaner 100 from the depth sensor 90. When an object that obstructs driving is detected, planning information that causes the object to be avoided in a predetermined driving mode may be regenerated, or the object may be autonomously driven without regenerating the planning information. The vacuum cleaner 100 may be allowed to ride on the vehicle and continue to run.

制御部130は、認識部115の認識結果(より具体的には、認識部115が認識対象を認識した場合の当該認識対象の種別)に基づいて、自律走行型掃除機100を走行させて掃除させる処理部である。具体的には、制御部130は、計画生成部120が生成した計画情報に基づいて、自律走行型掃除機100を制御する。より具体的には、制御部130は、計画生成部120が生成した計画情報に基づいて、清掃部150、駆動部160、及び、吸引部170を制御することで、自律走行型掃除機100を所定の空間を走行させて掃除させる。 The control unit 130 causes the autonomous vacuum cleaner 100 to run and clean based on the recognition result of the recognition unit 115 (more specifically, the type of the recognition target when the recognition unit 115 recognizes the recognition target). This is a processing unit that performs Specifically, the control unit 130 controls the autonomous vacuum cleaner 100 based on the plan information generated by the plan generation unit 120. More specifically, the control unit 130 controls the autonomous vacuum cleaner 100 by controlling the cleaning unit 150, the drive unit 160, and the suction unit 170 based on the plan information generated by the plan generation unit 120. Have the robot run and clean a designated space.

例えば、制御部130は、自律走行型掃除機100が走行して掃除している際に、認識部115が認識対象を認識した場合、当該認識対象の種別と、走行パターン情報230とに基づいて、自律走行型掃除機100を走行させて掃除させる。本実施の形態では、例えば、自律走行型掃除機100が走行して掃除している際に、認識部115が認識対象を認識した場合、計画生成部120が、当該認識対象の種別と、走行パターン情報230とに基づいて、走行経路等の情報を含む計画情報を再生成する。制御部130は、計画生成部120に再生成された計画情報に基づいて自律走行型掃除機100を走行させて掃除させる。 For example, when the recognition unit 115 recognizes a recognition target while the autonomous vacuum cleaner 100 is running and cleaning, the control unit 130 uses a recognition target based on the type of the recognition target and the travel pattern information 230. , the autonomous vacuum cleaner 100 is caused to run and clean. In the present embodiment, for example, when the recognition unit 115 recognizes a recognition target while the autonomous vacuum cleaner 100 is running and cleaning, the plan generation unit 120 determines the type of the recognition target and the travel Based on the pattern information 230, plan information including information such as the driving route is regenerated. The control unit 130 causes the autonomous vacuum cleaner 100 to travel and clean based on the plan information regenerated by the plan generation unit 120.

記憶部140は、各種情報、各処理部が実行する制御プログラム等を記憶する記憶装置である。記憶部140は、例えば、地図情報210と、対応情報220と、走行パターン情報230と、を記憶している。対応情報220には、領域情報221と、モデル情報222とが含まれる。 The storage unit 140 is a storage device that stores various information, control programs executed by each processing unit, and the like. The storage unit 140 stores, for example, map information 210, correspondence information 220, and driving pattern information 230. The correspondence information 220 includes area information 221 and model information 222.

図4は、領域情報221の一例を示す図である。 FIG. 4 is a diagram showing an example of the area information 221.

領域情報221は、それぞれが所定の空間の一部の領域(つまり、地図情報210に示される地図の領域の一部)であって、互いに異なる複数の領域を示す情報である。 The area information 221 is information indicating a plurality of different areas, each of which is a part of a predetermined space (that is, a part of the area of the map shown in the map information 210).

領域情報221は、例えば、場所ID情報221Aと、座標情報221Bと、エリアID情報221Cと、を含む。 The area information 221 includes, for example, location ID information 221A, coordinate information 221B, and area ID information 221C.

場所ID情報221Aは、座標情報221Bで指定される領域の名称を示す情報である。本実施の形態では、場所ID情報221Aは、場所名と、当該場所名に対応するIDである数値とを含む。 The location ID information 221A is information indicating the name of the area specified by the coordinate information 221B. In this embodiment, place ID information 221A includes a place name and a numerical value that is an ID corresponding to the place name.

座標情報221Bは、所定の空間(つまり、地図情報210に示される地図の領域)において任意に指定される領域を示す座標である。本実施の形態は、地図情報210は、XY座標で位置(座標)が指定される二次元の地図である。また、本実施の形態では、座標情報221Bは、4つの位置(X軸の最小値(Xmin)、X軸の最大値(Xmax)、Y軸の最小値(Ymin)、及び、Y軸の最大値(Ymax))で表現される。当該4つの位置を示で囲まれた領域が、複数に分割された所定の空間のうちの1つの領域である。 The coordinate information 221B is coordinates indicating an arbitrarily specified area in a predetermined space (that is, the area of the map shown in the map information 210). In this embodiment, the map information 210 is a two-dimensional map in which positions (coordinates) are specified using XY coordinates. In addition, in this embodiment, the coordinate information 221B includes four positions (X-axis minimum value (Xmin), X-axis maximum value (Xmax), Y-axis minimum value (Ymin), and Y-axis maximum value). value (Ymax)). The area surrounded by the four positions is one of the predetermined spaces divided into a plurality of areas.

エリアID情報221Cは、座標情報221Bが示す領域ごとに固有に定められるID(数値)である。 The area ID information 221C is an ID (numerical value) uniquely determined for each area indicated by the coordinate information 221B.

図4に示す例では、例えば、「リビング」は、場所IDが0001であり、X座標が0~10000、且つ、Y座標が0~8000の範囲で囲まれた領域であり、且つ、エリアIDが0001である。 In the example shown in FIG. 4, for example, "Living" has a place ID of 0001, is an area surrounded by an X coordinate of 0 to 10000, and a Y coordinate of 0 to 8000, and has an area ID of is 0001.

領域情報221は、予め記憶部140に記憶されてもよいし、受付部190を介して登録部191に取得され、記憶部140に記憶されてもよい。例えば、後述する登録部191は、受付部190を介して場所ID情報221Aに含まれる場所名と、当該場所名に紐づけられた座標情報221Bと、を取得する。登録部191は、取得した場所名と、当該場所名に対応付けられた領域とのそれぞれに固有のID(数値)を付与して記憶部140に記憶させる。 The area information 221 may be stored in the storage unit 140 in advance, or may be acquired by the registration unit 191 via the reception unit 190 and stored in the storage unit 140. For example, the registration unit 191, which will be described later, obtains, via the reception unit 190, a place name included in the place ID information 221A and coordinate information 221B linked to the place name. The registration unit 191 assigns a unique ID (numerical value) to each of the acquired place name and the area associated with the place name, and stores them in the storage unit 140.

図5は、対応情報220の一例を示す図である。なお、図5に示す例では、領域情報221のうち、場所ID情報221Aと、エリアID情報221Cと、が示されており、図4に示す座標情報221Bの図示が省略されている。 FIG. 5 is a diagram showing an example of the correspondence information 220. In the example shown in FIG. 5, of the area information 221, place ID information 221A and area ID information 221C are shown, and illustration of the coordinate information 221B shown in FIG. 4 is omitted.

対応情報220は、場所ID情報221Aと、エリアID情報221Cと、モデル情報222と、を含む。 The correspondence information 220 includes location ID information 221A, area ID information 221C, and model information 222.

場所ID情報221Aに含まれる各場所IDは、エリアID情報221Cに含まれる各エリアIDのいずれか、及び、モデル情報222に含まれる複数の認識情報のいずれかと紐づけられている。つまり、領域情報221で示される複数の領域は、それぞれ、モデル情報222に含まれる複数の認識情報のいずれかと紐づけられている。これにより、例えば、決定部114は、自己位置取得部112が取得した自己位置(座標)が位置する領域(エリアID)を特定し、特定した領域に対応する認識情報を決定できる。 Each place ID included in the place ID information 221A is linked with any of the area IDs included in the area ID information 221C and with any of the plurality of pieces of recognition information included in the model information 222. That is, each of the plurality of regions indicated by the region information 221 is associated with one of the plurality of recognition information included in the model information 222. Thereby, for example, the determination unit 114 can specify the area (area ID) in which the self-position (coordinates) acquired by the self-location acquisition unit 112 is located, and determine the recognition information corresponding to the specified area.

モデル情報222は、複数の認識情報を含む情報である。複数の認識情報のそれぞれには、固有のモデルID(数値)が割り当てられている。 The model information 222 is information including a plurality of pieces of recognition information. A unique model ID (numerical value) is assigned to each piece of recognition information.

例えば、モデルIDが0001は、場所IDが「リビング:0001」に対応し、認識対象が「ペットボトル」及び「リモコン」である認識情報のIDである。例えば、認識部115は、決定部114が決定した認識情報の認識対象が「ペットボトル」及び「リモコン」である場合(つまり、自己位置が「リビング」であり、モデルIDを0001と決定した場合)、カメラ70から得られた撮影画像に「ペットボトル」及び「リモコン」のいずれかがを含まれているか否かを判定する。 For example, a model ID of 0001 is an ID of recognition information whose location ID corresponds to "living room: 0001" and whose recognition targets are "plastic bottle" and "remote control." For example, when the recognition targets of the recognition information determined by the determining unit 114 are "plastic bottle" and "remote control" (that is, when the self-location is "living room" and the model ID is determined to be 0001) ), it is determined whether the photographed image obtained from the camera 70 includes either a "plastic bottle" or a "remote control".

このように、認識部115は、自律走行型掃除機100の自己位置に応じて、認識対象(つまり、認識情報)を切り替えながら、カメラ70から得られる撮影画像に含まれる物体の認識を行う。 In this way, the recognition unit 115 recognizes objects included in the captured image obtained from the camera 70 while switching the recognition target (that is, recognition information) according to the self-position of the autonomous vacuum cleaner 100.

なお、複数の認識情報は、それぞれ、1つの認識対象を認識するための画像処理方法(プログラム)でもよいし、2以上の認識対象を認識するためのプログラムでもよい。また、複数の認識情報は、互いに認識対象が完全に一致していなければよく、一部の認識対象が重複していてもよい。 Note that each of the plural pieces of recognition information may be an image processing method (program) for recognizing one recognition target, or may be a program for recognizing two or more recognition targets. Furthermore, the recognition targets of the plural pieces of recognition information do not have to completely match each other, and some of the recognition targets may overlap.

図6は、走行パターン情報230の一例を示す図である。 FIG. 6 is a diagram showing an example of the driving pattern information 230.

走行パターン情報230は、認識対象に対して自律走行型掃除機100がどのように走行するかを示すデータベースである。 The travel pattern information 230 is a database that indicates how the autonomous vacuum cleaner 100 travels toward the recognition target.

走行パターン情報230は、種別名情報230Aと、距離情報230Bと、パターン情報230Cと、を含む。種別名情報230Aと、距離情報230Bと、パターン情報230Cとは、それぞれに含まれる互いに情報が対応付けられて記憶されている。 The driving pattern information 230 includes type name information 230A, distance information 230B, and pattern information 230C. The type name information 230A, the distance information 230B, and the pattern information 230C are stored in association with each other.

種別名情報230Aは、物体の種別を示す情報である。図6には、種別名情報230Aとして、「衣類」と「リモコン」とについて例示している。 The type name information 230A is information indicating the type of object. FIG. 6 illustrates "clothing" and "remote control" as the type name information 230A.

距離情報230Bは、種別名情報230Aが示す物体と自律走行型掃除機100との距離を示す情報である。 The distance information 230B is information indicating the distance between the autonomous vacuum cleaner 100 and the object indicated by the type name information 230A.

パターン情報230Cは、制御部130が駆動部160を制御することで自律走行型掃除機100をどのように走行させるかを示す情報である。 The pattern information 230C is information indicating how the autonomous vacuum cleaner 100 is run by the control unit 130 controlling the drive unit 160.

例えば、計画生成部120は、カメラ70から得られた撮影画像から認識部115が「衣類」を認識した場合、種別名情報230Aに含まれる「衣類」に対応した計画情報を生成する。 For example, when the recognition unit 115 recognizes “clothing” from the captured image obtained from the camera 70, the plan generation unit 120 generates plan information corresponding to “clothing” included in the type name information 230A.

例えば、計画生成部120は、「衣類」と自律走行型掃除機100との距離が1000mm以上では、1000mmまでは第1速度で走行して接近する計画情報(走行経路)を生成する。或いは、例えば、計画生成部120は、当該距離が500mm以上1000mm未満)では、500mmまでは第1速度より遅い第2速度に減速させて走行して接近する計画情報を生成する。例えば、計画生成部120は、当該距離が500mm未満では、停止して「衣類」を回避するような計画情報を生成する。 For example, when the distance between "clothing" and the autonomous vacuum cleaner 100 is 1000 mm or more, the plan generation unit 120 generates plan information (traveling route) in which the autonomous vacuum cleaner 100 travels at the first speed until it reaches 1000 mm. Alternatively, for example, if the distance is 500 mm or more and less than 1000 mm, the plan generation unit 120 generates plan information for approaching the vehicle by decelerating the vehicle to a second speed that is slower than the first speed until 500 mm. For example, the plan generation unit 120 generates plan information such as stopping and avoiding "clothing" when the distance is less than 500 mm.

なお、計画生成部120は、自律走行型掃除機100が走行して掃除を開始する前に、物体の種別と位置とが特定できている場合、上記したような計画情報を予め生成してもよい。或いは、計画生成部120は、自律走行型掃除機100が走行して掃除を行っている再に、カメラ70から得られた撮影画像に含まれる物体が認識部115に認識された場合、レーザ測距計40から物体と自律走行型掃除機100との距離を示す情報を取得し、取得した情報と走行パターン情報230とから、自律走行型掃除機100をどのように走行させるか(つまり、走行態様)を決定し、既に生成している計画情報が決定した走行態様と異なる場合、決定した走行態様となるように、計画情報を再生成する。 Note that if the type and position of the object can be identified before the autonomous vacuum cleaner 100 runs and starts cleaning, the plan generation unit 120 may generate the above-mentioned plan information in advance. good. Alternatively, if the recognition unit 115 recognizes an object included in the captured image obtained from the camera 70 while the autonomous vacuum cleaner 100 is running and cleaning, the plan generation unit 120 may perform laser measurement. Information indicating the distance between the object and the autonomous vacuum cleaner 100 is acquired from the distance meter 40, and from the acquired information and the travel pattern information 230, how to run the autonomous vacuum cleaner 100 (that is, how to run the autonomous vacuum cleaner 100) is determined. If the already generated plan information is different from the determined driving mode, the planning information is regenerated so as to match the determined driving mode.

記憶部140は、例えば、HDD(Hard Disk Drive)、フラッシュメモリ等により実現される。また、記憶部140には、例えば、制御部130等の各種処理部が実行する制御プログラムが記憶されている。 The storage unit 140 is realized by, for example, an HDD (Hard Disk Drive), a flash memory, or the like. Further, the storage unit 140 stores, for example, control programs executed by various processing units such as the control unit 130.

清掃部150は、フロア面を清掃するための機構である。清掃部150は、例えば、ブラシモータ151を備える。 The cleaning unit 150 is a mechanism for cleaning the floor surface. The cleaning unit 150 includes, for example, a brush motor 151.

ブラシモータ151は、メインブラシ50等のブラシと接続され、メインブラシ50等のブラシを駆動(回転)させるためのモータである。 The brush motor 151 is a motor that is connected to brushes such as the main brush 50 and drives (rotates) the brushes such as the main brush 50.

駆動部160は、自律走行型掃除機100を走行させるための機構である。駆動部160は、例えば、車輪モータ161を備える。 The drive unit 160 is a mechanism for driving the autonomous vacuum cleaner 100. The drive unit 160 includes, for example, a wheel motor 161.

車輪モータ161は、車輪20と接続され、車輪20を回転させるためのモータである。 The wheel motor 161 is a motor that is connected to the wheel 20 and rotates the wheel 20.

自律走行型掃除機100は、車輪モータ161と接続された2つの車輪20の回転が独立して制御されることで、直進、後退、左回転、右回転等、自在に走行することができる。なお、自律走行型掃除機100は、車輪モータ161により回転させない車輪(補助輪)をさらに備えてもよい。 The autonomous vacuum cleaner 100 can move freely, such as going straight, going backwards, turning left, turning right, etc., by independently controlling the rotation of the two wheels 20 connected to the wheel motor 161. Note that the autonomous vacuum cleaner 100 may further include wheels (auxiliary wheels) that are not rotated by the wheel motor 161.

吸引部170は、所定の空間のフロア面を吸引することで、当該フロア面のゴミを吸引するための機構である。吸引部170は、例えば、吸引モータ171を備える。 The suction unit 170 is a mechanism for suctioning dust on the floor surface of a predetermined space by suctioning the floor surface. The suction unit 170 includes, for example, a suction motor 171.

吸引モータ171は、例えば、ファンと接続され、当該ファンを回転させることでフロア面のゴミを吸引するためのモータである。 The suction motor 171 is, for example, a motor that is connected to a fan and sucks up dust on the floor by rotating the fan.

通知部180は、映像、音声等によってユーザに情報を通知するための機器である。 The notification unit 180 is a device for notifying the user of information through video, audio, and the like.

通知部180は、例えば、認識部115が認識対象を認識した場合、認識された認識対象の種別と、認識された認識対象の位置と、を通知する。具体的には、制御部130は、例えば、認識部115が認識対象を認識した場合、認識対象の種別を示す種別情報と、複数の領域のうちで認識対象が位置する領域を示す位置情報と、を通知部180に通知させる。 For example, when the recognition unit 115 recognizes a recognition target, the notification unit 180 notifies the type of the recognized recognition target and the position of the recognized recognition target. Specifically, for example, when the recognition unit 115 recognizes a recognition target, the control unit 130 includes type information indicating the type of the recognition target and position information indicating the area in which the recognition target is located among the plurality of areas. , to the notification unit 180.

例えば、通知部180が音を発生するアンプ、スピーカ等を備える音響機器である場合、制御部130は、認識部115が認識対象を認識したタイミングで、通知部180を制御することで音声を発生させて、認識対象の種別を示す種別情報と、複数の領域のうちで認識対象が位置する領域を示す位置情報と、をユーザに通知する。或いは、通知部180が通信端末300と通信するための通信インターフェースである場合、制御部130は、認識部115が認識対象を認識したタイミングで、認識対象の種別を示す種別情報と、複数の領域のうちで認識対象が位置する領域を示す位置情報とを、通知部180を介してユーザが所有する通信端末300(例えば、図9A参照)に送信する。通信端末300は、例えば、受信した情報を示す画像を通信端末300が備えるディスプレイ等の表示部に表示させる。これにより、制御部130は、認識された認識対象の種別と、認識された認識対象の位置と、通知部180によってユーザに通知する。 For example, if the notification unit 180 is an audio device that includes an amplifier, a speaker, etc. that generates sound, the control unit 130 controls the notification unit 180 to generate sound at the timing when the recognition unit 115 recognizes the recognition target. Then, the user is notified of type information indicating the type of the recognition target and position information indicating the area in which the recognition target is located among the plurality of areas. Alternatively, if the notification unit 180 is a communication interface for communicating with the communication terminal 300, the control unit 130 may send type information indicating the type of the recognition target and a plurality of areas at the timing when the recognition unit 115 recognizes the recognition target. The location information indicating the area where the recognition target is located is transmitted to the communication terminal 300 owned by the user (see, for example, FIG. 9A) via the notification unit 180. For example, the communication terminal 300 displays an image indicating the received information on a display unit such as a display included in the communication terminal 300. Thereby, the control unit 130 notifies the user of the type of the recognized recognition target and the position of the recognized recognition target using the notification unit 180.

また、例えば、通知部180は、決定部114が、認識部115が用いている認識情報を切り替えたタイミングで、認識モデルを切り替えたことを通知する。 Further, for example, the notification unit 180 notifies that the determination unit 114 has switched the recognition model at the timing when the recognition information used by the recognition unit 115 has been switched.

例えば、通知部180が音を発生するアンプ、スピーカ等を備える音響機器である場合、制御部130は、決定部114が認識情報を切り替えたタイミングで、通知部180を制御することで音声を発生させて、認識情報を切り替えたことをユーザに通知する。或いは、通知部180が通信端末300と通信するための通信インターフェースである場合、制御部130は、決定部114が認識情報を切り替えたタイミングで、認識情報を切り替えたことを示す情報を、通知部180を介して通信端末300に送信する。通信端末300は、例えば、受信した情報を示す画像を上記した表示部に表示させる。 For example, if the notification unit 180 is an audio device that includes an amplifier, a speaker, etc. that generates sound, the control unit 130 controls the notification unit 180 to generate sound at the timing when the determination unit 114 switches the recognition information. to notify the user that the recognition information has been switched. Alternatively, when the notification unit 180 is a communication interface for communicating with the communication terminal 300, the control unit 130 transmits information indicating that the recognition information has been switched to the notification unit at the timing when the determination unit 114 switches the recognition information. 180 to the communication terminal 300. For example, the communication terminal 300 causes the above-described display unit to display an image showing the received information.

なお、記憶部140に記憶されている各種情報(各種データ)は、記憶部140に予め記憶されていてもよいし、自律走行型掃除機100と通信可能な外部装置(例えば、通信端末300)等から受信してもよい。 The various information (various data) stored in the storage unit 140 may be stored in advance in the storage unit 140, or may be stored in an external device (for example, the communication terminal 300) that can communicate with the autonomous vacuum cleaner 100. It may be received from etc.

受付部190は、ユーザの操作を受け付けるための機器である。例えば、受付部190は、ユーザが操作する操作端末(例えば、通信端末300)と通信することで、対応情報220等の情報を受信する通信インターフェースである。例えば、受付部190は、アンテナと、無線通信回路と、を有する。なお、自律走行型掃除機100と通信端末300とは、無線通信ではなく、有線通信してもよい。この場合、受付部190は、通信線が接続される端子でもよい。 The reception unit 190 is a device for accepting user operations. For example, the reception unit 190 is a communication interface that receives information such as the correspondence information 220 by communicating with an operating terminal (for example, the communication terminal 300) operated by a user. For example, reception unit 190 includes an antenna and a wireless communication circuit. Note that the autonomous vacuum cleaner 100 and the communication terminal 300 may communicate by wire instead of wirelessly. In this case, the reception unit 190 may be a terminal to which a communication line is connected.

また、受付部190は、ユーザの操作を受け付けることができればよく、ユーザの入力を受け付けるタッチパネル、ボタン等のユーザインターフェースでもよい。 Further, the reception unit 190 only needs to be able to accept user operations, and may be a user interface such as a touch panel or buttons that accept user input.

また、受付部190は、個別領域情報と、個別対象情報と、を含む個別情報を受け付ける。 Further, the receiving unit 190 receives individual information including individual area information and individual target information.

個別領域情報は、所定の空間のうちの一部の領域を示す情報である。 The individual area information is information indicating a part of a predetermined space.

個別対象情報は、認識対象を示す情報である。 Individual target information is information indicating a recognition target.

例えば、ユーザは、通信端末300を操作することで、所定の空間の地図を示す地図情報210を自律走行型掃除機100から取得し、取得した地図情報210が示す地図における領域の一部を選択する。さらに、ユーザは、選択した領域において自律走行型掃除機100に認識させたい物体の種別を示す情報、当該物体の画像等の情報を選択する。ユーザは、選択した領域を示す情報である個別領域情報と、選択した領域において自律走行型掃除機100に認識させたい物体の種別を示す情報、当該物体の画像等の情報である個別対象情報と、を含む個別情報を、自律走行型掃除機100へ通信端末300に送信させる。これにより、受付部190は、個別情報を受け付ける。 For example, by operating the communication terminal 300, the user acquires map information 210 indicating a map of a predetermined space from the autonomous vacuum cleaner 100, and selects a part of the area on the map indicated by the acquired map information 210. do. Further, the user selects information indicating the type of object that the autonomous vacuum cleaner 100 wants to recognize in the selected area, and information such as an image of the object. The user selects individual area information that is information indicating the selected area, information indicating the type of object that the autonomous vacuum cleaner 100 wants to recognize in the selected area, and individual target information that is information such as an image of the object. , is transmitted to the communication terminal 300 from the autonomous vacuum cleaner 100. Thereby, the receiving unit 190 receives the individual information.

登録部191は、受付部190が受け付けた情報を記憶部140に記憶させる処理部である。例えば、登録部191は、受付部190を介して、地図情報210、対応情報220、及び、走行パターン情報230等の各種情報を外部装置から取得して記憶部140に記憶させる。 The registration unit 191 is a processing unit that causes the storage unit 140 to store the information received by the reception unit 190. For example, the registration unit 191 acquires various information such as map information 210, correspondence information 220, and driving pattern information 230 from an external device via the reception unit 190, and stores the information in the storage unit 140.

また、例えば、登録部191は、受付部190が受け付けた、個別領域情報が示す領域において、個別対象情報が示す認識対象を認識できる認識情報を当該領域に紐づけて記憶部140に記憶させる。 For example, the registration unit 191 causes the storage unit 140 to store recognition information that can recognize the recognition target indicated by the individual target information in the area indicated by the individual area information received by the reception unit 190 in association with the area.

具体的に例えば、登録部191は、受付部190で受け付けた個別領域情報に対応する領域に、リビング、キッチン等の場所(領域)の種別を特定するための識別情報である場所IDを紐づけて記憶部140に記憶させる。つまり、登録部191は、複数の領域のそれぞれに場所IDを付与することで登録処理をする。 Specifically, for example, the registration unit 191 associates a place ID, which is identification information for specifying the type of place (area) such as a living room or a kitchen, with an area corresponding to the individual area information received by the reception unit 190. and stored in the storage unit 140. That is, the registration unit 191 performs registration processing by assigning a location ID to each of a plurality of areas.

例えば、場所名と場所IDとは、予め任意に定められている。登録部191は、場所名と座標情報221Bとを受付部190を介して取得した場合、これらの情報に場所名に応じた場所IDを付与して記憶部140に記憶させる。 For example, the place name and place ID are arbitrarily determined in advance. When the registration unit 191 acquires the place name and coordinate information 221B via the reception unit 190, it assigns a place ID corresponding to the place name to these pieces of information and stores them in the storage unit 140.

さらに、登録部191は、受付部190で受け付けたを個別対象情報が示す認識対象を認識するための認識情報に、モデルIDを付与して個別領域情報に対応する領域に紐付けて記憶部140に記憶させる。 Further, the registration unit 191 assigns a model ID to the recognition information for recognizing the recognition target indicated by the individual target information received by the reception unit 190 and links it to the area corresponding to the individual area information and stores it in the storage unit 140. to be memorized.

登録部191は、個別対象情報が示す認識対象を認識するための認識情報が記憶部140に記憶されている場合、複数の認識情報の中から該当する認識対象を選択して、個別領域情報に対応する領域に紐付けて記憶部140に記憶させてもよい。 When recognition information for recognizing the recognition target indicated by the individual target information is stored in the storage unit 140, the registration unit 191 selects the relevant recognition target from among the plurality of recognition information and adds it to the individual area information. It may be stored in the storage unit 140 in association with the corresponding area.

或いは、例えば、登録部191は、複数の領域ごとに認識情報が予め紐付けられている場合、個別領域情報に対応する領域に応じた認識情報が、個別対象情報が示す認識対象を認識できるように、個別対象情報に含まれる画像等を用いて図示しない処理部である学習部に機械学習させてもよい。或いは、例えば、登録部191は、自律走行型掃除機100が備える図示しない通信インターフェースを介して複数の認識情報を記憶している外部端末と通信することで、当該外部端末から、個別対象情報が示す認識対象を認識できる認識情報を取得してもよい。 Alternatively, for example, if recognition information is linked in advance to each of a plurality of areas, the registration unit 191 may set the recognition information corresponding to the area corresponding to the individual area information so that the recognition target indicated by the individual target information can be recognized. Alternatively, a learning unit, which is a processing unit (not shown), may perform machine learning using images and the like included in the individual target information. Alternatively, for example, the registration unit 191 communicates with an external terminal that stores a plurality of pieces of recognition information via a communication interface (not shown) included in the autonomous vacuum cleaner 100, so that the individual target information is received from the external terminal. Recognition information that allows recognition of the indicated recognition target may be acquired.

自己位置取得部112、対応情報取得部113、決定部114、認識部115、形状検知部116、座標検知部117、計画生成部120、制御部130、及び、登録部191等の各種処理部は、例えば、上記した処理を実行するための制御プログラムと、当該制御プログラムを実行するCPU(Central Processing Unit)とから実現される。各種処理部は、1つのCPUで実現されてもよいし、複数のCPUで実現されてもよい。 Various processing units such as a self-position acquisition unit 112, a correspondence information acquisition unit 113, a determination unit 114, a recognition unit 115, a shape detection unit 116, a coordinate detection unit 117, a plan generation unit 120, a control unit 130, a registration unit 191, etc. For example, it is realized by a control program for executing the above-described processing and a CPU (Central Processing Unit) for executing the control program. The various processing units may be realized by one CPU, or may be realized by multiple CPUs.

なお、自律走行型掃除機100は、例えば、各種センサとして、レーザ測距計40、カメラ70、及び、深度センサ90以外にも、自律走行型掃除機100が設置されている位置からフロア面までの距離を計測するクリフセンサ、自律走行型掃除機100の移動を検知するスリップセンサ、自律走行型掃除機100から任意の物体までの距離を検知する超音波センサ、接触センサ等を備えてもよい。また、例えば、自律走行型掃除機100は、自律走行型掃除機100が進行する方向を算出するために用いられるオドメトリ情報を検出するためのセンサを備えてもよい。 Note that the autonomous vacuum cleaner 100 includes, for example, various sensors such as a laser range finder 40, a camera 70, and a depth sensor 90. A cliff sensor that measures the distance from the autonomous vacuum cleaner 100, a slip sensor that detects the movement of the autonomous vacuum cleaner 100, an ultrasonic sensor that detects the distance from the autonomous vacuum cleaner 100 to an arbitrary object, a contact sensor, etc. may be provided. . Furthermore, for example, the autonomous vacuum cleaner 100 may include a sensor for detecting odometry information used to calculate the direction in which the autonomous vacuum cleaner 100 moves.

[処理手順]
続いて、自律走行型掃除機100の処理手順の概要について、図7~図14を参照しながら説明する。
[Processing procedure]
Next, an overview of the processing procedure of the autonomous vacuum cleaner 100 will be explained with reference to FIGS. 7 to 14.

<概要>
図7は、実施の形態に係る自律走行型掃除機100が実行する処理の概要を示すフローチャートである。
<Summary>
FIG. 7 is a flowchart showing an overview of processing executed by the autonomous vacuum cleaner 100 according to the embodiment.

まず、ユーザ等により、自律走行型掃除機100の電源がオンにされたとする(ステップS101)。これにより、自律走行型掃除機100は、動作を開始する。 First, assume that the autonomous vacuum cleaner 100 is powered on by a user or the like (step S101). As a result, the autonomous vacuum cleaner 100 starts operating.

例えば、登録部191は、記憶部140に地図情報210が登録(記憶)されているか否かを判定する(ステップS102)。 For example, the registration unit 191 determines whether the map information 210 is registered (stored) in the storage unit 140 (step S102).

登録部191が、記憶部140に地図情報210が登録されていないと判定した場合(ステップS102でNo)、例えば、制御部130は、上記したSLAMにより各種センサ及び駆動部160等を制御することで地図情報210を生成し、記憶部140に記憶させる(ステップS110)。 If the registration unit 191 determines that the map information 210 is not registered in the storage unit 140 (No in step S102), for example, the control unit 130 may control various sensors, the drive unit 160, etc. using the SLAM described above. The map information 210 is generated and stored in the storage unit 140 (step S110).

登録部191は、記憶部140に地図情報210が登録されていると判定した場合(ステップS102でYes)、記憶部140に領域情報221が登録(記憶)されているか否かを判定する(ステップS103)。 When the registration unit 191 determines that the map information 210 is registered in the storage unit 140 (Yes in step S102), the registration unit 191 determines whether or not the area information 221 is registered (stored) in the storage unit 140 (step S103).

登録部191が、記憶部140に領域情報221が登録されていないと判定した場合(ステップS103でNo)、又は、ステップS110の次に、領域情報221の登録処理を実行する(ステップS130)。登録部191は、領域情報221の登録処理を実行することで、記憶部140に領域情報221を記憶させる。 If the registration unit 191 determines that the area information 221 is not registered in the storage unit 140 (No in step S103), or after step S110, it executes the process of registering the area information 221 (step S130). The registration unit 191 causes the storage unit 140 to store the area information 221 by executing a registration process for the area information 221.

登録部191は、記憶部140に領域情報221が登録されていると判定した場合(ステップS103でYes)、記憶部140にモデル情報222が登録(記憶)されているか否かを判定する(ステップS104)。 When the registration unit 191 determines that the area information 221 is registered in the storage unit 140 (Yes in step S103), the registration unit 191 determines whether the model information 222 is registered (stored) in the storage unit 140 (step S104).

登録部191が、記憶部140にモデル情報222が登録されていないと判定した場合(ステップS104でNo)、又は、ステップS130の次に、モデル情報222の登録処理を実行する(ステップS150)。登録部191は、モデル情報222の登録処理を実行することで、記憶部140にモデル情報222を記憶させる。 If the registration unit 191 determines that the model information 222 is not registered in the storage unit 140 (No in step S104), or after step S130, the registration process of the model information 222 is executed (step S150). The registration unit 191 causes the storage unit 140 to store the model information 222 by executing a registration process for the model information 222.

登録部191が、記憶部140にモデル情報222が登録されていると判定した場合(ステップS104でYes)、又は、ステップS150の次に、自己位置取得部112、対応情報取得部113、決定部114、認識部115、計画生成部120、及び、制御部130等の各処理部は、掃除処理を実行する(ステップS170)。ステップS170で、自律走行型掃除機100は、所定の空間を自律走行して掃除する。 If the registration unit 191 determines that the model information 222 is registered in the storage unit 140 (Yes in step S104), or after step S150, the self-position acquisition unit 112, the correspondence information acquisition unit 113, and the determination unit 114, the recognition unit 115, the plan generation unit 120, the control unit 130, and other processing units execute cleaning processing (step S170). In step S170, the autonomous vacuum cleaner 100 autonomously travels and cleans a predetermined space.

<領域情報の登録処理>
図8は、領域情報221の登録処理(図7に示すステップS130)の詳細を示すフローチャートである。図9A~図9Fは、それぞれ、領域情報221の登録処理におけるユーザの操作の例を示す図である。図9A~図9Fには、それぞれ、ユーザが操作する通信端末300と、通信端末300に表示される画像とを例示している。
<Area information registration process>
FIG. 8 is a flowchart showing details of the region information 221 registration process (step S130 shown in FIG. 7). 9A to 9F are diagrams each showing an example of a user's operation in the region information 221 registration process. 9A to 9F each illustrate a communication terminal 300 operated by a user and an image displayed on the communication terminal 300.

通信端末300は、ユーザが操作するパーソナルコンピュータ、スマートフォン、タブレット端末等の、自律走行型掃除機100と通信可能なコンピュータである。通信端末300は、例えば、ユーザの操作を受け付ける受付部、自律走行型掃除機100から取得した画像を表示する表示部、及び、自律走行型掃除機100と通信するための通信インターフェース等を備える。本実施の形態では、通信端末300は、スマートフォンであって、ユーザの操作を受け付け、且つ、自律走行型掃除機100から取得した画像を表示するタッチパネルディスプレイを備える。 The communication terminal 300 is a computer that can communicate with the autonomous vacuum cleaner 100, such as a personal computer, a smartphone, or a tablet terminal operated by a user. The communication terminal 300 includes, for example, a reception unit that receives user operations, a display unit that displays images acquired from the autonomous vacuum cleaner 100, a communication interface for communicating with the autonomous vacuum cleaner 100, and the like. In this embodiment, communication terminal 300 is a smartphone, and includes a touch panel display that accepts user operations and displays images acquired from autonomous vacuum cleaner 100.

例えば、登録部191は、受付部190を介して領域情報221を受け付ける(ステップS131)。例えば、登録部191は、受付部190を介して地図情報210を通信端末300に送信する。通信端末300は、地図情報210を受信した場合、図9Aに示すように、地図情報210を表示する。ユーザは、通信端末300の画面をフリック操作することで、例えば、地図情報210に示される地図の領域の一部の範囲を指定する。通信端末300は、指定された範囲を示す情報(個別領域情報)を自律走行型掃除機100に送信する。これにより、登録部191は、受付部190を介して個別領域情報を含む領域情報221を受け付ける。 For example, the registration unit 191 receives area information 221 via the reception unit 190 (step S131). For example, the registration unit 191 transmits the map information 210 to the communication terminal 300 via the reception unit 190. When communication terminal 300 receives map information 210, it displays map information 210 as shown in FIG. 9A. By flicking the screen of the communication terminal 300, the user specifies, for example, a part of the area of the map shown in the map information 210. The communication terminal 300 transmits information indicating the specified range (individual area information) to the autonomous vacuum cleaner 100. Thereby, the registration unit 191 receives area information 221 including individual area information via the reception unit 190.

次に、登録部191は、受け付けた領域情報221に示される領域にエリアIDを付与する(ステップS132)。エリアIDは、領域ごとに固有であればよい。例えば、登録部191は、付与したエリアIDを示す情報を、受付部190を介して通信端末300に送信する。これにより、例えば、通信端末300は、図9Cに示すように、受け付けたエリアIDを示す情報に基づいて、ユーザにより指定された領域に重畳させるようにエリアIDを表示する。 Next, the registration unit 191 assigns an area ID to the area indicated in the received area information 221 (step S132). The area ID only needs to be unique for each area. For example, the registration unit 191 transmits information indicating the assigned area ID to the communication terminal 300 via the reception unit 190. Thereby, for example, as shown in FIG. 9C, the communication terminal 300 displays the area ID so as to be superimposed on the area specified by the user, based on the received information indicating the area ID.

ステップS131及びステップS132が、地図における異なる領域が指定されて繰り返されることで、図9Dに示すように、地図の複数の領域にエリアIDが付与される。 By repeating steps S131 and S132 with different areas on the map designated, area IDs are assigned to multiple areas on the map, as shown in FIG. 9D.

次に、登録部191は、それぞれの領域に対して場所ID(場所ID情報221A)を付与する(ステップS133)。例えば、ユーザは、図9Dに示すように、通信端末300に表示されたエリアIDのいずれかをタップ操作する。ここでは、ユーザは、「エリアID:0001」をタップ操作したとする。次に、通信端末300は、図9Eに示すように、場所候補を表示する。例えば、場所候補となる場所の情報は、登録部191がエリアIDを示す情報を、受付部190を介して送信する際に併せて送信する。ユーザは、表示された場所候補から1つの場所を選択する。これにより、ユーザによって領域に対する場所(場所名)が選択される。通信端末300は、ユーザによって選択された領域に対する場所名を示す情報を自律走行型掃除機100に送信する。これにより、登録部191は、受付部190を介して領域に対する場所名を示す情報を受信し、受信した情報に基づいて、領域ごとに場所IDを付与する。 Next, the registration unit 191 assigns a location ID (location ID information 221A) to each area (step S133). For example, the user taps one of the area IDs displayed on the communication terminal 300, as shown in FIG. 9D. Here, it is assumed that the user performs a tap operation on "Area ID: 0001". Next, the communication terminal 300 displays location candidates, as shown in FIG. 9E. For example, when the registration unit 191 transmits information indicating the area ID via the reception unit 190, the information on the location candidate is also transmitted. The user selects one location from the displayed location candidates. Thereby, the user selects a location (location name) for the area. The communication terminal 300 transmits information indicating a place name for the area selected by the user to the autonomous vacuum cleaner 100. Thereby, the registration unit 191 receives information indicating the place name for the area via the reception unit 190, and assigns a place ID to each area based on the received information.

<モデル情報の登録処理>
図10は、モデル情報222の登録処理(図7に示すステップS150)の詳細を示すフローチャートである。図11A~図11Dは、それぞれ、モデル情報222の登録処理におけるユーザの操作の例を示す図である。図9A~図9Fには、それぞれ、ユーザが操作する通信端末300と、通信端末300に表示される画像とを例示している。
<Model information registration process>
FIG. 10 is a flowchart showing details of the model information 222 registration process (step S150 shown in FIG. 7). FIGS. 11A to 11D are diagrams showing examples of user operations in the model information 222 registration process, respectively. 9A to 9F each illustrate a communication terminal 300 operated by a user and an image displayed on the communication terminal 300.

モデル情報222は、例えば、記憶部140に予め記憶されている。例えば、登録部191は、領域情報221に含まれる場所ID情報221Aに応じて、認識情報を紐づけて記憶部140に記憶させる。以下で説明するモデル情報222の登録処理では、例えば、元々記憶部140に記憶されている認識情報によって認識される認識対象に、ユーザから受け付けた個別認識情報が示す認識対象をさらに追加する。 The model information 222 is stored in the storage unit 140 in advance, for example. For example, the registration unit 191 associates recognition information with the location ID information 221A included in the area information 221 and stores it in the storage unit 140. In the model information 222 registration process described below, for example, the recognition target indicated by the individual recognition information received from the user is further added to the recognition target recognized by the recognition information originally stored in the storage unit 140.

なお、図10は、上記したステップS133の後の処理であり、通信端末300には、図9Fに示す画像が表示されているとする。 Note that FIG. 10 shows the process after step S133 described above, and it is assumed that the image shown in FIG. 9F is displayed on the communication terminal 300.

まず、登録部191は、受付部190を介して個別領域情報を取得する(ステップS151)。例えば、ユーザは、図11Aに示すように、通信端末300に表示された領域(例えば、エリアID)のいずれかをタップ操作する。ここでは、ユーザは、「エリアID:0001」の領域をタップ操作したとする。通信端末300、例えば、ユーザにタップ操作された領域を示す情報を自律走行型掃除機100に送信する。これにより、登録部191は、受付部190を介してユーザにタップ操作された領域を示す個別領域情報を受信することで、個別領域情報を取得する。 First, the registration unit 191 acquires individual area information via the reception unit 190 (step S151). For example, the user taps any area (for example, area ID) displayed on the communication terminal 300, as shown in FIG. 11A. Here, it is assumed that the user performs a tap operation on the area of "area ID: 0001". The communication terminal 300 transmits, for example, information indicating the area tapped by the user to the autonomous vacuum cleaner 100. Thereby, the registration unit 191 acquires the individual area information by receiving the individual area information indicating the area tapped by the user via the reception unit 190.

次に、登録部191は、選択された領域に登録(追加)される認識対象を示す個別対象情報を取得する(ステップS152)。 Next, the registration unit 191 acquires individual object information indicating a recognition object to be registered (added) to the selected area (step S152).

次に、登録部191は、取得した個別対象情報が示す認識対象の名称(ラベル)を示すラベル情報を取得する(ステップS153)。 Next, the registration unit 191 acquires label information indicating the name (label) of the recognition target indicated by the acquired individual target information (step S153).

例えば、通信端末300は、「エリアID:0001」の領域がタップ操作された場合、図11Bに示すように、「認識対象」と表示し、ユーザの操作によって認識対象を登録(追加)できるように処理する。例えば、ユーザは、図11Cに示すように、認識対象として登録したい物体の写真及び名称(ラベル)を通信端末300に入力する。物体の写真が、モデル情報222の一例である。図11Cには、ユーザが、「エリアID:0001」の領域に、「ペットボトル」及び「リモコン」を認識対象として入力した場合を例示している。通信端末300は、ユーザによって選択された領域、並びに、ユーザによって入力された写真及びラベル情報を、自律走行型掃除機100に送信する。これにより、登録部191は、受付部190を介して、ユーザによって選択された領域を示す個別領域情報と、個別領域情報が示す領域においてユーザが認識させたい認識対象を示す個別対象情報と、ラベル情報とを取得する。ユーザは、例えば、図11Dに示すように、上記した操作を各領域において実行することで、各領域において自律走行型掃除機100に認識させる認識対象を決定する。 For example, when the area of "area ID: 0001" is tapped, the communication terminal 300 displays "recognition target" as shown in FIG. 11B, and allows the user to register (add) the recognition target. to be processed. For example, as shown in FIG. 11C, the user inputs a photo and a name (label) of an object to be registered as a recognition target into the communication terminal 300. A photograph of an object is an example of model information 222. FIG. 11C illustrates a case where the user inputs "plastic bottle" and "remote control" as recognition targets in the area of "area ID: 0001". The communication terminal 300 transmits the area selected by the user, and the photo and label information input by the user to the autonomous vacuum cleaner 100. As a result, the registration unit 191 receives, via the receiving unit 190, individual area information indicating the area selected by the user, individual target information indicating the recognition target that the user wants to recognize in the area indicated by the individual area information, and a label. Get information. For example, as shown in FIG. 11D, the user determines the recognition target to be recognized by the autonomous vacuum cleaner 100 in each area by performing the above-described operation in each area.

次に、登録部191は、受付部190を介して取得した、個別領域情報が示す領域と、個別対象情報が示す認識対象が認識できる認識情報と、ラベル情報とを紐づけて記憶部140に記憶させる(ステップS154)。上記したように、登録部191は、個別対象情報が示す認識対象を認識するための認識情報が記憶部140に記憶されている場合、複数の認識情報の中から該当する認識対象を選択してもよいし、個別対象情報が示す認識対象を認識できるように、個別対象情報に含まれる画像等を用いて図示しない学習部に機械学習させてもよいし、外部端末と通信することで、当該外部端末から、個別対象情報が示す認識対象を認識できる認識情報を取得してもよい。 Next, the registration unit 191 associates the area indicated by the individual area information, the recognition information indicating the individual target information with which the recognition target can be recognized, and the label information obtained through the reception unit 190 and stores them in the storage unit 140. It is stored (step S154). As described above, when recognition information for recognizing the recognition target indicated by the individual target information is stored in the storage unit 140, the registration unit 191 selects the relevant recognition target from among the plurality of recognition information. Alternatively, a learning unit (not shown) may be used for machine learning using images included in the individual target information so that the recognition target indicated by the individual target information can be recognized. Recognition information that can recognize the recognition target indicated by the individual target information may be acquired from an external terminal.

これにより、自律走行型掃除機100は、ユーザによって選択された領域において、ユーザが選択した認識対象を認識するようになる。 Thereby, the autonomous vacuum cleaner 100 comes to recognize the recognition target selected by the user in the area selected by the user.

<掃除処理>
図12は、掃除処理(図7に示すステップS170)の詳細を示すフローチャートである。
<Cleaning process>
FIG. 12 is a flowchart showing details of the cleaning process (step S170 shown in FIG. 7).

まず、自律走行型掃除機100は、掃除開始信号を受信する(ステップS171)。例えば、自律走行型掃除機100は、図示しない受信部を備える。ユーザは、操作卓等を操作して自律走行型掃除機100に掃除を開始する旨を示す掃除開始信号を送信する。自律走行型掃除機100は、当該掃除開始信号を、当該受信部で受信する。当該受信部は、例えば、信号を受信するための光センサ、信号がスマートフォン等の通信機器から送信される場合は無線通信回路等の通信インターフェース等である。なお、自律走行型掃除機100は、受信部ではなく、本体部10に取り付けられ、ユーザからの指示を取得するためのボタン等の操作部を有してもよい。自律走行型掃除機100は、当該操作部がユーザに操作されることで、掃除開始信号を取得してもよい。 First, the autonomous vacuum cleaner 100 receives a cleaning start signal (step S171). For example, the autonomous vacuum cleaner 100 includes a receiving section (not shown). The user operates a console or the like to transmit a cleaning start signal to the autonomous vacuum cleaner 100 indicating that cleaning is to be started. The autonomous vacuum cleaner 100 receives the cleaning start signal at the receiving unit. The receiving unit is, for example, an optical sensor for receiving a signal, a communication interface such as a wireless communication circuit when the signal is transmitted from a communication device such as a smartphone, or the like. Note that the autonomous vacuum cleaner 100 may have an operation section such as a button attached to the main body section 10 instead of the reception section and used to obtain instructions from the user. The autonomous vacuum cleaner 100 may acquire a cleaning start signal when the operation unit is operated by the user.

次に、自己位置取得部112は、自律走行型掃除機100の自己位置を取得する(S172)。例えば、自己位置取得部112は、レーザ測距計40及び地図情報210に基づいて、地図情報210に示される所定の空間の地図における座標を算出する。 Next, the self-position acquisition unit 112 acquires the self-position of the autonomous vacuum cleaner 100 (S172). For example, the self-position acquisition unit 112 calculates coordinates on a map of a predetermined space indicated by the map information 210 based on the laser range finder 40 and the map information 210.

次に、決定部114は、自律走行型掃除機100の自己位置に基づいて、互いに1以上の認識対象が異なる複数の認識情報の中から1つの認識情報を決定する(ステップS173)。ステップS173では、例えば、まず、対応情報取得部113が、それぞれが所定の空間の一部の領域であって、互いに異なる複数の領域ごとに、互いに1以上の認識対象が異なる認識情報が紐付けられた対応情報220を取得する。それから、決定部114は、自律走行型掃除機100の自己位置と対応情報220とに基づいて、1つの認識情報を決定する。 Next, the determination unit 114 determines one piece of recognition information from among the plurality of pieces of recognition information that differ in one or more recognition targets based on the self-position of the autonomous vacuum cleaner 100 (step S173). In step S173, for example, first, the correspondence information acquisition unit 113 associates recognition information with one or more different recognition targets for each of a plurality of regions, each of which is a part of a predetermined space and which is different from each other. The corresponding information 220 is obtained. Then, the determination unit 114 determines one piece of recognition information based on the self-position of the autonomous vacuum cleaner 100 and the correspondence information 220.

次に、計画生成部120は、計画情報を生成する(ステップS174)。例えば、計画生成部120は、記憶部140に記憶されている所定の空間の地図を示す地図情報210に基づいて、走行経路を算出し、算出した走行経路で清掃部150、駆動部160、及び、吸引部170を制御することで、自律走行型掃除機100に所定の空間を走行させて掃除させるための計画情報を生成する。 Next, the plan generation unit 120 generates plan information (step S174). For example, the plan generation unit 120 calculates a travel route based on map information 210 indicating a map of a predetermined space stored in the storage unit 140, and the cleaning unit 150, drive unit 160, and By controlling the suction unit 170, plan information for making the autonomous vacuum cleaner 100 travel and clean a predetermined space is generated.

次に、制御部130は、計画生成部120が生成した計画情報に基づいて、清掃部150、駆動部160、及び、吸引部170を制御することで、自律走行型掃除機100に所定の空間を走行させて掃除させることを開始させる(ステップS175)。 Next, the control unit 130 controls the cleaning unit 150, the drive unit 160, and the suction unit 170 based on the plan information generated by the plan generation unit 120, so that the autonomous vacuum cleaner 100 can move into a predetermined space. The robot starts running and cleaning (step S175).

自律走行型掃除機100は、カメラ70から得られる撮影画像を画像解析することで、認識対象が当該画像に含まれるか否かを判定しながら、計画情報に基づいて所定の空間を走行して掃除する。 The autonomous vacuum cleaner 100 runs in a predetermined space based on planning information while determining whether or not a recognition target is included in the image by analyzing the captured image obtained from the camera 70. clean.

次に、計画生成部120は、掃除が完了したか否かを判定する(ステップS176)。例えば、計画生成部120は、自己位置取得部112等の取得結果に基づいて、自律走行型掃除機100が走行した経路の軌跡を算出し、算出した軌跡が、計画情報が示す走行経路と一致する、つまり、計画情報が示す走行経路を全て走行したか否かを判定する。 Next, the plan generation unit 120 determines whether cleaning is completed (step S176). For example, the plan generation unit 120 calculates the locus of the route traveled by the autonomous vacuum cleaner 100 based on the acquisition result of the self-position acquisition unit 112, and the calculated locus matches the travel route indicated by the plan information. In other words, it is determined whether the entire travel route indicated by the plan information has been traveled.

計画生成部120が、掃除計画が完了したと判定した場合(ステップS176でYes)、例えば、制御部130は、駆動部160を駆動させて走行を開始した初期位置に自律走行型掃除機100を戻し、処理を終了する。 When the plan generation unit 120 determines that the cleaning plan is completed (Yes in step S176), the control unit 130 drives the drive unit 160 to move the autonomous vacuum cleaner 100 to the initial position where it started traveling. Return and end the process.

一方、計画生成部120が、掃除が完了していないと判定した場合(ステップS176でNo)、自己位置取得部112は、自律走行型掃除機100の自己位置を再度取得する(ステップS177)。 On the other hand, if the plan generation unit 120 determines that the cleaning is not completed (No in step S176), the self-location acquisition unit 112 acquires the self-location of the autonomous vacuum cleaner 100 again (step S177).

次に、計画生成部120は、自律走行型掃除機100の自己位置に基づいて、自律走行型掃除機100が掃除する部屋(領域)が変更されたか否かを判定する(ステップS178)。具体的には、計画生成部120は、自己位置及び対応情報220に基づいて、自律走行型掃除機100が掃除中の領域が、一の領域から他の領域に移動されたか否かを判定する。 Next, the plan generation unit 120 determines whether the room (area) that the autonomous vacuum cleaner 100 cleans has been changed based on the self-position of the autonomous vacuum cleaner 100 (step S178). Specifically, the plan generation unit 120 determines whether the area being cleaned by the autonomous vacuum cleaner 100 has been moved from one area to another area based on the self-location and correspondence information 220. .

次に、計画生成部120が、自律走行型掃除機100が掃除する部屋が変更されたと判定した場合(ステップS178でYes)、決定部114は、変更された部屋における認識対象を認識部115に認識させるように、認識情報を再決定する(ステップS179)。つまり、決定部114は、自律走行型掃除機100の自己位置と対応情報220とに基づいて、認識部115が用いる認識情報を変更する。 Next, if the plan generation unit 120 determines that the room to be cleaned by the autonomous vacuum cleaner 100 has been changed (Yes in step S178), the determination unit 114 assigns the recognition target in the changed room to the recognition unit 115. Recognition information is redetermined so as to be recognized (step S179). That is, the determination unit 114 changes the recognition information used by the recognition unit 115 based on the self-location of the autonomous vacuum cleaner 100 and the correspondence information 220.

制御部130は、自律走行型掃除機100が掃除する部屋が変更されていないと判定した場合(ステップS178でNo)、又は、ステップS179の次に、制御部130は、所定の空間を撮影するカメラ70から得られる撮影画像において、認識部115によって認識対象が認識されたか否かを判定する(ステップS180)。つまり、認識部115は、カメラ70から得られる撮影画像に認識対象が含まれているか否かを判定する。 If the control unit 130 determines that the room to be cleaned by the autonomous vacuum cleaner 100 has not been changed (No in step S178), or after step S179, the control unit 130 photographs a predetermined space. It is determined whether the recognition target is recognized by the recognition unit 115 in the captured image obtained from the camera 70 (step S180). That is, the recognition unit 115 determines whether the captured image obtained from the camera 70 includes the recognition target.

制御部130は、認識部115によって認識対象が認識されない場合(ステップS180でNo)、処理をステップS176に戻し、清掃部150、駆動部160、及び、吸引部170を制御することで、自律走行型掃除機100に所定の空間を走行させて掃除させ(ステップS180)、処理をステップS176に戻す。 If the recognition target is not recognized by the recognition unit 115 (No in step S180), the control unit 130 returns the process to step S176 and controls the cleaning unit 150, the drive unit 160, and the suction unit 170 to achieve autonomous driving. The vacuum cleaner 100 is caused to travel and clean a predetermined space (step S180), and the process returns to step S176.

一方、制御部130は、認識部115によって認識対象が認識されたと判定した場合(ステップS180でYes)、認識結果に基づいて、清掃部150、駆動部160、及び、吸引部170を制御することで、自律走行型掃除機100に所定の空間を走行させて掃除させ(ステップS181)、処理をステップS176に戻す。例えば、計画生成部120は、認識部115が認識対象を認識した場合、認識対象の種別、自律走行型掃除機100と認識対象との距離、及び、走行パターン情報230に基づいて、認識対象の周囲における計画情報を再生成する。制御部130は、再生成された計画情報に基づいて、自律走行型掃除機100を走行させて掃除させる。 On the other hand, when the recognition unit 115 determines that the recognition target is recognized (Yes in step S180), the control unit 130 controls the cleaning unit 150, the driving unit 160, and the suction unit 170 based on the recognition result. Then, the autonomous vacuum cleaner 100 is caused to travel and clean a predetermined space (step S181), and the process returns to step S176. For example, when the recognition unit 115 recognizes the recognition target, the plan generation unit 120 determines the recognition target based on the type of the recognition target, the distance between the autonomous vacuum cleaner 100 and the recognition target, and the travel pattern information 230. Regenerate planning information in the surroundings. The control unit 130 causes the autonomous vacuum cleaner 100 to travel and clean based on the regenerated plan information.

また、例えば、制御部130は、認識部115が認識対象を認識した場合、当該認識対象の種別を示す種別情報と、複数の領域のうちで認識対象が位置する領域を示す位置情報と、通知部180によってユーザに通知する。例えば、通知部180が音響機器である場合、「リビング」で「ペットボトル」が認識されたとき、制御部130は、通知部180に、「リビングでペットボトルを見つけました。」等の音声を出力させてもよい。 Further, for example, when the recognition unit 115 recognizes a recognition target, the control unit 130 may send a notification to The user is notified by the section 180. For example, when the notification unit 180 is an audio device, when a “plastic bottle” is recognized in the “living room”, the control unit 130 sends a voice message such as “I found a plastic bottle in the living room” to the notification unit 180. may also be output.

<掃除動作の具体例>
図13A~図13Dは、実施の形態に係る自律走行型掃除機100の掃除動作の第1例を示す図である。なお、図13A、図13B、図13C及び図13Dは、自律走行型掃除機100がこの順の時系列で走行等の処理をしている場合を示す図である。また、図13A~図13Dは、所定の空間CAを上方から見た模式図である。
<Specific example of cleaning operation>
13A to 13D are diagrams showing a first example of the cleaning operation of the autonomous vacuum cleaner 100 according to the embodiment. Note that FIG. 13A, FIG. 13B, FIG. 13C, and FIG. 13D are diagrams showing a case where the autonomous traveling vacuum cleaner 100 performs processing such as traveling in this chronological order. Furthermore, FIGS. 13A to 13D are schematic diagrams of the predetermined space CA viewed from above.

図13Aに示すように、計画生成部120は、例えば、掃除開始信号を受信した場合、所定の空間CAの地図を示す地図情報210に基づいて、破線矢印で示す走行経路PPを生成する。また、計画生成部120は、走行を開始する場所を原点とする座標を算出する。 As shown in FIG. 13A, for example, when the plan generation unit 120 receives a cleaning start signal, it generates a travel route PP indicated by a broken line arrow based on map information 210 indicating a map of a predetermined space CA. The plan generation unit 120 also calculates coordinates with the origin at the place where the vehicle starts traveling.

なお、自律走行型掃除機100は、地図情報210を保持していない場合、所定の空間CAを走り回りながらSLAMにより地図情報210を生成する。その場合、計画生成部120は、座標の原点として、例えば、充電器250の位置を設定してもよい。 Note that if the autonomous vacuum cleaner 100 does not hold the map information 210, it generates the map information 210 by SLAM while running around in the predetermined space CA. In that case, the plan generation unit 120 may set, for example, the position of the charger 250 as the origin of the coordinates.

本具体例では、自律走行型掃除機100は、地図情報210を予め保持(つまり、記憶部140に記憶)しており、且つ、充電器250に接続されており、充電器250に接続された位置を原点としたとする。 In this specific example, the autonomous vacuum cleaner 100 holds map information 210 in advance (that is, stored in the storage unit 140), and is connected to the charger 250. Assume that the position is the origin.

また、例えば、計画生成部120は、進行する向きをX軸正方向とし、X軸に直交する方向をY軸方向と設定する。この場合、自律走行型掃除機100が走行を開始する前は、自己位置が(X、Y、進行する向き)=(0m、0m、0°)となる。 Further, for example, the plan generation unit 120 sets the direction of movement as the positive X-axis direction, and sets the direction perpendicular to the X-axis as the Y-axis direction. In this case, before the autonomous vacuum cleaner 100 starts traveling, its own position is (X, Y, direction of travel) = (0 m, 0 m, 0°).

なお、(X、Y、進行する向き)のXには、例えば、原点からのX軸方向への距離が含まれる。また、例えば、(X、Y、進行する向き)のYには、原点からのY軸方向への距離が含まれる。また、例えば、(X、Y、進行する向き)の進行する向きには、X軸正方向に対して自律走行型掃除機100が進行する角度が含まれる。 Note that X in (X, Y, direction of movement) includes, for example, the distance from the origin in the X-axis direction. Further, for example, Y in (X, Y, direction of movement) includes the distance from the origin in the Y-axis direction. Further, for example, the direction of movement (X, Y, direction of movement) includes the angle at which the autonomous vacuum cleaner 100 moves with respect to the positive direction of the X-axis.

自律走行型掃除機100は、認識情報を決定し、計画情報及び認識部115の認識結果に基づいて、領域CA1を走行して掃除する。 The autonomous vacuum cleaner 100 determines recognition information, and travels and cleans the area CA1 based on the plan information and the recognition result of the recognition unit 115.

なお、例えば、制御部130は、自律走行型掃除機100が掃除中の領域CA1を示す情報、及び、認識対象となっている物体の種別を示す種別情報と、を通知部180によってユーザに通知してもよい。 Note that, for example, the control unit 130 notifies the user of information indicating the area CA1 that the autonomous vacuum cleaner 100 is cleaning, and type information indicating the type of the object to be recognized, to the user using the notification unit 180. You may.

図14は、実施の形態に係る自律走行型掃除機100が掃除中に通信端末300に表示される画像の一例を示す図である。 FIG. 14 is a diagram showing an example of an image displayed on the communication terminal 300 while the autonomous vacuum cleaner 100 according to the embodiment is cleaning.

例えば、制御部130は、通知部180が、通信端末300と通信するための通信インターフェースである場合、自律走行型掃除機100が、認識対象を「ペットボトル」及び「リモコン」として、「リビング」を掃除中であるとき、通知部180を介して、現在の認識対象を示す画像、ラベル等の情報、及び、掃除場所を示す情報を通信端末300に送信する。通信端末300は、現在の認識対象及び掃除場所を示す情報を受信した場合、例えば、図14に示すように、当該情報を示す画像を表示する。これにより、制御部130は、自律走行型掃除機100が掃除中の領域CA1を示す情報、及び、認識対象となっている物体の種別を示す種別情報と、を通知部180によってユーザに通知する。 For example, if the notification unit 180 is a communication interface for communicating with the communication terminal 300, the control unit 130 recognizes that the autonomous vacuum cleaner 100 recognizes a “plastic bottle” and a “remote control” and recognizes a “living room”. When cleaning is in progress, information such as an image and label indicating the current recognition target and information indicating the cleaning location are transmitted to the communication terminal 300 via the notification unit 180. When receiving information indicating the current recognition target and cleaning location, the communication terminal 300 displays an image indicating the information, as shown in FIG. 14, for example. Thereby, the control unit 130 uses the notification unit 180 to notify the user of information indicating the area CA1 that the autonomous vacuum cleaner 100 is cleaning and type information indicating the type of the object to be recognized. .

次に、図13Bに示すように、自律走行型掃除機100が図13Aに示す状態から走行経路PPに沿って軌跡Tを通過して走行したとする。自律走行型掃除機100は、例えば、カメラ70で撮影範囲Vを撮影して自律走行型掃除機100の周囲に物体(例えば、認識対象)が存在するか否かを判定しながら走行し続ける。 Next, as shown in FIG. 13B, it is assumed that the autonomous vacuum cleaner 100 travels from the state shown in FIG. 13A along the travel route PP passing through the trajectory T. For example, the autonomous vacuum cleaner 100 continues to travel while photographing the imaging range V with the camera 70 and determining whether or not an object (for example, a recognition target) exists around the autonomous vacuum cleaner 100 .

ここで、認識部115が、計画情報に示される走行経路PP上に物体400を認識対象として認識したとする。この場合、計画生成部120は、認識対象の種別、物体400と自律走行型掃除機100との距離、及び、走行パターン情報230に基づいて、計画情報を再生成する。例えば、計画生成部120は、物体400を回避するような走行経路PP1を含む計画情報を再生成する。制御部130は、再生成された計画情報に基づいて、自律走行型掃除機100を走行させる制御をする。 Here, it is assumed that the recognition unit 115 recognizes the object 400 as a recognition target on the travel route PP indicated by the plan information. In this case, the plan generation unit 120 regenerates the plan information based on the type of recognition target, the distance between the object 400 and the autonomous vacuum cleaner 100, and the travel pattern information 230. For example, the plan generation unit 120 regenerates plan information including a travel route PP1 that avoids the object 400. The control unit 130 controls the autonomous vacuum cleaner 100 to travel based on the regenerated plan information.

次に、図13Cに示すように、自律走行型掃除機100は、領域CA1の掃除が終了したとする。この場合、例えば、計画生成部120は、領域CA2の走行経路等を含む計画情報を生成する。また、制御部130は、例えば、自律走行型掃除機100が掃除する領域を変更する場合、変更した旨を通知部180によってユーザに通知する。例えば、通知部180が音響機器である場合、掃除する領域が「寝室」に変更された場合、制御部130は、通知部180に、「寝室に移動しました。認識対象を切り替えます」等の音声を出力させる。 Next, as shown in FIG. 13C, it is assumed that the autonomous vacuum cleaner 100 has finished cleaning the area CA1. In this case, for example, the plan generation unit 120 generates plan information including the driving route of the area CA2. Further, for example, when changing the area that the autonomous vacuum cleaner 100 cleans, the control unit 130 notifies the user of the change using the notification unit 180. For example, if the notification unit 180 is an audio device and the area to be cleaned is changed to “bedroom”, the control unit 130 may send a message to the notification unit 180 such as “Moved to the bedroom. Switch recognition target”. Output audio.

次に、自律走行型掃除機100は、認識対象を再決定し、領域CA2の走行経路PP2等を含む計画情報を再生成し、再生成した計画情報及び認識部115の認識結果に基づいて、領域CA2を走行して掃除する。 Next, the autonomous vacuum cleaner 100 redetermines the recognition target, regenerates plan information including the travel route PP2 of the area CA2, etc., and based on the regenerated plan information and the recognition result of the recognition unit 115, Travel and clean area CA2.

なお、図13A~図13Dに示す例では、計画生成部120は、それぞれが所定の空間CAの領域の一部である領域CA1及び領域CA2について、領域CA1の掃除が終わった後に領域CA2の走行経路(つまり、領域CA2における計画情報)を生成しているが、これに限定されない。計画生成部120は、自律走行型掃除機100が所定の空間CAの掃除を開始する前に、所定の空間CA全体の走行経路等を含む計画情報を生成してもよい。 Note that in the example shown in FIGS. 13A to 13D, the plan generation unit 120, for area CA1 and area CA2, which are part of the area of the predetermined space CA, Although a route (that is, plan information in area CA2) is generated, the present invention is not limited to this. The plan generation unit 120 may generate plan information including the travel route of the entire predetermined space CA before the autonomous vacuum cleaner 100 starts cleaning the predetermined space CA.

[効果等]
以上説明したように、実施の形態に係る自律走行型掃除機100は、自律走行型掃除機100は、所定の空間を自律走行して掃除する自律走行型掃除機である。自律走行型掃除機100は、所定の空間における自律走行型掃除機100の自己位置を取得する自己位置取得部112と、それぞれが画像に含まれる認識対象を認識するための画像処理方法を示す認識情報であって、互いに1以上の認識対象が異なる複数の認識情報の中から1つの認識情報を自己位置に基づいて決定する決定部114と、所定の空間を撮影するカメラ70から得られる撮影画像を、決定部114が決定した当該1つの認識情報を用いて画像解析することで、当該撮影画像に含まれる認識対象を認識する認識部115と、認識部115の認識結果に基づいて、自律走行型掃除機100を走行させて掃除させる制御部130と、を備える。
[Effects etc.]
As described above, the autonomous vacuum cleaner 100 according to the embodiment is an autonomous vacuum cleaner that autonomously travels and cleans a predetermined space. The autonomous vacuum cleaner 100 includes a self-position acquisition unit 112 that acquires the self-position of the autonomous vacuum cleaner 100 in a predetermined space, and a recognition unit that indicates an image processing method for recognizing a recognition target included in an image. A photographed image obtained from a determining unit 114 that determines one piece of recognition information based on the self-position from among a plurality of pieces of recognition information that each have one or more different recognition targets, and a camera 70 that photographs a predetermined space. By analyzing the image using the one recognition information determined by the determination unit 114, the recognition unit 115 recognizes the recognition target included in the captured image, and based on the recognition result of the recognition unit 115, autonomous driving is performed. It includes a control unit 130 that causes the vacuum cleaner 100 to travel and clean.

所定の領域が、上記したように、「リビング」、「寝室」、「キッチン」等の種別の異なる複数の部屋を含む家屋等の場所である場合、それぞれの部屋において、自律走行型掃除機100が走行するフロアに落ちている可能性の高い物体が異なる。例えば、「キッチン」には、料理器具がフロアに落ちている可能性があるが、「リビング」には、料理器具がフロアに落ちている可能性は非常に低いと考えられる。ここで、認識部115で認識できる物体の数を増やしすぎると、認識率が低下する問題がある。例えば、同じ種別の物体であっても、デザイン、形状等が異なるため、これらの複数のデザイン、形状等にも応じた認識対象とすると、認識部115での認識対象が膨大になる。つまり、多クラス対応にすると、1クラス当たりの認識率が低下する。言い換えると、認識部115は、認識できる物体の数を増やすと、認識部115が認識した物体の種別を間違えて判定する可能性が高まる。そこで、自律走行型掃除機100は、自己位置に基づいて、認識対象を適宜変更する。これによれば、例えば、自律走行型掃除機100が掃除中の領域で、当該領域に落ちている可能性が低い物体を認識対象からはずすことができる。そのため、自律走行型掃除機100は、不要な認識対象を適切に減らすことができるため、認識対象の認識率を向上できる。 As described above, if the predetermined area is a place such as a house that includes multiple rooms of different types such as "living room", "bedroom", "kitchen", etc., the autonomous vacuum cleaner 100 Objects that are likely to have fallen on the floor where the vehicle runs are different. For example, there is a possibility that cooking utensils have fallen on the floor in the "kitchen", but it is highly unlikely that cooking utensils have fallen on the floor in the "living room". Here, if the number of objects that can be recognized by the recognition unit 115 is increased too much, there is a problem that the recognition rate decreases. For example, even objects of the same type may have different designs, shapes, etc., so if recognition targets are set according to these multiple designs, shapes, etc., the number of recognition targets in the recognition unit 115 becomes enormous. In other words, when supporting multiple classes, the recognition rate per class decreases. In other words, when the recognition unit 115 increases the number of objects that can be recognized, the possibility that the recognition unit 115 incorrectly determines the type of object recognized increases. Therefore, the autonomous vacuum cleaner 100 changes the recognition target as appropriate based on its own position. According to this, for example, in an area where the autonomous vacuum cleaner 100 is cleaning, an object that is unlikely to have fallen in the area can be excluded from the recognition target. Therefore, since the autonomous vacuum cleaner 100 can appropriately reduce unnecessary recognition targets, it is possible to improve the recognition rate of recognition targets.

また、例えば、自律走行型掃除機100は、さらに、それぞれが所定の空間の一部の領域であって、互いに異なる複数の領域ごとに、互いに1以上の認識対象が異なる認識情報が紐付けられた対応情報220を取得する対応情報取得部113を備える。この場合、決定部114は、自己位置及び対応情報220に基づいて当該1つの認識情報を決定する。 For example, the autonomous vacuum cleaner 100 further includes recognition information in which one or more different recognition targets are associated with each of a plurality of different regions, each of which is a part of a predetermined space. The correspondence information acquisition unit 113 is provided to acquire the correspondence information 220 that has been obtained. In this case, the determining unit 114 determines the one piece of recognition information based on the self-location and correspondence information 220.

これによれば、決定部114は、所定の領域に含まれる複数の領域の種別ごとに、適切な認識対象を決定できる。 According to this, the determining unit 114 can determine an appropriate recognition target for each type of a plurality of areas included in a predetermined area.

また、例えば、自律走行型掃除機100は、さらに、所定の空間のうちの一部の領域を示す個別領域情報と、認識対象を示す個別対象情報と、を含む個別情報を受け付けるための受付部190と、個別領域情報が示す領域において、当該個別対象情報が示す認識対象を認識できる認識情報を当該領域に紐づけて記憶部140に記憶させる登録部191と、を備える。 For example, the autonomous vacuum cleaner 100 further includes a reception unit for receiving individual information including individual area information indicating a part of a predetermined space and individual object information indicating a recognition target. 190, and a registration unit 191 that causes the storage unit 140 to store recognition information that can recognize the recognition target indicated by the individual target information in the area indicated by the individual area information in association with the area.

これによれば、自律走行型掃除機100は、ユーザが所望の認識対象を登録部191によって記憶できる。そのため、決定部114は、所定の領域に含まれる複数の領域の種別ごとに、ユーザが所望する認識対象を決定できる。 According to this, in the autonomous vacuum cleaner 100, the registration unit 191 can store a recognition target desired by the user. Therefore, the determining unit 114 can determine the recognition target desired by the user for each type of a plurality of areas included in the predetermined area.

また、例えば、自律走行型掃除機100は、さらに、認識部115が認識対象を認識した場合、認識された認識対象の種別と、認識された認識対象の位置と、を通知するための通知部180を備える。 For example, the autonomous vacuum cleaner 100 further includes a notification unit for notifying the type of the recognized recognition target and the position of the recognized recognition target when the recognition unit 115 recognizes the recognition target. 180.

これによれば、ユーザは、自律走行型掃除機100に認識してほしい物体を、自律走行型掃除機100が適切に認識できているか否かを判定できる。 According to this, the user can determine whether or not the autonomous vacuum cleaner 100 can appropriately recognize the object that the user wants the autonomous vacuum cleaner 100 to recognize.

また、実施の形態に係る自律走行型掃除機100の制御方法は、所定の空間を自律走行して掃除する自律走行型掃除機の制御方法である。自律走行型掃除機100の制御方法は、所定の空間における自律走行型掃除機100の自己位置を取得する自己位置取得ステップ(ステップS172)と、それぞれが画像に含まれる認識対象を認識するための画像処理方法を示す複数の認識情報であって、互いに1以上の認識対象が異なる複数の認識情報の中から1つの認識情報を自己位置に基づいて決定する決定ステップ(ステップS173)と、所定の空間を撮影するカメラ70から得られる撮影画像を、決定ステップで決定した1つの認識情報を用いて画像解析することで、当該撮影画像に含まれる認識対象を認識する認識ステップ(ステップS180)と、認識ステップでの認識結果に基づいて、自律走行型掃除機100を走行させて掃除させる制御ステップ(ステップS181)と、を含む。 Furthermore, the method for controlling the autonomous vacuum cleaner 100 according to the embodiment is a method for controlling an autonomous vacuum cleaner that autonomously travels and cleans a predetermined space. The control method for the autonomous vacuum cleaner 100 includes a self-position acquisition step (step S172) for acquiring the self-position of the autonomous vacuum cleaner 100 in a predetermined space, and a step for recognizing a recognition target included in each image. A determining step (step S173) of determining one recognition information based on the self-position from among a plurality of recognition information indicating an image processing method and having one or more recognition targets different from each other; a recognition step (step S180) in which a recognition target included in the photographed image is recognized by analyzing the photographed image obtained from the camera 70 that photographs the space using one piece of recognition information determined in the determination step; The method includes a control step (step S181) of causing the autonomous vacuum cleaner 100 to travel and clean based on the recognition result in the recognition step.

これによれば、自律走行型掃除機100と同様の効果を奏する。 According to this, effects similar to those of the autonomous vacuum cleaner 100 can be achieved.

なお、本発明は、上記した実施の形態に係る自律走行型掃除機100の制御方法に含まれるステップをコンピュータに実行させるプログラムとして実現されてもよい。 Note that the present invention may be realized as a program that causes a computer to execute the steps included in the method for controlling the autonomous vacuum cleaner 100 according to the embodiment described above.

これによれば、本実施の形態に係る自律走行型掃除機100の制御方法が、コンピュータにより簡便に実行され得る。 According to this, the method for controlling the autonomous vacuum cleaner 100 according to the present embodiment can be easily executed by a computer.

また、本発明は、上記プログラムを記録したコンピュータによって読み取り可能なCD-ROM等の非一時的な記録媒体として実現されてもよい。また、本発明は、そのプログラムを示す情報、データ又は信号として実現されてもよい。そして、それらプログラム、情報、データ及び信号は、インターネット等の通信ネットワークを介して配信されてもよい。 Further, the present invention may be realized as a non-temporary recording medium such as a computer readable CD-ROM in which the above program is recorded. Further, the present invention may be realized as information, data, or a signal indicating the program. These programs, information, data, and signals may be distributed via a communication network such as the Internet.

(その他の実施の形態)
以上、本発明に係る自律走行型掃除機等について、上記実施の形態及び変形例に基づいて説明したが、本発明は、上記実施の形態及び変形例に限定されるものではない。
(Other embodiments)
Although the autonomous vacuum cleaner and the like according to the present invention have been described above based on the above embodiments and modifications, the present invention is not limited to the above embodiments and modifications.

また、例えば、上記実施の形態では自律走行型掃除機が備える計画生成部及び制御部等の処理部は、それぞれCPUと制御プログラムとによって実現されると説明した。例えば、それぞれの当該処理部の構成要素は、それぞれ1つ又は複数の電子回路で構成されてもよい。1つ又は複数の電子回路は、それぞれ、汎用的な回路でもよいし、専用の回路でもよい。1つ又は複数の電子回路には、例えば、半導体装置、IC(Integrated Circuit)、又は、LSI(Large Scale Integration)等が含まれてもよい。IC又はLSIは、1つのチップに集積されてもよく、複数のチップに集積されてもよい。ここでは、IC又はLSIと呼んでいるが、集積の度合いによって呼び方が変わり、システムLSI、VLSI(Very Large Scale Integration)、又は、ULSI(Ultra Large Scale Integration)と呼ばれるかもしれない。また、LSIの製造後にプログラムされるFPGA(Field Programmable Gate Array)も同じ目的で使うことができる。 Further, for example, in the above embodiment, it has been explained that the processing units such as the plan generation unit and the control unit included in the autonomous vacuum cleaner are realized by the CPU and the control program, respectively. For example, each of the components of the processing unit may be composed of one or more electronic circuits. Each of the one or more electronic circuits may be a general-purpose circuit or a dedicated circuit. The one or more electronic circuits may include, for example, a semiconductor device, an IC (Integrated Circuit), an LSI (Large Scale Integration), or the like. An IC or LSI may be integrated into one chip or into multiple chips. Here, it is called an IC or LSI, but the name changes depending on the degree of integration, and may be called a system LSI, VLSI (Very Large Scale Integration), or ULSI (Ultra Large Scale Integration). Furthermore, an FPGA (Field Programmable Gate Array) that is programmed after the LSI is manufactured can also be used for the same purpose.

また、本発明の全般的又は具体的な態様は、システム、装置、方法、集積回路又はコンピュータプログラムで実現されてもよい。或いは、当該コンピュータプログラムが記憶された光学ディスク、HDD(Hard Disk Drive)若しくは半導体メモリ等のコンピュータ読み取り可能な非一時的記録媒体で実現されてもよい。また、システム、装置、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。 Further, general or specific aspects of the invention may be implemented in a system, apparatus, method, integrated circuit, or computer program product. Alternatively, the computer program may be realized by a computer-readable non-temporary recording medium such as an optical disk, an HDD (Hard Disk Drive), or a semiconductor memory in which the computer program is stored. Further, the present invention may be realized by any combination of a system, an apparatus, a method, an integrated circuit, a computer program, and a recording medium.

その他、実施の形態及び変形例に対して当業者が思いつく各種変形を施して得られる形態や、本発明の趣旨を逸脱しない範囲で実施の形態における構成要素及び機能を任意に組み合わせることで実現される形態も本発明に含まれる。 In addition, forms obtained by applying various modifications to the embodiments and modifications that those skilled in the art can think of, or by arbitrarily combining the components and functions of the embodiments without departing from the spirit of the present invention. The present invention also includes such forms.

本発明は、自律移動しながら掃除する自律走行型掃除機に広く利用可能である。 INDUSTRIAL APPLICABILITY The present invention can be widely used in autonomous vacuum cleaners that clean while autonomously moving.

10 本体部
11 吸込口
20 車輪
30 サイドブラシ
40 レーザ測距計
50 メインブラシ
70 カメラ
90 深度センサ
100 自律走行型掃除機
112 自己位置取得部
113 対応情報取得部
114 決定部
115 認識部
116 形状検知部
117 座標検知部
120 計画生成部
130 制御部
140 記憶部
150 清掃部
151 ブラシモータ
160 駆動部
161 車輪モータ
170 吸引部
171 吸引モータ
180 通知部
190 受付部
191 登録部
210 地図情報
220 対応情報
221 領域情報
221A 場所ID情報
221B 座標情報
221C エリアID情報
222 モデル情報
230 走行パターン情報
230A 種別名情報
230B 距離情報
230C パターン情報
250 充電器
300 通信端末
400 物体
CA 所定の空間
CA1、CA2 領域
PP、PP1、PP2 走行経路
T 軌跡
V 撮影範囲
10 Main body part 11 Suction port 20 Wheel 30 Side brush 40 Laser range finder 50 Main brush 70 Camera 90 Depth sensor 100 Autonomous vacuum cleaner 112 Self-position acquisition part 113 Correspondence information acquisition part 114 Determination part 115 Recognition part 116 Shape detection part 117 Coordinate detection unit 120 Plan generation unit 130 Control unit 140 Storage unit 150 Cleaning unit 151 Brush motor 160 Drive unit 161 Wheel motor 170 Suction unit 171 Suction motor 180 Notification unit 190 Reception unit 191 Registration unit 210 Map information 220 Correspondence information 221 Area information 221A Place ID information 221B Coordinate information 221C Area ID information 222 Model information 230 Travel pattern information 230A Type name information 230B Distance information 230C Pattern information 250 Charger 300 Communication terminal 400 Object CA Predetermined space CA1, CA2 Area PP, PP1, PP2 Travel Route T Trajectory V Shooting range

Claims (6)

所定の空間を自律走行して掃除する自律走行型掃除機であって、
前記所定の空間における前記自律走行型掃除機の自己位置を取得する自己位置取得部と、
それぞれが画像に含まれる認識対象を認識するための画像処理方法を示す認識情報であって、互いに1以上の認識対象が異なる複数の認識情報の中から1つの認識情報を前記自己位置に基づいて決定する決定部と、
前記所定の空間を撮影するカメラから得られる撮影画像を、前記決定部が決定した前記1つの認識情報を用いて画像解析することで、前記撮影画像に含まれる認識対象を認識する認識部と、
前記認識部の認識結果に基づいて、前記自律走行型掃除機を走行させて掃除させる制御部と、を備える
自律走行型掃除機。
An autonomous vacuum cleaner that autonomously moves and cleans a predetermined space,
a self-position acquisition unit that acquires the self-position of the autonomous vacuum cleaner in the predetermined space;
Each piece of recognition information indicates an image processing method for recognizing a recognition target included in an image, and one recognition information is selected from a plurality of pieces of recognition information that differ from each other in one or more recognition targets based on the self-position. a deciding section that decides;
a recognition unit that recognizes a recognition target included in the photographed image by analyzing the photographed image obtained from the camera that photographs the predetermined space using the one recognition information determined by the determination unit;
An autonomous vacuum cleaner, comprising: a control unit that causes the autonomous vacuum cleaner to travel and clean based on the recognition result of the recognition unit.
さらに、それぞれが前記所定の空間の一部の領域であって、互いに異なる複数の領域ごとに、互いに1以上の認識対象が異なる認識情報が紐付けられた対応情報を取得する対応情報取得部を備え、
前記決定部は、前記自己位置及び前記対応情報に基づいて前記1つの認識情報を決定する
請求項1に記載の自律走行型掃除機。
Furthermore, a correspondence information acquisition unit that acquires correspondence information in which recognition information in which one or more recognition targets are different from each other is linked for each of a plurality of mutually different regions, each of which is a part of the predetermined space. Prepare,
The autonomous vacuum cleaner according to claim 1, wherein the determining unit determines the one recognition information based on the self-position and the correspondence information.
さらに、前記所定の空間のうちの一部の領域を示す個別領域情報と、認識対象を示す個別対象情報と、を含む個別情報を受け付けるための受付部と、
前記個別領域情報が示す領域において、前記個別対象情報が示す認識対象を認識できる認識情報を当該領域に紐づけて記憶部に記憶させる登録部と、を備える
請求項1又は2に記載の自律走行型掃除機。
Further, a reception unit for receiving individual information including individual area information indicating a part of the predetermined space and individual target information indicating a recognition target;
Autonomous driving according to claim 1 or 2, further comprising: a registration unit that stores recognition information capable of recognizing a recognition target indicated by the individual target information in a storage unit in a region indicated by the individual region information in association with the region. type vacuum cleaner.
さらに、前記認識部が認識対象を認識した場合、認識された認識対象の種別と、認識された認識対象の位置と、を通知するための通知部を備える
請求項2又は3に記載の自律走行型掃除機。
The autonomous driving according to claim 2 or 3, further comprising a notification unit for notifying the type of the recognized recognition target and the position of the recognized recognition target when the recognition unit recognizes the recognition target. type vacuum cleaner.
所定の空間を自律走行して掃除する自律走行型掃除機の制御方法であって、
前記所定の空間における前記自律走行型掃除機の自己位置を取得する自己位置取得ステップと、
それぞれが画像に含まれる認識対象を認識するための画像処理方法を示す複数の認識情報であって、互いに1以上の認識対象が異なる複数の認識情報の中から1つの認識情報を前記自己位置に基づいて決定する決定ステップと、
前記所定の空間を撮影するカメラから得られる撮影画像を、前記決定ステップで決定した前記1つの認識情報を用いて画像解析することで、前記撮影画像に含まれる認識対象を認識する認識ステップと、
前記認識ステップでの認識結果に基づいて、前記自律走行型掃除機を走行させて掃除させる制御ステップと、を含む
自律走行型掃除機の制御方法。
A method of controlling an autonomous vacuum cleaner that autonomously moves and cleans a predetermined space,
a self-position acquisition step of acquiring a self-position of the autonomous vacuum cleaner in the predetermined space;
A plurality of pieces of recognition information, each of which indicates an image processing method for recognizing a recognition target included in an image, and one piece of recognition information from among the plurality of pieces of recognition information that differ from each other in one or more recognition targets is placed at the self-position. a decision step of deciding based on;
a recognition step of recognizing a recognition target included in the photographed image by analyzing the photographed image obtained from the camera photographing the predetermined space using the one recognition information determined in the determining step;
A method for controlling an autonomous vacuum cleaner, including a control step of causing the autonomous vacuum cleaner to run and clean based on the recognition result in the recognition step.
請求項5に記載の自律走行型掃除機の制御方法をコンピュータに実行させるための
プログラム。
A program for causing a computer to execute the method for controlling an autonomous vacuum cleaner according to claim 5.
JP2020124569A 2020-07-21 2020-07-21 Autonomous vacuum cleaner, autonomous vacuum cleaner control method, and program Active JP7417944B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020124569A JP7417944B2 (en) 2020-07-21 2020-07-21 Autonomous vacuum cleaner, autonomous vacuum cleaner control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020124569A JP7417944B2 (en) 2020-07-21 2020-07-21 Autonomous vacuum cleaner, autonomous vacuum cleaner control method, and program

Publications (2)

Publication Number Publication Date
JP2022021145A JP2022021145A (en) 2022-02-02
JP7417944B2 true JP7417944B2 (en) 2024-01-19

Family

ID=80220196

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020124569A Active JP7417944B2 (en) 2020-07-21 2020-07-21 Autonomous vacuum cleaner, autonomous vacuum cleaner control method, and program

Country Status (1)

Country Link
JP (1) JP7417944B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7558718B2 (en) 2020-08-25 2024-10-01 日本信号株式会社 Floor cleaner

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014194729A (en) 2013-02-27 2014-10-09 Sharp Corp Circumferential environment recognition device, autonomous mobile system using the same, and circumferential environment recognition method
JP2017501473A (en) 2013-12-19 2017-01-12 アクチエボラゲット エレクトロルックス Robot vacuum cleaner
JP2017143983A (en) 2016-02-16 2017-08-24 東芝ライフスタイル株式会社 Autonomous travel body
WO2018087971A1 (en) 2016-11-08 2018-05-17 シャープ株式会社 Movable body control apparatus and movable body control program
JP2019121364A (en) 2018-01-05 2019-07-22 アイロボット・コーポレーション Mobile cleaning robot artificial intelligence for situational awareness

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014194729A (en) 2013-02-27 2014-10-09 Sharp Corp Circumferential environment recognition device, autonomous mobile system using the same, and circumferential environment recognition method
JP2017501473A (en) 2013-12-19 2017-01-12 アクチエボラゲット エレクトロルックス Robot vacuum cleaner
JP2017143983A (en) 2016-02-16 2017-08-24 東芝ライフスタイル株式会社 Autonomous travel body
WO2018087971A1 (en) 2016-11-08 2018-05-17 シャープ株式会社 Movable body control apparatus and movable body control program
JP2019121364A (en) 2018-01-05 2019-07-22 アイロボット・コーポレーション Mobile cleaning robot artificial intelligence for situational awareness

Also Published As

Publication number Publication date
JP2022021145A (en) 2022-02-02

Similar Documents

Publication Publication Date Title
JP7442063B2 (en) Vacuum cleaner control method and control system
US10705535B2 (en) Systems and methods for performing simultaneous localization and mapping using machine vision systems
US9526390B2 (en) Robot cleaner
JP2019171018A (en) Autonomous mobile cleaner, cleaning method by the same and program for the same
JP2019171001A (en) Autonomous mobile cleaner, cleaning method and program
JP7296552B2 (en) CLEANING MAP DISPLAY DEVICE AND CLEANING MAP DISPLAY METHOD
JP2018197928A (en) Vacuum cleaner
KR20150009048A (en) Cleaning robot and method for controlling the same
KR20220056643A (en) Robot cleaner and driving method thereof
JP7417944B2 (en) Autonomous vacuum cleaner, autonomous vacuum cleaner control method, and program
WO2018193653A1 (en) Mobile device, object detection method, and program
JP7345132B2 (en) Autonomous vacuum cleaner, autonomous vacuum cleaner control method, and program
US11612286B2 (en) Using augmented reality to exchange spatial information with a robotic cleaning device
JP7519579B2 (en) Vacuum cleaner system and method for posting dangerous positions
WO2020059292A1 (en) Autonomous traveling cleaner
KR102302198B1 (en) Cleaning apparatus and controlling method thereof
KR20200142865A (en) A robot cleaner using artificial intelligence and control method thereof
JP2021144594A (en) Autonomous mobile vacuum cleaner, control method of autonomous mobile vacuum cleaner, and program
JP2021153979A (en) Autonomous travel type cleaner, autonomous travel type cleaner control method, and program
US20230324914A1 (en) Travel map generation device, autonomously traveling robot, travel control system for autonomously traveling robot, travel control method for autonomously traveling robot, and recording medium
US20220031136A1 (en) Vacuum cleaner system and vacuum cleaner
JP7349624B2 (en) Autonomous vacuum cleaner, autonomous vacuum cleaner control method, and program
EP2325713B1 (en) Methods and systems for movement of robotic device using video signal
JP2023018577A (en) Cleaner
KR20230134800A (en) A robot cleaner and control method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230721

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230905

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231225

R151 Written notification of patent or utility model registration

Ref document number: 7417944

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151