JP2020087240A - Control system for cleaner, autonomous travel type cleaner, cleaning system, and control method for cleaner - Google Patents

Control system for cleaner, autonomous travel type cleaner, cleaning system, and control method for cleaner Download PDF

Info

Publication number
JP2020087240A
JP2020087240A JP2018224600A JP2018224600A JP2020087240A JP 2020087240 A JP2020087240 A JP 2020087240A JP 2018224600 A JP2018224600 A JP 2018224600A JP 2018224600 A JP2018224600 A JP 2018224600A JP 2020087240 A JP2020087240 A JP 2020087240A
Authority
JP
Japan
Prior art keywords
unit
cleaner
image
control system
vacuum cleaner
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018224600A
Other languages
Japanese (ja)
Other versions
JP7173846B2 (en
Inventor
佑人 小松
Yuto Komatsu
佑人 小松
須賀 卓
Masaru Suga
卓 須賀
伊藤 則和
Norikazu Ito
則和 伊藤
亨 仁木
Toru Niki
亨 仁木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Global Life Solutions Inc
Original Assignee
Hitachi Global Life Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Global Life Solutions Inc filed Critical Hitachi Global Life Solutions Inc
Priority to JP2018224600A priority Critical patent/JP7173846B2/en
Publication of JP2020087240A publication Critical patent/JP2020087240A/en
Application granted granted Critical
Publication of JP7173846B2 publication Critical patent/JP7173846B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Electric Vacuum Cleaner (AREA)

Abstract

To provide a control system for a cleaner, which is able to control travel of a cleaner through a simple configuration.SOLUTION: A control system for a cleaner 100 comprises: an imaging unit 12 mounted in the cleaner 100 and that captures an image of a periphery of the cleaner 100; an edge extraction unit 34 that extracts an edge shown in the image; an object detection unit 35 that extracts an area surrounded by the extracted edge and detects an object on the basis of the extracted area; and a travel control unit 37 that controls travel of the cleaner on the basis of a position of the detected object.SELECTED DRAWING: Figure 6

Description

この発明は、掃除機の制御システム、自律走行型掃除機、掃除システム、および掃除機の制御方法に関する。 The present invention relates to a vacuum cleaner control system, an autonomous traveling vacuum cleaner, a cleaning system, and a vacuum cleaner control method.

室内の人や物体を検出し、検出された結果に応じて家電製品等を動作させることが、従来から試みられている。 BACKGROUND ART It has been attempted to detect a person or an object in a room and operate a home electric appliance or the like according to the detected result.

特許文献1には、このような技術の例として、人体や障害物の位置に応じて吹き出し角度を変更する空気調和システムが記載されている。また、特許文献2には、ステレオカメラを用いて距離画像を生成し、距離画像に基づいて障害物を検出する掃除機が記載されている。 As an example of such a technique, Patent Literature 1 describes an air conditioning system that changes the blowing angle according to the position of a human body or an obstacle. Patent Document 2 describes a vacuum cleaner that generates a distance image using a stereo camera and detects an obstacle based on the distance image.

特開2012−102924号公報JP 2012-102924 A 特開2017−131556号公報JP, 2017-131556, A

しかしながら、従来の技術では、簡易な構成で掃除機の自動走行を制御するのが困難であった。たとえば特許文献2は距離画像を用いるため、複数のカメラまたは距離測定のための追加の装置が必要となる。なお、特許文献1は掃除機に関する技術ではない。 However, with the conventional technique, it is difficult to control the automatic traveling of the vacuum cleaner with a simple configuration. For example, US Pat. No. 6,096,836 uses range images and thus requires multiple cameras or additional devices for range measurement. Note that Patent Document 1 does not relate to a vacuum cleaner.

この発明はこのような問題点を解消するためになされたものであり、比較的簡易な構成で掃除機の走行を制御できる掃除機の制御システム、自律走行型掃除機、掃除システム、および掃除機の制御方法を提供することを目的とする。 The present invention has been made to solve such a problem, and has a control system for a vacuum cleaner capable of controlling the travel of the vacuum cleaner with a relatively simple configuration, an autonomous traveling vacuum cleaner, a cleaning system, and a vacuum cleaner. It aims at providing the control method of.

この発明に係る、掃除機の制御システムは、
前記掃除機に搭載され、前記掃除機の周辺の画像を撮像する撮像部と、
前記画像において表されるエッジを抽出するエッジ抽出部と、
抽出された前記エッジに囲まれた領域を抽出し、抽出された前記領域に基づいて物体を検出する物体検出部と、
検出された前記物体の位置に基づいて、掃除機の走行を制御する走行制御部と、
を有する。
特定の態様によれば、前記撮像部は、近赤外線に基づいて前記画像を撮像する。
特定の態様によれば、
前記掃除機に搭載され、近赤外線を照射する近赤外線光源部と、
前記近赤外線光源部の動作を制御する光源制御部と
をさらに備え、
前記光源制御部は、前記近赤外線光源部の向き、高さまたは出力を調整する。
特定の態様によれば、前記光源制御部は、前記近赤外線光源部の出力を、前記画像を撮像する間隔に合わせて点灯および消灯させる。
特定の態様によれば、物体の種類を判定する物体種類判定部をさらに有し、
前記物体種類判定部は、
検出された前記物体の形状に基づいて、当該物体の重心の高さを求め、
前記重心の高さと、当該物体の画像中の高さに第1の所定比率を乗じた第1の高さとを比較し、
前記重心の高さが前記第1の高さ未満である場合、前記物体は前記掃除機が向かうべき物体であると判定し、
前記重心の高さが前記第1の高さを超える場合、前記物体は前記掃除機が避けるべき物体であると判定する。
特定の態様によれば、前記物体検出部は、
抽出された前記領域の輝度複雑度を算出し、
算出された前記輝度複雑度が所定の範囲内に含まれるか否かに基づいて、当該領域が物体を表すか否かを判定する。
特定の態様によれば、前記物体検出部は、
抽出された前記領域の円形度を算出し、
算出された前記円形度が所定の範囲内に含まれるか否かに基づいて、当該領域が物体を表すか否かを判定する。
特定の態様によれば、前記物体検出部は、
抽出された前記領域の面積を算出し、
算出された前記面積が所定の範囲内に含まれるか否かに基づいて、当該領域が物体を表すか否かを判定する。
また、この発明に係る自律走行型掃除機は、上述の制御システムを搭載した自律走行型掃除機である。
また、この発明に係る掃除システムは、上述の制御システムと、ゴミを吸い込む掃除機とを備える。
また、この発明に係る掃除機の制御方法は、
前記掃除機の周辺の画像を撮像するステップと、
前記画像において表されるエッジを抽出するステップと、
抽出された前記エッジに囲まれた領域を抽出し、抽出された前記領域に基づいて物体を検出するステップと、
検出された前記物体の位置に基づいて、前記掃除機の走行を制御するステップと、
を有する。
The control system of the vacuum cleaner according to the present invention is
An image pickup unit mounted on the vacuum cleaner and configured to pick up an image of the vicinity of the vacuum cleaner,
An edge extractor for extracting edges represented in the image,
An object detection unit that extracts a region surrounded by the extracted edges, and detects an object based on the extracted region,
Based on the detected position of the object, a traveling control unit that controls traveling of the cleaner,
Have.
According to a particular aspect, the image capturing unit captures the image based on near infrared rays.
According to a particular aspect,
A near-infrared light source unit that is mounted on the vacuum cleaner and emits near-infrared rays,
Further comprising a light source control unit for controlling the operation of the near infrared light source unit,
The light source control unit adjusts the orientation, height, or output of the near infrared light source unit.
According to a particular aspect, the light source control unit turns on and off the output of the near-infrared light source unit in accordance with the interval at which the image is captured.
According to a particular aspect, an object type determination unit for determining the type of object is further provided,
The object type determination unit,
Based on the detected shape of the object, find the height of the center of gravity of the object,
Comparing the height of the center of gravity and the first height obtained by multiplying the height in the image of the object by a first predetermined ratio,
When the height of the center of gravity is less than the first height, it is determined that the object is an object to which the cleaner should head,
If the height of the center of gravity exceeds the first height, the object is determined to be an object that the vacuum cleaner should avoid.
According to a particular aspect, the object detector is
Calculating the brightness complexity of the extracted region,
Based on whether or not the calculated brightness complexity is included in a predetermined range, it is determined whether or not the area represents an object.
According to a particular aspect, the object detector is
Calculate the circularity of the extracted region,
Based on whether or not the calculated circularity falls within a predetermined range, it is determined whether or not the area represents an object.
According to a particular aspect, the object detector is
Calculate the area of the extracted region,
Based on whether or not the calculated area is included in a predetermined range, it is determined whether or not the area represents an object.
An autonomous traveling type vacuum cleaner according to the present invention is an autonomous traveling type vacuum cleaner equipped with the above control system.
A cleaning system according to the present invention includes the control system described above and a cleaner that sucks dust.
The control method of the vacuum cleaner according to the present invention is
Capturing an image of the area around the vacuum cleaner,
Extracting the edges represented in the image,
Extracting a region surrounded by the extracted edge, and detecting an object based on the extracted region,
Controlling the travel of the vacuum cleaner based on the detected position of the object;
Have.

この発明に係る掃除機の制御システム、自律走行型掃除機、掃除システム、および掃除機の制御方法によれば、比較的簡易な構成で掃除機の走行を制御することができる。 According to the vacuum cleaner control system, the autonomous traveling vacuum cleaner, the cleaning system, and the vacuum cleaner control method according to the present invention, the travel of the vacuum cleaner can be controlled with a relatively simple configuration.

実施例1に係る掃除機を含む外観構成を示す図である。It is a figure which shows the external appearance structure containing the vacuum cleaner which concerns on Example 1. 図1のリモコンの外観の例をより詳細に示す説明図である。It is explanatory drawing which shows the example of the external appearance of the remote control of FIG. 1 in more detail. 実施例1に係る掃除機のセンサ部の構成の例を示す図である。It is a figure which shows the example of a structure of the sensor part of the vacuum cleaner which concerns on Example 1. 実施例1の可視光カットフィルタを介して撮像した場合の波長分布の例を示す説明図である。FIG. 6 is an explanatory diagram showing an example of wavelength distribution when an image is taken through the visible light cut filter of the first embodiment. 実施例1の掃除機の制御部の構成の例を示す説明図である。It is explanatory drawing which shows the example of a structure of the control part of the vacuum cleaner of Example 1. 実施例1の制御部による制御処理例の概要を示すフローチャートである。5 is a flowchart showing an outline of an example of control processing by the control unit of the first embodiment. 図6のステップS1の処理をより詳細に説明するフローチャートである。7 is a flowchart illustrating the process of step S1 of FIG. 6 in more detail. 図7のステップS16の処理をより詳細に説明するフローチャートである。8 is a flowchart illustrating the process of step S16 of FIG. 7 in more detail. 図6のステップS6の処理をより詳細に説明するフローチャートである。7 is a flowchart illustrating the process of step S6 of FIG. 6 in more detail. 実施例2における物体種類判定処理の内容を説明するフローチャートである。9 is a flowchart illustrating the content of object type determination processing according to the second embodiment. 実施例3における物体種類判定処理を説明する図である。FIG. 9 is a diagram illustrating an object type determination process in the third embodiment. 実施例1〜3の変形例において用いられるモバイル端末の構成の例を示す図である。It is a figure which shows the example of a structure of the mobile terminal used in the modification of Examples 1-3.

以下、この発明の実施例を添付図面に基づいて説明する。
実施例1.
本実施例は、自律走行型掃除機に係るものである。自律走行型掃除機とは、たとえば自律して走行しながら掃除動作を行うことが可能な掃除機を意味し、一般に「ロボット掃除機」等とも呼ばれるものである。この掃除機は、掃除を行う空間に存在する物体(ケーブル等)を検出し、検出した物体の位置に基づいて走行を制御する。以下に図面を用いて具体的構成の例を説明する。
Embodiments of the present invention will be described below with reference to the accompanying drawings.
Example 1.
This embodiment relates to an autonomous traveling type vacuum cleaner. The autonomous traveling type cleaner means, for example, a cleaner capable of performing a cleaning operation while traveling autonomously, and is generally called a “robot cleaner” or the like. This cleaner detects an object (cable or the like) existing in a space for cleaning, and controls traveling based on the detected position of the object. An example of a specific configuration will be described below with reference to the drawings.

図1は、本実施例に係る掃除機100を含む外観構成を示す図である。掃除機100は、自身の動作を制御する制御システムを内蔵して自動的に掃除を行う装置であり、たとえば走行制御技術等を用いて構成される。本実施例では、掃除機100は単体で掃除システムを構成し、本実施例に係る方法(とくに掃除機の制御方法)を実行する。掃除機100は、リモコン200(リモートコントローラ)とともに用いられる。 FIG. 1 is a diagram showing an external configuration including a cleaner 100 according to the present embodiment. The vacuum cleaner 100 is a device that automatically cleans by incorporating a control system that controls its own operation, and is configured using, for example, traveling control technology. In the present embodiment, the vacuum cleaner 100 constitutes a cleaning system by itself, and executes the method according to the present embodiment (particularly, the vacuum cleaner control method). The vacuum cleaner 100 is used together with the remote controller 200 (remote controller).

掃除機100が掃除を行う空間は任意であるが、たとえば屋内または屋外であってもよい。屋内では、部屋の中(室内)または廊下を掃除してもよく、屋外では、一定の容積を占める空間を掃除してもよい。本実施例は室内を掃除する場合の動作を想定しているが、他の空間を掃除する場合にも同じ動作または同様の動作が適用可能である。 The space in which the cleaner 100 cleans is arbitrary, but may be indoors or outdoors, for example. Inside the room (inside the room) or in the corridor may be cleaned indoors, and outdoors, a space occupying a certain volume may be cleaned. Although the present embodiment assumes an operation when cleaning the room, the same operation or a similar operation can be applied when cleaning other spaces.

掃除機100およびリモコン200は、互いに通信可能に構成される。通信はたとえば赤外線を用いてワイヤレスで行われるが、他の電波または通信線等を用いてもよい。リモコン200は、掃除機100のユーザが掃除機100を遠隔から操作するための端末として用いることができる。掃除機100は、外部から送信される信号を受信するための受信部を有する。本実施例では、受信部は、リモコン200からの信号を受信するためのリモコン受信部11として構成される。 The vacuum cleaner 100 and the remote controller 200 are configured to be able to communicate with each other. The communication is performed wirelessly using infrared rays, for example, but other radio waves or communication lines may be used. Remote controller 200 can be used as a terminal for a user of vacuum cleaner 100 to remotely operate vacuum cleaner 100. Vacuum cleaner 100 has a receiving unit for receiving a signal transmitted from the outside. In the present embodiment, the receiver is configured as the remote controller receiver 11 for receiving a signal from the remote controller 200.

また、掃除機100は、掃除機100の周辺の画像を撮像する撮像部12と、近赤外線を照射する近赤外線光源部13とを搭載する。撮像部12はたとえば公知の受光素子を用いて構成することができ、近赤外線光源部13はたとえば近赤外線LEDを用いて構成することができる。掃除機100は、制御および表示に用いる情報を取得するための複数の種類のセンサを含むセンサ部10を有しており、本実施例では、センサ部10は上述の撮像部12および近赤外線光源部13を含む。また、本実施例ではセンサ部10はさらにリモコン受信部11を含むが、リモコン受信部11はセンサ部10とは独立して構成されるものであってもよい。また、センサ部10の外側(図1の例ではセンサ部10の前面)に、光透過部材14を有してもよい。 Further, the vacuum cleaner 100 is equipped with an imaging unit 12 that captures an image around the vacuum cleaner 100 and a near-infrared light source unit 13 that radiates near-infrared rays. The imaging unit 12 can be configured using, for example, a known light receiving element, and the near infrared light source unit 13 can be configured using, for example, a near infrared LED. The vacuum cleaner 100 has a sensor unit 10 including a plurality of types of sensors for acquiring information used for control and display. In the present embodiment, the sensor unit 10 includes the above-described image pickup unit 12 and near-infrared light source. Including part 13. Further, in the present embodiment, the sensor unit 10 further includes the remote control receiving unit 11, but the remote control receiving unit 11 may be configured independently of the sensor unit 10. Further, the light transmission member 14 may be provided outside the sensor unit 10 (on the front face of the sensor unit 10 in the example of FIG. 1).

掃除機100は、掃除機100の前面を覆うように取り付けられる前面パネル40を有する。なお、「前面」とは、たとえば掃除機100の側面のうち進行方向側の所定部分をいう。本実施例では、センサ部10は、センサ部10に含まれるリモコン受信部11、撮像部12および近赤外線光源部13とともに、前面パネル40に配置される。 The cleaner 100 has a front panel 40 attached so as to cover the front surface of the cleaner 100. The “front surface” refers to a predetermined portion of the side surface of the cleaner 100 on the traveling direction side, for example. In the present embodiment, the sensor unit 10 is arranged on the front panel 40 together with the remote control receiving unit 11, the image capturing unit 12, and the near infrared light source unit 13 included in the sensor unit 10.

撮像部12は、電磁波によって表される画像を取得する。とくに、本実施例では、撮像部12は、可視光によって表される可視光画像を取得する機能と、近赤外線によって表される近赤外線画像を取得する機能とを備える。近赤外線光源部13が空間に近赤外線を照射すると、その反射光のうち撮像部12に到達したものが撮像部12によって撮像されるように構成されている。 The imaging unit 12 acquires an image represented by electromagnetic waves. In particular, in this embodiment, the imaging unit 12 has a function of acquiring a visible light image represented by visible light and a function of acquiring a near infrared image represented by near infrared. When the near-infrared light source unit 13 irradiates the space with near-infrared light, the reflected light that reaches the imaging unit 12 is imaged by the imaging unit 12.

撮像部12と近赤外線光源部13との位置関係は任意に設計可能であるが、本実施例では、撮像部12と近赤外線光源部13とがセンサ部10内で隣接または近接するよう配置される。このように設置されることにより、撮像部12の検出範囲または検出角度と、近赤外線光源部13の照射範囲または照射角度との差を低減させることができる。 The positional relationship between the imaging unit 12 and the near-infrared light source unit 13 can be arbitrarily designed, but in the present embodiment, the imaging unit 12 and the near-infrared light source unit 13 are arranged so as to be adjacent to or close to each other in the sensor unit 10. It By installing in this way, the difference between the detection range or the detection angle of the imaging unit 12 and the irradiation range or the irradiation angle of the near infrared light source unit 13 can be reduced.

さらに、掃除機100は、モニター20を有する。モニター20の配置は任意に設計可能であるが、たとえば掃除機100の動作中に外部から容易に視認可能な位置に配置される。本実施例では、モニター20は掃除機100の上面に配置され、とくに撮像部12に近接して配置される。 Further, the vacuum cleaner 100 has a monitor 20. Arrangement of the monitor 20 can be designed arbitrarily, but for example, it is arranged at a position where it can be easily visually recognized from the outside while the vacuum cleaner 100 is in operation. In the present embodiment, the monitor 20 is arranged on the upper surface of the vacuum cleaner 100, and particularly in the vicinity of the image pickup unit 12.

モニター20の動作の例を説明する。図1の例では、モニター20には、掃除機100の外観を表す画像が表示されている。また、撮像部12等を用いた処理によって物体が検出された場合(検出処理の具体例については後述する)には、掃除機100は、検出された物体に関する情報をモニター20に表示する。たとえば、掃除機100と物体との位置関係および物体の種類、形状等に応じ、適切な位置に適切な画像または図形を表示する。このようにすると、ユーザは、掃除機100が物体を検出できたということを視認できる。なお、このような物体の表示は、掃除機100のモニター20だけではなく、リモコン200において行われてもよい。その場合には、リモコン200にもモニター20と同様のモニターが設けられてもよい。 An example of the operation of the monitor 20 will be described. In the example of FIG. 1, an image showing the appearance of the vacuum cleaner 100 is displayed on the monitor 20. Further, when an object is detected by the process using the imaging unit 12 or the like (a specific example of the detection process will be described later), the cleaner 100 displays the information on the detected object on the monitor 20. For example, an appropriate image or figure is displayed at an appropriate position according to the positional relationship between the vacuum cleaner 100 and the object and the type, shape, etc. of the object. In this way, the user can visually recognize that the vacuum cleaner 100 can detect the object. Note that such an object may be displayed not only on the monitor 20 of the vacuum cleaner 100 but also on the remote controller 200. In that case, the remote controller 200 may also be provided with a monitor similar to the monitor 20.

なお、本実施例では、掃除機100は、リモコン受信部11、撮像部12、近赤外線光源部13、光透過部材14、およびモニター20を有するが、変形例として、これらのうち少なくとも撮像部12を有していれば、リモコン受信部11、近赤外線光源部13、光透過部材14、およびモニター20は省略可能である。 In addition, in the present embodiment, the vacuum cleaner 100 has the remote control receiving unit 11, the imaging unit 12, the near infrared light source unit 13, the light transmitting member 14, and the monitor 20, but as a modification, at least the imaging unit 12 among them. The remote control receiver 11, the near infrared light source 13, the light transmitting member 14, and the monitor 20 can be omitted.

掃除機100は、掃除機100の動作を制御する制御システムを有する。この制御システムは、本明細書に記載される方法(とくに掃除機の制御方法)を実行する。掃除機100の制御システムは制御部30を有する。制御部30は、センサ部10と通信可能に接続されており、とくに、リモコン受信部11、撮像部12および近赤外線光源部13と通信可能に接続されている。制御部30は、センサ部10から受信する情報に基づいて、掃除機100の走行を制御する。制御部30は、公知のコンピュータとしての構成を有し、演算手段および記憶手段を有する(詳細については図5等を用いて後述する)。演算手段はたとえばプロセッサであり、記憶手段はたとえば半導体メモリである。 The cleaner 100 has a control system that controls the operation of the cleaner 100. The control system implements the methods described herein (particularly the vacuum cleaner control method). The control system of the vacuum cleaner 100 has a control unit 30. The control unit 30 is communicatively connected to the sensor unit 10, and in particular, is communicatively connected to the remote controller receiving unit 11, the imaging unit 12, and the near infrared light source unit 13. Control unit 30 controls the traveling of cleaner 100 based on the information received from sensor unit 10. The control unit 30 has a configuration as a known computer, and has a calculation unit and a storage unit (details will be described later with reference to FIG. 5 and the like). The arithmetic means is, for example, a processor, and the storage means is, for example, a semiconductor memory.

図2は、図1のリモコン200の外観の例をより詳細に示す説明図である。
リモコン200は、たとえば、掃除機100に空間を掃除させるための指示を、掃除機100に対して遠隔から送信するために用いられる。掃除機100のユーザは、空間を掃除したい場合にリモコン200を操作して掃除機100に掃除を行わせることができる。
FIG. 2 is an explanatory diagram showing an example of the external appearance of the remote controller 200 of FIG. 1 in more detail.
Remote control 200 is used, for example, for remotely transmitting to vacuum cleaner 100 an instruction for causing cleaner 100 to clean the space. The user of the vacuum cleaner 100 can operate the remote controller 200 to cause the vacuum cleaner 100 to perform cleaning when he wants to clean the space.

リモコン200は、掃除機100のリモコン受信部11が受信可能な無線信号(たとえば、赤外線信号)を送信する。この無線信号は、たとえば、運転要求、掃除モードの変更、運転モードの変更、および、停止要求等の様々な指示を含む。掃除機100は、これらの指示に基づいて動作することができ、たとえば室内の掃除を行うことができる。なお、リモコン200は、前述の指示を含む無線信号を送るのみならず、他の任意の機能を有してもよい。 Remote controller 200 transmits a wireless signal (for example, an infrared signal) that remote controller receiver 11 of vacuum cleaner 100 can receive. The wireless signal includes various instructions such as a driving request, a cleaning mode change, a driving mode change, and a stop request. The vacuum cleaner 100 can operate based on these instructions, and can clean the room, for example. It should be noted that remote controller 200 may have not only the wireless signal including the above-described instruction but also any other function.

リモコン200は、ユーザからの指示を受け付けるための入力機能部を有する。図2の例では、入力機能部はボタン201を含む7個のボタンからなる。ボタン201は、自動運転ボタンである。ボタン201がユーザによって操作されると(たとえば押下されると)、リモコン200はボタン201が操作されたことを示す信号を掃除機100に送信し、掃除機100の制御部30は、センサ部10を介してこの信号を受信し、自動掃除を開始する。より具体的には、図6の処理(後述)を開始してもよい。 The remote controller 200 has an input function unit for receiving an instruction from the user. In the example of FIG. 2, the input function unit includes seven buttons including the button 201. The button 201 is an automatic driving button. When button 201 is operated by the user (for example, pressed), remote controller 200 transmits a signal indicating that button 201 has been operated to cleaner 100, and control unit 30 of cleaner 100 causes sensor unit 10 to operate. This signal is received via and the automatic cleaning is started. More specifically, the process of FIG. 6 (described later) may be started.

ボタン201により、ユーザは1回の操作で室内の掃除を実行させることができ、詳細な運転内容を指示するための複数の操作を行う必要がない。なお、本実施例のリモコン200は、ボタン201が操作されてもケーブルやゴミ等の物体の検出が開始されないように事前設定しておくためのボタン、または、これらの検知結果に基づく走行制御を実行させないように事前設定しておくためのボタンを有してもよい。 By the button 201, the user can execute the cleaning of the room with one operation, and does not need to perform a plurality of operations for instructing detailed driving contents. The remote controller 200 of the present embodiment has buttons for presetting so that detection of an object such as a cable or dust is not started even if the button 201 is operated, or a travel control based on the detection result thereof. It may have a button for presetting not to be executed.

なお、ボタン201等の位置は、リモコン200のいずれの場所に設置されてもよく、リモコン200に開閉可能な蓋が設置される場合には、蓋によって覆われる空間内に設置されてもよい。 It should be noted that the position of the button 201 or the like may be installed anywhere on the remote controller 200, and when the remote controller 200 is provided with an openable/closable lid, it may be installed in a space covered by the lid.

図3は、本実施例の掃除機100のセンサ部10の構成の例を示す図である。センサ部10は、掃除機100に備えられる複数のセンサを含む。センサ部10は、たとえば上述のように近赤外線光源部13および撮像部12を含む。また、図3に示すように時計や他の構成要素を含んでもよい。また、図3には示さないがリモコン受信部11を含んでもよい。 FIG. 3 is a diagram showing an example of the configuration of the sensor unit 10 of the vacuum cleaner 100 of this embodiment. The sensor unit 10 includes a plurality of sensors included in the cleaner 100. The sensor unit 10 includes, for example, the near infrared light source unit 13 and the image pickup unit 12 as described above. Moreover, as shown in FIG. 3, it may include a timepiece or other components. Although not shown in FIG. 3, the remote controller receiver 11 may be included.

撮像部12は、特定の波長または波長範囲の電磁波による画像を撮像可能である。また、撮像部12は、複数の波長または波長範囲の電磁波による画像を撮像可能であってもよい。掃除機100は、撮像部12に入射する特定の波長または波長範囲の電磁波を遮断または減衰させるフィルタを有してもよく、そのようなフィルタは切替可能であってもよい。本実施例では、掃除機100は可視光カットフィルタを有する。この可視光カットフィルタは、たとえば可視光および紫外線の透過率が低く、近赤外線の透過率が高いものであり、すなわち近赤外線透過フィルタとも呼べるものである。 The image capturing unit 12 can capture an image of an electromagnetic wave having a specific wavelength or a wavelength range. Further, the image capturing unit 12 may be capable of capturing an image with electromagnetic waves having a plurality of wavelengths or wavelength ranges. The vacuum cleaner 100 may have a filter that blocks or attenuates electromagnetic waves of a specific wavelength or wavelength range that enter the imaging unit 12, and such a filter may be switchable. In this embodiment, the vacuum cleaner 100 has a visible light cut filter. This visible light cut filter has a low transmittance of visible light and ultraviolet rays and a high transmittance of near infrared rays, that is, it can be called a near infrared ray transmitting filter.

掃除機100の制御部30は、たとえば撮像部12が近赤外線画像を取得する場合に、可視光カットフィルタを撮像部12に対してセットし、撮像部12に近赤外線画像を取得させる。この場合には、撮像部12は、近赤外線近傍(たとえば、850nmを含む特定波長帯)の波長域を利用して撮像することができる。また、必要に応じて、撮像部12による撮像前に、制御部30が近赤外線光源部13を点灯させ、すなわち近赤外線を照射させることにより、撮像部12が取得する近赤外線画像を、反射光を含んだより鮮明なものとすることができる。 For example, when the imaging unit 12 acquires a near infrared image, the control unit 30 of the vacuum cleaner 100 sets a visible light cut filter on the imaging unit 12 and causes the imaging unit 12 to acquire a near infrared image. In this case, the image capturing unit 12 can capture an image by using a wavelength range near near infrared rays (for example, a specific wavelength band including 850 nm). Further, if necessary, before the image capturing by the image capturing unit 12, the control unit 30 turns on the near infrared light source unit 13, that is, irradiates the near infrared ray, and the near infrared image acquired by the image capturing unit 12 is reflected by the reflected light. Can be made clearer.

図4は、本実施例の可視光カットフィルタを介して撮像した場合の波長分布の例を示す説明図である。図4は、近赤外線光源部13から照射され、掃除機100の周囲で反射され、可視光カットフィルタを介して撮像部12に到達する反射光の波長分布の例を示す。このように、撮像部12は、近赤外線に基づいて画像を撮像することができる。 FIG. 4 is an explanatory diagram showing an example of the wavelength distribution when an image is taken through the visible light cut filter of this embodiment. FIG. 4 shows an example of a wavelength distribution of reflected light that is emitted from the near-infrared light source unit 13, is reflected around the cleaner 100, and reaches the imaging unit 12 via the visible light cut filter. In this way, the image capturing unit 12 can capture an image based on near infrared rays.

本実施例の撮像部12は、近赤外線を用いて掃除機100周辺の画像を取得することによって、ケーブル等の物体の形状を明確に取得することができる。これにより、制御部30は、避けるべき物体や向かうべき物体を検出し、走行を制御できる(具体的な検出および制御方法については後述する)。 The imaging unit 12 of the present embodiment can clearly acquire the shape of an object such as a cable by acquiring an image of the vicinity of the vacuum cleaner 100 using near infrared rays. As a result, the control unit 30 can detect an object to be avoided or an object to be headed for and control traveling (a specific detection and control method will be described later).

図5は、本実施例の掃除機100の制御部30の構成の例を示す説明図である。
制御部30は、リモコン200から送信された指示を、リモコン受信部11を介して受信する。また、制御部30は、センサ部10に含まれるその他のセンサによる検出結果を取得する。そして、受信した指示、および、取得した検出結果に基づいて、制御部30は、掃除機100の走行を制御する。
FIG. 5: is explanatory drawing which shows the example of a structure of the control part 30 of the vacuum cleaner 100 of a present Example.
The control unit 30 receives the instruction transmitted from the remote controller 200 via the remote controller receiving unit 11. In addition, the control unit 30 acquires the detection results of other sensors included in the sensor unit 10. Then, based on the received instruction and the acquired detection result, control unit 30 controls traveling of cleaner 100.

制御部30の演算手段は、機能部として動作することができ、とくに、撮像制御部31、人検出部32、壁検出部33、エッジ抽出部34、物体検出部35、物体種類判定部36、および、走行制御部37として動作することができる。ここで、エッジ抽出部34および物体検出部35は、物体認識部を構成する。また、制御部30の記憶手段は記憶部38を有する。 The calculation means of the control unit 30 can operate as a functional unit, and in particular, the imaging control unit 31, the person detection unit 32, the wall detection unit 33, the edge extraction unit 34, the object detection unit 35, the object type determination unit 36, Also, it can operate as the traveling control unit 37. Here, the edge extraction unit 34 and the object detection unit 35 constitute an object recognition unit. Further, the storage unit of the control unit 30 has a storage unit 38.

これらの機能部は、ソフトウェア(たとえばプログラム)を用いて実装されてもよく、また、ハードウェア(たとえば集積回路)を用いて実装されてもよい。また、これらの機能部は、一つのプログラムまたは一つの集積回路によって実装されてもよい。また、これらの機能部の各々が複数のプログラムまたは複数の集積回路を用いて実装されてもよく、実行する処理ごとに異なるプログラムまたは集積装置の組み合わせによって実装されてもよい。 These functional units may be implemented by using software (for example, a program), or may be implemented by using hardware (for example, an integrated circuit). Further, these functional units may be implemented by one program or one integrated circuit. Further, each of these functional units may be implemented by using a plurality of programs or a plurality of integrated circuits, or may be implemented by a combination of different programs or integrated devices for each processing to be executed.

撮像制御部31は、近赤外線光源部13の動作を制御する機能を有し、すなわち光源制御部としての機能を有する。たとえば、近赤外線光源部13の向き(角度)、高さまたは出力(たとえば電流負荷)を調整する。このようにすると、より適切な角度範囲、高さ範囲または輝度の画像を取得することが可能となる。 The imaging control unit 31 has a function of controlling the operation of the near-infrared light source unit 13, that is, a function as a light source control unit. For example, the direction (angle), height, or output (for example, current load) of the near infrared light source unit 13 is adjusted. By doing so, it becomes possible to acquire an image in a more appropriate angle range, height range, or brightness.

また、撮像制御部31は、近赤外線光源部13の出力を、近赤外線光源部13が画像を撮像する間隔に合わせて、点灯および消灯させる。たとえば、近赤外線光源部13は、撮像部12による撮像動作が開始される直前(所定時間だけ前、たとえば10ミリ秒前)に点灯し、撮像部12による撮像動作が終了した直後(所定時間だけ後、たとえば10ミリ秒後)に消灯する。このように、照射タイミングを撮像部12による撮像タイミング前後に限定することにより、定常的に照射し続ける場合に比べて、近赤外線光源部13の寿命を延ばすことができ、また、消費電力を低減することができる。 Further, the imaging control unit 31 turns on and off the output of the near infrared light source unit 13 in accordance with the interval at which the near infrared light source unit 13 captures an image. For example, the near-infrared light source unit 13 is turned on immediately before the imaging operation by the imaging unit 12 is started (a predetermined time before, for example, 10 milliseconds before), and immediately after the imaging operation by the imaging unit 12 is finished (for a predetermined time only). After that, for example, after 10 milliseconds), the light is turned off. As described above, by limiting the irradiation timing to before and after the imaging timing by the imaging unit 12, the life of the near infrared light source unit 13 can be extended and power consumption can be reduced as compared with the case where the irradiation is continued steadily. can do.

人検出部32は、撮像部12によって取得された画像に基づいて、室内の人の位置を検出する。壁検出部33は、撮像部12によって取得された画像に基づいて、室内の壁の位置を検出する。 The person detection unit 32 detects the position of a person in the room based on the image acquired by the image pickup unit 12. The wall detection unit 33 detects the position of the wall in the room based on the image acquired by the imaging unit 12.

物体認識部(エッジ抽出部34および物体検出部35)は、撮像部12によって取得された画像において表される物体を認識する。より具体的には、エッジ抽出部34は、画像において表されるエッジを抽出し、物体検出部35は、抽出されたエッジに基づいて物体を検出する。画像としては、たとえば可視光カットフィルタを介して撮像部12が撮像した近赤外線画像を用いることができ、その場合には、たとえば、気流の通り道に配置され、気流を遮る物体(ケーブル等)を認識することができる。 The object recognition unit (edge extraction unit 34 and object detection unit 35) recognizes the object represented in the image acquired by the imaging unit 12. More specifically, the edge extraction unit 34 extracts the edge represented in the image, and the object detection unit 35 detects the object based on the extracted edge. As the image, for example, a near-infrared image captured by the image capturing unit 12 via a visible light cut filter can be used. In that case, for example, an object (cable or the like) arranged in the passage of the air flow and blocking the air flow is used. Can be recognized.

物体種類判定部36は、認識された(検出された)物体について、掃除機100が避けて走行すべき対象(避けるべき物体)であるか、掃除機100がそれに向かって走行すべき対象(向かうべき物体)であるかを判定する。避けるべき物体とは、たとえば掃除機100の走行を遮ったり、その他掃除機100の走行の障害となる可能性がある物体を意味し、たとえばケーブルが含まれる。向かうべき物体は、たとえば掃除機100が吸い込むべき物体を意味し、たとえばゴミ片が含まれる。 For the recognized (detected) object, the object type determination unit 36 is an object that the cleaner 100 should avoid and travel (object that should be avoided), or an object that the cleaner 100 should travel (go toward). Should be an object). The object to be avoided means, for example, an object that may block the traveling of the cleaner 100 or may hinder the traveling of the cleaner 100, and includes, for example, a cable. The object to be headed means, for example, an object to be sucked by the vacuum cleaner 100, and includes, for example, a dust piece.

走行制御部37は、物体認識部によって認識された物体の位置に基づいて、掃除機100の走行を制御する。この走行の制御は、さらに物体種類判定部36の判定結果に基づいて行われてもよい。たとえば、ケーブルを避けつつゴミ片に向かうよう掃除機100の走行を制御することができる。具体的な制御内容としては、たとえば掃除機100を前進させる、右回転させる、左回転させる、後進させる、等を制御単位とし、これらを組み合わせて実行することが可能である。 The travel control unit 37 controls the travel of the cleaner 100 based on the position of the object recognized by the object recognition unit. This traveling control may be performed based on the determination result of the object type determination unit 36. For example, the traveling of the cleaner 100 can be controlled so as to move toward the dust pieces while avoiding the cable. As specific control contents, for example, the cleaner 100 may be moved forward, rotated right, rotated left, moved backward, and the like, and these may be combined and executed.

記憶部38は、撮像部12によって撮像された画像を表すデータ等を保持する記憶装置を用いて構成される。記憶部38は、電源投入中にデータを保持する揮発性メモリを含んでもよく、非一時的記憶媒体である補助記憶装置を含んでもよい。制御部30の各機能部は、処理に必要な情報および処理結果に係る情報を記憶部38に格納することができる。 The storage unit 38 is configured by using a storage device that holds data representing an image captured by the image capturing unit 12 and the like. The storage unit 38 may include a volatile memory that retains data during power-on, and may include an auxiliary storage device that is a non-transitory storage medium. Each functional unit of the control unit 30 can store information necessary for processing and information related to the processing result in the storage unit 38.

人検出部32の具体的な動作は適宜設計可能であるが、一例を以下に説明する。人検出部32は、撮像部12が可視光に基づいて撮像した可視光画像に基づいて、人の有無および人の画像中における位置を検出する。また、人検出部32は、検出した人の画像中における位置に基づいて、掃除機100を基準とした人がいる方向、掃除機100と人との距離、および、掃除機100が設置された壁と人との距離を算出する。 Although the specific operation of the human detection unit 32 can be appropriately designed, an example will be described below. The human detection unit 32 detects the presence or absence of a person and the position of the person in the image based on the visible light image captured by the imaging unit 12 based on visible light. In addition, the person detection unit 32 sets the direction of the person with the cleaner 100 as a reference, the distance between the cleaner 100 and the person, and the cleaner 100 based on the detected position of the person in the image. Calculate the distance between a wall and a person.

また、人検出部32は、撮像部12により取得された画像以外にも、赤外線センサ、近赤外線センサ、サーモグラフィー、焦電型センサ、超音波センサおよび騒音センサのうち少なくとも一つによる測定結果を使用して、人の有無および位置を検出してもよい。 In addition to the image acquired by the imaging unit 12, the human detection unit 32 uses the measurement result of at least one of an infrared sensor, a near infrared sensor, a thermography, a pyroelectric sensor, an ultrasonic sensor, and a noise sensor. Then, the presence or absence and the position of a person may be detected.

たとえば、人検出部32は、撮像部12によって撮像された画像から所定の範囲の大きさの円を人の頭部として検出し、検出した人の頭部の位置を人の位置として特定してもよい。また、人検出部32は、目、鼻および口を含む人の顔のパターンをあらかじめ保持し、人の顔のパターンを検出し、検出した人の顔のパターンに対応する領域の位置を人の位置として特定してもよい。 For example, the human detection unit 32 detects a circle having a size within a predetermined range as the human head from the image captured by the imaging unit 12, and specifies the detected position of the human head as the human position. Good. In addition, the person detection unit 32 holds in advance a person's face pattern including eyes, nose, and mouth, detects the person's face pattern, and detects the position of the area corresponding to the detected person's face pattern. You may specify as a position.

また、人検出部32は、人の頭部の大きさおよび掃除機100と人との距離の対応関係をあらかじめ保持し、当該対応関係と検出した人の頭部の大きさとに基づいて、掃除機100と人との距離を算出してもよい。 Further, the human detection unit 32 holds in advance the correspondence between the size of the person's head and the distance between the cleaner 100 and the person, and performs cleaning based on the correspondence and the detected size of the person's head. The distance between the machine 100 and a person may be calculated.

さらに、本実施例の人検出部32は、人の足元の位置も検出してもよい。たとえば、人検出部32は、撮像部12によって撮像された複数の画像を用いて、移動する対象の下端を、人の足元として直接的に検出してもよい。また、人検出部32は、人の頭部の位置を検出し、人の頭部の位置に対して所定の位置関係にある人の足元の位置を推定してもよい。 Furthermore, the person detecting unit 32 of the present embodiment may also detect the position of a person's feet. For example, the person detection unit 32 may directly detect the lower end of the moving target as the foot of the person by using the plurality of images captured by the image capturing unit 12. Further, the person detection unit 32 may detect the position of the person's head and estimate the position of the person's feet having a predetermined positional relationship with the position of the person's head.

壁検出部33の具体的な動作は適宜設計可能であるが、一例を以下に説明する。壁検出部33は、撮像された画像に基づいて、画像内のエッジを抽出し、抽出したエッジのうちからさらに、所定の基準より太く長いエッジを複数抽出する。そして、壁検出部33は、抽出された太く長いエッジそれぞれによる直線を延長して、交点を生成し、交点の重心点を消失点とすることにより、室内のコーナを検出する。そして壁検出部33は、検出したコーナを、壁と壁との接線、壁と天井との接線、または、壁と床との接線として特定し、室内の壁、天井および床の面の位置を検出する。 Although the specific operation of the wall detection unit 33 can be appropriately designed, an example will be described below. The wall detection unit 33 extracts edges in the image based on the captured image, and further extracts a plurality of edges thicker and longer than a predetermined reference from the extracted edges. Then, the wall detection unit 33 detects the indoor corner by extending the straight line formed by each of the extracted thick and long edges to generate an intersection and using the center of gravity of the intersection as the vanishing point. Then, the wall detection unit 33 identifies the detected corner as a tangent line between walls, a tangent line between walls and a ceiling, or a tangent line between a wall and a floor, and determines the position of the wall, ceiling, and floor surface in the room. To detect.

なお、壁検出部33は、人検出部32によって過去に検出された人の位置を保持し、人の位置の累積データに基づいて、コーナの検出結果を補完してもよい。これは、室内の壁は、人の位置の累積データが占める空間の外側に存在する可能性が高く、人の位置の累積データが占める空間の内側に存在する可能性は低いという経験則に基づく。壁検出部33は、室内の壁の候補が人の位置の累積データが占める空間の内側の位置で検出された場合には、当該検出結果を室内の壁の候補から除外してもよい。 The wall detection unit 33 may hold the position of the person detected by the person detection unit 32 in the past, and complement the corner detection result based on the accumulated data of the position of the person. This is based on the rule of thumb that indoor walls are more likely to be outside the space occupied by cumulative human position data and less likely to be inside the space occupied by cumulative human position data. .. The wall detection unit 33 may exclude the detection result from the indoor wall candidates when the indoor wall candidate is detected at a position inside the space occupied by the accumulated data of the human positions.

物体認識部(エッジ抽出部34および物体検出部35)は、撮像された画像に基づいて物体を認識する。物体は、たとえば、テーブル、こたつ、椅子、ソファ、本棚、食器棚、箪笥、建具(壁、床、天井、戸、窓、小梁、欄間等)、ケーブル、ゴミ、食器(箸等)を含む。また、物体は、大きな置物、および、鉢植えの鉢等を含む。 The object recognition unit (edge extraction unit 34 and object detection unit 35) recognizes an object based on the captured image. Objects include, for example, tables, kotatsu, chairs, sofas, bookshelves, cupboards, chests of drawers, fittings (walls, floors, ceilings, doors, windows, beams, rails, etc.), cables, garbage, tableware (chopsticks, etc.). .. Moreover, the object includes a large figurine, a potted pot, and the like.

本実施例において、物体種類判定部36は、認識された(検出された)各物体について、物体の種類の判定を行う。 In the present embodiment, the object type determination unit 36 determines the type of object for each recognized (detected) object.

図6は、本実施例の制御部30による制御処理例の概要を示すフローチャートである。この処理は、たとえばリモコン200から所定の指示が送信されることに応じて開始される。図6の処理において、まず物体認識部が、掃除する空間に配置される物体を認識する(ステップS1、詳細は図7等を用いて後述する)。 FIG. 6 is a flowchart showing an outline of a control processing example by the control unit 30 of the present embodiment. This process is started, for example, in response to a predetermined instruction transmitted from remote controller 200. In the processing of FIG. 6, first, the object recognition unit recognizes an object placed in the space to be cleaned (step S1, details will be described later with reference to FIG. 7 and the like).

次に、物体種類判定部36が、物体の種類を判定する(ステップS2)。物体の種類の定義および判定処理は、当業者が適宜設計可能であるが、一例を以下に示す。物体の種類は、避けるべき物体と、向かうべき物体とを含む。これ以外の種類(充電装置等)の定義を含んでもよい。避けるべき物体の例は、掃除機100の走行を遮る可能性があるケーブルであり、向かうべき物体の例は、吸い込むべき小さなゴミである。 Next, the object type determination unit 36 determines the type of object (step S2). The definition of the type of the object and the determination process can be appropriately designed by those skilled in the art, but an example is shown below. The types of objects include objects to be avoided and objects to be headed for. Definitions of other types (charging device etc.) may be included. An example of an object to avoid is a cable that may block the travel of the cleaner 100, and an example of an object to head is a small piece of dust to inhale.

判定処理は、たとえば物体認識の際に算出されたパラメータを用いて行うことができる。たとえば、各物体について円形度、面積および輝度複雑度(いずれも図8に関連して後述する)がステップS1において算出されている場合には、これらを用いて判定を行ってもよい。より具体的な例として、物体種類判定部36は、ある物体について、円形度が所定の閾値より大きく、かつ面積が所定の閾値より小さく、かつ輝度複雑度が所定の閾値より小さい場合に、その物体は向かうべき物体であると判定する。また、そうでない場合(すなわち、円形度が所定の閾値以下であるか、または面積が所定の閾値以上であるか、または輝度複雑度が所定の閾値以上である場合)に、その物体は避けるべき物体であると判定する。 The determination process can be performed using, for example, the parameters calculated at the time of object recognition. For example, if the circularity, area, and brightness complexity (each of which will be described later with reference to FIG. 8) have been calculated for each object in step S1, the determination may be performed using these. As a more specific example, the object type determination unit 36, for a certain object, if the circularity is larger than a predetermined threshold, the area is smaller than a predetermined threshold, and the brightness complexity is smaller than a predetermined threshold, The object is determined to be the object to be headed. Also, if not (ie, circularity is less than or equal to a predetermined threshold, area is greater than or equal to a predetermined threshold, or luminance complexity is greater than or equal to a predetermined threshold), the object should be avoided. Determined as an object.

次に、人検出部32が人を検出する(ステップS3)。人の検出は、たとえば撮像部12で撮像された画像に基づいて行うことができるが、撮像部12に代えて(または撮像部12に加えて)、焦電型赤外線センサ等を用いて人の位置を把握するようにしてもよい。人検出部32は、人の有無、人の画像中における位置、掃除機100を基準とした人がいる方向、人と掃除機100との距離、および、壁と人との距離を取得する。人検出部32は、記憶部38に取得した情報を格納してもよい。 Next, the person detection unit 32 detects a person (step S3). The detection of a person can be performed based on, for example, an image captured by the image capturing unit 12, but instead of the image capturing unit 12 (or in addition to the image capturing unit 12), a pyroelectric infrared sensor or the like is used to detect the person. The position may be grasped. The person detection unit 32 acquires the presence or absence of a person, the position of the person in the image, the direction in which the person is based on the cleaner 100, the distance between the person and the cleaner 100, and the distance between the wall and the person. The person detection unit 32 may store the acquired information in the storage unit 38.

次に、壁検出部33が、室内のコーナを検出する(ステップS4)とともに間仕切りの開閉を検出する(ステップS5)。 Next, the wall detection unit 33 detects a corner in the room (step S4) and detects opening/closing of the partition (step S5).

ステップS3〜5における処理結果に基づいて(たとえば、人の位置およびコーナの位置の検出結果に基づいて)、制御部30は、室内の大きさ(たとえば形状および寸法)を判定する。 Based on the processing results in steps S3 to 5 (for example, based on the detection result of the position of the person and the position of the corner), control unit 30 determines the size (for example, shape and size) of the room.

次に、走行制御部37が、S1〜S5の処理結果に基づいて、掃除機100の走行を制御する(ステップS6、詳細は図9等を用いて後述する)。たとえば、走行制御部37は、S1〜S5の処理結果に基づいて走行方法を決定し、決定した走行方法に従って掃除機100を走行させる。走行は、前進、右回転、左回転、後進等の動き含むものであってもよい。 Next, the traveling control unit 37 controls traveling of the cleaner 100 based on the processing results of S1 to S5 (step S6, details will be described later with reference to FIG. 9 and the like). For example, traveling control unit 37 determines a traveling method based on the processing results of S1 to S5, and causes cleaner 100 to travel according to the determined traveling method. The traveling may include movements such as forward movement, right rotation, left rotation, and backward movement.

図7は、図6のステップS1の処理をより詳細に説明するフローチャートである。図7の処理において、まず撮像制御部31は、可視光カットフィルタをオンに切り替える(ステップS11)。たとえば、可視光カットフィルタを撮像部12の前に移動する。次に、撮像部12は、ステップS12〜S17のループ処理を繰り返して複数の画像を撮像する。 FIG. 7 is a flowchart illustrating the process of step S1 of FIG. 6 in more detail. In the process of FIG. 7, the imaging control unit 31 first switches on the visible light cut filter (step S11). For example, the visible light cut filter is moved to the front of the imaging unit 12. Next, the image capturing unit 12 captures a plurality of images by repeating the loop processing of steps S12 to S17.

ループ処理において、まず撮像部12は撮像方向を変更する(ステップS12)。撮像方向の変更は、たとえばカメラの移動または回転もしくは回動によって行われる。この撮像方向の変更処理により、1つの撮像装置で複数方向またはより広い範囲を撮像することができる。撮像方向は、たとえば、左方向、中央方向および右方向の3方向とすることができる。 In the loop processing, first, the image pickup unit 12 changes the image pickup direction (step S12). The imaging direction is changed by, for example, moving or rotating or rotating the camera. By this process of changing the image capturing direction, it is possible to capture images in a plurality of directions or a wider range with one image capturing device. The imaging directions can be, for example, three directions of a left direction, a center direction, and a right direction.

次に、撮像制御部31は、近赤外線光源部13を点灯させ、これによって近赤外線を室内に照射する(近赤外線照射ON)(ステップS13)。次に、撮像部12は掃除機100の周辺の画像を撮像する(ステップS14)。次に、撮像制御部31は、近赤外線光源部13を消灯させ、これによって近赤外線の照射を停止する(近赤外線照射OFF)(ステップS15)。 Next, the imaging control unit 31 turns on the near-infrared light source unit 13, thereby irradiating the room with near-infrared light (near-infrared irradiation ON) (step S13). Next, the imaging unit 12 captures an image of the area around the vacuum cleaner 100 (step S14). Next, the imaging control unit 31 turns off the near-infrared light source unit 13, thereby stopping the irradiation of near-infrared rays (near-infrared ray irradiation OFF) (step S15).

次に、物体認識部(エッジ抽出部34および物体検出部35)が、撮像部12により取得された画像に基づいて、物体を認識する(ステップS16、詳細は図8等を用いて後述する)。これによって、室内に物体が存在するか否かが判定される。なお、図6のステップS2の処理(物体の種類の判定)は、図6に示すようにステップS1終了後に実行されてもよいし、ステップS1の実行中(たとえばステップS16の後かつステップS17の前)に実行されてもよい。 Next, the object recognition unit (the edge extraction unit 34 and the object detection unit 35) recognizes the object based on the image acquired by the imaging unit 12 (step S16, details will be described later using FIG. 8 and the like). .. As a result, it is determined whether or not there is an object in the room. Note that the process of step S2 of FIG. 6 (determination of the type of object) may be executed after the end of step S1 as shown in FIG. 6, or during the execution of step S1 (for example, after step S16 and step S17). Before).

次に、撮像制御部31は、指定された複数方向の撮像が終了したか否かを判定し(ステップS17)、指定された複数方向の撮像が終了していない場合には(S17:No)、処理をステップS12に戻す。一方、指定した複数方向の撮像が終了している場合には(S17:Yes)、撮像制御部31は、可視光カットフィルタをオフに切り替える(ステップS18)。たとえば、可視光カットフィルタを撮像部12の前から取り除く。その後、撮像制御部31は図7の処理を終了する。 Next, the imaging control unit 31 determines whether or not the imaging in the designated plural directions is completed (step S17), and when the imaging in the designated plural directions is not completed (S17: No). , The process returns to step S12. On the other hand, when the imaging in the designated plural directions is completed (S17: Yes), the imaging control unit 31 switches the visible light cut filter off (step S18). For example, the visible light cut filter is removed from the front of the imaging unit 12. Then, the imaging control unit 31 ends the process of FIG. 7.

図6および図7の各処理の実行タイミングは、当業者が適宜変更可能である。たとえば、ステップS1およびS2の処理は、ステップS3〜S6とは独立して実行されてもよく、その場合には、リモコン200のボタン201または他の特定のボタンが操作されることに応じてステップS1およびS2の処理が実行されるように構成してもよい。また、ステップS1およびS2の処理は、所定の時間ごとに実行されるよう構成してもよい。 A person skilled in the art can appropriately change the execution timing of each process of FIGS. 6 and 7. For example, the processes of steps S1 and S2 may be executed independently of steps S3 to S6, in which case the steps are performed in response to operation of button 201 of remote controller 200 or another specific button. You may comprise so that the process of S1 and S2 may be performed. Further, the processes of steps S1 and S2 may be configured to be executed at predetermined time intervals.

図8は、図7のステップS16の処理をより詳細に説明するフローチャートである。図8の処理において、まずエッジ抽出部34が画像を取得する(ステップS21)。画像はたとえば可視光画像および近赤外線画像であるが、これらのうち一方であってもよい。これらのうちいずれかを後続の処理に用いるかは、様々な条件に応じて当業者が適宜決定可能である。たとえば、可視光画像には物体の色彩または模様が現れるので、物体のエッジを正確に検出できない場合があるが、近赤外線画像を用いるとそのような問題は軽減される。 FIG. 8 is a flowchart for explaining the process of step S16 of FIG. 7 in more detail. In the process of FIG. 8, the edge extraction unit 34 first acquires an image (step S21). The image is, for example, a visible light image or a near infrared image, but may be one of these. A person skilled in the art can appropriately determine which of these is used for the subsequent processing according to various conditions. For example, the color or pattern of an object appears in a visible light image, and thus the edge of the object may not be accurately detected, but the near infrared image reduces such a problem.

次に、エッジ抽出部34は、画像に平滑化処理を実行する(ステップS22)。具体的には、エッジ抽出部34は、輝度等が周囲の多数の画素と大きく輝度が異なる画素の輝度を、周囲の画素と同じ輝度に変換する。これによって画像からノイズが削除される。なおステップS22は省略してもよい。次に、エッジ抽出部34は、画像中のエッジを抽出する(ステップS23)。画像中のエッジを抽出するための具体的な処理は、当業者が公知技術に基づいて適宜設計可能である。 Next, the edge extraction unit 34 executes a smoothing process on the image (step S22). Specifically, the edge extraction unit 34 converts the brightness of a pixel whose brightness is largely different from that of many surrounding pixels into the same brightness as the surrounding pixels. This removes noise from the image. Note that step S22 may be omitted. Next, the edge extraction unit 34 extracts edges in the image (step S23). A specific process for extracting an edge in an image can be appropriately designed by those skilled in the art based on a known technique.

次に、物体検出部35は、抽出されたエッジに基づいて、画像中の物体を検出する。物体を検出すための具体的な処理は、当業者が公知技術に基づいて適宜設計可能であるが、一例を図8のステップS24以降に示し、以下に説明する。 Next, the object detection unit 35 detects an object in the image based on the extracted edge. Although specific processing for detecting an object can be appropriately designed by those skilled in the art based on a known technique, an example will be described after step S24 in FIG. 8 and will be described below.

物体検出部35は、画像を複数の領域に分割する(ステップS24)。たとえば、閉じた図形を構成する1つながりのエッジについて、エッジに囲まれた領域を抽出し、エッジの外側の領域から分離する。次に、物体検出部35は、以下のステップS26〜S33の処理を、分割された領域のそれぞれについて実行することにより、抽出された領域に基づいて物体を検出する。たとえば、ステップS26〜S33の処理がすべての領域についてすでに実行されたか否かを判定し(ステップS25)、すべての領域についてすでに実行されていた場合には、図8の処理を終了する。 The object detection unit 35 divides the image into a plurality of areas (step S24). For example, for one continuous edge forming a closed figure, a region surrounded by the edge is extracted and separated from a region outside the edge. Next, the object detection unit 35 detects the object based on the extracted area by executing the processing of steps S26 to S33 described below for each of the divided areas. For example, it is determined whether or not the processing of steps S26 to S33 has already been executed for all areas (step S25), and if it has already been executed for all areas, the processing of FIG. 8 ends.

なお、以下から明らかなように、図8の処理は、1枚の画像から領域を抽出できれば実行可能であり、ステレオ画像を用いた深度計算等の複雑な処理や距離測定のための追加の装置等は不要であるため、比較的簡易な構成で実現可能である(ただし、ステレオ画像等を用いた処理を本発明の範囲から除外するものではない)。 Note that, as will be apparent from the following, the process of FIG. 8 can be executed if an area can be extracted from one image, and an additional device for distance measurement and complicated processes such as depth calculation using a stereo image. Since these are unnecessary, it can be realized with a relatively simple configuration (however, processing using a stereo image or the like is not excluded from the scope of the present invention).

未処理の領域が存在する場合には、物体検出部35は、その領域の円形度を算出する(ステップS26)。ここで、円形度とはある領域の「円らしさ」を表す値であり、たとえば次式によって定義される:
円形度 = 4πS/(L
ただしπは円周率、Sは領域の面積、Lは領域の周囲長(たとえばエッジの長さ)である。円形度が大きいほど領域は円に近いと言うことができ、円形度が1の場合には領域は真円となる。
If there is an unprocessed area, the object detection unit 35 calculates the circularity of the area (step S26). Here, the circularity is a value representing “circularity” of a certain area, and is defined by the following formula:
Circularity = 4πS/(L 2 )
Here, π is the pi, S is the area of the region, and L is the perimeter of the region (for example, the length of the edge). It can be said that the larger the circularity is, the closer the area is to a circle. When the circularity is 1, the area is a perfect circle.

次に、物体検出部35は、算出した円形度が、物体の円形度として適切な所定の範囲内に含まれるか否かを判定する(ステップS27)。この所定の範囲またはその境界を表す値は、あらかじめ記憶部38に記憶されていてもよい。円形度が所定の範囲に含まれない場合には、物体検出部35は、処理をステップS25に戻す。この場合には、その領域が物体を表す可能性は低いと判定されたと言える。 Next, the object detection unit 35 determines whether or not the calculated circularity is within a predetermined range suitable as the circularity of the object (step S27). The value representing the predetermined range or the boundary thereof may be stored in the storage unit 38 in advance. If the circularity is not within the predetermined range, the object detection unit 35 returns the process to step S25. In this case, it can be said that it is determined that the region is unlikely to represent an object.

円形度が所定の範囲に含まれる場合には、その領域が物体を表す可能性が高いと判定されたと言える。この場合には、物体検出部35は、その領域の面積を算出する(ステップS28)。ここで算出する面積は、たとえば画像中における面積である。 When the circularity is included in the predetermined range, it can be said that the area is determined to have a high possibility of representing an object. In this case, the object detection unit 35 calculates the area of the region (step S28). The area calculated here is, for example, the area in the image.

次に、物体検出部35は、算出した面積が、物体の面積として適切な所定の範囲内に含まれるか否かを判定する(ステップS29)。この所定の範囲またはその境界を表す値は、あらかじめ記憶部38に記憶されていてもよい。面積が所定の範囲に含まれない場合には、物体検出部35は、処理をステップS25に戻す。この場合には、その領域が物体を表す可能性は低いと判定されたと言える。 Next, the object detection unit 35 determines whether or not the calculated area is included in a predetermined range suitable as the area of the object (step S29). The value representing the predetermined range or the boundary thereof may be stored in the storage unit 38 in advance. If the area is not included in the predetermined range, the object detection unit 35 returns the process to step S25. In this case, it can be said that it is determined that the region is unlikely to represent an object.

面積が所定の範囲に含まれる場合には、その領域が物体を表す可能性が高いと判定されたと言える。この場合には、物体検出部35は、その領域の輝度複雑度を算出する(ステップS30)。輝度複雑度は、たとえば領域に含まれる各画素の輝度のばらつきの度合いであり、たとえば各画素の輝度の分散として定義することができる。 When the area is included in the predetermined range, it can be said that the area is determined to have a high possibility of representing an object. In this case, the object detection unit 35 calculates the brightness complexity of the area (step S30). The luminance complexity is, for example, the degree of variation in the luminance of each pixel included in the area, and can be defined as, for example, the variance of the luminance of each pixel.

次に、物体検出部35は、算出した輝度複雑度が、物体の輝度複雑度として適切な所定の範囲内に含まれるか否かを判定する(ステップS31)。この所定の範囲またはその境界を表す値は、あらかじめ記憶部38に記憶されていてもよい。ケーブルのような物体は、人に比べると輝度複雑度が低く、かつ、床に比べると輝度複雑度が高いため、適切な範囲を設定しておくことにより、そのような物体を適切に認識することができる。輝度複雑度が所定の範囲に含まれない場合には、物体検出部35は、処理をステップS25に戻す。この場合には、その領域が物体を表す可能性は低いと判定されたと言える。 Next, the object detection unit 35 determines whether or not the calculated luminance complexity is included in a predetermined range suitable as the luminance complexity of the object (step S31). The value representing the predetermined range or the boundary thereof may be stored in the storage unit 38 in advance. Objects such as cables have lower brightness complexity than humans and higher brightness complexity than floors, so by setting an appropriate range, such objects can be recognized properly. be able to. When the brightness complexity is not included in the predetermined range, the object detection unit 35 returns the process to step S25. In this case, it can be said that it is determined that the region is unlikely to represent an object.

輝度複雑度が所定の範囲に含まれる場合には、その領域が物体を表す可能性が高いと判定されたと言える。この場合には、物体検出部35は、その領域が物体を表すものであると決定する(ステップS32)。このようにして、画像において表される物体が認識される。 When the brightness complexity is included in the predetermined range, it can be said that the area is determined to have a high possibility of representing an object. In this case, the object detection unit 35 determines that the area represents an object (step S32). In this way, the object represented in the image is recognized.

このように、図8の例では、物体検出部35は、円形度、面積および輝度複雑度に基づいて、各領域が物体を表すか否かを判定する。このように3つの特徴に基づいて判定を行うことにより、より正確な判定が可能になる。なお、変形例として、物体検出部35は、円形度、面積および輝度複雑度のうち1つまたは2つのみに基づいて判定を行ってもよい。いずれか1つまたは2つのみに基づく判定であっても、比較的簡素な判定処理により、比較的正確な物体検出が可能である。さらに、物体検出部35は、円形度、面積および輝度複雑度以外のいかなる指標を用いてこの判定を行ってもよい。 As described above, in the example of FIG. 8, the object detection unit 35 determines whether or not each region represents an object based on the circularity, the area, and the brightness complexity. By making the determination based on the three features in this manner, a more accurate determination can be made. As a modification, the object detection unit 35 may make the determination based on only one or two of the circularity, the area, and the brightness complexity. Even if the determination is based on only one or two, relatively accurate object detection can be performed by a relatively simple determination process. Furthermore, the object detection unit 35 may make this determination using any index other than the circularity, the area, and the brightness complexity.

次に、物体検出部35は、物体を表すと決定された領域について、位置および距離等を算出する(ステップS33)。たとえば、領域について画像中における位置(たとえば2次元座標によって表される)を求め、求めた位置に基づいて、現実の空間内で物体が配置された位置(たとえば掃除機100を基準とした3次元座標によって表される)を算出する。現実の空間内での物体の位置は、掃除機100と当該物体との位置関係によって表すことができる。位置関係は、たとえば掃除機100からみた当該物体の方向と、当該物体と掃除機100との距離とを用いて表される。また、物体検出部35は、壁と物体との距離を算出してもよい。 Next, the object detection unit 35 calculates the position, distance, and the like of the area determined to represent the object (step S33). For example, a position (for example, represented by two-dimensional coordinates) in the image is obtained for the region, and based on the obtained position, a position where the object is arranged in the actual space (for example, three-dimensional with the cleaner 100 as a reference). (Represented by the coordinates). The position of the object in the real space can be represented by the positional relationship between the cleaner 100 and the object. The positional relationship is expressed using, for example, the direction of the object viewed from the cleaner 100 and the distance between the object and the cleaner 100. The object detection unit 35 may also calculate the distance between the wall and the object.

また、物体検出部35は、図8の処理の結果に基づき、物体の有無、各物体の画像中における位置、および掃除機100と各物体との位置関係を、記憶部38に格納してもよい。さらに、物体検出部35は、壁と各物体との距離を記憶部38に格納してもよい。 In addition, the object detection unit 35 stores the presence or absence of an object, the position of each object in the image, and the positional relationship between the cleaner 100 and each object in the storage unit 38 based on the result of the process of FIG. 8. Good. Further, the object detection unit 35 may store the distance between the wall and each object in the storage unit 38.

このようにして、認識された物体すべてについて、掃除機100との位置関係が特定される。制御部30は、この位置関係に基づき、掃除機100の動作(たとえば走行動作)を制御する。この際の具体的な制御内容は、当業者が適宜設計可能であるが、一例を以下に示す。 In this way, the positional relationship with the cleaner 100 is specified for all the recognized objects. The control unit 30 controls the operation (for example, running operation) of the cleaner 100 based on this positional relationship. The specific control contents at this time can be appropriately designed by those skilled in the art, but one example is shown below.

図9は、図6のステップS6の処理をより詳細に説明するフローチャートである。なお、この例は物体が1つだけ認識された場合の処理である。図9の処理において、まず走行制御部37は、ステップS2の判定結果を参照し、物体が避けるべき物体であるか否かを判定する(ステップS51)。避けるべき物体である場合には、その物体が掃除機100の正面にあるか否か判定する(ステップS52)。避けるべき物体が正面にある場合には、走行制御部37は、その物体を避けるように走行経路を構成し、これに従って掃除機100を走行させる(ステップS53)。走行経路は、たとえば、前進、右回転、左回転および後進を組み合わせて構成することができる。ある物体を避ける走行経路の構成方法は、当業者が適宜設計可能であるが、たとえばまず右回転または左回転によって物体が正面から外れるまで掃除機100の向きを変更し、その後に前進する経路とすることができる。ステップS53の後、走行制御部37は処理を終了してもよいし、ステップS52に処理を戻し、避けるべき物体が正面から外れるまで繰り返し判定を実行してもよい。 FIG. 9 is a flowchart for explaining the process of step S6 of FIG. 6 in more detail. Note that this example is processing when only one object is recognized. In the process of FIG. 9, the traveling control unit 37 first refers to the determination result of step S2 to determine whether or not the object is an object to be avoided (step S51). If it is an object to be avoided, it is determined whether the object is in front of the cleaner 100 (step S52). If the object to be avoided is on the front, the traveling control unit 37 configures the traveling route so as to avoid the object, and causes the cleaner 100 to travel accordingly (step S53). The travel route can be configured by combining forward travel, right rotation, left rotation, and reverse travel, for example. A person skilled in the art can appropriately design how to construct a traveling route that avoids a certain object. For example, by first rotating the cleaner 100 right or left until the object comes out of the front, the direction of the vacuum cleaner 100 is changed, and then the traveling route is advanced. can do. After step S53, the traveling control unit 37 may end the process, or may return the process to step S52 and repeatedly perform the determination until the object to be avoided comes out of the front.

ステップS51において、物体が避けるべき物体でなかった場合には、走行制御部37は、さらにステップS2の判定結果を参照し、物体が向かう物体であるか否かを判定する(ステップS54)。向かうべき物体である場合には、その物体が掃除機100の正面にあるか否か判定する(ステップS55)。向かうべき物体が正面にある場合には、走行制御部37は、その物体に向かうように走行経路を構成し、これに従って掃除機100を走行させる(ステップS56)。走行経路は、たとえば、前進、右回転、左回転および後進を組み合わせて構成することができる。ある物体に向かう走行経路の構成方法は、当業者が適宜設計可能であるが、たとえばそのまま正面に向かって前進する経路とすることができる。ステップS56の後、走行制御部37は処理を終了してもよいし、ステップS55に処理を戻し、向かうべき物体が正面に維持されるよう繰り返し判定を実行してもよい。 When the object is not the object to be avoided in step S51, the traveling control unit 37 further refers to the determination result of step S2 and determines whether or not the object is the object to head (step S54). If the object is the one to be headed, it is determined whether the object is in front of the cleaner 100 (step S55). When the object to be headed is on the front, the traveling control unit 37 configures a traveling path toward the object, and causes the cleaner 100 to travel accordingly (step S56). The travel route can be configured by combining forward travel, right rotation, left rotation, and reverse travel, for example. Although a person skilled in the art can appropriately design a method of forming a traveling route toward a certain object, for example, the traveling route can be a route that advances forward as it is. After step S56, the traveling control unit 37 may end the process, or may return the process to step S55 and repeatedly perform the determination so that the object to be headed is maintained in front.

ステップS52において避けるべき物体が正面にないと判定された場合には、走行制御部37は処理を終了する。また、ステップS54において向かうべき物体ではないと判定された場合にも、走行制御部37は処理を終了する。さらに、ステップS55において向かうべき物体が正面にないと判定された場合には、図9の例では走行制御部37は処理を終了するが、変形例として、その物体に向かうように走行経路を構成し、これに従って掃除機100を走行させてもよい。 When it is determined in step S52 that the object to be avoided is not in front, the traveling control unit 37 ends the process. Also, when it is determined in step S54 that the object is not the one to head for, the traveling control unit 37 ends the process. Further, when it is determined in step S55 that the object to be headed is not in the front, the traveling control unit 37 ends the process in the example of FIG. 9, but as a modification, the traveling route is configured to face the object. However, the cleaner 100 may be run accordingly.

なお、図9は物体が1つだけ認識された場合の処理の例であるが、物体が複数認識された場合(避けるべき物体が複数認識された場合、向かうべき物体が複数認識された場合、避けるべき物体と向かうべき物体とが同時に認識された場合、等)の処理については、図9に関する上記の説明および公知技術等に基づいて当業者が適宜設計可能である。 Note that FIG. 9 is an example of the processing when only one object is recognized, but when a plurality of objects are recognized (when a plurality of objects to be avoided are recognized, when a plurality of objects to be headed are recognized, A person skilled in the art can appropriately design the processing such as (when the object to be avoided and the object to be headed are recognized at the same time) based on the above description with reference to FIG. 9 and known techniques.

このような制御により、掃除機100は、物体の形状に基づいて、掃除する空間に存在する物体に遮られることなく走行することができる一方で、掃除する空間に存在するゴミに向かって積極的に移動し掃除することができ、掃除する空間の掃除性能を高めることができる。 With such control, the cleaner 100 can travel without being blocked by an object existing in the space to be cleaned based on the shape of the object, while being positive toward the dust existing in the space to be cleaned. It can be moved to and cleaned to improve the cleaning performance of the space to be cleaned.

また、特許文献1に記載された技術と比較すると、特許文献1の技術は、障害物の有無および位置を検出するものではあるが、その結果に基づいて装置を走行させるものではなく、また、ケーブルのような障害物の個々の特徴に基づく制御を行うものでもない。実施例1に係る掃除機100は、床に配置されたケーブルなどが走行の障害となる課題や、部屋全体のゴミをしっかり吸引したいというニーズに対して、より良い解決策を提供することができる。 Further, as compared with the technique described in Patent Document 1, the technique of Patent Document 1 detects the presence and position of an obstacle, but does not cause the device to run based on the result, and Nor is it based on the individual characteristics of obstacles such as cables. The vacuum cleaner 100 according to the first embodiment can provide a better solution to a problem in which a cable or the like arranged on the floor interferes with traveling and a need to firmly suck dust in the entire room. ..

さらに、特許文献2に記載された技術と比較すると、本発明の実施例1に係る掃除機100の撮像部12はステレオカメラや距離測定装置等を備える必要はなく、単一のカメラでも本発明の効果を得ることができるので、比較的簡易な構成で物体を認識することが可能である。 Further, as compared with the technique described in Patent Document 2, the image capturing unit 12 of the vacuum cleaner 100 according to the first embodiment of the present invention does not need to include a stereo camera, a distance measuring device, or the like, and a single camera is also used in the present invention. Since the effect of can be obtained, it is possible to recognize an object with a relatively simple configuration.

実施例2.
実施例2は、実施例1の物体種類判定処理(図6のステップS2)の内容を一部変更するものである。以下、実施例1との相違を説明する。
Example 2.
The second embodiment is a partial modification of the content of the object type determination process (step S2 in FIG. 6) of the first embodiment. The difference from the first embodiment will be described below.

図10は、実施例2における物体種類判定処理(ステップS2’とする)の内容を説明するフローチャートである。実施例2における判定処理では、物体種類判定部36は、まず認識された物体の形状に基づいて、物体の重心の高さを求める(ステップS101)。重心の高さは、たとえば画像中における重心の高さである。画像中における重心の高さは、任意の方法で算出することができ、たとえば物体を表す領域を構成する画素の高さ(たとえばY座標値)の平均として算出してもよい。 FIG. 10 is a flowchart illustrating the contents of the object type determination process (referred to as step S2') in the second embodiment. In the determination process according to the second embodiment, the object type determination unit 36 first obtains the height of the center of gravity of the object based on the recognized shape of the object (step S101). The height of the center of gravity is, for example, the height of the center of gravity in the image. The height of the center of gravity in the image can be calculated by any method, and may be calculated, for example, as the average of the heights (for example, Y coordinate values) of the pixels forming the region representing the object.

次に、物体種類判定部36は、画像中における物体の高さを算出する(ステップS102)。物体の高さは、任意の方法で算出することができ、たとえば物体のうち最も高い位置にある画素の高さ位置として算出してもよい。 Next, the object type determination unit 36 calculates the height of the object in the image (step S102). The height of the object can be calculated by any method, and may be calculated, for example, as the height position of the pixel at the highest position in the object.

次に、物体種類判定部36は、物体の高さに基づき、その物体の基準重心高さ(第1の高さ)を算出する(ステップS103)。基準重心高さは、任意の方法で算出することができ、たとえば物体の高さに所定比率(第1の所定比率)を乗じた値として算出してもよい。または、物体の形状に応じて基準となる重心の高さを決定する任意の方法を用いることができる。 Next, the object type determination unit 36 calculates the reference barycentric height (first height) of the object based on the height of the object (step S103). The reference center-of-gravity height can be calculated by any method, and may be calculated, for example, as a value obtained by multiplying the height of the object by a predetermined ratio (first predetermined ratio). Alternatively, it is possible to use any method of determining the height of the center of gravity serving as a reference according to the shape of the object.

次に、物体種類判定部36は、ステップS101で求めた重心の高さと、ステップS103で求めた基準重心高さとを比較する(ステップS104)。重心の高さが基準重心高さ未満である場合には、物体種類判定部36は、当該物体は向かうべき物体であると判定する(ステップS105)。一方、重心の高さが基準重心高さを超える場合には、物体種類判定部36は、当該物体は避けるべき物体であると判定する(ステップS106)。これらが等しい場合の分岐は任意に設計可能である。 Next, the object type determination unit 36 compares the height of the center of gravity obtained in step S101 with the reference height of the center of gravity obtained in step S103 (step S104). When the height of the center of gravity is less than the reference height of the center of gravity, the object type determination unit 36 determines that the object is an object to which the object should be directed (step S105). On the other hand, if the height of the center of gravity exceeds the height of the reference center of gravity, the object type determination unit 36 determines that the object is an object to be avoided (step S106). Branches when they are equal can be designed arbitrarily.

このような判定方法によれば、比較的簡易な判定方法によって比較的正確に物体の種類を判定することができる。 According to such a determination method, the type of the object can be determined relatively accurately by a relatively simple determination method.

上述の実施例2では、「高さ」として画像中における高さを用いたが、変形例として、実空間における高さを用いてもよい。実空間における高さは、たとえば掃除機100(またはその基準部位)の高さとの差分として表されてもよい。その場合の変換規則および重心位置の求め方等は当業者が適宜設計可能であるが、一例を以下に示す。たとえば、物体種類判定部36が、撮像部12によって撮像された画像における高さと、実空間における高さとの対応関係をあらかじめ保持する。物体種類判定部36は、領域の下端の、画像における高さと、当該対応関係とに基づいて、その領域が示す物体の高さを求めてもよい。このようにすると、床に設置された物体または床に落ちている物体について、高さを適切に決定することができる。 Although the height in the image is used as the “height” in the second embodiment described above, the height in the real space may be used as a modified example. The height in the real space may be represented as a difference from the height of the vacuum cleaner 100 (or its reference portion), for example. Those skilled in the art can appropriately design the conversion rule and the method of obtaining the position of the center of gravity in that case, but an example is shown below. For example, the object type determination unit 36 holds in advance the correspondence relationship between the height in the image captured by the image capturing unit 12 and the height in the real space. The object type determination unit 36 may obtain the height of the object indicated by the area based on the height of the lower end of the area in the image and the correspondence. In this way, the height of the object installed on the floor or the object falling on the floor can be appropriately determined.

実施例3.
実施例3は、実施例1の物体種類判定処理(図6のステップS2)の内容を一部変更するものである。以下、実施例1との相違を説明する。
図11は、実施例3における物体種類判定処理を説明する図である。以下、実施例1との相違を説明する。
Example 3.
The third embodiment is a partial modification of the content of the object type determination process (step S2 in FIG. 6) of the first embodiment. The difference from the first embodiment will be described below.
FIG. 11 is a diagram illustrating the object type determination process according to the third embodiment. The difference from the first embodiment will be described below.

実施例3において、物体種類判定部36は、過去に実行された物体種類判定処理の結果を、記憶部38に保持する。図11の例では、過去10回の結果が保持される。判定処理の結果はどのような形式で表されてもよいが、図11の例では、画像を複数の領域に分割し、各領域において、避けるべき物体の専有面積の大きさを表す値が算出されている。 In the third embodiment, the object type determination unit 36 holds the result of the object type determination process executed in the past in the storage unit 38. In the example of FIG. 11, the results of the past 10 times are retained. Although the result of the determination process may be represented in any format, in the example of FIG. 11, the image is divided into a plurality of regions, and a value representing the size of the area occupied by the object to be avoided is calculated in each region. Has been done.

各領域はたとえば矩形のセルであり、縦横それぞれ所定画素数を有する同一形状に区分される。また、専有面積の大きさは、たとえば1〜5の5段階で表され、当該領域の画素のうちその物体に対応する画素が20%未満の場合には1、20%以上40%未満の場合には2、40%以上60%未満の場合には3、60%以上80%未満の場合には4、80%以上の場合には5、というように決定される。 Each area is, for example, a rectangular cell and is divided into the same shape having a predetermined number of pixels in each of the vertical and horizontal directions. In addition, the size of the occupied area is represented by, for example, five levels of 1 to 5, and when the pixel corresponding to the object among the pixels in the region is less than 20%, it is 1, 20% or more and less than 40%. Is 2, 40% or more and less than 60%, 3, 60% or more and less than 80%, 4 or 80% or more, and so on.

図11の例では、画像を複数のセルに分割することによって、複数のセルを含むマトリクス50が生成されている。マトリクス50は、撮像部12によって撮像された画像のマトリクスであり、縦5セル×横10セルに画像を分割することによって生成される。 In the example of FIG. 11, the matrix 50 including a plurality of cells is generated by dividing the image into a plurality of cells. The matrix 50 is a matrix of images captured by the image capturing unit 12, and is generated by dividing the image into vertical 5 cells×horizontal 10 cells.

物体種類判定部36は、各領域について、専有面積の大きさを表す値の過去の結果の多数決をとる。たとえば、ある領域について10回の結果のうち「2」が7回、「1」が3回であれば、多数決の結果としてその領域における避けるべき物体の専有面積の大きさは「2」となる。 The object type determination unit 36 takes a majority vote of past results of the value indicating the size of the occupied area for each region. For example, if “2” is 7 times and “1” is 3 times out of 10 results for a certain area, the size of the area occupied by the object in that area to be avoided is “2” as a result of the majority vote. ..

そして、物体種類判定部36は、多数決の結果に基づいて、領域ごとに避けるべき物体の有無を判定し、これによって避けるべき物体の位置を決定する。たとえば、避けるべき物体の専有面積の大きさが「2」以下である領域については、避けるべき物体は存在しないと判定し、避けるべき物体の専有面積の大きさが「3」以上である領域については、避けるべき物体が存在すると判定する。なお、画像中の領域の位置または座標(たとえば2次元座標)と、その領域が実空間において表す部分の位置または座標(たとえば3次元座標)との対応関係および変換規則は、当業者が公知技術等に基づいて適宜設計可能である。 Then, the object type determination unit 36 determines the presence or absence of the object to be avoided for each area based on the result of the majority decision, and thereby determines the position of the object to be avoided. For example, for an area in which the size of the area occupied by the object to be avoided is "2" or less, it is determined that there is no object to be avoided, and a size of the area occupied by the object to be avoided is "3" or more. Determines that there is an object to be avoided. A person skilled in the art is aware of the correspondence and conversion rule between the position or coordinates (for example, two-dimensional coordinates) of a region in an image and the position or coordinates (for example, three-dimensional coordinates) of a portion that the region represents in the real space. It can be appropriately designed based on the above.

実施例3の変形例として、物体の有無は領域ごとでなく領域の列ごとに決定されてもよい。領域の列は、たとえば画像中において縦に並ぶ領域(たとえばX座標が一致する領域)すべてによって構成される。領域の各列において、その列に含まれる領域の、避けるべき物体の専有面積の大きさを合計し、合計値が所定値(たとえば「7」)以上となる列については避けるべき物体が存在すると判定し、合計値が所定値未満となる列については避けるべき物体が存在しないと判定することができる。たとえば図11の多数決の例では、左から2列目〜4列目の領域列と、右から2列目および3列目の領域列とに物体が存在すると判定される。 As a modification of the third embodiment, the presence/absence of an object may be determined not for each region but for each column of the region. The row of regions is composed of, for example, all regions vertically aligned in the image (for example, regions having the same X coordinate). In each column of the region, the size of the area occupied by the objects to be avoided in the regions included in the column is summed up, and there is an object to be avoided in the column whose total value is equal to or greater than a predetermined value (eg, “7”). It is possible to determine that there is no object that should be avoided for the columns whose total value is less than the predetermined value. For example, in the example of majority vote in FIG. 11, it is determined that an object exists in the second to fourth region columns from the left and the second and third region columns from the right.

実施例3の別の変形例として、各領域について、避けるべき物体の専有面積の大きさを表す値に代えて、またはこれに加えて、その領域に存在する物体の種類を表す値が記録されてもよい。たとえば、各領域について、物体が存在しない場合には「0」、避けるべき物体が存在する場合には「1」、向かうべき物体が存在する場合には「2」、等というように値が記録されてもよい。 As another modification of the third embodiment, a value representing the type of the object existing in the area is recorded instead of or in addition to the value representing the size of the occupied area of the object to be avoided for each area. May be. For example, for each area, the value is recorded as "0" when there is no object, "1" when there is an object to be avoided, "2" when there is an object to be headed, etc. May be done.

実施例3の変形例として、任意の判定ルールを追加してもよい。たとえば、向かうべき物体が存在すると過去に判定されていた領域について、1回以上その領域を掃除機100が通過した後でも依然として向かうべき物体が存在すると判定される場合には、その領域には物体が存在しないと判定するようにしてもよい。このようにすると、不適切な判定を自動的に修正することができる。 As a modified example of the third embodiment, an arbitrary determination rule may be added. For example, when it is determined that there is an object to be headed even after the cleaner 100 has passed through the area once or more in the area where it was previously determined that there is an object to head, an object in that area is present. May be determined not to exist. By doing so, it is possible to automatically correct the inappropriate determination.

このように、画素単位でなく領域単位で物体の有無を判定することにより、記憶容量の要件を緩和することができる。または、限られた記憶容量で多くの過去の処理結果を保持することができる。 In this way, by determining the presence/absence of an object not in units of pixels but in units of regions, the storage capacity requirement can be relaxed. Alternatively, many past processing results can be held with a limited storage capacity.

上述の実施例1〜3において、以下のような変形を施すことができる。
実施例1〜3において、さらに掃除機100と通信可能な外部機器を追加してもよい。この外部機器は、リモコン200とは分離して構成されるモバイル端末であってもよい。モバイル端末は、たとえばスマートフォンまたはタブレット端末等であってもよい。
The following modifications can be made in the first to third embodiments described above.
In the first to third embodiments, an external device that can communicate with the vacuum cleaner 100 may be added. The external device may be a mobile terminal configured separately from the remote controller 200. The mobile terminal may be, for example, a smartphone or a tablet terminal.

図12に、このような変形例において用いられるモバイル端末の構成の例を示す。このモバイル端末は、掃除機100から送信される情報に基づき、フィードバック画面を表示する機能を有する。図12では、掃除機100が向かうべき物体を検出した場合のフィードバック画面300の例が示されている。 FIG. 12 shows an example of the configuration of a mobile terminal used in such a modification. This mobile terminal has a function of displaying a feedback screen based on the information transmitted from the vacuum cleaner 100. FIG. 12 shows an example of the feedback screen 300 when the vacuum cleaner 100 detects an object to be headed.

フィードバック画面300では、部屋の間取り図と、向かうべき物体の検出結果とが、1つの画面内に表示されている。向かうべき物体の位置は、図12の例では間取り図上に「ゴミ」として示される。また、フィードバック画面300には、間取り図上に掃除機100の位置が示される。掃除機100の位置は、図12の例では「掃除機」として示される。さらに、フィードバック画面300には、向かうべき物体(ゴミ等)に対する掃除の進捗度を示すレベルゲージ301が表示されている。レベルゲージ301は向かうべき物体の量を示し、たとえば最大値が100であり、向かうべき物体の量が多いほどレベルゲージの値が上昇する。これにより、掃除機100のユーザは、掃除の進捗状況を一見して把握することができる。また、フィードバック画面300の表示には掃除機の走行データを使用してもよく、たとえば決定された走行経路を間取り図に重畳して表示してもよい。 On the feedback screen 300, the floor plan of the room and the detection result of the object to be headed are displayed in one screen. The position of the object to be headed is indicated as "dust" on the floor plan in the example of FIG. Further, the feedback screen 300 shows the position of the vacuum cleaner 100 on the floor plan. The position of the vacuum cleaner 100 is shown as "vacuum cleaner" in the example of FIG. Further, on the feedback screen 300, a level gauge 301 showing the degree of cleaning progress on an object (dust etc.) to be headed is displayed. The level gauge 301 indicates the amount of the object to be headed, for example, the maximum value is 100, and the value of the level gauge rises as the amount of the object to head increases. Accordingly, the user of the vacuum cleaner 100 can grasp the progress of cleaning at a glance. Further, the travel data of the vacuum cleaner may be used for displaying the feedback screen 300, and for example, the determined travel route may be displayed by being superimposed on the floor plan.

実施例1〜3の掃除機100は、自律走行型掃除機であり、すなわち、自律して掃除が可能な掃除機である。「自律して掃除が可能」という表現の意味は当業者が適宜解釈可能であるが、たとえば、所定の掃除動作単位の開始から終了まで、外部からの制御入力を受けずに動作可能であるということを意味する。このような構成によれば、掃除機の外部に複雑な制御システムを配置する必要がなく、全体の構成が簡素になる。なお、掃除以外の動作(充電、設定変更、等)については、外部からの制御入力を要するものであってもよい。 The vacuum cleaner 100 of Examples 1 to 3 is an autonomous traveling type vacuum cleaner, that is, a vacuum cleaner capable of autonomous cleaning. A person skilled in the art can appropriately interpret the meaning of "the cleaning can be performed autonomously". For example, it is possible to operate from the start to the end of a predetermined cleaning operation unit without receiving an external control input. Means that. With such a configuration, it is not necessary to arrange a complicated control system outside the vacuum cleaner, and the overall configuration is simplified. Note that operations other than cleaning (charging, setting changes, etc.) may require external control input.

実施例1〜3の掃除機100は、単体で制御システムおよび掃除機を備える掃除システムとして構成されているが、制御システム(またはその一部)と掃除機とは分離して設けられてもよい。とくに、掃除機が外部の制御システムと通信しつつ、制御システムから司令を受信して掃除を行うように構成することも可能である。たとえば、掃除機が撮像した画像をインターネット上のサーバに送信し、サーバが物体の認識を行い、結果を掃除機に送信してもよい。とくに、撮像制御部31、人検出部32、壁検出部33、エッジ抽出部34、物体検出部35、物体種類判定部36、走行制御部37および記憶部38のうち少なくとも一部は、掃除機の外部に設けることが可能である。そのような構成では、掃除機は、少なくとも撮像部12と、近赤外線光源部13(存在する場合)とを備え、制御システムと通信する機能と、制御システムからの指示に基づいて走行する機能と、ゴミを吸い込む機能とを有するものとなる。このような構成によれば、掃除機の構成をより簡素なものとすることができる。 The vacuum cleaner 100 according to the first to third embodiments is configured as a cleaning system including a control system and a vacuum cleaner by itself, but the control system (or a part thereof) and the vacuum cleaner may be separately provided. . In particular, the cleaner may be configured to communicate with an external control system and receive commands from the control system to perform cleaning. For example, the image captured by the vacuum cleaner may be transmitted to a server on the Internet, the server may recognize the object, and the result may be transmitted to the vacuum cleaner. In particular, at least a part of the imaging control unit 31, the human detection unit 32, the wall detection unit 33, the edge extraction unit 34, the object detection unit 35, the object type determination unit 36, the traveling control unit 37, and the storage unit 38 is a vacuum cleaner. Can be provided outside of the. In such a configuration, the vacuum cleaner includes at least the imaging unit 12 and the near-infrared light source unit 13 (if present), and has a function of communicating with the control system and a function of traveling based on an instruction from the control system. , And has a function of sucking dust. With such a configuration, the configuration of the vacuum cleaner can be made simpler.

リモコン200は省略してもよい。その場合には、リモコン200の入力機能部(ボタン等)は、掃除機に設けられてもよい。 The remote controller 200 may be omitted. In that case, the input function part (button etc.) of the remote control 200 may be provided in the vacuum cleaner.

実施の形態1〜3では、物体認識部がエッジ抽出部34および物体検出部35を含む。このようにすると物体の適切な認識が可能であるが、物体認識部の構成はこれに限らない。 In the first to third embodiments, the object recognition unit includes the edge extraction unit 34 and the object detection unit 35. In this way, the object can be properly recognized, but the structure of the object recognition unit is not limited to this.

実施の形態1〜3では、検出された物体について種類の判定が行われるが、種類の判定は省略可能である(その場合には物体種類判定部36は不要である)。たとえば、避けるべき物体のみを検出するように構成しておけば、検出された物体は種類に関わらずすべて避けるように走行させることができる。また、避けるべき物体を検出する必要がない場合等には、向かうべき物体のみを検出するように構成しておけば、検出された物体は種類に関わらずすべて向かうように走行させることができる。 In the first to third embodiments, the type of the detected object is determined, but the type determination can be omitted (in that case, the object type determination unit 36 is unnecessary). For example, if it is configured to detect only the objects to be avoided, it is possible to cause the detected objects to run regardless of their types. Further, when it is not necessary to detect an object to be avoided, if only the object to be headed is detected, all the detected objects can be made to travel regardless of the type.

実施の形態1〜3におけるステップS3〜S5は任意に省略可能である。いずれかが省略される場合には、走行制御部37は、省略されたステップにおける検出結果を用いずに掃除機100の走行を制御する。 Steps S3 to S5 in the first to third embodiments can be arbitrarily omitted. When either of them is omitted, the traveling control unit 37 controls the traveling of the cleaner 100 without using the detection result in the omitted step.

実施例1〜3では、掃除機100の走行経路は、認識された物体のみに基づいて決定されるが、変形例として、さらに他の要因を参照して走行経路を決定してもよい。たとえば、室内のコーナ、間仕切り、人(または人の足元)、等の位置を参照してもよい。 In the first to third embodiments, the traveling route of the cleaner 100 is determined based on only the recognized object, but as a modified example, the traveling route may be determined with reference to other factors. For example, the position of a corner, partition, person (or person's foot), etc. in a room may be referred to.

実施例1〜3において、物体の面積として、物体を表す領域の、画像中における面積が用いられるが(ステップS28等)、変形例として、その領域に対応する物体の、実空間における投影面積を用いてもよい。その場合には、物体検出部35は、領域の実空間における投影面積を算出するために、掃除機100から物体までの距離を算出するための適切な処理を実行してもよい。 In Examples 1 to 3, the area of the region representing the object in the image is used as the area of the object (step S28 and the like), but as a modification, the projected area of the object corresponding to the region in the real space is used. You may use. In that case, the object detection unit 35 may execute appropriate processing for calculating the distance from the cleaner 100 to the object in order to calculate the projected area of the region in the real space.

この処理の一例を以下に示す。物体検出部35は、ある領域が示す物体の高さと、その領域の画像中における面積と、実空間における物体の投影面積との対応関係をあらかじめ保持しておき、この対応関係を参照し、その物体と他の基準構造物(たとえば壁)との距離とに基づいて、実空間における物体の投影面積を求めてもよい。 An example of this processing is shown below. The object detection unit 35 holds in advance the correspondence relationship between the height of the object indicated by a certain area, the area of the area in the image, and the projected area of the object in the real space. The projected area of the object in the real space may be obtained based on the distance between the object and another reference structure (for example, a wall).

なお、物体検出部35は、物体を表す領域であると決定された各領域について、その領域の位置、掃除機100から見た方向、その領域が示す物体の高さ、および、その領域が示す物体と掃除機100との距離を、記憶部38に格納してもよい。 Note that the object detection unit 35 indicates, for each area determined to be an area representing an object, the position of the area, the direction viewed from the cleaner 100, the height of the object represented by the area, and the area. The distance between the object and the vacuum cleaner 100 may be stored in the storage unit 38.

実施例1〜3では、撮像制御部31が、近赤外線光源部13の出力を、撮像部12が画像を撮像する間隔に合わせて、点灯および消灯させる。そのタイミングは任意に設計可能である。また、変形例として、撮像制御部31の制御内容は任意に設計可能である。たとえば、近赤外線光源部13は常に点灯していてもよい。また、撮像部12は、左右方向の回動に代えて、またはこれに加えて、上下方向に回動し、各方向の撮像を行ってもよい。また、撮像部12が広い範囲を撮像できるカメラを有する場合には、撮像部12は回動せず、単一方向の広角な範囲を撮像してもよい(その場合には図7の処理においてループ構造は不要である)。 In Examples 1 to 3, the imaging control unit 31 turns on and off the output of the near infrared light source unit 13 according to the interval at which the imaging unit 12 captures an image. The timing can be designed arbitrarily. In addition, as a modification, the control content of the imaging control unit 31 can be arbitrarily designed. For example, the near infrared light source unit 13 may always be on. Further, the imaging unit 12 may rotate in the vertical direction instead of or in addition to the rotation in the horizontal direction to perform imaging in each direction. Further, when the image capturing unit 12 has a camera capable of capturing a wide range, the image capturing unit 12 may not rotate and may capture a wide angle range in a single direction (in that case, in the process of FIG. Loop structure is unnecessary).

実施例1〜3において、近赤外線光源部13は、約850nm付近に波長のピークを持つ近赤外線を照射する。近赤外線の反射光を撮像した画像は、反射光の方向が撮像部12の方向に一致するほど白く(明るく、または輝度が強く)、撮像部12の方向から隔たるほど黒く(暗く、または輝度が弱く)なる。 In Examples 1 to 3, the near-infrared light source unit 13 emits near-infrared light having a wavelength peak around 850 nm. The image of the reflected light of the near-infrared light is whiter (brighter or stronger in intensity) as the direction of the reflected light matches the direction of the image capturing unit 12, and darker (darker or brighter) in the direction away from the image capturing unit 12. Becomes weaker).

一般に、木、布、金属、および紙等は、表面が粗く、近赤外線はその表面で拡散反射する。撮像部12が、拡散して反射した近赤外線のうち撮像部12の方向に反射した近赤外線を撮像することで、物体認識部は、反射する物体が反射した方向に存在することを検出することができる。 Generally, wood, cloth, metal, paper and the like have a rough surface, and near infrared rays are diffusely reflected on the surface. The object recognition unit detects that the reflecting object exists in the reflecting direction by the imaging unit 12 imaging the near-infrared reflected in the direction of the imaging unit 12 among the diffused and reflected near-infrared rays. You can

このため、近赤外線の反射光を撮像した画像を用いることにより、物体認識部において、一般に室内に存在する物体の材質と、床、壁またはその他の物体の材質との相違を考慮した判定を行わせることができる。そして、物体等の物体の形状を、壁または床等の背景とは明確に識別できる画像を取得でき、立体的な物体の形状を明確に映す画像を取得することができる。 Therefore, by using an image obtained by capturing the reflected light of near infrared rays, the object recognition unit makes a determination in consideration of the difference between the material of the object generally existing in the room and the material of the floor, wall, or other object. Can be made. Then, an image that can clearly identify the shape of an object such as an object from a background such as a wall or a floor can be acquired, and an image that clearly reflects the shape of a three-dimensional object can be acquired.

撮像部12が上述のように850nm近傍の近赤外線を撮像した場合、画像には撮像された物体の色彩および模様が映されにくく、物体の形状だけが映されやすい。これは、近赤外線は、物体の材質および角度等により反射光が変化するものであり、色彩および模様等によっては反射光が変化しないためである。このため、物体の形状をより的確に認識できる可能性がある。 When the image capturing unit 12 captures near-infrared rays in the vicinity of 850 nm as described above, it is difficult for the image to capture the color and pattern of the captured object, and only the shape of the object is likely to be captured. This is because the reflected light of near infrared rays changes depending on the material and angle of the object, and the reflected light does not change depending on colors and patterns. Therefore, there is a possibility that the shape of the object can be recognized more accurately.

なお、約850nm付近にピークを持つ近赤外線を近赤外線光源部13が照射する場合、その照射スペクトルには可視光も一部含まれるように構成することができる。このようにすると、近赤外線光源部13が点灯している場合に、室内の人が掃除機100を見ると、近赤外線光源部13が赤く点灯しているように見える。このため、近赤外線光源部13を設置した場合、近赤外線が点灯中であるか否かを表示する表示部が不要となるため、コストを低減することが可能となる。また、近赤外線画像には色彩が現れないため、画像を表すのに必要とされる情報量が低減される。また、色彩が現れないので、画像中のノイズが低減され、物体を検出する際の精度が向上する。 When the near-infrared light source unit 13 irradiates the near-infrared light source having a peak around 850 nm, the irradiation spectrum can be configured to include a part of visible light. With this configuration, when the near-infrared light source unit 13 is turned on, when a person in the room looks at the cleaner 100, the near-infrared light source unit 13 appears to be turned on in red. Therefore, when the near-infrared light source unit 13 is installed, a display unit for displaying whether or not the near-infrared light is being turned on is unnecessary, and thus cost can be reduced. In addition, since no color appears in the near infrared image, the amount of information required to represent the image is reduced. Further, since the color does not appear, noise in the image is reduced, and accuracy in detecting an object is improved.

また、実施例1〜3では、近赤外線光源部13が点灯することにより反射光を用いて物体の立体的形状を正確に把握することが可能であるが、そのような利点がとくに有用でない場合には、近赤外線光源部13を省略してもよい。 In addition, in Examples 1 to 3, it is possible to accurately grasp the three-dimensional shape of the object by using the reflected light by turning on the near infrared light source unit 13, but when such an advantage is not particularly useful. Alternatively, the near infrared light source unit 13 may be omitted.

実施例1〜3では、撮像部12は可視光および近赤外線を用いた撮像が可能である。変形例として、これらのうち一方のみを用いてもよいし、これらに代えて、またはこれらに加えて、他の波長を用いて撮像を行ってもよい。 In Examples 1 to 3, the image capturing unit 12 can capture images using visible light and near infrared rays. As a modified example, only one of these may be used, or instead of these or in addition to these, imaging may be performed using another wavelength.

実施例1〜3の掃除機100は、主に掃除を行うための装置であるが、変形例として、空気清浄や見守り機能等、その他の機能を備えてもよい。 The vacuum cleaner 100 of the first to third embodiments is a device mainly for cleaning, but as a modified example, it may have other functions such as an air cleaning function and a watching function.

なお、本発明の範囲は上記した実施例および変形例に限定されるものではなく、他の様々な変形例を含む。たとえば、上記した実施例および変形例は本発明を分かりやすく説明するために詳細に説明したものであり、本発明は説明した全ての構成を備えるものに限定されるものではない。 The scope of the present invention is not limited to the above-described embodiments and modified examples, and includes various other modified examples. For example, the above-described embodiments and modified examples have been described in detail in order to explain the present invention in an easy-to-understand manner, and the present invention is not limited to those having all the configurations described.

また、ある実施例または変形例の構成の一部を、他の実施例または変形例の構成の一部に置き換えることが可能であり、また、ある実施例または変形例の構成に、他の実施例または変形例の構成の一部を加えることも可能である。また、各実施例または変形例の構成の一部について、他の実施例または変形例の構成の一部を追加、削除または置換することが可能である。 Further, it is possible to replace a part of the configuration of a certain embodiment or a modified example with a part of the configuration of another example or a modified example. It is also possible to add a part of the configuration of the example or the modified example. Further, it is possible to add, delete or replace a part of the configuration of each embodiment or the modification with a part of the configuration of the other embodiment or the modification.

また、上記の各構成、機能、処理部、処理手順等は、それらの一部または全部を、たとえば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することにより、ソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、またはファイル等の情報は、メモリ、ハードディスク若しくはSSD(Solid State Drive)等の記録装置、または、ICカード、SDカード若しくはDVD等の記録媒体に置くことができる。 Further, each of the above-described configurations, functions, processing units, processing procedures, and the like may be realized by hardware by designing a part or all of them with, for example, an integrated circuit. Further, each of the above-described configurations, functions, and the like may be realized by software by a processor interpreting and executing a program that realizes each function. Information such as a program, a table, or a file that realizes each function can be placed in a recording device such as a memory, a hard disk or an SSD (Solid State Drive), or a recording medium such as an IC card, an SD card or a DVD.

また、制御線または情報線の構成は任意に設計可能である。 Further, the configuration of the control line or the information line can be designed arbitrarily.

10 センサ部(11 リモコン受信部、12 撮像部、13 近赤外線光源部、14 光透過部材)、20 モニター、30 制御部(31 撮像制御部、32 人検出部、33 壁検出部、34 エッジ抽出部、35 物体検出部、36 物体種類判定部、37 走行制御部、38 記憶部)、40 前面パネル、50 マトリクス、100 掃除機、200 リモコン、201 ボタン、300 フィードバック画面、301 レベルゲージ。 10 sensor section (11 remote control receiving section, 12 imaging section, 13 near infrared light source section, 14 light transmitting member), 20 monitor, 30 control section (31 imaging control section, 32 person detecting section, 33 wall detecting section, 34 edge extraction Section, 35 object detection section, 36 object type determination section, 37 running control section, 38 storage section), 40 front panel, 50 matrix, 100 vacuum cleaner, 200 remote controller, 201 button, 300 feedback screen, 301 level gauge.

Claims (11)

掃除機の制御システムであって、
前記掃除機に搭載され、前記掃除機の周辺の画像を撮像する撮像部と、
前記画像において表されるエッジを抽出するエッジ抽出部と、
抽出された前記エッジに囲まれた領域を抽出し、抽出された前記領域に基づいて物体を検出する物体検出部と、
検出された前記物体の位置に基づいて、掃除機の走行を制御する走行制御部と、
を有する、制御システム。
A control system for a vacuum cleaner,
An image pickup unit mounted on the vacuum cleaner and configured to pick up an image of the vicinity of the vacuum cleaner,
An edge extractor for extracting edges represented in the image,
An object detection unit that extracts a region surrounded by the extracted edges, and detects an object based on the extracted region,
Based on the detected position of the object, a traveling control unit that controls traveling of the cleaner,
A control system.
請求項1に記載の制御システムであって、
前記撮像部は、近赤外線に基づいて前記画像を撮像する、制御システム。
The control system according to claim 1, wherein
The control system, wherein the imaging unit captures the image based on near infrared rays.
請求項1または2に記載の制御システムであって、
前記掃除機に搭載され、近赤外線を照射する近赤外線光源部と、
前記近赤外線光源部の動作を制御する光源制御部と
をさらに備え、
前記光源制御部は、前記近赤外線光源部の向き、高さまたは出力を調整する、
制御システム。
The control system according to claim 1 or 2, wherein
A near-infrared light source unit that is mounted on the vacuum cleaner and emits near-infrared rays,
Further comprising a light source control unit for controlling the operation of the near infrared light source unit,
The light source control unit adjusts the orientation, height or output of the near infrared light source unit,
Control system.
請求項3に記載の制御システムであって、前記光源制御部は、前記近赤外線光源部の出力を、前記画像を撮像する間隔に合わせて点灯および消灯させる、制御システム。 The control system according to claim 3, wherein the light source control unit turns on and off the output of the near-infrared light source unit in accordance with an interval at which the image is captured. 請求項1〜4のいずれか一項に記載の制御システムであって、
物体の種類を判定する物体種類判定部をさらに有し、
前記物体種類判定部は、
検出された前記物体の形状に基づいて、当該物体の重心の高さを求め、
前記重心の高さと、当該物体の画像中の高さに第1の所定比率を乗じた第1の高さとを比較し、
前記重心の高さが前記第1の高さ未満である場合、前記物体は前記掃除機が向かうべき物体であると判定し、
前記重心の高さが前記第1の高さを超える場合、前記物体は前記掃除機が避けるべき物体であると判定する、
制御システム。
The control system according to any one of claims 1 to 4,
It further has an object type determination unit for determining the type of object,
The object type determination unit,
Based on the detected shape of the object, find the height of the center of gravity of the object,
Comparing the height of the center of gravity and the first height obtained by multiplying the height in the image of the object by a first predetermined ratio,
When the height of the center of gravity is less than the first height, it is determined that the object is an object to which the cleaner should head,
If the height of the center of gravity exceeds the first height, the object is determined to be an object that the cleaner should avoid.
Control system.
請求項1に記載の制御システムであって、
前記物体検出部は、
抽出された前記領域の輝度複雑度を算出し、
算出された前記輝度複雑度が所定の範囲内に含まれるか否かに基づいて、当該領域が物体を表すか否かを判定する、
制御システム。
The control system according to claim 1, wherein
The object detection unit,
Calculating the brightness complexity of the extracted region,
Based on whether or not the calculated brightness complexity is included in a predetermined range, it is determined whether or not the region represents an object,
Control system.
請求項1または6に記載の制御システムであって、
前記物体検出部は、
抽出された前記領域の円形度を算出し、
算出された前記円形度が所定の範囲内に含まれるか否かに基づいて、当該領域が物体を表すか否かを判定する、
制御システム。
The control system according to claim 1 or 6, wherein
The object detection unit,
Calculate the circularity of the extracted region,
Based on whether or not the calculated circularity is included in a predetermined range, it is determined whether or not the region represents an object,
Control system.
請求項1〜7のいずれか一項に記載の制御システムであって、
前記物体検出部は、
抽出された前記領域の面積を算出し、
算出された前記面積が所定の範囲内に含まれるか否かに基づいて、当該領域が物体を表すか否かを判定する、
制御システム。
The control system according to any one of claims 1 to 7,
The object detection unit,
Calculate the area of the extracted region,
Based on whether or not the calculated area is included in a predetermined range, it is determined whether or not the region represents an object,
Control system.
請求項1〜8のいずれか一項に記載の制御システムを搭載した自律走行型掃除機。 An autonomous traveling vacuum cleaner equipped with the control system according to claim 1. 請求項1〜8のいずれか一項に記載の制御システムと、
ゴミを吸い込む掃除機と、
を備える、掃除システム。
A control system according to any one of claims 1 to 8,
A vacuum cleaner that sucks in trash,
A cleaning system.
掃除機の制御方法であって、
前記掃除機の周辺の画像を撮像するステップと、
前記画像において表されるエッジを抽出するステップと、
抽出された前記エッジに囲まれた領域を抽出し、抽出された前記領域に基づいて物体を検出するステップと、
検出された前記物体の位置に基づいて、前記掃除機の走行を制御するステップと、
を有する、制御方法。
A method of controlling a vacuum cleaner,
Capturing an image of the area around the vacuum cleaner,
Extracting the edges represented in the image,
Extracting a region surrounded by the extracted edge, and detecting an object based on the extracted region,
Controlling the travel of the vacuum cleaner based on the detected position of the object;
And a control method.
JP2018224600A 2018-11-30 2018-11-30 Vacuum cleaner control system, autonomous vacuum cleaner, cleaning system, and vacuum cleaner control method Active JP7173846B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018224600A JP7173846B2 (en) 2018-11-30 2018-11-30 Vacuum cleaner control system, autonomous vacuum cleaner, cleaning system, and vacuum cleaner control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018224600A JP7173846B2 (en) 2018-11-30 2018-11-30 Vacuum cleaner control system, autonomous vacuum cleaner, cleaning system, and vacuum cleaner control method

Publications (2)

Publication Number Publication Date
JP2020087240A true JP2020087240A (en) 2020-06-04
JP7173846B2 JP7173846B2 (en) 2022-11-16

Family

ID=70908446

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018224600A Active JP7173846B2 (en) 2018-11-30 2018-11-30 Vacuum cleaner control system, autonomous vacuum cleaner, cleaning system, and vacuum cleaner control method

Country Status (1)

Country Link
JP (1) JP7173846B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112386177A (en) * 2020-11-04 2021-02-23 深圳市云视机器人有限公司 Cleaning device motion control method, storage medium and cleaning device
CN113786134A (en) * 2021-09-27 2021-12-14 汤恩智能科技(上海)有限公司 Cleaning method, program product, readable medium and electronic device
CN114913223A (en) * 2021-02-09 2022-08-16 北京盈迪曼德科技有限公司 Positive direction identification method and system of visual sweeper

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006047067A (en) * 2004-08-03 2006-02-16 Funai Electric Co Ltd Human body detecting device and human body detecting method
WO2014196272A1 (en) * 2013-06-03 2014-12-11 Sako Yoichiro Vacuum cleaner
JP2015181062A (en) * 2010-12-30 2015-10-15 アイロボット コーポレイション coverage robot navigation
JP2016061457A (en) * 2014-09-16 2016-04-25 日立アプライアンス株式会社 Air conditioner

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006047067A (en) * 2004-08-03 2006-02-16 Funai Electric Co Ltd Human body detecting device and human body detecting method
JP2015181062A (en) * 2010-12-30 2015-10-15 アイロボット コーポレイション coverage robot navigation
WO2014196272A1 (en) * 2013-06-03 2014-12-11 Sako Yoichiro Vacuum cleaner
JP2016061457A (en) * 2014-09-16 2016-04-25 日立アプライアンス株式会社 Air conditioner

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112386177A (en) * 2020-11-04 2021-02-23 深圳市云视机器人有限公司 Cleaning device motion control method, storage medium and cleaning device
CN114913223A (en) * 2021-02-09 2022-08-16 北京盈迪曼德科技有限公司 Positive direction identification method and system of visual sweeper
CN113786134A (en) * 2021-09-27 2021-12-14 汤恩智能科技(上海)有限公司 Cleaning method, program product, readable medium and electronic device
CN113786134B (en) * 2021-09-27 2023-02-03 汤恩智能科技(上海)有限公司 Cleaning method, program product, readable medium and electronic device

Also Published As

Publication number Publication date
JP7173846B2 (en) 2022-11-16

Similar Documents

Publication Publication Date Title
US11042760B2 (en) Mobile robot, control method and control system thereof
US11467603B2 (en) Moving robot and control method thereof
US9629514B2 (en) Traveling cleaning appliance and method for operating such an appliance
US10545497B1 (en) Control method and device for mobile robot, mobile robot
RU2620236C1 (en) Automated cleaning system, cleaning robot and method for cleaning robot control
CN106983449B (en) Mapping with area division
CN112739244A (en) Mobile robot cleaning system
JP7173846B2 (en) Vacuum cleaner control system, autonomous vacuum cleaner, cleaning system, and vacuum cleaner control method
EP3308911A1 (en) Mobile robot and method of controlling same
US11759075B2 (en) Cleaner and control method thereof
EP3432107A1 (en) Cleaning robot and controlling method thereof
EP2623010A2 (en) Robot cleaner
EP2677386A1 (en) Robot cleaner and obstacle detection control method of the same
US12059115B2 (en) Cleaner and method for controlling same
US20220257075A1 (en) Moving robot and method of controlling the same
CN113703439A (en) Autonomous mobile device control method, device, equipment and readable storage medium
JP7346912B2 (en) Cleaning support device, cleaning support system, vacuum cleaner, and cleaning support method
WO2022135556A1 (en) Cleaning robot and cleaning control method therefor
KR102397035B1 (en) Use of augmented reality to exchange spatial information with robotic vacuums
KR102711192B1 (en) A moving robot and an controlling method for the same
KR20210122921A (en) Robot cleaner and Controlling method for the same
US20240335083A1 (en) Mobile terminal and system
JP7417944B2 (en) Autonomous vacuum cleaner, autonomous vacuum cleaner control method, and program
KR102711193B1 (en) A moving robot and an controlling method for the same
JP2022165192A (en) Area recognition system, moving object and area recognition device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210623

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220805

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221104

R150 Certificate of patent or registration of utility model

Ref document number: 7173846

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150