JP2014048842A - Autonomous mobile device - Google Patents

Autonomous mobile device Download PDF

Info

Publication number
JP2014048842A
JP2014048842A JP2012190528A JP2012190528A JP2014048842A JP 2014048842 A JP2014048842 A JP 2014048842A JP 2012190528 A JP2012190528 A JP 2012190528A JP 2012190528 A JP2012190528 A JP 2012190528A JP 2014048842 A JP2014048842 A JP 2014048842A
Authority
JP
Japan
Prior art keywords
unit
mobile device
light source
autonomous mobile
imaging unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012190528A
Other languages
Japanese (ja)
Inventor
Mitsuyoshi Watanabe
光由 渡邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2012190528A priority Critical patent/JP2014048842A/en
Publication of JP2014048842A publication Critical patent/JP2014048842A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors

Abstract

PROBLEM TO BE SOLVED: To provide an autonomous mobile device capable of setting an appropriate travel route by highly accurately grasping a relative positional relationship with a target object.SOLUTION: A cleaning device 10 includes: a light source unit 18 which radiates a plurality of light beams 36 on a target object 34 to be projected as a plurality of horizontal lines on the target object 34; an image capturing unit 20 which is located at a position with a predetermined distance s from the light source unit 18 in a vertical direction to capture an image of the plurality of lines projected on the target object 34; and a travel route determination unit 60 which determines a travel route of the cleaning device 10 on the basis of a position on an image sensor 52 of the image capturing unit 20 at which an image of each of the plurality of lines captured by the image capturing unit 20 is formed using a predefined relationship. Thus, a relative positional relationship with the target object 34 is accurately grasped in a practical mode by using an image of the plurality of lines projected on the target object 34 as needed.

Description

本発明は、自機で移動経路を決定して移動を行う自律移動型機器に関し、特に、対象物との相対位置関係を高精度で把握して好適な経路設定を行うための改良に関する。   The present invention relates to an autonomous mobile device that moves by determining a movement route by itself, and particularly relates to an improvement for grasping a relative positional relationship with an object with high accuracy and setting a suitable route.

近年、所定の領域内を移動しつつその領域における塵埃等を収集する所謂掃除ロボットが実用化され、普及が進んでいる。斯かる掃除ロボットには、自機で移動経路を決定して移動を行う自律移動型機器が好適に組み込まれる。例えば、特許文献1に記載された自走式機器がそれである。この技術によれば、赤外線やレーザ光等の反射を利用して前記領域内における障害物と機器本体との相対距離を計測し、その障害物の形状及び機器本体と障害物との相対角度を算出して、その機器本体を前記障害物と平行な方向に合わせるようにすることで、前記領域内における障害物を回避して、前記自走式機器による前記領域内の好適な巡回等を実現できるとされている。   In recent years, so-called cleaning robots that collect dust and the like in a predetermined area while moving in a predetermined area have been put into practical use and are becoming popular. Such a cleaning robot is preferably incorporated with an autonomous mobile device that moves by determining its movement path by itself. For example, it is a self-propelled device described in Patent Document 1. According to this technique, the relative distance between the obstacle and the device main body in the region is measured using reflection of infrared light or laser light, and the shape of the obstacle and the relative angle between the device main body and the obstacle are determined. By calculating and aligning the device main body in a direction parallel to the obstacle, the obstacle in the region is avoided, and a suitable patrol in the region by the self-propelled device is realized. It is supposed to be possible.

特開2009−26161号公報JP 2009-26161 A

しかし、前述したような従来の技術では、前記領域内における対象物との距離を必ずしも精度良く測定できないという問題があった。すなわち、例えばよく知られた三角法等により距離測定を行う際、対象物により反射された赤外線等の撮像素子上での結像位置の推定誤差がそのまま距離測定の精度に影響し、測定距離が遠いほどその影響は大きくなる。斯かる誤差が発生した場合、前記自律移動型機器が障害物にぶつかったり、好適な移動経路を決定できない等の不具合が生じるおそれがある。すなわち、対象物との相対位置関係を高精度で把握して好適な経路設定を行う自律移動型機器は、未だ開発されていないのが現状である。   However, the conventional technique as described above has a problem that the distance from the object in the region cannot always be measured with high accuracy. That is, for example, when distance measurement is performed by a well-known trigonometry, the estimation error of the imaging position on the image sensor such as infrared rays reflected by the object directly affects the accuracy of distance measurement, and the measurement distance is The farther away, the greater the effect. When such an error occurs, there is a risk that the autonomous mobile device may hit an obstacle or fail to determine a suitable movement route. That is, the present situation is that an autonomous mobile device that grasps a relative positional relationship with an object with high accuracy and sets a suitable route has not been developed yet.

本発明は、以上の事情を背景として為されたものであり、その目的とするところは、対象物との相対位置関係を高精度で把握して好適な経路設定を行う自律移動型機器を提供することにある。   The present invention has been made against the background of the above circumstances, and the object of the present invention is to provide an autonomous mobile device that can accurately determine the relative positional relationship with an object and set a suitable route. There is to do.

斯かる目的を達成するために、本発明の要旨とするところは、自機で移動経路を決定して移動を行う自律移動型機器であって、対象物においてそれぞれ水平方向のラインとして投影される複数の光束をその対象物に対して照射する光源部と、その光源部との垂直方向の距離が規定値である位置に配置され、前記対象物に投影された前記複数のラインを撮影する撮像部と、予め定められた関係から、前記撮像部により撮影された前記複数のラインがその撮像部における撮像面に結像する位置に基づいて、前記自律移動型機器の移動経路を決定する移動経路決定部とを、備えたことを特徴とするものである。   In order to achieve such an object, the gist of the present invention is an autonomous mobile device that moves by determining a movement route by itself and is projected as a horizontal line on the object. A light source unit that irradiates the object with a plurality of light beams, and an image that is arranged at a position where the distance in the vertical direction between the light source unit and the light source unit is a prescribed value, and images the plurality of lines projected onto the object And a movement path for determining a movement path of the autonomous mobile device based on positions where the plurality of lines photographed by the imaging unit form an image on an imaging surface in the imaging unit based on a predetermined relationship The determination unit is provided.

このようにすれば、対象物においてそれぞれ水平方向のラインとして投影される複数の光束をその対象物に対して照射する光源部と、その光源部との垂直方向の距離が規定値である位置に配置され、前記対象物に投影された前記複数のラインを撮影する撮像部と、予め定められた関係から、前記撮像部により撮影された前記複数のラインがその撮像部における撮像面に結像する位置に基づいて、前記自律移動型機器の移動経路を決定する移動経路決定部とを、備えたものであることから、前記対象物に投影された複数のラインの撮像を適宜用いることで、その対象物との相対位置関係を実用的な態様で精度良く把握することができる。すなわち、対象物との相対位置関係を高精度で把握して好適な経路設定を行う自律移動型機器を提供することができる。   In this way, the vertical distance between the light source unit that irradiates the target object with a plurality of light beams projected as horizontal lines on the target object and the light source unit at a predetermined value. An imaging unit that is arranged and images the plurality of lines projected onto the object, and the plurality of lines captured by the imaging unit forms an image on an imaging surface of the imaging unit based on a predetermined relationship. Since a movement path determination unit that determines the movement path of the autonomous mobile device based on the position is provided, by appropriately using imaging of a plurality of lines projected on the object, It is possible to accurately grasp the relative positional relationship with the object in a practical manner. That is, it is possible to provide an autonomous mobile device that grasps the relative positional relationship with an object with high accuracy and sets a suitable route.

ここで、好適には、前記複数の光束のうち1つの光束の照射方向を基準方向として、その光束と隣接する照射方向に照射される光束のその照射方向と前記基準方向との角度βは、前記光源部と前記撮像部との距離をs、前記自律移動型機器により検出し得る前記対象物との相対距離をL1以上L2以下の範囲内として、次の(1)式を満たすものである。このようにすれば、前記対象物に投影された複数のラインの撮像を適宜用いて、その対象物との相対距離を実用的な態様で精度良く算出することができる。   Here, preferably, with the irradiation direction of one of the plurality of light beams as a reference direction, an angle β between the irradiation direction of the light beam irradiated in the irradiation direction adjacent to the light beam and the reference direction is: The following equation (1) is satisfied, assuming that the distance between the light source unit and the imaging unit is s, and the relative distance from the object that can be detected by the autonomous mobile device is within a range from L1 to L2. . In this way, it is possible to accurately calculate the relative distance from the object in a practical manner by appropriately using imaging of a plurality of lines projected onto the object.

β>tan-1(s/L1)−tan-1(s/L2) ・・・(1) β> tan −1 (s / L1) −tan −1 (s / L2) (1)

また、好適には、前記複数の光束のうち1つの光束の照射方向を基準方向として、その光束と隣接する照射方向に照射される光束のその照射方向と前記基準方向との角度βは、前記撮像部の垂直方向の画角をθ、前記ラインの本数をnとして、次の(2)式を満たすものである。このようにすれば、前記対象物に投影された複数のラインの撮像を適宜用いて、その対象物との相対距離を実用的な態様で精度良く算出することができる。   Preferably, an angle β between the irradiation direction of the light beam irradiated in the irradiation direction adjacent to the light beam and the reference direction is set with the irradiation direction of one light beam among the plurality of light beams as a reference direction, When the angle of view in the vertical direction of the imaging unit is θ and the number of lines is n, the following equation (2) is satisfied. In this way, it is possible to accurately calculate the relative distance from the object in a practical manner by appropriately using imaging of a plurality of lines projected onto the object.

β<θ/(n−1) ・・・(2)   β <θ / (n−1) (2)

また、好適には、前記撮像部により撮影された前記複数のラインに基づいて、前記複数の光束にそれぞれ対応する前記対象物との相対距離を算出する距離算出部を備えたものである。このようにすれば、前記対象物に投影された複数のラインの撮像を用いて、その対象物との相対距離を具体的な数値として算出することができる。   Preferably, the apparatus further includes a distance calculation unit that calculates a relative distance from the object corresponding to each of the plurality of light fluxes based on the plurality of lines photographed by the imaging unit. In this way, using the imaging of a plurality of lines projected onto the object, the relative distance to the object can be calculated as a specific numerical value.

また、好適には、前記撮像部により撮影された前記複数のラインのうち少なくとも1つのラインが前記撮像部における撮像面に結像する位置に基づいて、前記自律移動型機器が移動する領域の地図情報の作成を行うものである。このようにすれば、前記対象物に投影された複数のラインの撮像を適宜用いて、前記領域の地図情報(マップ)を作成することができる。   Preferably, a map of a region in which the autonomous mobile device moves based on a position where at least one line of the plurality of lines photographed by the imaging unit forms an image on an imaging surface of the imaging unit. It creates information. If it does in this way, the map information (map) of the said area | region can be created using the imaging of the several line projected on the said target object suitably.

また、好適には、前記撮像部により撮影された前記複数のラインのうち少なくとも1つのラインが前記撮像部における撮像面に結像する位置に基づいて、前記自律移動型機器が移動する領域内における障害物の検出を行うものである。このようにすれば、前記対象物に投影された複数のラインの撮像を適宜用いて、前記領域内における障害物の存在を把握することができる。   Preferably, in the region where the autonomous mobile device moves based on a position where at least one line of the plurality of lines photographed by the imaging unit forms an image on the imaging surface of the imaging unit. The obstacle is detected. In this way, it is possible to grasp the presence of an obstacle in the region by appropriately using imaging of a plurality of lines projected on the object.

また、好適には、前記領域内における障害物の検出に用いられる光束に対応するラインが前記撮像部における撮像面に結像する位置が、予め定められた規定位置よりも一部でも前記光源部とは反対側となった場合には、前記障害物を検出したと判定するものである。このようにすれば、前記対象物に投影された複数のラインの撮像を適宜用いて、前記領域内における障害物の存在を好適且つ実用的な態様で把握することができる。   Preferably, the light source unit has a position where a line corresponding to a light beam used for detection of an obstacle in the region forms an image on the imaging surface of the imaging unit at a part of a predetermined position. If it is on the opposite side, it is determined that the obstacle has been detected. In this way, the presence of an obstacle in the region can be grasped in a suitable and practical manner by appropriately using imaging of a plurality of lines projected on the object.

また、好適には、前記撮像面における、前記領域内における障害物の検出に用いられる光束に対応するラインが結像する位置の変化速度が、予め定められた閾値よりも大きい場合には、前記障害物が移動体であると判定して回避移動を行うものである。このようにすれば、前記対象物に投影された複数のラインの撮像を適宜用いて、前記領域内における障害物の存在及びその移動を好適且つ実用的な態様で把握することができる。   Preferably, on the imaging surface, when a change speed of a position where a line corresponding to a light beam used for detecting an obstacle in the region is imaged is larger than a predetermined threshold, It is determined that the obstacle is a moving body, and avoidance movement is performed. In this way, the presence and movement of an obstacle in the region can be grasped in a suitable and practical manner by appropriately using imaging of a plurality of lines projected on the object.

また、好適には、前記撮像部により撮影された前記複数のラインのうち少なくとも1つのラインが前記撮像部における撮像面に結像する位置に基づいて、前記自律移動型機器が移動する領域内における段差の検出を行うものである。このようにすれば、前記対象物に投影された複数のラインの撮像を適宜用いて、前記領域内における段差の存在を把握することができる。   Preferably, in the region where the autonomous mobile device moves based on a position where at least one line of the plurality of lines photographed by the imaging unit forms an image on the imaging surface of the imaging unit. A step is detected. In this way, it is possible to grasp the presence of a step in the region by appropriately using imaging of a plurality of lines projected on the object.

また、好適には、前記領域内における段差の検出に用いられる光束に対応するラインが前記撮像部における撮像面に結像する位置が、予め定められた規定位置よりも一部でも前記光源部側となった場合には、前記段差を検出したと判定するものである。このようにすれば、前記対象物に投影された複数のラインの撮像を適宜用いて、前記領域内における段差の存在を好適且つ実用的な態様で把握することができる。   Preferably, the position corresponding to the light beam used for detecting a step in the region forms an image on the imaging surface of the imaging unit at a part of the light source unit side even if a part of the position is more than a predetermined specified position. When it becomes, it determines with having detected the said level | step difference. In this way, it is possible to grasp the presence of a step in the region in a suitable and practical manner by appropriately using imaging of a plurality of lines projected on the object.

また、好適には、前記光源部は、前記撮像部よりも垂直方向下方に設けられたものである。このようにすれば、前記自律移動型機器の垂直方向下方に位置するその自律移動型機器の移動路面における段差の存在を好適に検出することができる。   Preferably, the light source unit is provided vertically below the imaging unit. In this way, it is possible to suitably detect the presence of a step on the moving road surface of the autonomous mobile device that is located below the autonomous mobile device in the vertical direction.

本発明の自律移動型機器の好適な実施例である掃除装置の構成を例示するブロック図である。It is a block diagram which illustrates the composition of the cleaning device which is a suitable example of the autonomous mobile device of the present invention. 図1の掃除装置が規定の領域内を移動しつつ掃除を行う様子を説明する概略正面図である。It is a schematic front view explaining a mode that the cleaning apparatus of FIG. 1 cleans, moving within the prescription | regulation area | region. 図2を矢印IIIで示す方向に視た概略平面図である。It is the schematic plan view which looked at FIG. 2 in the direction shown by arrow III. 図1の掃除装置に備えられた光源部の一例を床面に平行な方向に視た概略正面図である。It is the schematic front view which looked at an example of the light source part with which the cleaning apparatus of FIG. 1 was equipped in the direction parallel to a floor surface. 図4の光源部を床面に垂直な方向に視た概略平面図である。It is the schematic plan view which looked at the light source part of FIG. 4 in the direction perpendicular | vertical to a floor surface. 図1の掃除装置に備えられた光源部の他の一例を床面に平行な方向に視た概略正面図である。It is the schematic front view which looked at another example of the light source part with which the cleaning apparatus of FIG. 1 was equipped in the direction parallel to a floor surface. 図6の光源部を床面に垂直な方向に視た概略平面図である。It is the schematic plan view which looked at the light source part of FIG. 6 in the direction perpendicular | vertical to a floor surface. 図1の掃除装置に備えられた光源部の更に別の一例を床面に平行な方向に視た概略正面図である。It is the schematic front view which looked at another example of the light source part with which the cleaning apparatus of FIG. 1 was equipped in the direction parallel to a floor surface. 図8の光源部を床面に垂直な方向に視た概略平面図である。It is the schematic plan view which looked at the light source part of FIG. 8 in the direction perpendicular | vertical to a floor surface. 図1の掃除装置による対象物の検出について説明する概略図である。It is the schematic explaining the detection of the target object by the cleaning apparatus of FIG. 図2及び図3に示す対象物に対応して、図1の掃除装置に備えられた撮像部により撮影された複数のラインの撮像の一例を示す図である。It is a figure which shows an example of the imaging of the several line image | photographed by the imaging part with which the cleaning apparatus of FIG. 1 was provided corresponding to the target object shown in FIG.2 and FIG.3. 図1の掃除装置に備えられた撮像部の垂直方向の画角について説明する概略図である。It is the schematic explaining the angle of view of the perpendicular direction of the imaging part with which the cleaning apparatus of FIG. 1 was equipped. 図1の掃除装置のCPUに備えられた制御機能の要部を説明する機能ブロック線図である。It is a functional block diagram explaining the principal part of the control function with which CPU of the cleaning device of FIG. 1 was equipped. 図1の掃除装置の移動対象となる領域の一例である室を例示する平面図である。It is a top view which illustrates the chamber which is an example of the area | region used as the movement object of the cleaning apparatus of FIG. 図14に示す室に対応して地図情報作成部により作成されるMAPの一例である。It is an example of MAP created by the map information creation part corresponding to the room shown in FIG. 図15に示すMAPに対応して移動経路決定部により決定される移動経路の一例を示す図である。It is a figure which shows an example of the movement path | route determined by the movement path | route determination part corresponding to MAP shown in FIG. 図1の掃除装置のCPUによる自律移動制御の要部を説明するフローチャートである。It is a flowchart explaining the principal part of the autonomous movement control by CPU of the cleaning apparatus of FIG. 図1の掃除装置において、光源部及び撮像部の配置位置を入れ替えた構成について説明する概略正面図である。FIG. 2 is a schematic front view illustrating a configuration in which the arrangement positions of the light source unit and the imaging unit are interchanged in the cleaning device of FIG. 1. 図18の掃除装置による領域内の段差の検出について説明する概略正面図である。It is a schematic front view explaining the detection of the level | step difference in the area | region by the cleaning apparatus of FIG.

以下、本発明の好適な実施例を図面に基づいて詳細に説明する。なお、以下の説明に用いる図面において、各部の寸法比等は必ずしも正確には描かれていない。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings. In the drawings used for the following description, the dimensional ratio of each part is not necessarily drawn accurately.

図1は、本発明の自律移動型機器の好適な実施例である掃除装置10の構成を例示するブロック図である。この図1に示すように、本実施例の掃除装置10は、中央演算処理装置であるCPU12と、読出専用メモリであるROM14と、随時書込読出メモリであるRAM16と、光源部18と、撮像部20と、移動機構22と、掃除機構24と、通信部26と、バッテリ28とを、備えて構成されている。前記CPU12は、前記RAM16の一時記憶機能を利用しつつ前記ROM14に予め記憶された所定のプログラムに基づいて電子情報を処理・制御する所謂マイクロコンピュータであり、前記掃除装置10は、前記バッテリ28から供給される電気エネルギを用いて、前記CPU12の処理により自機で移動経路を決定して移動を行いつつ、その移動領域内における集塵等の掃除を行う所謂自動掃除ロボットである。   FIG. 1 is a block diagram illustrating the configuration of a cleaning device 10 which is a preferred embodiment of the autonomous mobile device of the present invention. As shown in FIG. 1, the cleaning device 10 of this embodiment includes a CPU 12 that is a central processing unit, a ROM 14 that is a read-only memory, a RAM 16 that is a write / read memory as needed, a light source unit 18, and an imaging device. The unit 20 includes a moving mechanism 22, a cleaning mechanism 24, a communication unit 26, and a battery 28. The CPU 12 is a so-called microcomputer that processes and controls electronic information based on a predetermined program stored in the ROM 14 using the temporary storage function of the RAM 16, and the cleaning device 10 is connected to the battery 28. This is a so-called automatic cleaning robot that uses the supplied electrical energy to determine the movement route by the CPU 12 through the processing of the CPU 12 and moves the dust while cleaning the dust collection in the movement area.

図2は、前記掃除装置10が規定の領域内を移動しつつ掃除を行う様子を説明する概略正面図であり、図3は、図2を矢印IIIで示す方向に視た概略平面図である。これらの図に示すように、本実施例の掃除装置10は、例えば、略平面状(水平面状)を成す床面32上を相対的に移動しつつ、その床面32上における塵埃等を収集する。すなわち、前記移動機構22により駆動される複数(図2及び図3では4つ)の車輪30により前記床面32上を相対的に移動しつつ、前記掃除機構24によりその床面32上における塵埃等を収集する。前記車輪30は、好適には、図示しない機構によりその車軸の方向が変更させられるように構成されており、各車輪30の車軸の方向が適宜変更させられると共に前記移動機構22によりそれらの車輪30が駆動されることで、前記掃除装置10が前記床面32上をその床面32に平行を成す平面方向に360°何れの方向にも移動させられるようになっている。   FIG. 2 is a schematic front view illustrating a state in which the cleaning device 10 performs cleaning while moving within a specified region, and FIG. 3 is a schematic plan view of FIG. 2 viewed in the direction indicated by an arrow III. . As shown in these drawings, the cleaning device 10 of the present embodiment collects dust and the like on the floor surface 32 while moving relatively on the floor surface 32 having a substantially planar shape (horizontal plane), for example. To do. That is, the dust on the floor surface 32 is moved by the cleaning mechanism 24 while relatively moving on the floor surface 32 by a plurality of (four in FIGS. 2 and 3) wheels 30 driven by the moving mechanism 22. Collect etc. The wheels 30 are preferably configured such that the direction of the axle is changed by a mechanism (not shown). The direction of the axle of each wheel 30 is appropriately changed and the wheels 30 are changed by the moving mechanism 22. Is driven, the cleaning device 10 can be moved in any direction of 360 ° on the floor surface 32 in a plane direction parallel to the floor surface 32.

前記掃除機構24は、例えば、一般的な電気掃除機に備えられるよく知られた集塵機構であり、送風機により負圧を生じさせて前記床面32上における塵埃等を含む空気を吸引し、内蔵のフィルタにより塵埃等と空気とを分離することでその塵埃等を収集するものである。前記掃除機構24は、好適には、前記床面32上における塵埃等を掻き集める(或いは捲き上げる)ためのブラシを備えており、そのブラシにより掻き集められた塵埃等を空気と共に吸引し、前述したように内蔵のフィルタにより分離することでその塵埃等を収集する。   The cleaning mechanism 24 is, for example, a well-known dust collecting mechanism provided in a general electric vacuum cleaner, and sucks air containing dust and the like on the floor surface 32 by generating a negative pressure with a blower. The dust and the like are collected by separating the dust and the air with the filter. The cleaning mechanism 24 preferably includes a brush for scraping (or scooping up) dust and the like on the floor surface 32, and sucks dust and the like scraped by the brush together with air. Thus, the dust etc. are collected by separating with a built-in filter.

前記通信部26は、例えば、図示しないリモコン装置等から送信される信号を受信して前記CPU12に供給する。すなわち、前記掃除装置10に対する操作入力は、好適には、前記リモコン装置から前記通信部26を介して供給される信号により行われ、そのリモコン装置における操作に応じて、例えば前記掃除装置10により掃除を開始させるための指令や掃除を終了させるための指令等が、前記通信部26を介して前記CPU12に供給されるようになっている。   For example, the communication unit 26 receives a signal transmitted from a remote control device (not shown) and supplies the signal to the CPU 12. That is, the operation input to the cleaning device 10 is preferably performed by a signal supplied from the remote control device via the communication unit 26, and the cleaning device 10 performs cleaning according to the operation on the remote control device, for example. A command for starting the operation, a command for ending the cleaning, and the like are supplied to the CPU 12 via the communication unit 26.

図2及び図3に示すように、前記光源部18は、対象物(測定対象物)34においてそれぞれ水平方向のライン(直線状の光の筋)として投影される複数(図2では3つ、3方向)の光束36a、36b、36c(以下、特に区別しない場合には単に光束36という)をその対象物34に対して照射する。この対象物34とは、前記光源部18による光束36の照射方向に存在する物体であり、前記掃除装置10にとっては掃除領域内に存在する障害物となり得るものである。また、前記光束36cに関しては、前記床面32が対象物となり得る。前記光源部18は、換言すれば、図2及び図3に示すように、それぞれ平面視(床面32に対して垂直方向に視た場合)において所定の角度(例えば、60°程度)をもって発散し且つ正面視(平面視における光源部18による複数の光束36の照射方向の中心を含む平面に垂直な方向に視た場合)において直線状に集束する複数の光束36を前記対象物34に対して照射する。また、換言すれば、前記掃除装置10の移動面である前記床面32に対して略平行を成す複数のライン状の光束36を前記対象物34に対して照射する。前記光束36は、好適には、赤外線(赤外線レーザ)による光束であるが、可視光による光束であっても構わない。前記光源部18から赤外線による光束36が照射される態様においては、後述する撮像部20に余分な可視光が入射されないように赤外線のみを通過させるバンドパスフィルタが設けられるのが好ましい。また、前記光源部18から可視光による光束36が照射される態様においては、後述する撮像部20は、照射されている可視光の波長以外の光が後述する撮像部20に入射されないように、照射されている波長のみを通過させるバンドパスフィルタを備えるのが好ましい。また、前記光源部18から光束36が照射されている場合とされていない場合とでそれぞれ撮像を行い、その撮像画像の相互で差分をとり、前記光束36による画像以外の画像を除去した上で前記ラインの結像位置を判定することにより、更に検出精度を向上させることが可能である。   As shown in FIGS. 2 and 3, the light source unit 18 projects a plurality of (three in FIG. 2) projected as horizontal lines (straight lines of light) on the object (measuring object) 34. The object 34 is irradiated with light beams 36a, 36b, and 36c (hereinafter simply referred to as a light beam 36 unless otherwise distinguished) in three directions. The object 34 is an object that exists in the irradiation direction of the light beam 36 by the light source unit 18, and can be an obstacle that exists in the cleaning region for the cleaning device 10. Further, with respect to the light beam 36c, the floor surface 32 can be an object. In other words, as shown in FIGS. 2 and 3, the light source unit 18 diverges at a predetermined angle (for example, about 60 °) in a plan view (when viewed in a direction perpendicular to the floor surface 32). In addition, when viewed from the front (when viewed in a direction perpendicular to a plane including the center of the irradiation direction of the plurality of light beams 36 by the light source unit 18 in plan view), the plurality of light beams 36 that are linearly focused on the object 34. Irradiate. In other words, the object 34 is irradiated with a plurality of linear light beams 36 that are substantially parallel to the floor surface 32 that is the moving surface of the cleaning device 10. The luminous flux 36 is preferably a luminous flux by infrared rays (infrared laser), but may be a luminous flux by visible light. In the aspect in which the light beam 36 is irradiated from the light source unit 18, it is preferable to provide a band-pass filter that allows only infrared light to pass through so that extra visible light does not enter the imaging unit 20 described later. Moreover, in the aspect in which the light beam 36 by visible light is irradiated from the light source unit 18, the imaging unit 20 to be described later prevents light other than the wavelength of the visible light being irradiated from entering the imaging unit 20 to be described later. It is preferable to provide a band-pass filter that allows only the wavelength being irradiated to pass. Further, imaging is performed when the light source 36 is irradiated with the light flux 36 and when it is not irradiated, the difference between the captured images is taken, and images other than the image of the light flux 36 are removed. It is possible to further improve the detection accuracy by determining the imaging position of the line.

図4及び図5は、前記光源部18の一例である光源部18aの具体的な構成を示す概略図であり、図4は前記床面32に平行な方向に視た正面図、図5は前記床面に垂直な方向に視た平面図である。これらの図に示すように、前記光源部18aは、光源であるレーザーダイオード(Laser Diode)38と、コリメートレンズ(コリメータ)40と、ホログラム42とを、備えて構成されている。図4及び図5では、光(光束)の進行をグレーで示しており、前記レーザーダイオード38から放出された光は、前記コリメートレンズ40によりその光軸に平行な平行光とされた後、前記ホログラム42により水平方向(床面32に対して平行を成す方向)において所定の角度をもって発散し且つ垂直方向(床面に対して垂直を成す方向)においてそれぞれ直線状に集束する複数の光束36a、36b、36cとされて射出される。すなわち、前記ホログラム42は、その垂直方向に関して、例えば、入射される平行光をその入射方向に透過させて第1の光束36aとして射出させると共に、前記平行光を回折させて第2の光束36bとして前記入射方向に角度+βを成す方向に射出させ、また、前記平行光を回折させて第3の光束36cとして前記入射方向に角度−βを成す方向に射出させる。これにより、前記光源部18aからは、平面視(図5を参照)において所定の角度をもって発散し且つ正面視(図4を参照)においてそれぞれ直線状に集束する複数の光束36a、36b、36cが、垂直方向に関して基準となる0°の方向(床面34に平行な方向)、+β°の方向、−β°の方向にそれぞれ照射される。   4 and 5 are schematic views showing a specific configuration of a light source unit 18a, which is an example of the light source unit 18. FIG. 4 is a front view seen in a direction parallel to the floor surface 32, and FIG. It is the top view seen in the direction perpendicular | vertical to the said floor surface. As shown in these drawings, the light source unit 18a includes a laser diode (Laser Diode) 38, a collimator lens (collimator) 40, and a hologram 42, which are light sources. 4 and 5, the progress of light (light flux) is shown in gray, and the light emitted from the laser diode 38 is converted into parallel light parallel to the optical axis by the collimator lens 40, and A plurality of light beams 36a that diverge at a predetermined angle in the horizontal direction (direction parallel to the floor surface 32) and converge linearly in the vertical direction (direction perpendicular to the floor surface) by the hologram 42; 36b and 36c are ejected. That is, with respect to the vertical direction of the hologram 42, for example, incident parallel light is transmitted in the incident direction to be emitted as the first light flux 36a, and the parallel light is diffracted as the second light flux 36b. The light is emitted in a direction that forms an angle + β with respect to the incident direction, and the parallel light is diffracted and emitted as a third light beam 36c in a direction that forms an angle −β with respect to the incident direction. Accordingly, the light source unit 18a emits a plurality of light beams 36a, 36b, and 36c that diverge at a predetermined angle in a plan view (see FIG. 5) and converge linearly in a front view (see FIG. 4), respectively. Irradiation is performed in a direction of 0 ° (a direction parallel to the floor surface 34), a direction of + β °, and a direction of −β °, which is a reference with respect to the vertical direction.

図6及び図7は、前記光源部18の他の一例である光源部18bの具体的な構成を示す概略図であり、図6は前記床面32に平行な方向に視た正面図、図7は前記床面に垂直な方向に視た平面図である。これらの図に示すように、前記光源部18bは、前記レーザーダイオード38と、前記コリメートレンズ40と、シリンドリカルレンズ44と、ハーフミラー46とを、備えて構成されている。図6及び図7では、光(光束)の進行をグレーで示しており、前記レーザーダイオード38から放出された光は、前記コリメートレンズ40によりその光軸に平行な平行光とされた後、前記シリンドリカルレンズ44により水平方向(床面32に対して平行を成す方向)において所定の角度をもって発散し且つ垂直方向(床面に対して垂直を成す方向)において直線状に集束する光束とされて前記ハーフミラー46に入射される。斯かるハーフミラー46は、その垂直方向に関して、例えば、入射される平行光の一部をその入射方向に透過させて第1の光束36aとして射出させると共に、残部をその入射方向に垂直な方向に反射させる。また、その反射された平行光の一部を前記ハーフミラー46への入射方向に角度−βを成す方向に反射させて第3の光束36cとして射出させると共に、残部をその入射方向に透過させる。また、その透過された平行光を前記ハーフミラー46への入射方向に角度+βを成す方向に反射させて第2の光束36bとして射出させる。これにより、前記光源部18bからは、平面視(図7を参照)において所定の角度をもって発散し且つ正面視(図6を参照)においてそれぞれ直線状に集束する複数の光束36a、36b、36cが、垂直方向に関して基準となる0°の方向、+β°の方向、−β°の方向にそれぞれ照射される。この光源部18bにおいては、前記ハーフミラー46の傾斜角度を変更することで前記光束36b、36cの射出方向を変更できる。   6 and 7 are schematic views showing a specific configuration of a light source unit 18b, which is another example of the light source unit 18, and FIG. 6 is a front view as viewed in a direction parallel to the floor surface 32. FIG. 7 is a plan view viewed in a direction perpendicular to the floor surface. As shown in these drawings, the light source unit 18 b includes the laser diode 38, the collimating lens 40, a cylindrical lens 44, and a half mirror 46. 6 and 7, the progress of light (light flux) is shown in gray. The light emitted from the laser diode 38 is converted into parallel light parallel to the optical axis by the collimator lens 40, and The cylindrical lens 44 forms a light beam that diverges at a predetermined angle in the horizontal direction (direction parallel to the floor surface 32) and converges linearly in the vertical direction (direction perpendicular to the floor surface). The light enters the half mirror 46. For example, the half mirror 46 transmits a part of the incident parallel light in the incident direction and emits it as the first light flux 36a, and the remaining part in the direction perpendicular to the incident direction. Reflect. Further, a part of the reflected parallel light is reflected in a direction that forms an angle −β with respect to the incident direction to the half mirror 46 and is emitted as the third light flux 36c, and the remaining part is transmitted in the incident direction. Further, the transmitted parallel light is reflected in a direction that forms an angle + β with respect to the incident direction to the half mirror 46 and is emitted as a second light beam 36b. Accordingly, the light source unit 18b emits a plurality of light beams 36a, 36b, and 36c that diverge at a predetermined angle in a plan view (see FIG. 7) and converge linearly in a front view (see FIG. 6), respectively. Irradiation is performed in the direction of 0 °, the direction of + β °, and the direction of −β °, which are the reference in the vertical direction. In the light source unit 18b, the emission direction of the light beams 36b and 36c can be changed by changing the inclination angle of the half mirror 46.

図8及び図9は、前記光源部18の更に別の一例である光源部18cの具体的な構成を示す概略図であり、図8は前記床面32に平行な方向に視た正面図、図9は前記床面に垂直な方向に視た平面図である。これらの図に示すように、前記光源部18cは、前記レーザーダイオード38と、前記コリメートレンズ40と、前記シリンドリカルレンズ44と、回折格子48とを、備えて構成されている。図8及び図9では、光(光束)の進行をグレーで示しており、前記レーザーダイオード38から放出された光は、前記コリメートレンズ40によりその光軸に平行な平行光とされた後、前記シリンドリカルレンズ44により水平方向(床面32に対して平行を成す方向)において所定の角度をもって発散し且つ垂直方向(床面に対して垂直を成す方向)において直線状に集束する光束とされて前記回折格子48に入射される。斯かる回折格子48は、その垂直方向に関して、例えば、入射される平行光をその入射方向に透過させて第1の光束36aとして射出させると共に、前記平行光を回折させて第2の光束36bとして前記入射方向に角度+βを成す方向に射出させ、また、前記平行光を回折させて第3の光束36cとして前記入射方向に角度−βを成す方向に射出させる。これにより、前記光源部18cからは、平面視(図9を参照)において所定の角度をもって発散し且つ正面視(図8を参照)においてそれぞれ直線状に集束する複数の光束36a、36b、36cが、垂直方向に関して基準となる0°の方向、+β°の方向、−β°の方向にそれぞれ照射される。   8 and 9 are schematic views showing a specific configuration of a light source unit 18c, which is still another example of the light source unit 18, and FIG. 8 is a front view as viewed in a direction parallel to the floor surface 32. FIG. 9 is a plan view seen in a direction perpendicular to the floor surface. As shown in these drawings, the light source unit 18 c includes the laser diode 38, the collimating lens 40, the cylindrical lens 44, and a diffraction grating 48. 8 and 9, the progress of light (light flux) is shown in gray. The light emitted from the laser diode 38 is converted into parallel light parallel to the optical axis by the collimator lens 40, and The cylindrical lens 44 forms a light beam that diverges at a predetermined angle in the horizontal direction (direction parallel to the floor surface 32) and converges linearly in the vertical direction (direction perpendicular to the floor surface). The light enters the diffraction grating 48. For example, the diffraction grating 48 transmits incident parallel light in the incident direction and emits it as the first light flux 36a with respect to the vertical direction, and diffracts the parallel light as the second light flux 36b. The light is emitted in a direction that forms an angle + β with respect to the incident direction, and the parallel light is diffracted and emitted as a third light beam 36c in a direction that forms an angle −β with respect to the incident direction. Accordingly, the light source unit 18c emits a plurality of light beams 36a, 36b, and 36c that diverge at a predetermined angle in a plan view (see FIG. 9) and are converged linearly in a front view (see FIG. 8). Irradiation is performed in the direction of 0 °, the direction of + β °, and the direction of −β °, which are the reference in the vertical direction.

図2に示すように、前記撮像部20は、前記光源部18との垂直方向(掃除装置10の移動面である床面32に垂直な方向)の距離sが規定値である位置に配置され、前記対象物34に投影された前記複数のライン(光束36の投影)を撮影する。後述する図10に示すように、前記撮像部20は、集光レンズ50及びイメージセンサ52を備えて構成されている。このイメージセンサ52は、CCD(Charge Coupled Device)やCMOS(Complementary Metal-Oxide Semiconductor)等の撮像素子を備えており、前記集光レンズ50の光軸と垂直に且つその集光レンズ50から焦点距離fを隔てて配置されている。前記撮像部20は、例えば、前記集光レンズ50の焦点距離fが3mm程度とされたものである。また、前記イメージセンサ52は、例えば、1/4インチ(1/4型)CCD又はCOMSであり、ピクセルピッチは6.0μm程度、サイズは水平方向3.84mm×垂直方向2.88mm程度、重心位置素測定精度は1.0μm程度とされたものである。   As shown in FIG. 2, the imaging unit 20 is disposed at a position where a distance s in a direction perpendicular to the light source unit 18 (a direction perpendicular to the floor surface 32 that is a moving surface of the cleaning device 10) is a predetermined value. The plurality of lines projected on the object 34 (projection of the light flux 36) are photographed. As shown in FIG. 10 described later, the imaging unit 20 includes a condenser lens 50 and an image sensor 52. The image sensor 52 includes an image sensor such as a charge coupled device (CCD) or a complementary metal-oxide semiconductor (CMOS), and is perpendicular to the optical axis of the condenser lens 50 and has a focal length from the condenser lens 50. They are spaced apart from f. For example, the imaging unit 20 has a focal length f of about 3 mm. The image sensor 52 is, for example, a 1/4 inch (1/4 type) CCD or COMS, the pixel pitch is about 6.0 μm, the size is horizontal 3.84 mm × vertical 2.88 mm, and the center of gravity. The positional element measurement accuracy is about 1.0 μm.

図10は、前記掃除装置10による対象物34の検出について説明する概略図である。この図10においては、正面視における前記光源部18、撮像部20、対象物34、及びイメージセンサ52上における結像位置等の相対的な距離関係を示しており、前記複数の光束36a、36b、36cのうち前記床面34に平行に射出される光束36a及びその投影を例示している。この図10においては、前記光源部18から前記対象物34までの距離をlで、前記光源部18と撮像部20との距離(垂直方向距離)をsで、前記集光レンズ50の焦点距離をfで、前記イメージセンサ52上の変位をxで、基準距離に対応する前記イメージセンサ52への入射角をαでそれぞれ示している。ここで、基準距離とは、前記光源部18の光軸(床面34に平行な方向)と前記撮像部20の中心軸(集光レンズ50の光軸)とが交わる距離に相当する。好適には、前記光源部18から前記対象物34までの距離lが前記基準距離である場合、その対象物34に投影された光束36aに対応するラインは前記イメージセンサ52上における略中央にて結像する。   FIG. 10 is a schematic diagram for explaining detection of the object 34 by the cleaning device 10. FIG. 10 shows a relative distance relationship such as an imaging position on the light source unit 18, the imaging unit 20, the object 34, and the image sensor 52 in a front view, and the plurality of light beams 36 a and 36 b. 36c, the light beam 36a emitted parallel to the floor surface 34 and its projection are illustrated. In FIG. 10, the distance from the light source unit 18 to the object 34 is l, the distance between the light source unit 18 and the imaging unit 20 (vertical distance) is s, and the focal length of the condenser lens 50. , F, the displacement on the image sensor 52 is indicated by x, and the incident angle to the image sensor 52 corresponding to the reference distance is indicated by α. Here, the reference distance corresponds to a distance at which the optical axis of the light source unit 18 (direction parallel to the floor surface 34) and the central axis of the imaging unit 20 (optical axis of the condenser lens 50) intersect. Preferably, when the distance l from the light source unit 18 to the object 34 is the reference distance, the line corresponding to the light beam 36a projected onto the object 34 is at the approximate center on the image sensor 52. Form an image.

図10に示すような相対位置関係において、前記イメージセンサ52上の変位xが得られた場合、前記光源部18から前記対象物34までの距離lは、よく知られた三角法を用いてその変位xより次の(1)式に従って求められる。逆に、前記イメージセンサ52上の変位xは、前記光源部18から前記対象物34までの距離lより次の(2)式に従って求められる。また、前記光源部18から前記対象物34までの距離lを測定する際、前記前記イメージセンサ52上の変位に関してΔxの誤差が生じた場合、前記光源部18から前記対象物34までの距離への影響(Δxに応じた距離lの誤差)Δlは、次の(3)式に従って求められる。前記掃除装置10による測定範囲が定まると、必要なセンササイズが求められる。例えば、測定範囲を0.2〜5m、fを3mm、sを50mm、αを82degとすると、センササイズbは0.7mmとなる。この態様において、前記基準距離は355mmとなる。   When the displacement x on the image sensor 52 is obtained in the relative positional relationship as shown in FIG. 10, the distance l from the light source unit 18 to the object 34 is obtained by using a well-known trigonometric method. It can be obtained from the displacement x according to the following equation (1). Conversely, the displacement x on the image sensor 52 is obtained from the distance l from the light source unit 18 to the object 34 according to the following equation (2). When measuring the distance l from the light source unit 18 to the object 34, if an error of Δx occurs with respect to the displacement on the image sensor 52, the distance from the light source unit 18 to the object 34 is reached. (The error of the distance l according to Δx) Δl is obtained according to the following equation (3). When the measurement range by the cleaning device 10 is determined, a necessary sensor size is obtained. For example, if the measurement range is 0.2 to 5 m, f is 3 mm, s is 50 mm, and α is 82 deg, the sensor size b is 0.7 mm. In this embodiment, the reference distance is 355 mm.

l=s×tan{α−tan-1(x/f)} ・・・(1)
x=f×tan{α−tan-1(l/s)} ・・・(2)
Δl=s×tan[α−tan-1{(x+Δx)/f}]−l ・・・(3)
l = s × tan {α−tan −1 (x / f)} (1)
x = f × tan {α-tan −1 (l / s)} (2)
Δl = s × tan [α−tan −1 {(x + Δx) / f}] − l (3)

図10においては、前記光源部18からの距離lが前記基準距離の位置における前記対象物34及びそれに対応する光束を実線で示している。また、前記光源部18からの距離lが前記基準距離よりも離れた位置における対象物34及びその対象物34に投影された光束の撮像を破線で、前記光源部18からの距離lが前記基準距離よりも近い位置における対象物34及びその対象物34に投影された光束の撮像を一点鎖線でそれぞれ示している。この図10に示すように、前記光源部18と撮像部20との配置方向(垂直方向)に関して、前記対象物34に投影された光束36aに対応するラインが前記イメージセンサ52上において結像する位置は、前記光源部18から前記対象物34までの距離lが前記基準距離よりも長くなる(対象物34が基準距離よりも離れる)と前記光源部18側に変位し、前記距離lが前記基準距離よりも短くなる(対象物34が基準距離よりも近づく)と前記光源部18とは逆側に変位する。換言すれば、前記対象物34が前記光源部18から遠ざかるほど前記ラインの結像位置は前記光源部18側へ、前記対象物34が前記光源部18に接近するほど前記ラインの結像位置は前記光源部18とは逆側へそれぞれ変位する。すなわち、前述した式(2)に示すように、前記イメージセンサ52上における前記対象物34に投影されたラインの結像位置の変位xは、前記光源部18から前記対象物34までの距離lを反映するものとなり、例えば具体的な数値としての距離lを算出しなくとも、その変位xを検出することにより実質的に前記光源部18から前記対象物34までの距離lを検知(判定)することができる。   In FIG. 10, the object 34 and the light beam corresponding to the object 34 at the position where the distance 1 from the light source unit 18 is the reference distance are indicated by a solid line. Further, the imaging of the object 34 and the light flux projected onto the object 34 at a position where the distance l from the light source 18 is larger than the reference distance is indicated by a broken line, and the distance l from the light source 18 is the reference. Imaging of the object 34 at a position closer than the distance and the light flux projected onto the object 34 are indicated by alternate long and short dash lines. As shown in FIG. 10, with respect to the arrangement direction (vertical direction) of the light source unit 18 and the imaging unit 20, a line corresponding to the light beam 36a projected on the object 34 is imaged on the image sensor 52. The position is displaced toward the light source unit 18 when the distance l from the light source unit 18 to the object 34 becomes longer than the reference distance (the object 34 is separated from the reference distance), and the distance l is When the distance is shorter than the reference distance (the object 34 is closer than the reference distance), the light source unit 18 is displaced to the opposite side. In other words, the image forming position of the line is closer to the light source unit 18 as the object 34 is farther from the light source unit 18, and the image forming position of the line is closer to the light source unit 18 as the object 34 is closer to the light source unit 18. The light source unit 18 is displaced to the opposite side. That is, as shown in the above formula (2), the displacement x of the imaging position of the line projected onto the object 34 on the image sensor 52 is the distance l from the light source unit 18 to the object 34. For example, even if the distance l as a specific numerical value is not calculated, the distance l from the light source unit 18 to the object 34 is substantially detected (determined) by detecting the displacement x. can do.

図11は、前記撮像部20により撮影された、図2及び図3に示す対象物34に投影された前記光束36a、36b、36cにそれぞれ対応する複数のラインの撮像の一例を示す図である。図11においては、前記イメージセンサ52における水平方向の中央を一点鎖線で示している。また、前記光束36a、36b、36cそれぞれに対応して、前記対象物34が前記基準距離に存在する場合におけるラインの結像位置を破線で示している。この図11に示すように、前記光束36a、36b、36cにそれぞれ対応する複数のラインは、基本的には、前記イメージセンサ52上においてはその垂直方向に関して上下逆に、上側(光源部18側)から前記光束36cに対応するライン、前記光束36aに対応するライン、前記光束36bに対応するラインの順に結像する。   FIG. 11 is a diagram illustrating an example of imaging of a plurality of lines respectively captured by the imaging unit 20 and corresponding to the light beams 36a, 36b, and 36c projected onto the object 34 illustrated in FIGS. 2 and 3. . In FIG. 11, the horizontal center of the image sensor 52 is indicated by a one-dot chain line. In addition, corresponding to the light beams 36a, 36b, and 36c, the image forming positions of the lines when the object 34 exists at the reference distance are indicated by broken lines. As shown in FIG. 11, the plurality of lines respectively corresponding to the light beams 36a, 36b, 36c are basically upside down on the image sensor 52 in the vertical direction on the upper side (on the light source unit 18 side). ) To a line corresponding to the light beam 36c, a line corresponding to the light beam 36a, and a line corresponding to the light beam 36b.

図2及び図3に示す対象物34は、手前側すなわち前記掃除装置10に近い側に位置する、幅寸法(水平方向寸法)及び高さ寸法(垂直方向寸法)何れに関しても対象物34bよりも小さい対象物34aと、その対象物34aの奥側すなわち前記掃除装置10から遠い側に位置する、幅寸法及び高さ寸法何れに関しても前記対象物34aよりも大きい対象物34bとが、一体的に構成されたものである。斯かる対象物34においてそれぞれ水平方向のラインとして投影された前記複数の光束36a、36b、36cが前記撮像部20により撮影された場合、前記掃除装置10に対して比較的近い位置に存在する対象物34aに投影されたラインが比較的前記光源部18の逆側において、前記掃除装置10に対して比較的遠い位置に存在する対象物34bに投影されたラインが比較的前記光源部18側においてそれぞれ結像するため、各ラインの撮像は例えば図11に示すようなものとなる。   The object 34 shown in FIGS. 2 and 3 is located on the near side, that is, on the side close to the cleaning device 10, both in the width dimension (horizontal dimension) and the height dimension (vertical dimension) than the object 34 b. The small object 34a and the object 34b which is located on the back side of the object 34a, that is, on the side far from the cleaning device 10 and larger than the object 34a in any of the width dimension and the height dimension are integrally formed. It is configured. When the plurality of light beams 36 a, 36 b, 36 c respectively projected as horizontal lines on the object 34 are photographed by the imaging unit 20, objects that are relatively close to the cleaning device 10. The line projected on the object 34a is relatively on the opposite side of the light source unit 18, and the line projected on the object 34b located relatively far from the cleaning device 10 is relatively on the light source unit 18 side. Since each image is formed, each line is imaged as shown in FIG. 11, for example.

すなわち、図11に示す撮像においては、各光束36a、36b、36cそれぞれに対応するラインの撮像に関して、ライン中央部における比較的前記光源部18の逆側の結像と基準距離に対応する破線との距離が前記対象物34aに対応する距離情報を、ライン両端部における比較的前記光源部18側の結像と基準距離に対応する破線との距離が前記対象物34bに対応する距離情報を、それぞれ示している。なお、図2に示すように、前記光束36bは前記対象物34aには投影されておらず、前記対象物34bにのみ投影されているため、その投影に対応するラインの撮像は図11に示すようにその幅方向に渡って前記基準距離に対応する破線から一定の間隔となっている。   That is, in the imaging shown in FIG. 11, regarding the imaging of the line corresponding to each of the light beams 36a, 36b, and 36c, the imaging on the relatively opposite side of the light source unit 18 in the center of the line and the broken line corresponding to the reference distance The distance information corresponding to the object 34a, the distance information corresponding to the object 34b, the distance between the image on the light source 18 side relatively at both ends of the line and the broken line corresponding to the reference distance, Each is shown. As shown in FIG. 2, the light beam 36b is not projected onto the object 34a, but is projected only onto the object 34b. Therefore, the imaging of the line corresponding to the projection is shown in FIG. Thus, the distance is constant from the broken line corresponding to the reference distance in the width direction.

ここで、本実施例の掃除装置10に備えられた前記光源部18及び撮像部20において、前記複数の光束36それぞれの照射角度は、前記掃除装置10により測定し得る前記対象物34との相対距離の範囲に基づく所定の閾値より大きい値とされる。すなわち、好適には、図2等に示す正面視において、前記光源部18から照射される前記複数の光束36のうち1つ(1方向)の光束36の照射方向を基準方向として、その光束36と隣接する照射方向に照射される光束36のその照射方向と前記基準方向との角度βは、前記光源部18と前記撮像部20との距離(垂直方向の距離)をs、前記掃除装置10により測定し得る前記対象物34との相対距離すなわち後述する距離算出部60による算出対象となる相対距離をL1以上L2以下の範囲内として、次の(4)式を満たすものである。すなわち、図2等を用いて前述した光束36a、36b、36cにおいて、垂直方向に関して前記第1の光束36aと第2の光束36bとが成す角度β(=|+β|)、及び垂直方向に関して前記第1の光束36aと第3の光束36cとが成す角度β(=|−β|)は、何れも次の(4)式を満たす。前記角度βを斯かる角度範囲内とすることで、前記対象物34に投影される複数のラインが相互に重なって検出し難くなるのを好適に抑制することができる。   Here, in the light source unit 18 and the imaging unit 20 provided in the cleaning device 10 of the present embodiment, the irradiation angle of each of the plurality of light beams 36 is relative to the object 34 that can be measured by the cleaning device 10. The value is larger than a predetermined threshold based on the distance range. That is, preferably, in the front view shown in FIG. 2 and the like, the light beam 36 is set with the irradiation direction of one (one direction) of the light beams 36 irradiated from the light source unit 18 as a reference direction. The angle β between the irradiation direction of the light beam 36 irradiated in the irradiation direction adjacent to the reference direction and the reference direction is s (distance in the vertical direction) between the light source unit 18 and the imaging unit 20, and the cleaning device 10. The relative distance to the object 34 that can be measured by the above, that is, the relative distance to be calculated by the distance calculation unit 60 described later is set within the range of L1 to L2, and the following expression (4) is satisfied. That is, in the light beams 36a, 36b, and 36c described above with reference to FIG. 2 and the like, the angle β (= | + β |) formed by the first light beam 36a and the second light beam 36b with respect to the vertical direction, and the above-mentioned with respect to the vertical direction. The angle β (= | −β |) formed by the first light beam 36a and the third light beam 36c satisfies the following expression (4). By setting the angle β to be within such an angle range, it is possible to suitably suppress a plurality of lines projected on the object 34 from overlapping each other and becoming difficult to detect.

β>tan-1(s/L1)−tan-1(s/L2) ・・・(4) β> tan −1 (s / L1) −tan −1 (s / L2) (4)

図12は、前記撮像部20の垂直方向の画角θについて説明する概略図である。この図12に示すように、前記撮像部20の垂直方向の画角をθとすると、前記イメージセンサ52のセンサーサイズは、m=2f・tan(θ/2)となる。ここで、本実施例の掃除装置10に備えられた前記光源部18及び撮像部20において、前記複数の光束36それぞれの照射角度は、前記撮像部20の垂直方向の画角θ及び前記ラインの本数(光束36の数)nに基づく所定の閾値より小さい値とされる。すなわち、好適には、前記複数の光束36のうち1つの光束36の照射方向を基準方向として、その光束36と隣接する照射方向に照射される光束36のその照射方向と前記基準方向との角度βは、前記撮像部20の垂直方向の画角をθ、前記ラインの本数をnとして、次の(5)式を満たすものである。すなわち、本実施例において、前記複数の光束36のうち1つの光束36の照射方向を基準方向として、その光束36と隣接する照射方向に照射される光束36のその照射方向と前記基準方向との角度βは、好適には、次の(6)式を満たすものである。   FIG. 12 is a schematic diagram for explaining the angle of view θ in the vertical direction of the imaging unit 20. As shown in FIG. 12, when the angle of view in the vertical direction of the imaging unit 20 is θ, the sensor size of the image sensor 52 is m = 2f · tan (θ / 2). Here, in the light source unit 18 and the imaging unit 20 provided in the cleaning device 10 of the present embodiment, the irradiation angles of the plurality of light beams 36 are the angle of view θ in the vertical direction of the imaging unit 20 and the line. The value is smaller than a predetermined threshold value based on the number (number of light beams 36) n. That is, preferably, the angle between the irradiation direction of the light beam 36 irradiated in the irradiation direction adjacent to the light beam 36 and the reference direction, with the irradiation direction of one light beam 36 among the plurality of light beams 36 as a reference direction. β satisfies the following expression (5), where θ is the angle of view of the imaging unit 20 in the vertical direction, and n is the number of lines. That is, in this embodiment, the irradiation direction of one light beam 36 among the plurality of light beams 36 is set as a reference direction, and the irradiation direction of the light beam 36 irradiated in the irradiation direction adjacent to the light beam 36 and the reference direction. The angle β preferably satisfies the following expression (6).

β<θ/(n−1) ・・・(5)
tan-1(s/L1)−tan-1(s/L2)<β<θ/(n−1) ・・・(6)
β <θ / (n−1) (5)
tan −1 (s / L1) −tan −1 (s / L2) <β <θ / (n−1) (6)

以上のような関係を満たすものとして、前記光源部18及び撮像部20は、例えば、測定角度範囲として、前記光束36に係る水平方向の角度(水平)ラインが60°程度、垂直方向に関する角度がそれぞれ水平方向に対して−15°、0°、15°程度とされた3つの光束36a、36b、36cを照射させるものであり、測定距離範囲すなわち前記掃除装置10により測定し得る前記対象物34との相対距離が0.2(=L1)〜5(=L2)mの範囲内であり、距離測定精度が<5%程度であり、角度分解能が水平方向1°、垂直方向10°程度であり、サンプリング速度が100ms/1フレーム程度であり、その発光側(光源部18)外形がW20mm×H20mm×T30mm程度、受光側(撮像部20)外形がW30mm×H30mm×T30mm程度とされたものである。   The light source unit 18 and the imaging unit 20 satisfy the above relationship, for example, as a measurement angle range, a horizontal angle (horizontal) line related to the light flux 36 is about 60 °, and an angle related to the vertical direction is set. Three light beams 36 a, 36 b, 36 c that are respectively set to about −15 °, 0 °, and 15 ° with respect to the horizontal direction are irradiated, and the object 34 that can be measured by the measurement distance range, that is, the cleaning device 10. The relative distance is within the range of 0.2 (= L1) to 5 (= L2) m, the distance measurement accuracy is about <5%, and the angular resolution is about 1 ° in the horizontal direction and about 10 ° in the vertical direction. Yes, the sampling speed is about 100 ms / 1 frame, the light emitting side (light source unit 18) outer shape is about W20 mm × H20 mm × T30 mm, and the light receiving side (imaging unit 20) outer shape is W30 mm × H30 m. × is one which is about T30mm.

図13は、前記掃除装置10のCPU12に備えられた制御機能の要部を説明する機能ブロック線図である。この図4に示す移動経路決定部60は、予め定められた関係から、前記撮像部20により撮影された前記複数のラインがその撮像部20における撮像面であるイメージセンサ52上に結像する位置に基づいて、前記掃除装置10の移動経路を決定する。すなわち、前記撮像部20により撮影された前記複数のラインがイメージセンサ52上に結像する位置の変位xに対応する前記対象物34との間の距離情報に基づいて、前記掃除装置10の移動経路を決定する。好適には、後述する地図情報作成部66により作成される地図情報、障害物検出部68による検出結果、及び段差検出部72による検出結果等に基づいて前記移動経路を決定する。これらの制御については、各制御部の説明と併せて後述する。   FIG. 13 is a functional block diagram for explaining a main part of the control function provided in the CPU 12 of the cleaning device 10. The movement path determination unit 60 shown in FIG. 4 has positions where the plurality of lines photographed by the imaging unit 20 form an image on an image sensor 52 that is an imaging surface of the imaging unit 20 based on a predetermined relationship. The movement path of the cleaning device 10 is determined based on the above. That is, the movement of the cleaning device 10 based on the distance information with respect to the object 34 corresponding to the displacement x of the position where the plurality of lines photographed by the imaging unit 20 are imaged on the image sensor 52. Determine the route. Preferably, the movement route is determined based on map information created by a map information creation unit 66 described later, a detection result by the obstacle detection unit 68, a detection result by the step detection unit 72, and the like. These controls will be described later together with the description of each control unit.

移動制御部62は、前記移動経路決定部60により決定された移動経路に基づいて前記掃除装置10の移動を制御する。具体的には、前記掃除装置10が前記移動経路決定部60により決定された移動経路を移動するように、前記移動機構22の作動を制御する。   The movement control unit 62 controls the movement of the cleaning device 10 based on the movement route determined by the movement route determination unit 60. Specifically, the operation of the movement mechanism 22 is controlled so that the cleaning device 10 moves along the movement path determined by the movement path determination unit 60.

距離算出部64は、前記撮像部20により撮影された前記複数のラインに基づいて、前記複数の光束36にそれぞれ対応する前記対象物34との相対距離を算出する。例えば、前記光源部18と撮像部20との距離をs、前記集光レンズ50の焦点距離をf、前記イメージセンサ52上の変位をx、前記基準距離に対応する前記イメージセンサ52への入射角をαとして、よく知られた三角法を用いて前述した(1)式に従って前記光源部18から前記対象物34までの距離lを算出する。また、好適には、前記撮像部20により撮影された前記複数のラインそれぞれに対応する前記イメージセンサ52上の変位xを、前記複数の光束36にそれぞれ対応する前記対象物34との相対距離を示す情報として算出するものであってもよい。好適には、前記光源部18から照射される複数の光束36のうち、水平方向に照射される光束36すなわち図2等に示す例においては前記第1の光束36aに対応して前記対象物34に投影されるラインの撮像に基づいて前記対象物34との相対距離を算出する。   The distance calculation unit 64 calculates relative distances from the object 34 respectively corresponding to the plurality of light beams 36 based on the plurality of lines photographed by the imaging unit 20. For example, the distance between the light source unit 18 and the imaging unit 20 is s, the focal length of the condenser lens 50 is f, the displacement on the image sensor 52 is x, and the incident on the image sensor 52 corresponding to the reference distance. A distance l from the light source unit 18 to the object 34 is calculated according to the above-described equation (1) using a well-known trigonometric method, where α is an angle. Preferably, the displacement x on the image sensor 52 corresponding to each of the plurality of lines photographed by the imaging unit 20 is expressed as a relative distance from the object 34 corresponding to each of the plurality of light beams 36. It may be calculated as information to be shown. Preferably, among the plurality of light beams 36 irradiated from the light source unit 18, the object 34 corresponding to the first light beam 36a in the light beam 36 irradiated in the horizontal direction, that is, in the example shown in FIG. The relative distance from the object 34 is calculated based on the image of the line projected onto the object.

地図情報作成部66は、前記撮像部20により撮影された前記複数のラインのうち少なくとも1つのラインが前記撮像部20におけるイメージセンサ52上に結像する位置に基づいて、前記掃除装置10が移動する領域の地図情報の作成を行う。この地図情報とは、前記掃除装置10の移動範囲となる領域すなわち掃除範囲となる領域におけるその掃除装置10が移動可能な範囲、対象物34の存在する位置、及び段差の存在する位置等の情報であり、好適には、XY座標(二次元座標)においてそれらの情報に対応する座標が定められるものである。前記地図情報作成部66は、好適には、前記光源部18から照射される複数の光束36のうち、水平方向に照射される光束36すなわち図2等に示す例においては前記第1の光束36aに対応して前記対象物34に投影されるラインの撮像に基づいて前記地図情報の作成を行う。具体的には、斯かる地図情報として以下に詳述する図15及び図16に示すようなMAP58を作成して前記RAM16等の記憶装置に記憶する。   The map information creation unit 66 moves the cleaning device 10 based on a position where at least one line of the plurality of lines photographed by the imaging unit 20 forms an image on the image sensor 52 in the imaging unit 20. Create map information for the area to be used. The map information is information such as a range in which the cleaning device 10 can move, that is, a range in which the cleaning device 10 can move, a position where the object 34 exists, a position where a step exists, and the like. Preferably, coordinates corresponding to such information are determined in XY coordinates (two-dimensional coordinates). Preferably, the map information creating unit 66 preferably applies the light beam 36 irradiated in the horizontal direction among the plurality of light beams 36 irradiated from the light source unit 18, that is, the first light beam 36a in the example shown in FIG. The map information is created based on the imaging of the line projected onto the object 34 corresponding to the above. Specifically, MAP 58 as shown in FIG. 15 and FIG. 16 described in detail below is created as such map information and stored in the storage device such as the RAM 16.

図14は、前記掃除装置10の移動対象(掃除対象)となる領域の一例である室80を例示する平面図である。この図15に示す室80は、四方を壁で囲繞された一般的な居室であり、その床面82が前記掃除装置10の掃除対象となる。また、この室80内には、テーブル84、テレビ台86、ソファ88a、88b(以下、特に区別しない場合には単にソファ88という)、及び鉢植え90が設置されている。前記テーブル84は、その下(鉛直下方)に前記掃除装置10が移動できるスペースがあり、その掃除装置10は前記テーブル84の下に潜り込んで移動及び掃除を行うことができる。一方、前記テレビ台86、ソファ88、及び鉢植え90の下には前記掃除装置10が移動できるスペースがなく、その掃除装置10は前記テレビ台86、ソファ88、及び鉢植え90の下に潜り込んでの移動及び掃除を行うことはできない。   FIG. 14 is a plan view illustrating a chamber 80 which is an example of a region to be moved (cleaning target) of the cleaning device 10. A room 80 shown in FIG. 15 is a general living room surrounded by walls on all sides, and the floor surface 82 is a cleaning target of the cleaning device 10. In the room 80, a table 84, a TV stand 86, sofas 88a and 88b (hereinafter, simply referred to as a sofa 88 unless otherwise specified), and a potted plant 90 are installed. The table 84 has a space under which the cleaning device 10 can move (vertically below), and the cleaning device 10 can sink under the table 84 to perform movement and cleaning. On the other hand, there is no space in which the cleaning device 10 can move under the TV stand 86, the sofa 88, and the potted plant 90, and the cleaning device 10 sinks under the TV stand 86, the sofa 88, and the potted plant 90. It cannot be moved or cleaned.

図15は、図14に示す室80に対応して前記地図情報作成部66により作成されるMAP58の一例であり、前記掃除装置10が移動可能(掃除可能)な範囲を斜線で示している。前記掃除装置10が前記室80内を移動する際、前記撮像部20により撮影された前記複数のラインがイメージセンサ52上に結像する位置の変位xに対応する前記対象物34との間の距離情報に基づいて、前記室80における四方の壁の位置、前記テレビ台86、ソファ88、及び鉢植え90が存在する位置を検出(判定)し、それらの相対的な位置関係をXY座標として記憶することで、前記掃除装置10が移動する領域の地図情報として図15に示すようなMAP58が得られる。この図15に示すMAP58に関して、前記テーブル84の脚は無視している。また、図14に示すように、前記ソファ88と前記室80における壁との間には若干のスペースがあるが、そのスペースは狭すぎて前記掃除装置10は入り込めないため、前記MAP58には反映されていない。   FIG. 15 shows an example of the MAP 58 created by the map information creation unit 66 corresponding to the room 80 shown in FIG. 14, and the range in which the cleaning device 10 is movable (cleanable) is indicated by hatching. When the cleaning device 10 moves in the chamber 80, the space between the object 34 corresponding to the displacement x of the position at which the plurality of lines photographed by the imaging unit 20 are imaged on the image sensor 52. Based on the distance information, the position of the four walls in the room 80, the position where the TV stand 86, the sofa 88, and the potted plant 90 are present are detected (determined), and their relative positional relationship is stored as XY coordinates. By doing so, MAP 58 as shown in FIG. 15 is obtained as map information of the area in which the cleaning device 10 moves. Regarding the MAP 58 shown in FIG. 15, the legs of the table 84 are ignored. Further, as shown in FIG. 14, although there is some space between the sofa 88 and the wall in the chamber 80, the space is too narrow to allow the cleaning device 10 to enter. Not reflected.

図16は、図15に示すMAP58に対応して前記移動経路決定部60により決定される移動経路の一例を示す図である。この図16に示す移動経路は、スタート地点を表すSからゴール地点を表すGまで細線で示される経路を進行してゆくものであり、岐路或いは行き止まりに関しては数字1〜7の付された矢印で指し示される順路で、その数字順に進行してゆくものである。すなわち、S→1→2→3→4→5→6→7→Gの経路をたどるものである。この図16に示すように、前記移動経路決定部60は、好適には、前記地図情報作成部66により作成されたMAP58に基づいて、そのMAP58における前記掃除装置10が移動可能な範囲を網羅し(くまなく巡り)つつ、重畳(重複)して移動する部分が可及的に少なくなるように前記移動経路を決定する。また、好適には、スタート地点とゴール地点が一致するように移動経路を決定するものであってもよい。このようにすれば、例えばスタート地点(ゴール地点)に前記バッテリ28の充電を行うための充電器が設置されている場合に、前記領域を掃除(移動)した後そのまま充電に移行することができるという利点がある。   FIG. 16 is a diagram showing an example of a travel route determined by the travel route determination unit 60 corresponding to the MAP 58 shown in FIG. The travel route shown in FIG. 16 proceeds along a route indicated by a thin line from S representing the start point to G representing the goal point, and the crossroads or dead ends are indicated by arrows with numerals 1 to 7. It is a route that is pointed and proceeds in numerical order. That is, it follows the route of S → 1 → 2 → 3 → 4 → 5 → 6 → 7 → G. As shown in FIG. 16, the movement route determination unit 60 preferably covers a range in which the cleaning device 10 in the MAP 58 can move based on the MAP 58 created by the map information creation unit 66. The travel route is determined so that the number of parts that overlap (overlap) and move as much as possible is reduced. Preferably, the movement route may be determined so that the start point and the goal point coincide. In this way, for example, when a charger for charging the battery 28 is installed at the start point (goal point), the region can be shifted to charging after being cleaned (moved). There is an advantage.

図13に示す障害物検出部68は、前記撮像部20により撮影された前記複数のラインのうち少なくとも1つのラインが前記撮像部20におけるイメージセンサ52上に結像する位置に基づいて、前記掃除装置10が移動する領域内における障害物の検出を行う。この障害物とは、例えば、前述のようにして検出される対象物34のうち前記掃除装置10との相対距離lが所定の範囲内であったり、前記移動経路決定部60により決定される移動経路上に存在するものをいう。前記障害物検出部68は、好適には、前記光源部18から照射される複数の光束36のうち、水平方向よりも鉛直上方に照射される光束36すなわち図2等に示す例においては前記第2の光束36bに対応して前記対象物34に投影されるラインの撮像に基づいて前記障害物の検出を行う。   The obstacle detection unit 68 shown in FIG. 13 performs the cleaning based on the position where at least one of the plurality of lines photographed by the imaging unit 20 forms an image on the image sensor 52 in the imaging unit 20. Obstacles are detected in the area where the apparatus 10 moves. The obstacle is, for example, a relative distance l of the object 34 detected as described above with respect to the cleaning device 10 within a predetermined range, or a movement determined by the movement path determination unit 60. This is something that exists on the route. The obstacle detection unit 68 is preferably configured such that, among the plurality of light beams 36 irradiated from the light source unit 18, the light beam 36 irradiated vertically above the horizontal direction, that is, in the example shown in FIG. The obstacle is detected based on the imaging of the line projected onto the object 34 corresponding to the second light beam 36b.

前記障害物検出部68は、好適には、前記領域内における障害物の検出に用いられる光束36(好適には、光束36b)に対応するラインが前記撮像部20におけるイメージセンサ52上に結像する位置が、予め定められた規定位置よりも一部でも前記光源部18とは反対側となった場合には、前記障害物を検出したと判定する。図11等を用いて前述したように、前記ラインが投影された前記対象物34が前記光源部18に接近するほど、前記撮像部20により撮影されたそのラインの前記イメージセンサ52上における結像位置は前記光源部18に対して逆側(光源部18と撮像部20との配置方向に関して光源部18から離隔する方向)へ変位する。従って、前記ラインが前記撮像部20におけるイメージセンサ52上に結像する位置が、予め定められた規定位置よりも一部でも前記光源部18とは反対側となった場合には、前記光源部18に対して前記対象物34が(水平方向に関して)所定の距離範囲内に存在すると判定することができる。すなわち、前記障害物検出部68は、換言すれば、前記領域内における障害物の検出に用いられる光束36に対応するラインが前記撮像部20におけるイメージセンサ52上に結像する位置が、予め定められた規定位置よりも一部でも前記光源部18とは反対側となった場合には、前記光源部18に対して前記対象物34が所定の距離範囲内に存在すると判定する。   The obstacle detection unit 68 preferably forms an image of a line corresponding to the light beam 36 (preferably, the light beam 36b) used for detecting the obstacle in the region on the image sensor 52 in the imaging unit 20. It is determined that the obstacle has been detected when the position to be operated is on the side opposite to the light source unit 18 even at a part of the predetermined position. As described above with reference to FIG. 11 and the like, as the object 34 onto which the line is projected approaches the light source unit 18, the image of the line imaged by the imaging unit 20 on the image sensor 52 is imaged. The position is displaced to the opposite side to the light source unit 18 (a direction away from the light source unit 18 with respect to the arrangement direction of the light source unit 18 and the imaging unit 20). Therefore, when the position at which the line forms an image on the image sensor 52 in the imaging unit 20 is partly opposite to the light source unit 18 with respect to a predetermined position, the light source unit 18, it can be determined that the object 34 exists within a predetermined distance range (with respect to the horizontal direction). That is, in other words, the obstacle detection unit 68 determines in advance the position at which the line corresponding to the light beam 36 used to detect the obstacle in the region forms an image on the image sensor 52 in the imaging unit 20. If even a part of the specified position is opposite to the light source unit 18, it is determined that the object 34 exists within a predetermined distance range with respect to the light source unit 18.

前記障害物検出部68は、障害物移動検出部70を含んでいる。この障害物移動検出部70は、前記イメージセンサ52上における、前記領域内における障害物の検出に用いられる光束36(好適には、光束36b)に対応するラインが結像する位置の変化速度(変位xの時間変化率dx/dt)が、予め定められた閾値よりも大きい場合には、前記障害物が移動体であると判定する。この判定に用いられる閾値は、好適には、前記移動機構22による前記掃除装置10の移動方向及び移動速度等に応じて変更される。例えば、前記掃除装置10が停止している場合と、前記光源部18及び撮像部20が設けられている側(すなわち光束36の照射方向)に向かって前記掃除装置10が移動(進行)している場合とで、それぞれ異なる前記閾値が予め定められており、前記障害物移動検出部70は、それぞれの場合において各閾値に基づいて前記障害物が移動体であるか否かの判定を行う。   The obstacle detection unit 68 includes an obstacle movement detection unit 70. The obstacle movement detection unit 70 changes the speed of change of the position on the image sensor 52 where the line corresponding to the light beam 36 (preferably, the light beam 36b) used for detecting the obstacle in the region forms an image ( When the time change rate dx / dt of the displacement x is larger than a predetermined threshold, it is determined that the obstacle is a moving body. The threshold used for this determination is preferably changed according to the moving direction and moving speed of the cleaning device 10 by the moving mechanism 22. For example, when the cleaning device 10 is stopped, the cleaning device 10 moves (advances) toward the side where the light source unit 18 and the imaging unit 20 are provided (that is, the irradiation direction of the light beam 36). The obstacle movement detection unit 70 determines whether or not the obstacle is a moving object based on each threshold value in each case.

段差検出部72は、前記撮像部20により撮影された前記複数のラインのうち少なくとも1つのラインが前記撮像部20におけるイメージセンサ52上に結像する位置に基づいて、前記掃除装置10が移動する領域内における段差の検出を行う。この段差とは、例えば、前記掃除装置10が移動を行う床面32においてその一部が段状に落ち窪んで高低差ができている箇所を言い、特に、その高低差が規定値以上である箇所を言う。前記段差検出部72は、好適には、前記光源部18から照射される複数の光束36のうち、水平方向よりも鉛直下方に照射される光束36すなわち図2等に示す例においては前記第2の光束36cに対応して前記対象物34に投影されるラインの撮像に基づいて前記段差の検出を行う。   The level difference detection unit 72 moves the cleaning device 10 based on a position where at least one line of the plurality of lines photographed by the imaging unit 20 forms an image on the image sensor 52 in the imaging unit 20. A step in the area is detected. This level difference means, for example, a part of the floor surface 32 on which the cleaning device 10 moves, a part of which falls in a step shape and has a level difference, and the level difference is more than a specified value. Say the part. Preferably, the step detecting unit 72 preferably includes the light beam 36 irradiated vertically downward from the horizontal direction among the plurality of light beams 36 irradiated from the light source unit 18, that is, in the example shown in FIG. The step is detected based on the imaging of the line projected onto the object 34 corresponding to the light flux 36c.

前記段差検出部72は、好適には、前記領域内における段差の検出に用いられる光束36(好適には、光束36c)に対応するラインが前記撮像部20におけるイメージセンサ52上に結像する位置が、予め定められた規定位置よりも一部でも前記光源部18側となった場合には、前記段差を検出したと判定する。図11等を用いて前述したように、前記ラインが投影された前記対象物34が前記光源部18から離れるほど、前記撮像部20により撮影されたそのラインの前記イメージセンサ52上における結像位置は前記光源部18側(光源部18と撮像部20との配置方向に関して光源部18に接近する方向)へ変位する。従って、前記ラインが前記撮像部20におけるイメージセンサ52上に結像する位置が、予め定められた規定位置よりも一部でも前記光源部18側となった場合には、本来、前記光源部18に対して所定の距離に存在するべき床面32が存在せず、そこに段差が存在すると判定することができる。すなわち、前記段差検出部72は、換言すれば、前記領域内における段差の検出に用いられる光束36に対応するラインが前記撮像部20におけるイメージセンサ52上に結像する位置が、予め定められた規定位置よりも一部でも前記光源部18側となった場合には、前記光源部18に対して所定の距離範囲内に段差が存在すると判定する。   The level difference detection unit 72 preferably has a position where a line corresponding to the light beam 36 (preferably the light beam 36c) used for detecting the level difference in the region forms an image on the image sensor 52 in the imaging unit 20. However, if at least a part of the predetermined position is closer to the light source 18 side, it is determined that the step is detected. As described above with reference to FIG. 11 and the like, the image formation position on the image sensor 52 of the line imaged by the imaging unit 20 as the object 34 on which the line is projected is further away from the light source unit 18. Is displaced to the light source unit 18 side (the direction approaching the light source unit 18 with respect to the arrangement direction of the light source unit 18 and the imaging unit 20). Therefore, when the position at which the line is imaged on the image sensor 52 in the image pickup unit 20 is at least part of the light source unit 18 side than the predetermined position, the light source unit 18 is originally provided. It can be determined that there is no floor surface 32 that should be present at a predetermined distance, and that there is a step there. That is, in other words, the step detecting unit 72 has a predetermined position where a line corresponding to the light beam 36 used for detecting the step in the region forms an image on the image sensor 52 in the imaging unit 20. If even a part of the light source unit 18 is closer than the specified position, it is determined that a step is present within a predetermined distance range with respect to the light source unit 18.

図18は、本実施例の掃除装置10において、前記光源部18及び撮像部20の配置位置を入れ替えた構成について説明する概略正面図である。すなわち、前記光源部18が前記撮像部20よりも垂直方向下方に設けられた構成、換言すれば、前記光源部18が前記撮像部20よりも移動路面である前記床面32側に設けられた構成を例示している。また、図19は、図18の掃除装置による領域内の段差32sの検出について説明する図である。前述のように、前記段差検出部72が前記光源部18から比較的鉛直方向下方に向かって照射される光束36cに対応して前記床面32に投影されるラインの撮像に基づいて前記段差の検出を行う態様について考えると、前述した図2に示す構成よりも図18に示す構成の方が前記路面32におけるより自機に近い位置に前記光束36cに対応するラインが投影される。すなわち、前記光源部18が前記撮像部20よりも前記床面32側に設けられていることにより、その床面32に投影される前記光束36cに対応するラインが図2に示す構成よりも前記掃除装置10に近くなる。従って、前述した図2に示す構成に比べて、図18に示す構成の方がより近くの段差32sを検出することが可能となる。斯かる態様においても、前記段差検出部72は、好適には、前記光束36cに対応するラインが前記撮像部20におけるイメージセンサ52上に結像する位置が、予め定められた規定位置よりも一部でも前記光源部18側となった場合には、前記段差32sを検出したと判定する。   FIG. 18 is a schematic front view illustrating a configuration in which the arrangement positions of the light source unit 18 and the imaging unit 20 are switched in the cleaning device 10 of the present embodiment. That is, the light source unit 18 is provided vertically below the imaging unit 20, in other words, the light source unit 18 is provided on the floor surface 32 side that is a moving road surface than the imaging unit 20. The structure is illustrated. Moreover, FIG. 19 is a figure explaining the detection of the level | step difference 32s in the area | region by the cleaning apparatus of FIG. As described above, the level difference detection unit 72 detects the level difference based on the imaging of the line projected on the floor surface 32 corresponding to the light beam 36c emitted from the light source unit 18 relatively downward in the vertical direction. Considering the mode of detection, the line corresponding to the light beam 36c is projected on the road surface 32 at a position closer to the own apparatus in the configuration shown in FIG. 18 than in the configuration shown in FIG. That is, since the light source unit 18 is provided on the floor surface 32 side of the imaging unit 20, the line corresponding to the light beam 36c projected on the floor surface 32 is more than the configuration shown in FIG. It becomes close to the cleaning device 10. Accordingly, it is possible to detect the step 32s closer to the configuration shown in FIG. 18 than the configuration shown in FIG. Also in such an aspect, the step detection unit 72 preferably has a position where the line corresponding to the light beam 36c forms an image on the image sensor 52 in the imaging unit 20 more than a predetermined specified position. If the light source part 18 is also on the light source part 18 side, it is determined that the step 32s has been detected.

前記移動経路決定部60は、好適には、図14〜図16を用いて前述したように前記地図情報作成部66により作成された地図情報(MAP58)に基づいて前記掃除装置10の移動経路を決定する一方、前記障害物検出部68、障害物移動検出部70、及び段差検出部72の検出結果に基づいて前記移動経路を変更する。すなわち、前記移動経路決定部60は、好適には、前記障害物検出部68による検出結果に基づいて前記掃除装置10の移動経路を決定する。例えば、前記障害物検出部68により前記MAP58に定められた移動経路上に障害物の存在が判定された場合には、その障害物を回避するように新たな移動経路を決定する。また、前記移動経路決定部60は、好適には、前記障害物移動検出部70による検出結果に基づいて前記掃除装置10の移動経路を決定する。例えば、前記障害物移動検出部70により前記障害物が移動体であると判定された場合には、その障害物を回避するように新たな移動経路を決定する。また、前記移動経路決定部60は、好適には、前記段差検出部72による検出結果に基づいて前記掃除装置10の移動経路を決定する。例えば、前記段差検出部72により前記MAP58に定められた移動経路上に段差の存在が判定された場合には、その段差を回避するように新たな移動経路を決定する。   Preferably, the movement route determination unit 60 determines the movement route of the cleaning device 10 based on the map information (MAP 58) created by the map information creation unit 66 as described above with reference to FIGS. On the other hand, the movement path is changed based on the detection results of the obstacle detection unit 68, the obstacle movement detection unit 70, and the step detection unit 72. That is, the movement route determination unit 60 preferably determines the movement route of the cleaning device 10 based on the detection result by the obstacle detection unit 68. For example, when the obstacle detection unit 68 determines the presence of an obstacle on the movement route defined in the MAP 58, a new movement route is determined so as to avoid the obstacle. In addition, the movement path determination unit 60 preferably determines the movement path of the cleaning device 10 based on the detection result by the obstacle movement detection unit 70. For example, when the obstacle movement detection unit 70 determines that the obstacle is a moving body, a new movement route is determined so as to avoid the obstacle. In addition, the movement route determination unit 60 preferably determines the movement route of the cleaning device 10 based on the detection result by the step detection unit 72. For example, when the step detection unit 72 determines the presence of a step on the movement route defined in the MAP 58, a new movement route is determined so as to avoid the step.

前記地図情報作成部66は、好適には、前記障害物検出部68及び段差検出部72の検出結果に基づいて、前記掃除装置10が移動する領域の地図情報の作成を行う。例えば、前記障害物検出部68により前記掃除装置10の移動領域内に障害物の存在が判定された場合には、その障害物の存在を地図情報である前記MAP58に反映する。すなわち、検出された障害物に対応する座標を前記MAP58に記録する。また、前記段差検出部72により前記掃除装置10の移動領域内に段差の存在が判定された場合にも、その段差の存在を地図情報である前記MAP58に反映する。すなわち、検出された段差に対応する座標を前記MAP58に記録する。また、前記地図情報作成部66は、好適には、前記障害物移動検出部70の検出結果を前記MAP58に反映するものであってもよい。   The map information creation unit 66 preferably creates map information of the area where the cleaning device 10 moves based on the detection results of the obstacle detection unit 68 and the step detection unit 72. For example, when the obstacle detection unit 68 determines the presence of an obstacle in the movement area of the cleaning device 10, the presence of the obstacle is reflected in the map information MAP 58. That is, the coordinates corresponding to the detected obstacle are recorded in the MAP 58. In addition, when the step detection unit 72 determines the presence of a step in the moving area of the cleaning device 10, the presence of the step is reflected in the MAP 58, which is map information. That is, the coordinates corresponding to the detected step are recorded in the MAP 58. The map information creation unit 66 may preferably reflect the detection result of the obstacle movement detection unit 70 on the MAP 58.

図17は、前記掃除装置10のCPU12による自律移動制御の要部を説明するフローチャートであり、所定の周期で繰り返し実行されるものである。   FIG. 17 is a flowchart for explaining a main part of the autonomous movement control by the CPU 12 of the cleaning device 10, and is repeatedly executed at a predetermined cycle.

先ず、ステップ(以下、ステップを省略する)S1において、前記対象物34においてそれぞれ水平方向のラインとして投影される複数の光束36が前記光源部18から照射される。次に、S2において、前記光源部18から照射された光束36に対応して前記対象物34に投影された前記複数のラインが前記撮像部20により撮影される。次に、S3において、前記第2の光束36bに対応して前記対象物34に投影されたラインが前記撮像部20におけるイメージセンサ52上に結像する位置が、予め定められた規定位置よりも一部でも前記光源部18とは反対側となったか否かが判断される。このS3の判断が否定される場合には、S6以下の処理が実行されるが、S3の判断が肯定される場合には、S4において、前記掃除装置10が移動する領域内における障害物の存在が検出されると共に、その障害物の検出に用いられた前記第2の光束36bに対応するラインが結像する位置の変化速度に基づいて、その障害物の移動の有無が検出される。次に、S5において、検出された障害物を回避するように新たな移動経路が決定され、その移動経路に基づいて前記掃除装置10が移動させられる。次に、S6において、前記第3の光束36cに対応して前記対象物34に投影されたラインが前記撮像部20におけるイメージセンサ52上に結像する位置が、予め定められた規定位置よりも一部でも前記光源部18側となったか否かが判断される。このS6の判断が否定される場合には、S8以下の処理が実行されるが、S6の判断が肯定される場合には、S7において、前記掃除装置10が移動する領域内における段差の存在が検出されると共に、検出された段差を回避するように新たな移動経路が決定され、その移動経路に基づいて前記掃除装置10が移動させられる。次に、S8において、前記第1の光束36aに対応して前記対象物34に投影されたラインが前記撮像部20におけるイメージセンサ52上に結像する位置に基づいて、前記対象物34との相対距離が算出されると共に、前記掃除装置10が移動する領域の地図情報であるMAP58が作成(更新)される。また、その領域内において障害物及び段差等が検出された場合には、その検出結果が前記MAP58に反映された後、本ルーチンが終了させられる。   First, in step (hereinafter, step is omitted) S <b> 1, a plurality of light beams 36 projected as horizontal lines on the object 34 are irradiated from the light source unit 18. Next, in S <b> 2, the plurality of lines projected on the object 34 corresponding to the light beam 36 emitted from the light source unit 18 is imaged by the imaging unit 20. Next, in S3, the position at which the line projected on the object 34 corresponding to the second light flux 36b forms an image on the image sensor 52 in the imaging unit 20 is more than a predetermined specified position. It is determined whether or not a part of the light source unit 18 is on the opposite side. If the determination in S3 is negative, the processing from S6 is executed, but if the determination in S3 is affirmative, in S4, there is an obstacle in the area where the cleaning device 10 moves. And the presence or absence of movement of the obstacle is detected based on the change speed of the position at which the line corresponding to the second light beam 36b used for detecting the obstacle is imaged. Next, in S5, a new movement route is determined so as to avoid the detected obstacle, and the cleaning device 10 is moved based on the movement route. Next, in S6, the position at which the line projected on the object 34 corresponding to the third light beam 36c forms an image on the image sensor 52 in the imaging unit 20 is more than a predetermined specified position. It is determined whether or not a part of the light source unit 18 has been reached. If the determination in S6 is negative, the processes in and after S8 are executed. If the determination in S6 is positive, in S7, there is a step in the region in which the cleaning device 10 moves. While being detected, a new movement path is determined so as to avoid the detected level difference, and the cleaning device 10 is moved based on the movement path. Next, in S8, based on the position where the line projected on the object 34 corresponding to the first light beam 36a forms an image on the image sensor 52 in the imaging unit 20, the object 34 is connected to the object 34. A relative distance is calculated, and MAP 58, which is map information of an area in which the cleaning device 10 moves, is created (updated). If an obstacle, a step, or the like is detected in the area, the detection result is reflected on the MAP 58, and then this routine is terminated.

以上の制御において、S5及びS7が前記移動経路決定部60及び移動制御部62の動作に、S8が前記距離算出部64及び地図情報作成部66の動作に、S3及びS4が前記障害物検出部68の動作に、S4が前記障害物移動検出部70の動作に、S6及びS7が前記段差検出部72の動作に、それぞれ対応する。   In the above control, S5 and S7 are operations of the movement route determination unit 60 and the movement control unit 62, S8 is operations of the distance calculation unit 64 and the map information creation unit 66, and S3 and S4 are operations of the obstacle detection unit. 68 corresponds to the operation of the obstacle movement detector 70, and S6 and S7 correspond to the operation of the step detector 72, respectively.

このように、本実施例によれば、対象物34においてそれぞれ水平方向のラインとして投影される複数の光束36をその対象物34に対して照射する光源部18と、その光源部18との垂直方向の距離が規定値sである位置に配置され、前記対象物34に投影された前記複数のラインを撮影する撮像部20と、予め定められた関係から、前記撮像部20により撮影された前記複数のラインがその撮像部20における撮像面であるイメージセンサ52上に結像する位置に基づいて、前記掃除装置10の移動経路を決定する移動経路決定部60(S5及びS7)とを、備えたものであることから、前記対象物34に投影された複数のラインの撮像を適宜用いることで、その対象物34との相対位置関係を実用的な態様で精度良く把握することができる。すなわち、対象物34との相対位置関係を高精度で把握して好適な経路設定を行う自律移動型機器としての掃除装置10を提供することができる。   As described above, according to the present embodiment, the light source unit 18 that irradiates the object 34 with the plurality of light beams 36 that are respectively projected as horizontal lines on the object 34, and the vertical direction of the light source unit 18. The imaging unit 20 that is disposed at a position where the distance in the direction is the prescribed value s and that images the plurality of lines projected onto the object 34, and the image captured by the imaging unit 20 based on a predetermined relationship. A movement path determination unit 60 (S5 and S7) that determines a movement path of the cleaning device 10 based on positions where a plurality of lines form an image on the image sensor 52 that is an imaging surface of the imaging unit 20; Therefore, by appropriately using imaging of a plurality of lines projected on the object 34, the relative positional relationship with the object 34 can be accurately grasped in a practical manner. That. That is, it is possible to provide the cleaning device 10 as an autonomous mobile device that grasps the relative positional relationship with the object 34 with high accuracy and sets a suitable route.

また、前記複数の光束36のうち1つの光束36の照射方向を基準方向として、その光束36と隣接する照射方向に照射される光束36のその照射方向と前記基準方向との角度βは、前記光源部18と前記撮像部20との距離をs、前記距離算出部64による算出対象となる前記対象物34との相対距離をL1以上L2以下の範囲内として、前記(4)式を満たすものであるため、前記対象物34に投影された複数のラインの撮像を適宜用いて、その対象物34との相対距離を実用的な態様で精度良く算出することができる。   The angle β between the irradiation direction of the light beam 36 irradiated in the irradiation direction adjacent to the light beam 36 and the reference direction is defined by using the irradiation direction of one light beam 36 among the plurality of light beams 36 as a reference direction. The distance between the light source unit 18 and the imaging unit 20 is s, and the relative distance from the object 34 to be calculated by the distance calculation unit 64 is within the range of L1 or more and L2 or less, and satisfies the equation (4). Therefore, the relative distance from the object 34 can be accurately calculated in a practical manner by appropriately using the imaging of a plurality of lines projected on the object 34.

また、前記複数の光束36のうち1つの光束36の照射方向を基準方向として、その光束36と隣接する照射方向に照射される光束36のその照射方向と前記基準方向との角度βは、前記撮像部20の垂直方向の画角をθ、前記ラインの本数をnとして、前記(5)式を満たすものであるため、前記対象物34に投影された複数のラインの撮像を適宜用いて、その対象物34との相対距離を実用的な態様で精度良く算出することができる。   The angle β between the irradiation direction of the light beam 36 irradiated in the irradiation direction adjacent to the light beam 36 and the reference direction is defined by using the irradiation direction of one light beam 36 among the plurality of light beams 36 as a reference direction. Since the angle of view in the vertical direction of the imaging unit 20 is θ and the number of the lines is n, the equation (5) is satisfied. Therefore, by appropriately using imaging of a plurality of lines projected on the object 34, The relative distance from the object 34 can be accurately calculated in a practical manner.

また、前記撮像部20により撮影された前記複数のラインに基づいて、前記複数の光束36にそれぞれ対応する前記対象物34との相対距離lを算出する距離算出部64を備えたものであるため、前記対象物34に投影された複数のラインの撮像を用いて、その対象物34との相対距離を具体的な数値として算出することができる。   In addition, since the apparatus includes a distance calculation unit 64 that calculates relative distances l from the objects 34 respectively corresponding to the plurality of light beams 36 based on the plurality of lines photographed by the imaging unit 20. Using the imaging of a plurality of lines projected on the object 34, the relative distance to the object 34 can be calculated as a specific numerical value.

また、前記撮像部20により撮影された前記複数のラインのうち少なくとも1つのラインが前記撮像部20におけるイメージセンサ52上に結像する位置に基づいて、前記掃除装置10が移動する領域の地図情報であるMAP58の作成を行うものであるため、前記対象物34に投影された複数のラインの撮像を適宜用いて、前記領域の地図情報を作成することができる。   Further, the map information of the region in which the cleaning device 10 moves based on the position where at least one line of the plurality of lines photographed by the imaging unit 20 forms an image on the image sensor 52 in the imaging unit 20. Since the MAP 58 is created, the map information of the area can be created by appropriately using the imaging of a plurality of lines projected on the object 34.

また、前記撮像部20により撮影された前記複数のラインのうち少なくとも1つのラインが前記撮像部20におけるイメージセンサ52上に結像する位置に基づいて、前記掃除装置10が移動する領域内における障害物の検出を行うものであるため、前記対象物34に投影された複数のラインの撮像を適宜用いて、前記領域内における障害物の存在を把握することができる。   Further, the obstacle in the region where the cleaning device 10 moves based on the position where at least one of the plurality of lines photographed by the imaging unit 20 forms an image on the image sensor 52 in the imaging unit 20. Since the object is detected, it is possible to grasp the presence of an obstacle in the region by appropriately using imaging of a plurality of lines projected on the object 34.

また、前記領域内における障害物の検出に用いられる光束36に対応するラインが前記撮像部20におけるイメージセンサ52上に結像する位置が、予め定められた規定位置よりも一部でも前記光源部18とは反対側となった場合には、前記障害物を検出したと判定するものであるため、前記対象物34に投影された複数のラインの撮像を適宜用いて、前記領域内における障害物の存在を好適且つ実用的な態様で把握することができる。   In addition, even if the position where the line corresponding to the light beam 36 used for the detection of the obstacle in the region forms an image on the image sensor 52 in the imaging unit 20 is part of the predetermined position, the light source unit When it is on the opposite side to 18, it is determined that the obstacle has been detected. Therefore, the obstacle in the region is appropriately used by imaging a plurality of lines projected on the object 34. Can be grasped in a suitable and practical manner.

また、前記イメージセンサ52上における、前記領域内における障害物の検出に用いられる光束36に対応するラインが結像する位置の変化速度が、予め定められた閾値よりも大きい場合には、前記障害物が移動体であると判定して回避移動を行うものであるため、前記対象物34に投影された複数のラインの撮像を適宜用いて、前記領域内における障害物の存在及びその移動を好適且つ実用的な態様で把握することができる。   In addition, when the change speed of the position where the line corresponding to the light beam 36 used for detecting the obstacle in the region on the image sensor 52 forms an image is larger than a predetermined threshold, the obstacle Since it is determined that the object is a moving body and the avoidance movement is performed, it is preferable to use the imaging of a plurality of lines projected on the object 34 to appropriately detect the presence of the obstacle in the region and its movement. And it can be grasped in a practical manner.

また、前記撮像部20により撮影された前記複数のラインのうち少なくとも1つのラインが前記撮像部20におけるイメージセンサ52上に結像する位置に基づいて、前記掃除装置10が移動する領域内における段差の検出を行うものであるため、前記対象物34に投影された複数のラインの撮像を適宜用いて、前記領域内における段差の存在を把握することができる。   Further, a step in an area where the cleaning device 10 moves based on a position where at least one line of the plurality of lines photographed by the imaging unit 20 forms an image on the image sensor 52 in the imaging unit 20. Therefore, it is possible to grasp the existence of a step in the region by appropriately using imaging of a plurality of lines projected on the object 34.

また、前記領域内における段差の検出に用いられる光束36に対応するラインが前記撮像部20におけるイメージセンサ52上に結像する位置が、予め定められた規定位置よりも一部でも前記光源部18側となった場合には、前記段差を検出したと判定するものであるため、前記対象物34に投影された複数のラインの撮像を適宜用いて、前記領域内における段差の存在を好適且つ実用的な態様で把握することができる。   In addition, the light source unit 18 has a position where a line corresponding to the light beam 36 used for detection of a step in the region forms an image on the image sensor 52 in the imaging unit 20 at a part of a predetermined position. When it is on the side, it is determined that the step has been detected. Therefore, the presence of the step in the region is suitably and practically used by appropriately imaging a plurality of lines projected on the object 34. Can be grasped in a specific manner.

また、前記光源部18は、前記撮像部20よりも垂直方向下方に設けられたものであるため、前記掃除装置10の垂直方向下方に位置するその掃除装置10の移動路面である床面32における段差の存在を好適に検出することができる。   Further, since the light source unit 18 is provided below the imaging unit 20 in the vertical direction, the light source unit 18 is provided on the floor surface 32 that is a moving road surface of the cleaning device 10 positioned below the cleaning device 10 in the vertical direction. Presence of a step can be suitably detected.

以上、本発明の好適な実施例を図面に基づいて詳細に説明したが、本発明はこれに限定されるものではなく、更に別の態様においても実施される。   The preferred embodiments of the present invention have been described in detail with reference to the drawings. However, the present invention is not limited to these embodiments, and may be implemented in other modes.

例えば、前述の実施例において、前記掃除装置10に備えられた光源部18は、前記対象物34においてそれぞれ水平方向のラインとして投影される、垂直方向に関してそれぞれ異なる方向の3つ(3方向)の光束36a、36b、36cをその対象物34に対して照射するものであったが、本発明はこれに限定されるものではなく、垂直方向に関してそれぞれ異なる方向に少なくとも2つ(2方向)の光束36を照射する光源部を備えたものであれば、本発明の一応の効果を奏する。また、垂直方向に関してそれぞれ異なる方向に4つ以上(4方向以上)の光束36を照射する光源部を備えたものであってもよい。また、前記光源部18と撮像部20との垂直方向の上下は、前記掃除装置10における態様には限定されず、例えば前記撮像部20が垂直方向上方、前記光源部18が垂直方向下方とされたものであっても構わない。   For example, in the above-described embodiment, the light source unit 18 provided in the cleaning device 10 is projected as three horizontal lines on the object 34, and is in three different directions with respect to the vertical direction (three directions). The light beams 36a, 36b, and 36c are applied to the object 34. However, the present invention is not limited to this, and at least two light beams (two directions) in different directions with respect to the vertical direction. If it has a light source part which irradiates 36, there will be a temporary effect of the present invention. Further, a light source unit that irradiates four or more (four or more directions) light beams 36 in different directions with respect to the vertical direction may be provided. In addition, the vertical direction of the light source unit 18 and the imaging unit 20 is not limited to the aspect of the cleaning device 10. For example, the imaging unit 20 is vertically upward and the light source unit 18 is vertically downward. It may be a thing.

また、前述の実施例において、前記掃除装置10は、略平面状(水平面状)を成す床面32上を相対的に移動するものであったが、前記床面34は必ずしも平面状でなくともよく、例えば若干の曲率を有する曲面や、水平面に対して傾斜を有する斜面等であってもよい。また、前述の実施例においては特に言及していないが、前記掃除装置10に備えられた移動機構22は、若干の障害物や段差を乗り超えてゆける構成であってもよい。斯かる態様において、前記障害物検出部68及び段差検出部72は、好適には、前記掃除装置10(移動機構22)が乗り超えてゆける障害物や段差は検出の対象としない。   Further, in the above-described embodiment, the cleaning device 10 moves relatively on the floor surface 32 having a substantially planar shape (horizontal plane), but the floor surface 34 is not necessarily flat. For example, it may be a curved surface having a slight curvature, a slope having an inclination with respect to a horizontal plane, or the like. Further, although not particularly mentioned in the above-described embodiment, the moving mechanism 22 provided in the cleaning device 10 may be configured to be able to get over some obstacles and steps. In such an aspect, the obstacle detection unit 68 and the step detection unit 72 preferably do not detect an obstacle or a step that the cleaning device 10 (the moving mechanism 22) can get over.

また、前述の実施例において、前記移動経路決定部60は、前記地図情報作成部66により作成された地図情報(MAP58)に基づいて前記掃除装置10の移動経路を決定するものであったが、本発明は、地図情報を作成してその地図情報に基づいて移動経路を決定するものに限定されず、必ずしも地図情報を作成するものでなくともよい。例えば、地図情報を作成することなく、前記障害物検出部68及び段差検出部72により障害物乃至段差が検出された場合には、それらを回避するように前記移動経路を決定する制御を行うものであってもよい。斯かる態様においては、前記地図情報を作成する態様に比べて前記掃除装置10の移動領域(掃除領域)内をくまなく移動(掃除)することができない場合がある反面、制御が簡単なものとなるという利点がある。   In the above-described embodiment, the movement route determination unit 60 determines the movement route of the cleaning device 10 based on the map information (MAP 58) created by the map information creation unit 66. The present invention is not limited to creating map information and determining a movement route based on the map information, and does not necessarily create map information. For example, when an obstacle or a level difference is detected by the obstacle detection unit 68 and the level difference detection unit 72 without creating map information, control is performed to determine the movement route so as to avoid them. It may be. In such an aspect, it may be impossible to move (clean) all over the moving area (cleaning area) of the cleaning device 10 as compared with the aspect of creating the map information, but the control is simple. There is an advantage of becoming.

その他、一々例示はしないが、本発明はその趣旨を逸脱しない範囲内において種々の変更が加えられて実施されるものである。   In addition, although not illustrated one by one, the present invention is implemented with various modifications within a range not departing from the gist thereof.

10:掃除装置(自律移動型機器)、18:光源部、20:撮像部、32s:段差、34:対象物(障害物)、36:光束、52:イメージセンサ(撮像面)、58:MAP(地図情報)、60:移動経路決定部、64:距離算出部、80:室(領域)   10: Cleaning device (autonomous mobile device), 18: Light source unit, 20: Imaging unit, 32s: Step, 34: Object (obstacle), 36: Light flux, 52: Image sensor (imaging surface), 58: MAP (Map information), 60: Movement route determination unit, 64: Distance calculation unit, 80: Room (region)

Claims (11)

自機で移動経路を決定して移動を行う自律移動型機器であって、
対象物においてそれぞれ水平方向のラインとして投影される複数の光束を該対象物に対して照射する光源部と、
該光源部との垂直方向の距離が規定値である位置に配置され、前記対象物に投影された前記複数のラインを撮影する撮像部と、
予め定められた関係から、前記撮像部により撮影された前記複数のラインが該撮像部における撮像面に結像する位置に基づいて、前記自律移動型機器の移動経路を決定する移動経路決定部と
を、備えたものであることを特徴とする自律移動型機器。
It is an autonomous mobile device that moves by determining its travel route on its own machine,
A light source unit that irradiates the object with a plurality of light beams projected as horizontal lines on the object;
An imaging unit that is arranged at a position where a vertical distance from the light source unit is a specified value and that captures the plurality of lines projected onto the object;
A movement path determination unit that determines a movement path of the autonomous mobile device based on positions where the plurality of lines photographed by the imaging unit form an image on an imaging surface in the imaging unit based on a predetermined relationship; An autonomous mobile device characterized by comprising
前記複数の光束のうち1つの光束の照射方向を基準方向として、該光束と隣接する照射方向に照射される光束の該照射方向と前記基準方向との角度βは、前記光源部と前記撮像部との垂直方向の距離をs、前記自律移動型機器により検出し得る前記対象物との相対距離をL1以上L2以下の範囲内として、
β>tan-1(s/L1)−tan-1(s/L2)
を満たすものである請求項1に記載の自律移動型機器。
The angle β between the irradiation direction of the light beam irradiated in the irradiation direction adjacent to the light beam and the reference direction with the irradiation direction of one light beam among the plurality of light beams as a reference direction is determined by the light source unit and the imaging unit. And the relative distance to the object that can be detected by the autonomous mobile device is within a range of L1 or more and L2 or less,
β> tan −1 (s / L1) −tan −1 (s / L2)
The autonomous mobile device according to claim 1, wherein:
前記複数の光束のうち1つの光束の照射方向を基準方向として、該光束と隣接する照射方向に照射される光束の該照射方向と前記基準方向との角度βは、前記撮像部の垂直方向の画角をθ、前記ラインの本数をnとして、
β<θ/(n−1)
を満たすものである請求項1又は2に記載の自律移動型機器。
With an irradiation direction of one of the plurality of light beams as a reference direction, an angle β between the irradiation direction of the light beam irradiated in the irradiation direction adjacent to the light beam and the reference direction is a vertical direction of the imaging unit. The angle of view is θ, and the number of lines is n.
β <θ / (n-1)
The autonomous mobile device according to claim 1 or 2, wherein:
前記撮像部により撮影された前記複数のラインに基づいて、前記複数の光束にそれぞれ対応する前記対象物との相対距離を算出する距離算出部を備えたものである請求項1から3の何れか1項に記載の自律移動型機器。   4. The apparatus according to claim 1, further comprising a distance calculation unit that calculates a relative distance from the object corresponding to each of the plurality of light fluxes based on the plurality of lines captured by the imaging unit. The autonomous mobile device according to item 1. 前記撮像部により撮影された前記複数のラインのうち少なくとも1つのラインが前記撮像部における撮像面に結像する位置に基づいて、前記自律移動型機器が移動する領域の地図情報の作成を行うものである請求項1から4の何れか1項に記載の自律移動型機器。   Creating map information of a region in which the autonomous mobile device moves based on a position where at least one line of the plurality of lines photographed by the imaging unit forms an image on an imaging surface in the imaging unit The autonomous mobile device according to any one of claims 1 to 4, wherein: 前記撮像部により撮影された前記複数のラインのうち少なくとも1つのラインが前記撮像部における撮像面に結像する位置に基づいて、前記自律移動型機器が移動する領域内における障害物の検出を行うものである請求項1から5の何れか1項に記載の自律移動型機器。   Based on a position where at least one line of the plurality of lines photographed by the imaging unit forms an image on the imaging surface of the imaging unit, an obstacle is detected in a region where the autonomous mobile device moves. The autonomous mobile device according to any one of claims 1 to 5, wherein the device is an autonomous mobile device. 前記領域内における障害物の検出に用いられる光束に対応するラインが前記撮像部における撮像面に結像する位置が、予め定められた規定位置よりも一部でも前記光源部とは反対側となった場合には、前記障害物を検出したと判定するものである請求項6に記載の自律移動型機器。   The position where the line corresponding to the light beam used for detecting the obstacle in the region forms an image on the imaging surface of the imaging unit is on the opposite side of the light source unit even at a part of the predetermined position. The autonomous mobile device according to claim 6, wherein when the obstacle is detected, it is determined that the obstacle has been detected. 前記撮像面における、前記領域内における障害物の検出に用いられる光束に対応するラインが結像する位置の変化速度が、予め定められた閾値よりも大きい場合には、前記障害物が移動体であると判定して回避移動を行うものである請求項7に記載の自律移動型機器。   When the change speed of the position where the line corresponding to the light beam used for the detection of the obstacle in the region on the imaging surface is larger than a predetermined threshold, the obstacle is a moving body. The autonomous mobile device according to claim 7, wherein it is determined to be present and the avoidance movement is performed. 前記撮像部により撮影された前記複数のラインのうち少なくとも1つのラインが前記撮像部における撮像面に結像する位置に基づいて、前記自律移動型機器が移動する領域内における段差の検出を行うものである請求項1から8の何れか1項に記載の自律移動型機器。   Detecting a step in a region where the autonomous mobile device moves based on a position where at least one of the plurality of lines photographed by the imaging unit forms an image on an imaging surface of the imaging unit The autonomous mobile device according to any one of claims 1 to 8. 前記領域内における段差の検出に用いられる光束に対応するラインが前記撮像部における撮像面に結像する位置が、予め定められた規定位置よりも一部でも前記光源部側となった場合には、前記段差を検出したと判定するものである請求項9に記載の自律移動型機器。   When a position where a line corresponding to a light beam used for detecting a step in the region forms an image on the imaging surface of the imaging unit is closer to the light source unit than a predetermined specified position. 10. The autonomous mobile device according to claim 9, wherein it is determined that the step is detected. 前記光源部は、前記撮像部よりも垂直方向下方に設けられたものである請求項1から10の何れか1項に記載の自律移動型機器。   The autonomous mobile device according to claim 1, wherein the light source unit is provided vertically below the imaging unit.
JP2012190528A 2012-08-30 2012-08-30 Autonomous mobile device Pending JP2014048842A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012190528A JP2014048842A (en) 2012-08-30 2012-08-30 Autonomous mobile device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012190528A JP2014048842A (en) 2012-08-30 2012-08-30 Autonomous mobile device

Publications (1)

Publication Number Publication Date
JP2014048842A true JP2014048842A (en) 2014-03-17

Family

ID=50608467

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012190528A Pending JP2014048842A (en) 2012-08-30 2012-08-30 Autonomous mobile device

Country Status (1)

Country Link
JP (1) JP2014048842A (en)

Cited By (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150124011A (en) * 2014-04-25 2015-11-05 에브리봇 주식회사 Distance sensor, robot cleaner and control method thereof
KR20150124013A (en) * 2014-04-25 2015-11-05 에브리봇 주식회사 Distance sensor, robot cleaner and control method thereof
CN105615778A (en) * 2016-01-22 2016-06-01 杭州信多达电器有限公司 Sweeper with infrared camera shooting function
WO2016104640A1 (en) * 2014-12-25 2016-06-30 株式会社東芝 Electric vacuum cleaner
KR20160122520A (en) * 2015-04-14 2016-10-24 엘지전자 주식회사 Robot cleaner and method for controlling the same
CN106137057A (en) * 2015-04-15 2016-11-23 小米科技有限责任公司 Clean robot and robot collision-proof method
WO2017029982A1 (en) * 2015-08-14 2017-02-23 ソニー株式会社 Moving body, information processing device, moving body system, information processing method, and information processing program
JP2017070558A (en) * 2015-10-08 2017-04-13 東芝ライフスタイル株式会社 Vacuum cleaner
CN107175645A (en) * 2017-07-05 2017-09-19 深圳悉罗机器人有限公司 Mobile robot
JP2017536871A (en) * 2014-10-24 2017-12-14 エルジー エレクトロニクス インコーポレイティド Robot cleaner and control method thereof
JP2018068896A (en) * 2016-11-02 2018-05-10 東芝ライフスタイル株式会社 Electric vacuum cleaner
JP2018142276A (en) * 2017-02-28 2018-09-13 株式会社イージスモスジャパン Route searching system and route searching method
US10342405B2 (en) 2016-05-20 2019-07-09 Lg Electronics Inc. Autonomous cleaner
US10342400B2 (en) 2016-05-20 2019-07-09 Lg Electronics Inc. Autonomous cleaner
US10349798B2 (en) 2016-05-17 2019-07-16 Lg Electronics Inc. Mobile robot and method of controlling the same
JPWO2018074117A1 (en) * 2016-10-18 2019-07-18 株式会社日立製作所 Mobile device and mobile device management system
US10362916B2 (en) 2016-05-20 2019-07-30 Lg Electronics Inc. Autonomous cleaner
US10398276B2 (en) 2016-05-20 2019-09-03 Lg Electronics Inc. Autonomous cleaner
US10420448B2 (en) 2016-05-20 2019-09-24 Lg Electronics Inc. Autonomous cleaner
US10441128B2 (en) 2016-05-20 2019-10-15 Lg Electronics Inc. Autonomous cleaner
CN110353583A (en) * 2019-08-21 2019-10-22 追创科技(苏州)有限公司 The autocontrol method of sweeping robot and sweeping robot
US10463212B2 (en) 2016-05-20 2019-11-05 Lg Electronics Inc. Autonomous cleaner
US10463221B2 (en) 2016-05-20 2019-11-05 Lg Electronics Inc. Autonomous cleaner
US10481611B2 (en) 2016-05-20 2019-11-19 Lg Electronics Inc. Autonomous cleaner
CN110621208A (en) * 2017-06-02 2019-12-27 伊莱克斯公司 Method for detecting a height difference of a surface in front of a robotic cleaning device
US10517456B2 (en) 2016-05-17 2019-12-31 Lg Electronics Inc. Mobile robot and method of controlling the same
US10524628B2 (en) 2016-05-20 2020-01-07 Lg Electronics Inc. Autonomous cleaner
US10656656B2 (en) 2016-05-17 2020-05-19 Lg Electronics Inc. Mobile robot and method for controlling and detecting inclination using pattern light
TWI698213B (en) * 2016-05-20 2020-07-11 南韓商Lg電子股份有限公司 Robot cleaner
CN112153928A (en) * 2018-05-16 2020-12-29 Lg电子株式会社 Sweeper and control method thereof
US11099554B2 (en) 2015-04-17 2021-08-24 Aktiebolaget Electrolux Robotic cleaning device and a method of controlling the robotic cleaning device
US11169533B2 (en) 2016-03-15 2021-11-09 Aktiebolaget Electrolux Robotic cleaning device and a method at the robotic cleaning device of performing cliff detection
WO2022252849A1 (en) * 2021-06-02 2022-12-08 北京石头创新科技有限公司 Self-moving device
US11844474B2 (en) 2015-04-24 2023-12-19 Avidbots Corp. Apparatus and methods for semi-autonomous cleaning of surfaces

Cited By (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150124011A (en) * 2014-04-25 2015-11-05 에브리봇 주식회사 Distance sensor, robot cleaner and control method thereof
KR20150124013A (en) * 2014-04-25 2015-11-05 에브리봇 주식회사 Distance sensor, robot cleaner and control method thereof
KR101578861B1 (en) 2014-04-25 2015-12-21 에브리봇 주식회사 Distance sensor, robot cleaner and control method thereof
KR101578884B1 (en) 2014-04-25 2015-12-29 에브리봇 주식회사 Distance sensor, robot cleaner and control method thereof
US10238258B2 (en) 2014-10-24 2019-03-26 Lg Electronics Inc. Robot cleaner and method for controlling the same
JP2017536871A (en) * 2014-10-24 2017-12-14 エルジー エレクトロニクス インコーポレイティド Robot cleaner and control method thereof
JP2016120168A (en) * 2014-12-25 2016-07-07 株式会社東芝 Vacuum cleaner
WO2016104640A1 (en) * 2014-12-25 2016-06-30 株式会社東芝 Electric vacuum cleaner
US10314452B2 (en) 2014-12-25 2019-06-11 Toshiba Lifestyle Products & Services Corporation Vacuum cleaner
KR20160122520A (en) * 2015-04-14 2016-10-24 엘지전자 주식회사 Robot cleaner and method for controlling the same
KR102307777B1 (en) * 2015-04-14 2021-10-05 엘지전자 주식회사 Robot cleaner and method for controlling the same
CN106137057A (en) * 2015-04-15 2016-11-23 小米科技有限责任公司 Clean robot and robot collision-proof method
CN106137057B (en) * 2015-04-15 2018-10-19 小米科技有限责任公司 Clean robot and robot collision-proof method
US11099554B2 (en) 2015-04-17 2021-08-24 Aktiebolaget Electrolux Robotic cleaning device and a method of controlling the robotic cleaning device
US11844474B2 (en) 2015-04-24 2023-12-19 Avidbots Corp. Apparatus and methods for semi-autonomous cleaning of surfaces
WO2017029982A1 (en) * 2015-08-14 2017-02-23 ソニー株式会社 Moving body, information processing device, moving body system, information processing method, and information processing program
JPWO2017029982A1 (en) * 2015-08-14 2018-05-31 ソニー株式会社 MOBILE BODY, INFORMATION PROCESSING DEVICE, MOBILE BODY SYSTEM, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING PROGRAM
US11886192B2 (en) 2015-08-14 2024-01-30 Sony Group Corporation Mobile body, information processor, mobile body system, information processing method, and information processing program
US10761533B2 (en) 2015-08-14 2020-09-01 Sony Corporation Mobile body, information processor, mobile body system, information processing method, and information processing program
US11409294B2 (en) 2015-08-14 2022-08-09 Sony Corporation Mobile body, information processor, mobile body system, information processing method, and information processing program
JP2017070558A (en) * 2015-10-08 2017-04-13 東芝ライフスタイル株式会社 Vacuum cleaner
CN105615778A (en) * 2016-01-22 2016-06-01 杭州信多达电器有限公司 Sweeper with infrared camera shooting function
CN105615778B (en) * 2016-01-22 2017-12-22 杭州信多达电器有限公司 Sweeper with infrared camera shooting function
US11169533B2 (en) 2016-03-15 2021-11-09 Aktiebolaget Electrolux Robotic cleaning device and a method at the robotic cleaning device of performing cliff detection
US10656656B2 (en) 2016-05-17 2020-05-19 Lg Electronics Inc. Mobile robot and method for controlling and detecting inclination using pattern light
US10456004B2 (en) 2016-05-17 2019-10-29 Lg Electronics Inc. Mobile robot
US10349798B2 (en) 2016-05-17 2019-07-16 Lg Electronics Inc. Mobile robot and method of controlling the same
US10517456B2 (en) 2016-05-17 2019-12-31 Lg Electronics Inc. Mobile robot and method of controlling the same
US10524628B2 (en) 2016-05-20 2020-01-07 Lg Electronics Inc. Autonomous cleaner
TWI698213B (en) * 2016-05-20 2020-07-11 南韓商Lg電子股份有限公司 Robot cleaner
US10463212B2 (en) 2016-05-20 2019-11-05 Lg Electronics Inc. Autonomous cleaner
US10463221B2 (en) 2016-05-20 2019-11-05 Lg Electronics Inc. Autonomous cleaner
US10481611B2 (en) 2016-05-20 2019-11-19 Lg Electronics Inc. Autonomous cleaner
US11547263B2 (en) 2016-05-20 2023-01-10 Lg Electronics Inc. Autonomous cleaner
US10441128B2 (en) 2016-05-20 2019-10-15 Lg Electronics Inc. Autonomous cleaner
US10398276B2 (en) 2016-05-20 2019-09-03 Lg Electronics Inc. Autonomous cleaner
US10362916B2 (en) 2016-05-20 2019-07-30 Lg Electronics Inc. Autonomous cleaner
US11846937B2 (en) 2016-05-20 2023-12-19 Lg Electronics Inc. Autonomous cleaner
US10939792B2 (en) 2016-05-20 2021-03-09 Lg Electronics Inc. Autonomous cleaner
US10420448B2 (en) 2016-05-20 2019-09-24 Lg Electronics Inc. Autonomous cleaner
US10827895B2 (en) 2016-05-20 2020-11-10 Lg Electronics Inc. Autonomous cleaner
US10827896B2 (en) 2016-05-20 2020-11-10 Lg Electronics Inc. Autonomous cleaner
US10835095B2 (en) 2016-05-20 2020-11-17 Lg Electronics Inc. Autonomous cleaner
US10856714B2 (en) 2016-05-20 2020-12-08 Lg Electronics Inc. Autonomous cleaner
US10342400B2 (en) 2016-05-20 2019-07-09 Lg Electronics Inc. Autonomous cleaner
US10342405B2 (en) 2016-05-20 2019-07-09 Lg Electronics Inc. Autonomous cleaner
JPWO2018074117A1 (en) * 2016-10-18 2019-07-18 株式会社日立製作所 Mobile device and mobile device management system
US11046373B2 (en) 2016-10-18 2021-06-29 Hitachi, Ltd. Mobile device and mobile device management system
JP2018068896A (en) * 2016-11-02 2018-05-10 東芝ライフスタイル株式会社 Electric vacuum cleaner
US11119484B2 (en) 2016-11-02 2021-09-14 Toshiba Lifestyle Products & Services Corporation Vacuum cleaner and travel control method thereof
JP7038355B2 (en) 2017-02-28 2022-03-18 株式会社イージスモスジャパン Route search system and route search method
JP2018142276A (en) * 2017-02-28 2018-09-13 株式会社イージスモスジャパン Route searching system and route searching method
JP2020522288A (en) * 2017-06-02 2020-07-30 アクチエボラゲット エレクトロルックス How to detect level differences on the front surface of a robot cleaning device
US11474533B2 (en) 2017-06-02 2022-10-18 Aktiebolaget Electrolux Method of detecting a difference in level of a surface in front of a robotic cleaning device
CN110621208A (en) * 2017-06-02 2019-12-27 伊莱克斯公司 Method for detecting a height difference of a surface in front of a robotic cleaning device
CN107175645A (en) * 2017-07-05 2017-09-19 深圳悉罗机器人有限公司 Mobile robot
CN112153928A (en) * 2018-05-16 2020-12-29 Lg电子株式会社 Sweeper and control method thereof
CN112153928B (en) * 2018-05-16 2022-04-01 Lg电子株式会社 Sweeper and control method thereof
WO2021031427A1 (en) * 2019-08-21 2021-02-25 追创科技(苏州)有限公司 Sweeping robot and automated control method for sweeping robot
CN110353583A (en) * 2019-08-21 2019-10-22 追创科技(苏州)有限公司 The autocontrol method of sweeping robot and sweeping robot
WO2022252849A1 (en) * 2021-06-02 2022-12-08 北京石头创新科技有限公司 Self-moving device

Similar Documents

Publication Publication Date Title
JP2014048842A (en) Autonomous mobile device
EP3459691B1 (en) Robot vacuum cleaner
US9180596B2 (en) Robot cleaner and method of operating the same
EP3104194B1 (en) Robot positioning system
KR101620427B1 (en) Method of controlling robot cleaner
KR101542498B1 (en) Robot cleaner and method for detecting position thereof
KR102070283B1 (en) Cleaner and controlling method thereof
US20130000675A1 (en) Robot cleaner and control method thereof
KR102147207B1 (en) Moving Robot and controlling method
JP2013072878A (en) Obstacle sensor and robot cleaner having the same
US9739874B2 (en) Apparatus for detecting distances in two directions
JP2014021625A (en) Distance measurement system
KR102167898B1 (en) Moving Robot and controlling method
KR100825919B1 (en) Distance measurement sensor, moving robot having the distance measurement sensor and driving method for moving robot using the moving robot
EP3795051B1 (en) Cleaner and method for controlling same
KR20170129571A (en) Robot cleaner
JP5187068B2 (en) Three-dimensional shape measuring apparatus and three-dimensional shape measuring method
KR102048364B1 (en) Robot cleaner
JP2010145199A (en) Recognition method and recognition system using barcode, and control method and control system using barcode
KR102430113B1 (en) Robot cleaner
CN219609490U (en) Self-moving equipment
TW201232213A (en) Unmanned device and method for controlling the same
KR20190003846A (en) Moving Robot and controlling method
KR20150032446A (en) 3-Dimensional Scanning Method and Scanner Device
TWI428856B (en) Device and method for detecting moving of object