JP2022130228A - Point group processing device and robot system - Google Patents

Point group processing device and robot system Download PDF

Info

Publication number
JP2022130228A
JP2022130228A JP2021029294A JP2021029294A JP2022130228A JP 2022130228 A JP2022130228 A JP 2022130228A JP 2021029294 A JP2021029294 A JP 2021029294A JP 2021029294 A JP2021029294 A JP 2021029294A JP 2022130228 A JP2022130228 A JP 2022130228A
Authority
JP
Japan
Prior art keywords
point
point cloud
point group
wall surface
group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021029294A
Other languages
Japanese (ja)
Inventor
智典 中村
Tomonori Nakamura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2021029294A priority Critical patent/JP2022130228A/en
Publication of JP2022130228A publication Critical patent/JP2022130228A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Electric Vacuum Cleaner (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Image Analysis (AREA)

Abstract

To effectively reduce a point group obtained from a detector.SOLUTION: A point group processing device 160 includes: a point group acquisition unit 161 configured to acquire a point group, which is a plurality of point data, from a detector 110 that acquires, for a plurality of different detection points, point data indicating relative positions of detection points on the surface of an object existing in a room; a wall surface point group extraction unit 162 configured to extract a wall surface point group, which is a point group belonging to a wall surface of the room, by rectangular fitting applied to the acquired point group; and a partition point group extraction unit 163 configured to extract a parallel point group separated from the extracted wall surface point group by a predetermined distance or more and parallel to the wall surface point group, and extract a partition point group for partitioning the room from the wall surface point group and the parallel point group.SELECTED DRAWING: Figure 4

Description

本発明は、対象物表面の検出点についての相対的な位置を検出する検出器から得られる点群を処理する点群処理装置、および点群処理装置を備えるロボットシステムに関する。 The present invention relates to a point cloud processing device for processing a point cloud obtained from a detector that detects relative positions of detection points on the surface of an object, and a robot system provided with the point cloud processing device.

ライダ(LiDAR:Laser Imaging Detection and Ranging)センサなど対象物表面の複数箇所に対応する検出点の相対的な位置を、光を用いて検出する検出器を利用して部屋の壁や部屋内に配置される物体を識別する技術が存在している。例えば、特許文献1には、複数のタイミングで同一地点に配置される検出器から得られる複数の点データを含む点群から、床面や壁面などの背景領域に属する点群である背景点群を抽出し、点群と背景点群との差分から物体が存在する領域を抽出する技術が提案されている。 LiDAR (Laser Imaging Detection and Ranging) sensors, etc., are placed on the walls of a room or within a room using detectors that detect the relative positions of detection points corresponding to multiple locations on the surface of an object using light. Techniques exist for identifying objects that are For example, in Patent Document 1, a background point group, which is a point group belonging to a background area such as a floor surface or a wall surface, is extracted from a point group including a plurality of point data obtained from detectors arranged at the same point at a plurality of timings. is extracted, and an area where an object exists is extracted from the difference between the point cloud and the background point cloud.

特開2019-219248号公報JP 2019-219248 A

しかしながら、壁面に沿って家具、家電、荷物、観葉植物などの物体が配置される場合、検出器の光が到達しない物体の裏側の形状については点データを取得することができない。そのため、検出器を移動させて物体の側方などから物体の裏側の形状を検出する工程が必要となるなど煩雑な処理が必要であった。 However, when objects such as furniture, home appliances, luggage, and foliage plants are arranged along the wall surface, point data cannot be obtained for the shape of the back side of the object where the light from the detector does not reach. Therefore, complicated processing is required, such as a step of moving the detector to detect the shape of the back side of the object from the side of the object.

本発明は、上記課題に鑑みなされたものであり、検出器から得られる点群から部屋内に配置される物体を迅速に抽出する点群処理装置、および点群処理装置を備えるロボットシステムの提供を目的とする。 SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and provides a point cloud processing device for quickly extracting objects placed in a room from a point cloud obtained from a detector, and a robot system equipped with the point cloud processing device. With the goal.

上記目的を達成するために、本発明の1つである点群処理装置は、部屋内に存在する対象物表面の検出点についての相対的な位置を示す点データを異なる複数の検出点について取得する検出器から複数の前記点データである点群を取得する点群取得部と、取得した前記点群に対して矩形フィッティングにより前記部屋の壁面に属する点群である壁面点群を抽出する壁面点群抽出部と、抽出した前記壁面点群から所定距離以上離間し前記壁面点群と平行な平行点群を抽出し、前記壁面点群と前記平行点群とから前記部屋を間仕切る間仕切り点群を抽出する間仕切り点群抽出部と、を備える。 To achieve the above object, a point cloud processing apparatus according to one aspect of the present invention acquires point data indicating relative positions of detection points on a surface of an object existing in a room for a plurality of different detection points. a point cloud acquisition unit that acquires a point cloud that is a plurality of the point data from the detector, and a wall surface that extracts a wall surface point cloud that is a point cloud belonging to the wall surface of the room by rectangular fitting to the acquired point cloud. A point cloud extraction unit extracts a parallel point group separated from the extracted wall surface point group by a predetermined distance or more and parallel to the wall surface point group, and partitioning the room from the wall surface point group and the parallel point group. and a partitioning point group extracting unit for extracting the group.

上記目的を達成するために、本発明の他の1つであるロボットシステムは、自律走行するロボットと、前記ロボットに取り付けられ、部屋内に存在する対象物表面の検出点についての相対的な位置を示す点データを異なる複数の検出点について取得する検出器と、前記検出器から得られる点群を処理する点群処理装置と、を備え、前記点群処理装置は、前記検出器から複数の前記点データである点群を取得する点群取得部と、取得した前記点群に対して矩形フィッティングにより前記部屋の壁面に属する点群である壁面点群を抽出する壁面点群抽出部と、抽出した前記壁面点群から所定距離以上離間し前記壁面点群と平行な平行点群を抽出し、前記壁面点群と前記平行点群とから前記部屋を間仕切る間仕切り点群を抽出する間仕切り点群抽出部と、を備える。 In order to achieve the above object, another robot system of the present invention includes a robot that runs autonomously, and a robot system that is attached to the robot and detects relative positions of detection points on the surface of an object existing in a room. A detector that acquires point data indicating a plurality of different detection points, and a point group processing device that processes a point group obtained from the detector, wherein the point group processing device includes a plurality of A point cloud acquisition unit that acquires the point cloud that is the point data, and a wall surface point cloud extraction unit that extracts the wall surface point cloud that is the point cloud belonging to the wall surface of the room by rectangular fitting to the acquired point cloud, A partition point for extracting a parallel point group separated from the extracted wall surface point group by a predetermined distance or more and parallel to the wall surface point group, and extracting a partition point group for partitioning the room from the wall surface point group and the parallel point group. and a group extraction unit.

本発明によれば、検出器から得られる点群の情報量を削減して部屋内に配置される物体抽出処理の迅速化に寄与することができる。 According to the present invention, it is possible to reduce the amount of information of the point cloud obtained from the detector and contribute to speeding up the process of extracting objects arranged in the room.

実施の形態に係るロボットシステムの外観を示す平面図である。1 is a plan view showing an appearance of a robot system according to an embodiment; FIG. 実施の形態に係るロボットシステムの外観を示す底面図である。It is a bottom view showing the appearance of the robot system according to the embodiment. 実施の形態に係るロボットシステムの外観を示す斜視図である。1 is a perspective view showing an appearance of a robot system according to an embodiment; FIG. 実施の形態に係る点群処理装置の機能構成を示すブロック図である。It is a block diagram which shows the functional structure of the point-group processing apparatus which concerns on embodiment. 実施の形態に係る検出器から取得した点群をマッピングした図である。It is the figure which mapped the point cloud acquired from the detector which concerns on embodiment. 点群に矩形をフィッティングさせた状態を示す図である。It is a figure which shows the state which fitted the rectangle to the point cloud. 点群から壁面点群、および間仕切り点群を除去し残存した物体点群を示す図である。FIG. 10 is a diagram showing an object point group remaining after removing a wall point group and a partition point group from the point group; 異なる時刻の物体点群の差分である移動点群を示す図である。FIG. 10 is a diagram showing a moving point cloud that is a difference between object point clouds at different times; 異なる時刻の移動点群により導出される動きベクトルを示す図である。FIG. 4 is a diagram showing motion vectors derived from moving point groups at different times;

以下、本発明に係る点群処理装置、およびロボットシステムの実施の形態について、図面を参照しつつ説明する。なお、以下の実施の形態は、本発明を説明するために一例を挙示するものであり、本発明を限定する主旨ではない。例えば、以下の実施の形態において示される形状、構造、材料、構成要素、相対的位置関係、接続状態、数値、数式、方法における各段階の内容、各段階の順序などは、一例であり、以下に記載されていない内容を含む場合がある。また、平行、直交などの幾何学的な表現を用いる場合があるが、これらの表現は、数学的な厳密さを示すものではなく、実質的に許容される誤差、ずれなどが含まれる。また、同時、同一などの表現も、実質的に許容される範囲を含んでいる。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of a point group processing apparatus and a robot system according to the present invention will be described with reference to the drawings. It should be noted that the following embodiments are examples for explaining the present invention, and are not intended to limit the present invention. For example, the shapes, structures, materials, constituent elements, relative positional relationships, connection states, numerical values, formulas, contents of each step in the method, order of each step, etc. shown in the following embodiments are examples, and are described below. may include content not listed in In addition, geometric expressions such as parallel and orthogonal are sometimes used, but these expressions do not indicate mathematical rigor, and substantially allowable errors, deviations, and the like are included. Expressions such as "simultaneous" and "identical" also include substantially permissible ranges.

また、図面は、本発明を説明するために適宜強調、省略、または比率の調整を行った模式的な図となっており、実際の形状、位置関係、および比率とは異なる。 In addition, the drawings are schematic diagrams that have been appropriately emphasized, omitted, or adjusted in proportion in order to explain the present invention, and are different from the actual shape, positional relationship, and proportion.

また、以下では複数の発明を一つの実施の形態として包括的に説明する場合がある。また、以下に記載する内容の一部は、本発明に関する任意の構成要素として説明している。 Further, in some cases, a plurality of inventions will be collectively described as one embodiment below. Also, some of the contents described below are described as optional components related to the present invention.

図1は、実施の形態に係るロボットシステムの外観を示す平面図である。図2は、実施の形態に係るロボットシステムの外観を示す底面図である。図3は、実施の形態に係るロボットシステムの外観を示す斜視図である。これらの図に示されるように、ロボットシステム100は、部屋内を自律的に走行し床面に存在する塵埃、汚れなどを掃除する自律走行型のロボット掃除機であり、ロボット120と、検出器110と、点群処理装置160と、を備えている。 FIG. 1 is a plan view showing the appearance of the robot system according to the embodiment. FIG. 2 is a bottom view showing the appearance of the robot system according to the embodiment. FIG. 3 is a perspective view showing the appearance of the robot system according to the embodiment. As shown in these figures, the robot system 100 is an autonomously traveling robot cleaner that autonomously travels in a room and cleans dust, dirt, etc. existing on the floor surface. 110 and a point cloud processing device 160 .

ロボット120は、各種の構成要素が搭載され、自律的に走行しながら掃除を行う装置であり、ロボット120を移動させる駆動ユニット130(図2参照)、部屋内に存在する塵埃、ごみなどを掃除する掃除ユニット140(図2参照)、ごみをロボット120の内部に吸引する吸引ユニット150、駆動ユニット130と、掃除ユニット140と、吸引ユニット150とを制御する制御装置170、および検出器110とは異なる各種センサを備えている。 The robot 120 is equipped with various components and is a device that performs cleaning while autonomously running. cleaning unit 140 (see FIG. 2), suction unit 150 for sucking dust into robot 120, controller 170 for controlling drive unit 130, cleaning unit 140, and suction unit 150, and detector 110. It has different sensors.

ロボット120の外周部にはロボット120に対して変位可能なバンパが取り付けられている。また、図2に示されるとおり、ロボット120は、ごみをロボット120の内部に吸引するための吸込口121が設けられている。 A bumper that can be displaced with respect to the robot 120 is attached to the outer periphery of the robot 120 . Further, as shown in FIG. 2, the robot 120 is provided with a suction port 121 for sucking dust into the robot 120 .

駆動ユニット130は、制御装置170からの指示に基づきロボットシステム100を走行させる装置である。本実施の形態の場合、駆動ユニット130は、ロボット120の平面視における幅方向の中心に対して左側および右側にそれぞれ1つずつ配置されている。なお、駆動ユニット130の数は、2つに限られず、1つでもよいし、3つ以上でもよい。 The drive unit 130 is a device that causes the robot system 100 to travel based on instructions from the control device 170 . In the case of the present embodiment, one drive unit 130 is arranged on each of the left side and the right side of the center of the width direction of the robot 120 in plan view. The number of drive units 130 is not limited to two, and may be one or three or more.

駆動ユニット130は、床面上を走行するホイール、ホイールにトルクを与える走行用モータ、および、走行用モータを収容するハウジングを有する。各ホイールは、ロボット120の下面に形成される凹部に収容され、ロボット120に対して回転できるように取り付けられている。 The drive unit 130 has a wheel that travels on the floor surface, a travel motor that applies torque to the wheel, and a housing that houses the travel motor. Each wheel is housed in a recess formed in the bottom surface of the robot 120 and attached to the robot 120 so as to be rotatable.

本実施の形態のロボットシステム100の駆動方式は、キャスター179を補助輪として備えた対向二輪型であり、2つのホイールの回転を独立して制御することで、直進、後退、左回転、右回転などロボット120を自在に走行させることができる。 The drive system of the robot system 100 of the present embodiment is of a two-wheel opposed type having casters 179 as auxiliary wheels. etc., the robot 120 can be made to run freely.

掃除ユニット140は、吸込口121からごみを吸い込ませるためのユニットであり、吸込口121内に配置されるメインブラシ、吸込口121にゴミをあつめるサイドブラシ、各ブラシをそれぞれ回転させるブラシ駆動モータなどを備えている。 The cleaning unit 140 is a unit for sucking dust from the suction port 121, and includes a main brush arranged in the suction port 121, a side brush for collecting dust in the suction port 121, a brush driving motor for rotating each brush, and the like. It has

吸引ユニット150は、ロボット120の内部に配置されており、ファンケース、および、ファンケースの内部に配置される電動ファンを有する。電動ファンは、ごみ箱ユニット151の内部の空気を吸引し、ロボット120の外方に空気を吐出させることにより、吸込口121からごみを吸い込み、ごみ箱ユニット151内にごみを収容する。 The suction unit 150 is arranged inside the robot 120 and has a fan case and an electric fan arranged inside the fan case. The electric fan sucks the air inside the dustbin unit 151 and discharges the air to the outside of the robot 120 , thereby sucking the dust from the suction port 121 and storing the dust in the dustbin unit 151 .

ロボット120が備える検出器110以外のセンサとして以下の様なセンサが例示できる。なおロボット120は、これらのセンサ以外のセンサを備えてもよく、これらのセンサの少なくとも一つを備えなくてもかまわない。 Examples of sensors other than the detector 110 provided in the robot 120 include the following sensors. The robot 120 may be provided with sensors other than these sensors, or may not be provided with at least one of these sensors.

障害物センサ173は、ロボット120の前方に存在する物体の存在の有無を検出するセンサである。本実施の形態の場合、障害物センサ173は、超音波センサが用いられる。障害物センサ173は、ロボット120の前方の中央に配置される発信部171、および、発信部171の両側にそれぞれ配置される受信部172を有し、発信部171から発信されて障害物によって反射して帰ってきた超音波を受信部172がそれぞれ受信することで、障害物の距離や位置を検出することができる。 The obstacle sensor 173 is a sensor that detects the presence or absence of an object existing in front of the robot 120 . In the case of this embodiment, an ultrasonic sensor is used as the obstacle sensor 173 . The obstacle sensor 173 has a transmitter 171 arranged in the front center of the robot 120, and receivers 172 arranged on both sides of the transmitter 171. The sensor 173 is transmitted from the transmitter 171 and reflected by obstacles. The distance and position of the obstacle can be detected by the receiving unit 172 receiving each of the ultrasonic waves that have returned.

近接センサ174は、障害物センサ173が検出する物体とは異なる物体、障害物センサ173が検出する物体とは異なる距離に存在する物体などの有無を検出する。本実施の形態の場合、近接センサ174は、発光部および受光部を有する赤外線センサであり、障害物に反射した赤外線が戻ってくるか否かに基づき物体の有無を検出する。 The proximity sensor 174 detects the presence or absence of an object different from the object detected by the obstacle sensor 173, an object existing at a different distance from the object detected by the obstacle sensor 173, and the like. In the case of this embodiment, the proximity sensor 174 is an infrared sensor having a light-emitting portion and a light-receiving portion, and detects the presence or absence of an object based on whether the infrared rays reflected by the obstacle return.

衝突センサ(図示せず)は、ロボット120の周囲に取り付けられているバンパが、障害物に接触してロボット120に対して押し込まれることに伴いオンされる接触変位センサである。 A collision sensor (not shown) is a contact displacement sensor that is turned on when a bumper attached to the periphery of the robot 120 contacts an obstacle and is pushed into the robot 120 .

床面センサ176は、ロボット120の底面の複数箇所に配置され、床面が存在するか否かを検出する。本実施の形態の場合、床面センサ176は、発光部および受光部を有する赤外線センサであり、発光部から放射した赤外光が戻ってくる場合は床面有り、閾値以下の光しか戻ってこない場合は床面無しとして検出する。 The floor surface sensors 176 are arranged at a plurality of locations on the bottom surface of the robot 120 and detect whether or not there is a floor surface. In the case of this embodiment, the floor surface sensor 176 is an infrared sensor having a light-emitting portion and a light-receiving portion. If not, it is detected as no floor.

エンコーダは、駆動ユニット130に備えられており、走行用モータによって回転する
一対のホイールのそれぞれの回転角を検出する。エンコーダからの情報により、ロボットシステム100の走行量、旋回角度、速度、加速度、角速度などを算出することができる。
The encoder is provided in the drive unit 130 and detects the respective rotation angles of the pair of wheels rotated by the driving motor. Information from the encoder can be used to calculate the travel distance, turning angle, speed, acceleration, angular velocity, and the like of the robot system 100 .

加速度センサは、ロボットシステム100が走行する際の加速度を検出し、角速度センサは、ロボットシステム100が旋回する際の角速度を検出する。加速度センサ、角速度センサにより検出された情報は、ホイールの空回りによって発生する誤差を修正するための情報等に用いられる。 The acceleration sensor detects acceleration when robot system 100 runs, and the angular velocity sensor detects angular velocity when robot system 100 turns. Information detected by the acceleration sensor and the angular velocity sensor is used as information for correcting an error caused by wheel idling.

検出器110は、ロボット120に取り付けられ、ロボット120の掃除対象である部屋内に存在する壁、物体などの対象物の表面の検出点についての相対的な位置を示す点データを異なる複数の検出点について取得するいわゆる3Dセンサである。検出器110の種類は、特に限定されるものではなく、レーザー光をロボット120の周囲に360°回転させながら放射して反射する光を所定の角度毎に取得して極座標と距離とから対象物表面の各検出点の位置を検出するLiDARセンサ、赤外光などを放射し反射する光を撮像素子で受光することによりピクセル単位で物体との距離を分解して取得するToF(Time of Flight)カメラなどを例示することができる。 The detector 110 is attached to the robot 120 and detects a plurality of different point data indicating relative positions of detection points on surfaces of objects such as walls and objects existing in a room to be cleaned by the robot 120 . It is a so-called 3D sensor that acquires points. The type of the detector 110 is not particularly limited, and the laser light is rotated 360 degrees around the robot 120, and the reflected light is acquired at each predetermined angle to detect the object from the polar coordinates and the distance. A LiDAR sensor that detects the position of each detection point on the surface, and a ToF (Time of Flight) that resolves and acquires the distance to the object in pixel units by receiving light that is emitted and reflected by an image sensor with an image sensor. A camera etc. can be illustrated.

本実施の形態の場合、検出器110は、ロボット120の上面部に上方に向かって突出状に設けられ、ロボット120が走行する床面に平行で床面からの所定の高さ位置(例えば20cm以内に設定される)における対象物表面の検出点の位置を示す点データを取得するLiDARセンサである。具体的に検出器110は、所定の高さ位置の水平面内において検出器110を中心としてレーザー光を回転させ所定の角度(例えば5°)毎に反射光を受光して検出点までの距離と受光時の角度に基づき二次元の極座標により検出点の位置を示す点データを検出する。 In this embodiment, the detector 110 is provided on the upper surface of the robot 120 so as to protrude upward, parallel to the floor on which the robot 120 runs, and at a predetermined height (for example, 20 cm) from the floor. A LiDAR sensor that acquires point data indicating the position of a detection point on the surface of an object in a set within ). Specifically, the detector 110 rotates laser light around the detector 110 in a horizontal plane at a predetermined height position, receives reflected light at each predetermined angle (for example, 5°), and measures the distance to the detection point. Point data indicating the position of the detection point is detected by two-dimensional polar coordinates based on the angle at the time of light reception.

図4は、点群処理装置の機能構成を示すブロック図である。点群処理装置160は、検出器110から複数の検出点の位置を示す点データである点群を処理する装置であり、プロセッサにプログラムを実行させることにより実現される処理部として点群取得部161と、壁面点群抽出部162と、間仕切り点群抽出部163と、を備えている。本実施の形態の場合、点群処理装置160はさらに、物体点群抽出部164と、移動点群抽出部165と、ベクトル導出部166と、を備えている。 FIG. 4 is a block diagram showing the functional configuration of the point cloud processing device. The point cloud processing device 160 is a device for processing a point cloud, which is point data indicating the positions of a plurality of detection points from the detector 110, and is a processing unit implemented by causing a processor to execute a program. 161 , a wall point group extraction unit 162 , and a partition point group extraction unit 163 . In the case of this embodiment, the point cloud processing device 160 further includes an object point cloud extraction unit 164 , a moving point cloud extraction unit 165 and a vector derivation unit 166 .

点群取得部161は、検出器110から複数の検出点の位置を示す点データである点群200を取得する。本実施の形態の場合、検出器110は、所定の高さ位置における平面内の検出点の位置を示す二次元的な複数の点データを点群200として取得する。図5は、検出器から取得した点群をマッピングした図である。 The point cloud acquisition unit 161 acquires a point cloud 200, which is point data indicating the positions of a plurality of detection points, from the detector 110. FIG. In the case of this embodiment, the detector 110 acquires, as a point group 200, a plurality of two-dimensional point data indicating positions of detection points within a plane at a predetermined height position. FIG. 5 is a diagram mapping the point cloud obtained from the detector.

なお、ロボット120は、部屋内を移動する場合があり、検出器110は、異なる位置において検出点の位置を検出する場合がある。点群取得部161は、部屋内の特徴位置(例えばロボット120の充電位置)を基準位置として取得した点群200を絶対座標に更新する作業を行ってもよい。 Note that the robot 120 may move within the room, and the detector 110 may detect the position of the detection point at different positions. The point cloud acquisition unit 161 may update the point cloud 200 acquired using the feature position (for example, charging position of the robot 120) in the room as the reference position to absolute coordinates.

また、点群取得部161は、検出器110から三次元的に広がる点データを点群200として取得した場合、点群200から所定の高さ位置に対応する点データを抽出して点群200を更新してもかまわない。 Further, when the point cloud acquisition unit 161 acquires point data that spreads three-dimensionally from the detector 110 as the point cloud 200 , the point cloud acquisition unit 161 extracts point data corresponding to a predetermined height position from the point cloud 200 to obtain the point cloud 200 . can be updated.

壁面点群抽出部162は、点群取得部161が検出器110から取得した点群200に対して矩形フィッティングにより部屋の壁面に属する点群である壁面点群を抽出する。具体的に壁面点群抽出部162は、図6に示すように、点群200に対して点データ201
の最外周の並びにフィットする矩形210(バウンディング ボックス)を決定するバウンダリボックス近似を実施し、矩形210上に存在する点データ201を壁面点群として抽出する。
The wall surface point cloud extraction unit 162 extracts a wall surface point cloud, which is a point cloud belonging to the wall surface of the room, by rectangular fitting to the point cloud 200 acquired by the point cloud acquisition unit 161 from the detector 110 . Specifically, as shown in FIG.
Boundary box approximation is performed to determine a rectangle 210 (bounding box) that fits the outermost circumference of , and point data 201 existing on the rectangle 210 is extracted as a wall surface point group.

間仕切り点群抽出部163は、壁面点群抽出部162が抽出した壁面点群、または矩形210の一辺から所定距離以上離間した壁面点群、または矩形210の一辺と平行な平行点群202を抽出し、壁面点群、または矩形210の一辺と平行点群に基づき部屋を間仕切る間仕切りの外周に対応する間仕切り点群を抽出する。なお、平行点群202を抽出する際、点群を構成する点の数に閾値を設定してもよい。ある程度の個数からなる点群を含む平行点群に限定することで、壁面点群と平行でない点群を間仕切りと誤認識することを防ぐことができる。ここで、「間仕切り」とは、部屋内に置かれた(脚のない)大型家具、カウンタキッチンなどの造作家具のように部屋空間を仕切る物体である。 The partition point cloud extraction unit 163 extracts the wall surface point cloud extracted by the wall surface point cloud extraction unit 162, the wall surface point cloud spaced apart from one side of the rectangle 210 by a predetermined distance or more, or the parallel point cloud 202 parallel to one side of the rectangle 210. Then, based on the wall surface point group or the point group parallel to one side of the rectangle 210, the partition point group corresponding to the perimeter of the partition that partitions the room is extracted. When extracting the parallel point group 202, a threshold may be set for the number of points forming the point group. By limiting the point group to a parallel point group including a certain number of points, it is possible to prevent a point group that is not parallel to the wall surface point group from being erroneously recognized as a partition. Here, a "partition" is an object that partitions a room space, such as a large piece of furniture (without legs) placed in a room or a built-in piece of furniture such as a kitchen counter.

物体点群抽出部164は、点群200から壁面点群抽出部162が抽出した壁面点群、および間仕切り点群抽出部163が抽出した間仕切り点群を除外し、残った残存点群により包囲される領域のうち所定面積以上を有する領域から部屋内に存在する物体を示す物体点群203を抽出する。図7は、点群から壁面点群、および間仕切り点群を除去し残存した物体点群を示す図である。本実施の形態の場合、物体点群抽出部164は、物体点群203を検出器110が点データを検出した時刻(点群取得部161が点群を取得した時刻などでもかまわない)と関連付けて記憶装置180に記憶させる。 The object point cloud extraction unit 164 excludes the wall surface point cloud extracted by the wall surface point cloud extraction unit 162 and the partition point cloud extracted by the partition point cloud extraction unit 163 from the point cloud 200, and the points surrounded by the remaining residual point cloud. An object point group 203 indicating objects existing in the room is extracted from the area having a predetermined area or more among the areas where the room is located. FIG. 7 is a diagram showing an object point group remaining after removing the wall point group and the partition point group from the point group. In the case of this embodiment, the object point cloud extracting unit 164 associates the object point cloud 203 with the time when the detector 110 detects the point data (the time when the point cloud acquiring unit 161 acquires the point cloud, etc.). and store it in the storage device 180.

本実施の形態の場合、物体点群を抽出するための閾値である所定面積は、少なくとも人間の足(片足)の所定高さ位置の水平面における面積に対応する点データを物体点群として抽出できる値に設定されている。従って人間の足よりも面積の広いテーブルの脚などは物体点群として抽出される。 In the case of this embodiment, the predetermined area, which is the threshold value for extracting the object point cloud, can extract point data corresponding to at least the area of the human foot (one leg) at a predetermined height position on the horizontal plane as the object point cloud. set to a value. Therefore, the leg of a table, which has a larger area than a human leg, is extracted as an object point group.

移動点群抽出部165は、第一時刻に取得した点群200に基づき、壁面点群抽出部162、間仕切り点群抽出部163、および物体点群抽出部164により抽出された物体点群203であって記憶装置180に記憶された第一時刻の物体点群203を記憶装置180から取得し、第一時刻より後の第二時刻に取得した点群に基づき抽出された第二時刻の物体点群203と第一時刻の物体点群203との差分を導出し、図8に示すように残存する物体点群203を、移動物体を示す移動点群204として抽出する。本実施の形態の場合、移動点群抽出部165は、抽出した移動点群204を検出器110が点データを検出した時刻(点群取得部161が点群を取得した時刻などでもかまわない)と関連付けて記憶装置180に記憶させる。 The moving point cloud extraction unit 165 extracts the object point cloud 203 extracted by the wall point cloud extraction unit 162, the partition point cloud extraction unit 163, and the object point cloud extraction unit 164 based on the point cloud 200 acquired at the first time. The object point cloud 203 at the first time stored in the storage device 180 is acquired from the storage device 180, and the object points at the second time extracted based on the point cloud acquired at the second time after the first time A difference between the cloud 203 and the object point cloud 203 at the first time is derived, and the remaining object point cloud 203 is extracted as a moving point cloud 204 representing a moving object as shown in FIG. In the case of this embodiment, the moving point cloud extracting unit 165 extracts the extracted moving point cloud 204 at the time when the detector 110 detects the point data (the time when the point cloud acquiring unit 161 acquires the point cloud may be used). is stored in the storage device 180 in association with.

ベクトル導出部166は、移動点群抽出部165が先に抽出し記憶装置180に時刻情報に関連付けて記憶させた移動点群204と、後の時刻に抽出した移動点群204とに基づき、図9に示すように、移動物体の動きベクトル220を導出する。本実施の形態の場合、ベクトル導出部166は、移動点群204が抽出される毎に過去に記憶させた移動点群204とそれに関連付けられた時刻情報とに基づき動きベクトル220を次々と導出している。 The vector deriving unit 166 extracts the moving point cloud 204 previously extracted by the moving point cloud extracting unit 165 and stored in the storage device 180 in association with the time information, and based on the moving point cloud 204 extracted at a later time. 9, the motion vector 220 of the moving object is derived. In the case of this embodiment, the vector derivation unit 166 successively derives the motion vector 220 based on the moving point group 204 stored in the past and the time information associated therewith each time the moving point group 204 is extracted. ing.

制御装置170は、移動点群抽出部165が抽出した移動点群を取得し、移動点群に対応する移動物体にロボット120が近づかないように駆動ユニット130を制御する装置である。本実施の形態の場合、制御装置170は、ベクトル導出部166から動きベクトル220を取得して移動物体が移動する方向を推定し、移動物体が移動する方向近傍にロボット120が近づかないように駆動ユニット130を制御している。 The control device 170 is a device that acquires the moving point cloud extracted by the moving point cloud extraction unit 165 and controls the drive unit 130 so that the robot 120 does not approach the moving object corresponding to the moving point cloud. In the case of this embodiment, the control device 170 acquires the motion vector 220 from the vector derivation unit 166, estimates the direction in which the moving object moves, and drives the robot 120 so that it does not approach the vicinity of the direction in which the moving object moves. It controls unit 130 .

制御装置170は、プログラムをプロセッサに実行させることによりロボット120の
移動、掃除の制御を行う。なお、制御装置170に関連するプログラムを実行するプロセッサと、点群処理装置160に関連するプログラムを実行するプロセッサは同一でもかまわない。
The control device 170 controls movement and cleaning of the robot 120 by causing the processor to execute a program. Note that the processor that executes the program related to the control device 170 and the processor that executes the program related to the point cloud processing device 160 may be the same.

制御装置170は、障害物センサ173、近接センサ174、衝突センサ、床面センサ176などの各種センサ、および検出器110と接続される。また、制御装置170は、走行用モータ、ブラシ駆動モータ、および、電動ファンなどの各駆動源と接続され、各種センサからの情報に基づいて接続される駆動源の回転などを制御する。また、制御装置170は、記憶装置に記憶されている掃除プログラムに従い、部屋内全体をできる限り掃除できるように、ロボット120を走行させる。制御装置170は、検出器110、およびエンコーダからの情報に基づきSLAM(Simultaneous Localization and Mapping)技術を用いてマップを作成し、自己位置を認識しながら走行と掃除の制御を行っている。 Control device 170 is connected to various sensors such as obstacle sensor 173 , proximity sensor 174 , collision sensor, floor sensor 176 , and detector 110 . Further, the control device 170 is connected to each drive source such as a running motor, a brush drive motor, and an electric fan, and controls rotation of the connected drive sources based on information from various sensors. Further, the control device 170 causes the robot 120 to travel according to the cleaning program stored in the storage device so as to clean the entire room as much as possible. The controller 170 creates a map using SLAM (Simultaneous Localization and Mapping) technology based on information from the detector 110 and the encoder, and controls traveling and cleaning while recognizing its own position.

以上説明したロボットシステム100によれば、検出器110から得られる点群の情報量を削減して部屋内で配置される物体点群や部屋内を移動する人間などの移動物を迅速に検出することができる。 According to the robot system 100 described above, the amount of point cloud information obtained from the detector 110 is reduced, and an object point cloud arranged in a room and a moving object such as a person moving in the room are quickly detected. be able to.

特に、除去する点群の抽出と点群の削減を段階的に実行して点群の情報量を削減することで、短時間で効果的に点群の情報量を削減することが可能となる。 In particular, extracting the point cloud to be removed and reducing the point cloud in stages to reduce the amount of information in the point cloud makes it possible to effectively reduce the amount of information in the point cloud in a short period of time. .

実施の形態に係る点群処理装置160を備えたロボット120によれば、移動物体の移動の妨げにならないように移動し、移動物体を回避して移動することができる。 According to the robot 120 equipped with the point cloud processing device 160 according to the embodiment, the robot 120 can move so as not to hinder the movement of the moving object and avoid the moving object.

さらに、点群処理装置160が導出した動きベクトルを利用することにより、人などの移動物体の動きを予測し、移動物体の動きと交差しないようにロボット120を制御することができる。 Furthermore, by using the motion vector derived by the point cloud processing device 160, the motion of a moving object such as a person can be predicted, and the robot 120 can be controlled so as not to intersect with the motion of the moving object.

なお、本発明は、上記実施の形態に限定されるものではない。例えば、本明細書において記載した構成要素を任意に組み合わせて、また、構成要素のいくつかを除外して実現される別の実施の形態を本発明の実施の形態としてもよい。また、上記実施の形態に対して本発明の主旨、すなわち、請求の範囲に記載される文言が示す意味を逸脱しない範囲で当業者が思いつく各種変形を施して得られる変形例も本発明に含まれる。 It should be noted that the present invention is not limited to the above embodiments. For example, another embodiment realized by arbitrarily combining the constituent elements described in this specification or omitting some of the constituent elements may be an embodiment of the present invention. The present invention also includes modifications obtained by making various modifications to the above-described embodiment within the scope of the gist of the present invention, that is, the meaning of the words described in the claims, which a person skilled in the art can think of. be

例えば、平面形状がルーローの三角形であるロボットシステム100を例示したが、ロボットシステム100の形状は、特に限定されるものではなく、円形や矩形など任意の形状を採用しうる。 For example, although the robot system 100 whose planar shape is a Reuleaux triangle is illustrated, the shape of the robot system 100 is not particularly limited, and any shape such as a circle or a rectangle can be adopted.

また、ロボット掃除機を例示したが、ロボット120は、案内ロボット、自律移動式のデジタルサイネージ、自動搬送車などであってもかまわない。 Also, although the robot vacuum cleaner is exemplified, the robot 120 may be a guide robot, an autonomous mobile digital signage, an automatic guided vehicle, or the like.

また、一つのロボット120の筐体に、検出器110、点群処理装置160などが搭載される場合を示したが、点群処理装置160の一部、または全部がロボット120と別体であって通信により情報を送受信するロボットシステム100であってもよい。 Moreover, although the case where the detector 110, the point group processing device 160, etc. are mounted in the housing of one robot 120 is shown, part or all of the point group processing device 160 may be separate from the robot 120. The robot system 100 may be a robot system 100 that transmits and receives information through communication.

本発明は、ロボット掃除機など自律的に移動するロボットに利用可能である。 INDUSTRIAL APPLICABILITY The present invention can be used for autonomously moving robots such as robot cleaners.

100 ロボットシステム
110 検出器
120 ロボット
121 吸込口
130 駆動ユニット
140 掃除ユニット
150 吸引ユニット
151 箱ユニット
160 点群処理装置
161 点群取得部
162 壁面点群抽出部
163 間仕切り点群抽出部
164 物体点群抽出部
165 移動点群抽出部
166 ベクトル導出部
170 制御装置
171 発信部
172 受信部
173 障害物センサ
174 近接センサ
176 床面センサ
179 キャスター
180 記憶装置
200 点群
201 点データ
202 平行点群
203 物体点群
204 移動点群
210 矩形
220 ベクトル
100 Robot system 110 Detector 120 Robot 121 Suction port 130 Drive unit 140 Cleaning unit 150 Suction unit 151 Box unit 160 Point group processing device 161 Point group acquisition unit 162 Wall surface point group extraction unit 163 Partition point group extraction unit 164 Object point group extraction Unit 165 Moving point cloud extraction unit 166 Vector derivation unit 170 Control device 171 Transmission unit 172 Reception unit 173 Obstacle sensor 174 Proximity sensor 176 Floor sensor 179 Caster 180 Storage device 200 Point cloud 201 Point data 202 Parallel point cloud 203 Object point cloud 204 Moving point cloud 210 Rectangle 220 Vector

Claims (5)

部屋内に存在する対象物表面の検出点についての相対的な位置を示す点データを異なる複数の検出点について取得する検出器から複数の前記点データである点群を取得する点群取得部と、
取得した前記点群に対して矩形フィッティングにより前記部屋の壁面に属する点群である壁面点群を抽出する壁面点群抽出部と、
抽出した前記壁面点群から所定距離以上離間し前記壁面点群と平行な平行点群を抽出し、前記壁面点群と前記平行点群とから前記部屋を間仕切る間仕切り点群を抽出する間仕切り点群抽出部と、
を備える点群処理装置。
a point cloud acquisition unit that acquires a plurality of point clouds, which are the point data, from a detector that acquires point data indicating relative positions of detection points on the surface of an object existing in the room for a plurality of different detection points; ,
a wall surface point cloud extracting unit for extracting a wall surface point cloud, which is a point cloud belonging to the wall surface of the room, by rectangular fitting to the obtained point cloud;
A partition point for extracting a parallel point group separated from the extracted wall surface point group by a predetermined distance or more and parallel to the wall surface point group, and extracting a partition point group for partitioning the room from the wall surface point group and the parallel point group. a group extractor;
A point cloud processing device.
前記点群から前記壁面点群、および前記間仕切り点群を除外し、残った残存点群により包囲される領域のうち所定面積以上を有する領域から前記部屋内に存在する物体を示す物体点群を抽出する物体点群抽出部
を備える請求項1に記載の点群処理装置。
The wall surface point group and the partition point group are excluded from the point group, and the object point group indicating the objects existing in the room is extracted from the area having a predetermined area or more among the areas surrounded by the remaining point group. 2. The point group processing device according to claim 1, comprising an object point group extraction unit for extraction.
第一時刻に取得した前記点群と、前記第一時刻より後の第二時刻に取得した点群に基づき、前記壁面点群抽出部、前記間仕切り点群抽出部、および前記物体点群抽出部によりそれぞれ抽出された二つの物体点群の差分を導出し、残存する物体点群を、移動物体を示す移動点群として抽出する移動点群抽出部
を備える請求項2に記載の点群処理装置。
Based on the point cloud acquired at the first time and the point cloud acquired at the second time after the first time, the wall point cloud extraction unit, the partition point cloud extraction unit, and the object point cloud extraction unit 3. The point cloud processing device according to claim 2, further comprising a moving point cloud extraction unit that derives the difference between the two object point clouds respectively extracted by and extracts the remaining object point cloud as a moving point cloud representing a moving object. .
時刻の異なる前記移動点群に基づき移動物体の動きベクトルを導出するベクトル導出部を備える請求項3に記載の点群処理装置。 4. The point group processing device according to claim 3, further comprising a vector derivation unit that derives a motion vector of a moving object based on the moving point groups at different times. 自律走行するロボットと、
前記ロボットに取り付けられ、部屋内に存在する対象物表面の検出点についての相対的な位置を示す点データを異なる複数の検出点について取得する検出器と、
請求項1から4のいずれか一項に記載の点群処理装置と、
を備えるロボットシステム。
an autonomous robot,
a detector that is attached to the robot and acquires point data indicating relative positions of detection points on the surface of an object existing in the room for a plurality of different detection points;
A point cloud processing device according to any one of claims 1 to 4,
A robot system with
JP2021029294A 2021-02-25 2021-02-25 Point group processing device and robot system Pending JP2022130228A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021029294A JP2022130228A (en) 2021-02-25 2021-02-25 Point group processing device and robot system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021029294A JP2022130228A (en) 2021-02-25 2021-02-25 Point group processing device and robot system

Publications (1)

Publication Number Publication Date
JP2022130228A true JP2022130228A (en) 2022-09-06

Family

ID=83151310

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021029294A Pending JP2022130228A (en) 2021-02-25 2021-02-25 Point group processing device and robot system

Country Status (1)

Country Link
JP (1) JP2022130228A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024154397A1 (en) * 2023-01-17 2024-07-25 パナソニックIpマネジメント株式会社 Region extraction method, region extraction device, and computer program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024154397A1 (en) * 2023-01-17 2024-07-25 パナソニックIpマネジメント株式会社 Region extraction method, region extraction device, and computer program

Similar Documents

Publication Publication Date Title
US11547255B2 (en) Cleaning robot
KR102445064B1 (en) system of robot cleaning device
EP3082542B1 (en) Sensing climb of obstacle of a robotic cleaning device
US10045675B2 (en) Robotic vacuum cleaner with side brush moving in spiral pattern
KR102393550B1 (en) Prioritizing cleaning areas
US10678251B2 (en) Cleaning method for a robotic cleaning device
JP6054425B2 (en) How to perform self-location estimation automatically
KR102203439B1 (en) a Moving robot and Controlling method for the moving robot
CN214484411U (en) Autonomous floor cleaner
JP7487283B2 (en) Autonomous Mobile Robot Navigation
WO2015090399A1 (en) Robotic cleaning device and method for landmark recognition
EP2888603A1 (en) Robot positioning system
US10765284B2 (en) Cleaning robot
JP2022130228A (en) Point group processing device and robot system
WO2020059292A1 (en) Autonomous traveling cleaner
JP2020052601A (en) Autonomous travel cleaner and control method
WO2020017239A1 (en) Self-propelled type vacuum cleaner and control method for self-propelled type vacuum cleaner
JP2023018577A (en) Cleaner
JP2019076658A (en) Autonomous travel cleaner and extension area identification method
JP2019144849A (en) Autonomous traveling cleaner
WO2024036619A1 (en) Method for controlling movement of autonomous mobile device
KR20200084430A (en) a Moving robot and Controlling method for the moving robot
WO2019049655A1 (en) Autonomous travel-type cleaner and method for updating cumulative floor area probability
JP7281716B2 (en) Object image display device, object image display system, and object image display program
JP7325058B2 (en) self-propelled vacuum cleaner