JP2021140583A - Object image display device, object image display system, and object image display program - Google Patents

Object image display device, object image display system, and object image display program Download PDF

Info

Publication number
JP2021140583A
JP2021140583A JP2020039109A JP2020039109A JP2021140583A JP 2021140583 A JP2021140583 A JP 2021140583A JP 2020039109 A JP2020039109 A JP 2020039109A JP 2020039109 A JP2020039109 A JP 2020039109A JP 2021140583 A JP2021140583 A JP 2021140583A
Authority
JP
Japan
Prior art keywords
drawing information
information
object image
unit
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020039109A
Other languages
Japanese (ja)
Other versions
JP7281716B2 (en
Inventor
泰成 井口
Yasunari IGUCHI
泰成 井口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2020039109A priority Critical patent/JP7281716B2/en
Priority to PCT/JP2021/001559 priority patent/WO2021176863A1/en
Publication of JP2021140583A publication Critical patent/JP2021140583A/en
Application granted granted Critical
Publication of JP7281716B2 publication Critical patent/JP7281716B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/10Geometric CAD
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/10Geometric CAD
    • G06F30/12Geometric CAD characterised by design entry means specially adapted for CAD, e.g. graphical user interfaces [GUI] specially adapted for CAD

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Mathematics (AREA)
  • Architecture (AREA)
  • Human Computer Interaction (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Processing Or Creating Images (AREA)

Abstract

To display a layout of an object in a space.SOLUTION: An object image display device 120 includes: a drawing information acquisition unit 171 for acquiring first drawing information created based on measurement by a mobile robot 130 autonomously moving within a predetermined dwelling 200, and second drawing information on an inside of the dwelling 200 created before creation of the first drawing information; an object separation unit 173 for individually separating object information showing an object arranged in the dwelling 200 based on a difference between the first drawing information and the second drawing information; and a display unit for displaying a superimposed image 300 in which an object image 310 corresponding to the object information is superimposed on a space image 301 corresponding to at least one of the first drawing information and the second drawing information.SELECTED DRAWING: Figure 5

Description

本開示は、所定の空間内における物体のレイアウトを表示する物体画像表示装置、物体画像表示システム、および物体画像表示プログラムに関するものである。 The present disclosure relates to an object image display device, an object image display system, and an object image display program for displaying the layout of an object in a predetermined space.

従来、住居の中に配置されている家電製品、家具などに無線タグをつけ、住居内を移動するロボットに無線タグの情報を読み込ませることで、物体の配置と物体の情報とを対応付けて表示する技術が開示されている(例えば特許文献1参照)。 Conventionally, by attaching a wireless tag to home appliances, furniture, etc. placed in a house and having a robot moving in the house read the information of the wireless tag, the arrangement of the object and the information of the object are associated with each other. A display technique is disclosed (see, for example, Patent Document 1).

特開2004−345053号公報Japanese Unexamined Patent Publication No. 2004-34553

ところが、住居内を移動するロボットの視点と、家具などの情報だけでは、住居内に設置する新たな家具、家電を購入するには壁との距離などを手で計測してサイズが十分住居に収まるかを事前に確認する必要があった。家具を住居内に設置可能かを購入前に判断したいとの要望もある。 However, with only the viewpoint of the robot moving in the house and the information such as furniture, the size is enough to measure the distance to the wall to purchase new furniture and home appliances to be installed in the house. It was necessary to confirm in advance whether it would fit. There is also a desire to determine before purchase whether furniture can be installed in a home.

本開示は、空間内の物体のレイアウトを表示できる物体画像表示装置、および物体画像表示プログラムを提供する。 The present disclosure provides an object image display device capable of displaying the layout of an object in space, and an object image display program.

本開示の物体画像表示装置は、所定の空間内を自律的に移動する移動ロボットによる測定に基づき作成された第一図面情報、および前記第一図面情報の作成以前に作成された前記空間内部に関する第二図面情報を取得する図面情報取得部と、前記第一図面情報と前記第二図面情報の差分に基づき前記空間内に配置された物体を示す物体情報を個別に分離する物体分離部と、前記第一図面情報、および前記第二図面情報の少なくとも一方に対応する空間画像に前記物体情報に対応する物体画像を重畳させた重畳画像を表示する表示部と、を有する。 The object image display device of the present disclosure relates to first drawing information created based on measurement by a mobile robot that autonomously moves in a predetermined space, and the inside of the space created before the creation of the first drawing information. A drawing information acquisition unit that acquires the second drawing information, and an object separation unit that individually separates object information indicating an object arranged in the space based on the difference between the first drawing information and the second drawing information. It has a display unit that displays a superposed image in which an object image corresponding to the object information is superimposed on a spatial image corresponding to at least one of the first drawing information and the second drawing information.

本開示の物体画像表示システムは、所定の空間内を自律的に移動する移動ロボットと、前記移動ロボットと通信可能な端末装置と、前記移動ロボットによる測定に基づき作成された第一図面情報、および前記第一図面情報の作成以前に作成された前記空間内部に関する第二図面情報を取得する図面情報取得部と、前記第一図面情報と前記第二図面情報の差分に基づき前記空間内に配置された物体を示す物体情報を個別に分離する物体分離部と、前記第一図面情報、および前記第二図面情報の少なくとも一方に対応する空間画像に前記物体情報に対応する物体画像を重畳させた重畳画像を表示する表示部と、を備える物体画像表示システム。 The object image display system of the present disclosure includes a mobile robot that autonomously moves in a predetermined space, a terminal device that can communicate with the mobile robot, first drawing information created based on measurement by the mobile robot, and A drawing information acquisition unit that acquires a second drawing information about the inside of the space created before the creation of the first drawing information, and an arrangement in the space based on the difference between the first drawing information and the second drawing information. A superposition in which an object image corresponding to the object information is superimposed on a space image corresponding to at least one of the first drawing information and the second drawing information and an object separation unit that individually separates the object information indicating the object. An object image display system including a display unit for displaying an image.

本開示の物体画像表示プログラムは、所定の空間内を自律的に移動する移動ロボットによる測定に基づき作成された第一図面情報、および前記第一図面情報の作成以前に作成された前記空間内部に関する第二図面情報を取得する図面情報取得部と、前記第一図面情報と前記第二図面情報の差分に基づき前記空間内に配置された物体を示す物体情報を個別に分離する物体分離部と、前記第一図面情報、および前記第二図面情報の少なくとも一方に対応する空間画像に前記物体情報に対応する物体画像を重畳させた重畳画像を表示する表示部と、をコンピュータに実行させることにより実現する。 The object image display program of the present disclosure relates to the first drawing information created based on the measurement by a mobile robot autonomously moving in a predetermined space, and the inside of the space created before the creation of the first drawing information. A drawing information acquisition unit that acquires the second drawing information, and an object separation unit that individually separates object information indicating an object arranged in the space based on the difference between the first drawing information and the second drawing information. Realized by causing a computer to execute a display unit that displays a superposed image in which an object image corresponding to the object information is superimposed on a spatial image corresponding to at least one of the first drawing information and the second drawing information. do.

本開示によれば、空間内に設置された物体の大きさや配置状態などを示すレイアウトを画面上に出力することができる。 According to the present disclosure, it is possible to output a layout showing the size and arrangement state of an object installed in the space on the screen.

図1は、実施の形態における物体画像表示システムを空間と共に示す図である。FIG. 1 is a diagram showing an object image display system according to an embodiment together with space. 図2は、実施の形態における移動ロボットの外観を示す側面図である。FIG. 2 is a side view showing the appearance of the mobile robot according to the embodiment. 図3は、実施の形態における移動ロボットの外観を示す底面図である。FIG. 3 is a bottom view showing the appearance of the mobile robot according to the embodiment. 図4は、実施の形態における移動ロボットシステムの各機能部を示すブロック図である。FIG. 4 is a block diagram showing each functional unit of the mobile robot system according to the embodiment. 図5は、空間画像、物体画像などが表示された表示装置を示す図である。FIG. 5 is a diagram showing a display device on which a spatial image, an object image, and the like are displayed. 図6は、物体移動モード状態の表示画像を示す図である。FIG. 6 is a diagram showing a display image of the object movement mode state. 図7は、測定モード状態の表示画像を示す図である。FIG. 7 is a diagram showing a display image of the measurement mode state. 図8は、物体統合モード状態の表示画像を示す図である。FIG. 8 is a diagram showing a display image of the object integrated mode state. 図9は、追加モード状態の表示画像を示す図である。FIG. 9 is a diagram showing a display image in the additional mode state. 図10は、物体作成画面を示す図である。FIG. 10 is a diagram showing an object creation screen. 図11は、重畳画像に新しい物体画像が追加された状態を示す図である。FIG. 11 is a diagram showing a state in which a new object image is added to the superimposed image.

次に、本開示における物体画像表示装置、物体画像表示システム、および物体画像表示プログラムの実施の形態について、図面を参照しつつ説明する。なお、以下の実施の形態は、本開示における物体画像表示装置、物体画像表示システム、および物体画像表示プログラムの一例を示したものに過ぎない。従って本開示は、以下の実施の形態を参考に請求の範囲の文言によって範囲が画定されるものであり、以下の実施の形態のみに限定されるものではない。よって、以下の実施の形態における構成要素のうち、本開示の最上位概念を示す独立請求項に記載されていない構成要素については、本開示の課題を達成するのに必ずしも必要ではないが、より好ましい形態を構成するものとして説明される。 Next, an embodiment of the object image display device, the object image display system, and the object image display program in the present disclosure will be described with reference to the drawings. The following embodiments are merely examples of the object image display device, the object image display system, and the object image display program in the present disclosure. Therefore, the present disclosure is defined by the wording of the claims with reference to the following embodiments, and is not limited to the following embodiments. Therefore, among the components in the following embodiments, the components not described in the independent claims indicating the highest level concept of the present disclosure are not necessarily necessary for achieving the subject of the present disclosure, but more. Described as constituting a preferred form.

また、図面は、本開示を示すために適宜強調や省略、比率の調整を行った模式的な図となっており、実際の形状や位置関係、比率とは異なる場合がある。 In addition, the drawings are schematic drawings in which emphasis, omission, and ratio are adjusted as appropriate to show the present disclosure, and may differ from the actual shape, positional relationship, and ratio.

図1は、実施の形態における物体画像表示システムが備える移動ロボットが移動する空間を移動ロボットと共に示す平面図である。本実施の形態の場合、移動ロボット130が移動する空間は、住居200であり、移動ロボット130は、住居200のフロア201上を自律的に移動する。住居200は、壁202で囲まれた空間であり、一部に突出部203、ドア部204などを有している。フロア201上には、家具や家電製品などの物体(第一物体211〜第五物体215)が配置されている。物体画像表示システム100は、移動ロボット130と、端末装置160と、を備えている。本実施の形態の場合、物体画像表示プログラムを端末装置160で実行することにより物体画像表示装置120が実現されている(図4参照)。 FIG. 1 is a plan view showing a space in which the mobile robot included in the object image display system according to the embodiment moves together with the mobile robot. In the case of the present embodiment, the space in which the mobile robot 130 moves is the dwelling 200, and the mobile robot 130 autonomously moves on the floor 201 of the dwelling 200. The dwelling 200 is a space surrounded by a wall 202, and has a protruding portion 203, a door portion 204, and the like in a part thereof. Objects such as furniture and home appliances (first objects 211 to fifth objects 215) are arranged on the floor 201. The object image display system 100 includes a mobile robot 130 and a terminal device 160. In the case of the present embodiment, the object image display device 120 is realized by executing the object image display program on the terminal device 160 (see FIG. 4).

図2は、実施の形態における移動ロボットの外観を示す側面図である。図3は、実施の形態における移動ロボットの外観を示す底面図である。これらの図に示されるように、実施の形態にかかる移動ロボット130は、フロア201上を自律的に走行しながら掃除を行う掃除ロボットであり、フロア201に存在するごみを吸引して掃除を行う。 FIG. 2 is a side view showing the appearance of the mobile robot according to the embodiment. FIG. 3 is a bottom view showing the appearance of the mobile robot according to the embodiment. As shown in these figures, the mobile robot 130 according to the embodiment is a cleaning robot that performs cleaning while autonomously traveling on the floor 201, and sucks and cleans the dust existing on the floor 201. ..

本実施の形態の場合、移動ロボット130は、各種の構成要素が搭載されるボディ131、ボディ131を移動させる駆動ユニット132、フロア201に存在するごみを集める掃除ユニット134、ごみをボディ131の内部に吸引する吸引ユニット133、駆動ユニット132と、掃除ユニット134と、吸引ユニット133とを制御する制御ユニット135、位置関係検出手段136を備えている。 In the case of the present embodiment, the mobile robot 130 includes a body 131 on which various components are mounted, a drive unit 132 for moving the body 131, a cleaning unit 134 for collecting dust existing on the floor 201, and dust inside the body 131. It is provided with a suction unit 133, a drive unit 132, a cleaning unit 134, a control unit 135 for controlling the suction unit 133, and a positional relationship detecting means 136.

ボディ131は、駆動ユニット132、制御ユニット135などを収容する筐体である。下部に対し上部が取り外し可能な構成となっている。ボディ131の外周部にはボディ131に対して変位可能なバンパ139が取り付けられている。また、図3に示されるとおり、ボディ131は、ごみをボディ131の内部に吸引するための吸込口138が設けられている。 The body 131 is a housing that houses the drive unit 132, the control unit 135, and the like. The upper part is removable with respect to the lower part. A bumper 139 that can be displaced with respect to the body 131 is attached to the outer peripheral portion of the body 131. Further, as shown in FIG. 3, the body 131 is provided with a suction port 138 for sucking dust into the body 131.

駆動ユニット132は、制御ユニット135からの指示に基づき移動ロボット130を走行させる装置である。駆動ユニット132は、掃除面上を走行するホイール140、ホイール140にトルクを与える走行用モータ(不図示)、および、走行用モータを収容するハウジング141を有する。ボディ131の底面にはキャスター142が補助輪として備えられている。移動ロボット130は、2つのホイール140の回転を独立して制御することで、直進、後退、左回転、右回転など自在に走行することができる。 The drive unit 132 is a device for running the mobile robot 130 based on an instruction from the control unit 135. The drive unit 132 includes a wheel 140 that travels on the cleaning surface, a traveling motor (not shown) that applies torque to the wheel 140, and a housing 141 that houses the traveling motor. Caster 142 is provided as an auxiliary wheel on the bottom surface of the body 131. By independently controlling the rotations of the two wheels 140, the mobile robot 130 can freely travel in a straight line, backward, counterclockwise, clockwise, and the like.

掃除ユニット134は、塵埃を掃き集めて吸込口138からごみを吸い込ませるためのユニットであり、吸込口138の近傍に配置される回転ブラシ、回転ブラシを回転させるブラシ駆動モータなどを備えている。 The cleaning unit 134 is a unit for sweeping dust and sucking dust from the suction port 138, and includes a rotary brush arranged in the vicinity of the suction port 138, a brush drive motor for rotating the rotary brush, and the like.

吸引ユニット133は、吸込口138から塵埃を吸い込みボディ131の内部に吸い込んだ塵埃を保持するユニットであり、電動ファン(不図示)、および塵埃保持部143を有する。電動ファンは、塵埃保持部143の内部の空気を吸引し、ボディ131の外方に空気を吐出させることにより、吸込口138からごみを吸い込み、塵埃保持部143内に
位置関係検出手段136は、フロア201内において移動ロボット130と壁202、および物体などとの位置関係を検出する装置である。位置関係検出手段136は、ボディ131の周囲に存在する、壁202、および家具などの物体の方向、距離などを検出し、2.5次元的な情報取得する。また、移動ロボット130は、位置関係検出手段136が検出した方向と距離との情報から自己位置を把握することも可能となっている。位置関係検出手段136の種類は特に限定されるものではないが、例えば光を放射し障害物により反射して帰ってきた光に基づいて位置と距離とを検出するLiDAR(Light Detection and Ranging)、ToF(Time of Flight)カメラ等を例示できる。また、位置関係検出手段136としては、障害物が反射した照明光や自然光を像として取得し視差に基づき位置と距離とを取得する複眼カメラなどを例示することができる。本実施の形態の場合、移動ロボット130は、位置関係検出手段136として上部にLiDARを備え、側部にカメラを備えている。
The suction unit 133 is a unit that sucks dust from the suction port 138 and holds the dust sucked into the body 131, and has an electric fan (not shown) and a dust holding portion 143. The electric fan sucks the air inside the dust holding portion 143 and discharges the air to the outside of the body 131 to suck the dust from the suction port 138. It is a device that detects the positional relationship between the mobile robot 130, the wall 202, an object, and the like on the floor 201. The positional relationship detecting means 136 detects the direction, distance, and the like of an object such as a wall 202 and furniture existing around the body 131, and acquires 2.5-dimensional information. Further, the mobile robot 130 can also grasp its own position from the information of the direction and the distance detected by the positional relationship detecting means 136. The type of the positional relationship detecting means 136 is not particularly limited, but for example, LiDAR (Light Detection and Ranking), which detects the position and the distance based on the light that radiates light and is reflected by an obstacle and returned. A ToF (Time of Reflect) camera and the like can be exemplified. Further, as the positional relationship detecting means 136, a compound eye camera or the like that acquires illumination light or natural light reflected by an obstacle as an image and acquires a position and a distance based on parallax can be exemplified. In the case of the present embodiment, the mobile robot 130 is provided with a LiDAR on the upper portion and a camera on the side portion as the positional relationship detecting means 136.

なお、移動ロボット130は、位置関係検出手段136以外にセンサを備えていても構わない。例えば、ボディ131の底面の複数箇所に配置され、フロア201が存在するか否かを検出する床面センサを備えてもよい。また、駆動ユニット132に備えられ、走行用モータによって回転する一対のホイール140のそれぞれの回転角を検出するエンコーダを備えてもよい。また、移動ロボット130が走行する際の加速度を検出する加速度センサ、移動ロボット130が旋回する際の角速度を検出する角速度センサを備えてもよい。また、床面に堆積している塵埃の量を測定する塵埃量センサを備えてもよい。バンパ139の変位を検出して障害物が衝突したことを検出する接触センサを備えてもよい。また、ボディ131の前方に存在する障害物を検出する位置関係検出手段136以外の超音波センサなどの障害物センサを備えてもよい。 The mobile robot 130 may include a sensor in addition to the positional relationship detecting means 136. For example, a floor surface sensor that is arranged at a plurality of locations on the bottom surface of the body 131 and detects whether or not the floor 201 is present may be provided. Further, the drive unit 132 may be provided with an encoder for detecting the respective rotation angles of the pair of wheels 140 rotated by the traveling motor. Further, an acceleration sensor that detects the acceleration when the mobile robot 130 travels and an angular velocity sensor that detects the angular velocity when the mobile robot 130 turns may be provided. Further, a dust amount sensor for measuring the amount of dust accumulated on the floor surface may be provided. A contact sensor may be provided that detects the displacement of the bumper 139 and detects that an obstacle has collided. Further, an obstacle sensor such as an ultrasonic sensor other than the positional relationship detecting means 136 that detects an obstacle existing in front of the body 131 may be provided.

端末装置160は、プログラムを実行することにより種々の機能を実現することができるコンピュータ等である。本実施の形態の場合、端末装置160は、いわゆるスマートフォンやタブレット端末と称される装置であり、移動ロボット130との間で通信により情報の授受が可能となっている。本実施の形態の場合、端末装置160は、表示装置161(図5参照)と、表示装置161の表面に配置され手指などの接触を二次元的に検知するタッチセンサなどの入力装置162(図4参照)とを備えている。 The terminal device 160 is a computer or the like that can realize various functions by executing a program. In the case of the present embodiment, the terminal device 160 is a device called a so-called smartphone or tablet terminal, and information can be exchanged with the mobile robot 130 by communication. In the case of the present embodiment, the terminal device 160 includes a display device 161 (see FIG. 5) and an input device 162 (FIG. 5) such as a touch sensor arranged on the surface of the display device 161 and two-dimensionally detecting contact with fingers or the like. 4) and.

図4は、実施の形態における物体画像表示システムの各機能部を示すブロック図である。同図に示すように、物体画像表示システム100は、物体画像表示装置120の機能部として図面情報取得部171と、物体分離部173と、表示部174と、を備えている。本実施の形態の場合、物体画像表示システム100はさらに、移動ロボット130の機能部として位置関係取得部172と、図面情報作成部175と、を備え、物体画像表示装置120の機能部としてさらに、物体画像移動部177と、距離表示部178と、物体情報統合部179と、物体情報取得部180と、入力部181と、を備えている。 FIG. 4 is a block diagram showing each functional unit of the object image display system according to the embodiment. As shown in the figure, the object image display system 100 includes a drawing information acquisition unit 171, an object separation unit 173, and a display unit 174 as functional units of the object image display device 120. In the case of the present embodiment, the object image display system 100 further includes a positional relationship acquisition unit 172 and a drawing information creation unit 175 as functional units of the mobile robot 130, and further as a functional unit of the object image display device 120. It includes an object image moving unit 177, a distance display unit 178, an object information integration unit 179, an object information acquisition unit 180, and an input unit 181.

位置関係取得部172は、フロア201内における移動ロボット130と家具などの物体や壁などとの位置関係を位置関係検出手段136から取得する。本実施の形態の場合、位置関係検出手段136であるLiDAR、およびカメラの少なくとも一方から測定データから移動ロボット130の自己位置と物体などとの位置関係を演算により取得する。 The positional relationship acquisition unit 172 acquires the positional relationship between the mobile robot 130 and an object such as furniture, a wall, or the like on the floor 201 from the positional relationship detecting means 136. In the case of the present embodiment, the positional relationship between the self-position of the mobile robot 130 and an object or the like is acquired by calculation from the measurement data from the LiDAR, which is the positional relationship detecting means 136, and at least one of the cameras.

図面情報作成部175は、位置関係取得部172が取得した移動ロボット130と物体や壁との位置関係に基づき図面情報を作成する。図面情報の作成方法は特に限定されるものではないが、本実施の形態の場合、SLAM(Simultaneous Localization and Mapping)技術により図面情報が作成される。作成された図面情報は記憶部176に保持される。 The drawing information creation unit 175 creates drawing information based on the positional relationship between the mobile robot 130 acquired by the positional relationship acquisition unit 172 and an object or a wall. The method of creating the drawing information is not particularly limited, but in the case of the present embodiment, the drawing information is created by the SLAM (Simultaneus Localization and Mapping) technique. The created drawing information is stored in the storage unit 176.

図面情報取得部171は、所定の空間の形状などを示す情報である図面情報を取得する。図面情報取得部171は、少なくとも2種類の図面情報を取得する。図面情報の1つである第一図面情報は、住居200内を自律的に移動する移動ロボット130による測定に基づき作成された図面情報である。第二図面情報は、第一図面情報の作成以前に作成された住居200に関する図面情報である。 The drawing information acquisition unit 171 acquires drawing information which is information indicating the shape of a predetermined space or the like. The drawing information acquisition unit 171 acquires at least two types of drawing information. The first drawing information, which is one of the drawing information, is drawing information created based on the measurement by the mobile robot 130 that autonomously moves in the house 200. The second drawing information is drawing information regarding the residence 200 created before the creation of the first drawing information.

第一図面情報の作成箇所は特に限定されるものではなく、移動ロボット130の位置関係検出手段136が検出したデータを、ネットワーク250を介してサーバが入手し、サーバなどにて第一図面情報を作成しても構わない。本実施の形態の場合、第一図面情報は移動ロボット130の位置関係検出手段136が検出したデータに基づき移動ロボット130が備える図面情報作成部175において作成される。図面情報取得部171は、移動ロボット130から第一図面情報を取得する。 The location where the first drawing information is created is not particularly limited, and the data detected by the positional relationship detecting means 136 of the mobile robot 130 is obtained by the server via the network 250, and the first drawing information is obtained by the server or the like. You may create it. In the case of the present embodiment, the first drawing information is created by the drawing information creation unit 175 included in the mobile robot 130 based on the data detected by the positional relationship detecting means 136 of the mobile robot 130. The drawing information acquisition unit 171 acquires the first drawing information from the mobile robot 130.

第二図面情報の作成箇所も特に限定されるものではない。例えば第二図面情報は住居200の設計時に作成されたデータに基づきサーバなどにおいて作成されてもよい。また、家具などが設置されていない住居200のフロア201に移動ロボット130を走行させ、位置関係検出手段136が検出したデータに基づき第二図面情報が作成されても構わない。第二図面情報は、家具などの物体が設置されていない住居200の壁の情報により構成されていることが好ましい。本実施の形態の場合、図面情報取得部171は、ネットワーク250を介していわゆる間取り図を第二図面データとして取得する。 The location where the second drawing information is created is not particularly limited. For example, the second drawing information may be created on a server or the like based on the data created at the time of designing the residence 200. Further, the mobile robot 130 may be run on the floor 201 of the residence 200 in which furniture or the like is not installed, and the second drawing information may be created based on the data detected by the positional relationship detecting means 136. The second drawing information is preferably composed of information on the wall of the dwelling 200 in which an object such as furniture is not installed. In the case of the present embodiment, the drawing information acquisition unit 171 acquires a so-called floor plan as the second drawing data via the network 250.

物体分離部173は、図面情報取得部171が取得した第一図面情報と第二図面情報との差分に基づき住居200内に配置された第一物体211〜第五物体215をそれぞれ示す物体情報を個別に分離する。個別に分離する方法は、特に限定されるものではないが、例えば、楕円形のソファーである第三物体213のように、移動ロボット130が第三物体213の周囲を走行することにより、独立した1個体と認識できる情報であって第二図面情報に該当情報がない情報は、物体情報の1つとして第一図面情報から分離する。なお、テーブルである第四物体214のように移動ロボット130が潜り込むことにより、4本の脚部の測定データに基づき脚部が1個体と認識される場合もある。また、壁202や他の物体に密着状態で配置され、移動ロボット130の移動経路からは物体全周の測定データが得られない場合などは、第一図面情報から第二図面情報に対応する情報を除去し、残存した情報から角部などを抽出し、矩形などに外挿して物体分離部173は、物体情報を生成する。 The object separation unit 173 provides object information indicating the first object 211 to the fifth object 215 arranged in the residence 200 based on the difference between the first drawing information and the second drawing information acquired by the drawing information acquisition unit 171. Separate individually. The method of separating them individually is not particularly limited, but the mobile robot 130 becomes independent by traveling around the third object 213, for example, as in the case of the third object 213 which is an elliptical sofa. Information that can be recognized as one individual and that does not correspond to the second drawing information is separated from the first drawing information as one of the object information. In addition, when the mobile robot 130 sneaks in like the fourth object 214 which is a table, the leg may be recognized as one individual based on the measurement data of the four legs. Further, when the object is placed in close contact with the wall 202 or another object and the measurement data of the entire circumference of the object cannot be obtained from the movement path of the mobile robot 130, the information corresponding to the second drawing information from the first drawing information is obtained. Is removed, corners and the like are extracted from the remaining information, and externally attached to a rectangle or the like, the object separation unit 173 generates object information.

図5は、空間画像、物体画像などが表示された表示装置を示す図である。表示部174は、図面情報取得部171が取得した第一図面情報、および第二図面情報の少なくとも一方に対応する空間画像301に物体分離部173が分離した物体情報に対応する物体画像310を重畳させた重畳画像300を表示装置161に表示する。 FIG. 5 is a diagram showing a display device on which a spatial image, an object image, and the like are displayed. The display unit 174 superimposes the object image 310 corresponding to the object information separated by the object separation unit 173 on the spatial image 301 corresponding to at least one of the first drawing information and the second drawing information acquired by the drawing information acquisition unit 171. The superimposed image 300 is displayed on the display device 161.

入力部181は、端末装置160に備えられている入力装置162からの信号を処理する。本実施の形態の場合、入力装置162にはタッチパネルが含まれており、入力部181はタッチパネル上の「タップ」「ドラッグ」「ピンチアウト」などのユーザの操作を受け付ける。 The input unit 181 processes a signal from the input device 162 provided in the terminal device 160. In the case of the present embodiment, the input device 162 includes a touch panel, and the input unit 181 accepts user operations such as "tap", "drag", and "pinch out" on the touch panel.

物体画像移動部177は、重畳画像300において、物体画像310を移動させる処理部である。本実施の形態の場合、図6に示すように、端末装置160のユーザが入力装置162に基づき「物体を移動させる」の文字が記載されたボタンをタップすると、物体移動モードになり、異動対象となる物体画像310の部分をタップするとタップされた物体画像310を重畳画像300内の他の物体画像310と重ならない位置にドラッグにより移動させることができる。 The object image moving unit 177 is a processing unit that moves the object image 310 in the superimposed image 300. In the case of the present embodiment, as shown in FIG. 6, when the user of the terminal device 160 taps the button on which the characters "move the object" are described based on the input device 162, the object movement mode is set and the object to be moved is changed. By tapping the portion of the object image 310 that becomes, the tapped object image 310 can be moved by dragging to a position that does not overlap with other object images 310 in the superimposed image 300.

距離表示部178は、重畳画像300内の2点に対応する実際の距離を表示する。本実施の形態の場合、図7に示すように、端末装置160のユーザが入力装置162に基づき「距離を測る」の文字が記載されたボタンをタップすると、距離測定モードになり、重畳画像300内での2箇所をタップするとタップされた物体画像310に対応する実際の距離を、表示部174を介して表示装置161に表示する。また、ユーザはピンチアウトすることにより重畳画像300を拡大して表示させることもできる。 The distance display unit 178 displays the actual distances corresponding to the two points in the superimposed image 300. In the case of the present embodiment, as shown in FIG. 7, when the user of the terminal device 160 taps the button on which the characters "measure the distance" are written based on the input device 162, the distance measurement mode is set and the superimposed image 300 is set. When two places are tapped inside, the actual distance corresponding to the tapped object image 310 is displayed on the display device 161 via the display unit 174. The user can also pinch out to enlarge and display the superimposed image 300.

物体情報統合部179は、複数の物体画像310に基づき対応する物体情報を統合する処理を行う。本実施の形態の場合、図8に示すように、端末装置160のユーザが入力装置162に基づき「複数の物体をまとめる」の文字が記載されたボタンをタップすると、物体統合モードになり、ユーザが入力装置162を用いて重畳画像300内の複数の物体画像310を矩形などの1つの図形で囲むことができる。囲まれた複数の物体画像310は、1つの物体画像310として以降は取り扱われる。つまり、移動の際は囲まれた画像と共に物体画像310が一体に移動する。 The object information integration unit 179 performs a process of integrating corresponding object information based on a plurality of object images 310. In the case of the present embodiment, as shown in FIG. 8, when the user of the terminal device 160 taps the button on which the characters "combine a plurality of objects" are described based on the input device 162, the object integration mode is set and the user Can use the input device 162 to enclose a plurality of object images 310 in the superimposed image 300 with one figure such as a rectangle. The plurality of enclosed object images 310 are subsequently treated as one object image 310. That is, when moving, the object image 310 moves together with the enclosed image.

物体情報取得部180は、新しく追加する物体情報を取得する。物体情報の取得方法は、特に限定されるものではなく、例えば家具や家電製品などの物体情報をウエブ上からネットワーク250を介して取得しても構わない。本実施の形態の場合、図9に示すように、端末装置160のユーザが入力装置162に基づき「新しい物体を追加する」の文字が記載されたボタンをタップすると追加モードになり、図10に示すような物体作成画面に遷移し、物体作成画面を用いてユーザが所望の形状を作成することができる。ユーザが物体作成画面内の「次へ」の文字が記載されたボタンをタップすると、物体情報取得部180は、ユーザが作成した形状を物体情報として取得し、表示部174は、物体情報取得部180が取得した物体情報に対応する物体画像310を図11の強調表示した物体画像310のように重畳画像300に重畳させて表示する。 The object information acquisition unit 180 acquires newly added object information. The method for acquiring the object information is not particularly limited, and for example, the object information such as furniture and home appliances may be acquired from the web via the network 250. In the case of the present embodiment, as shown in FIG. 9, when the user of the terminal device 160 taps the button on which the characters "add a new object" are described based on the input device 162, the addition mode is set, and FIG. 10 shows. The transition to the object creation screen as shown can be performed, and the user can create a desired shape using the object creation screen. When the user taps the button on the object creation screen on which the characters "Next" are written, the object information acquisition unit 180 acquires the shape created by the user as the object information, and the display unit 174 acquires the object information acquisition unit. The object image 310 corresponding to the object information acquired by 180 is superimposed and displayed on the superimposed image 300 as in the highlighted object image 310 in FIG.

新しく追加された物体画像310も、先に表示されている物体画像310と同様に、移動が可能であり、距離測定の対象となる。 The newly added object image 310 can also be moved like the previously displayed object image 310, and is a target for distance measurement.

上記実施の形態に係る物体画像表示システム100によれば、住居200内に物体を設置後にロボット掃除機などの移動ロボット130を移動させて第一図面情報を取得し、また物体を設置する前の居住空間を示す第二図面情報を取得することにより、端末装置160の画面上で移動可能な物体のレイアウトを居住空間と共に確認することができる。 According to the object image display system 100 according to the above embodiment, after the object is installed in the residence 200, the mobile robot 130 such as a robot vacuum cleaner is moved to acquire the first drawing information, and before the object is installed. By acquiring the second drawing information indicating the living space, the layout of the movable object on the screen of the terminal device 160 can be confirmed together with the living space.

また、物体に対応した物体画像310は、実際の物体と1対1に対応付けて認識することができ、物体間の距離や物体から壁202までの実際の距離などを画面上で確認することが可能となる。 Further, the object image 310 corresponding to the object can be recognized in a one-to-one correspondence with the actual object, and the distance between the objects and the actual distance from the object to the wall 202 can be confirmed on the screen. Is possible.

また、物体画像310を任意に移動させることができ、物体のレイアウトを変更することができる。従って、住居200内の模様替えの計画に寄与することが可能となる。 Further, the object image 310 can be arbitrarily moved, and the layout of the object can be changed. Therefore, it is possible to contribute to the remodeling plan in the house 200.

また、新しい物体情報を追加して物体画像310として重畳画像300内に表示することができるため、新しい家具などが住居200に設置可能かを確認することができる。また、新しい物体画像310も含めて物体画像310のそれぞれの位置を変更することができるため、レイアウト次第で新しい家具などが住居200内に収まるか否かを確認することも可能となる。 Further, since new object information can be added and displayed as an object image 310 in the superimposed image 300, it is possible to confirm whether new furniture or the like can be installed in the residence 200. Further, since the positions of the object images 310 including the new object image 310 can be changed, it is possible to confirm whether or not the new furniture or the like fits in the house 200 depending on the layout.

なお、本開示は、上記実施の形態に限定されるものではない。例えば、本明細書において記載した構成要素を任意に組み合わせて、また、構成要素のいくつかを除外して実現される別の実施の形態を本開示の実施の形態としてもよい。また、上記実施の形態に対して本開示の主旨、すなわち、請求の範囲に記載される文言が示す意味を逸脱しない範囲で当業者が思いつく各種変形を施して得られる変形例も本開示に含まれる。 The present disclosure is not limited to the above embodiment. For example, another embodiment realized by arbitrarily combining the components described in the present specification and excluding some of the components may be the embodiment of the present disclosure. The present disclosure also includes modifications obtained by making various modifications that can be conceived by those skilled in the art within the scope of the gist of the present disclosure, that is, the meaning indicated by the wording described in the claims, with respect to the above-described embodiment. Is done.

例えば、物体画像表示装置120は、重畳画像300内の物体画像310を消去することができてもよい。 For example, the object image display device 120 may be able to erase the object image 310 in the superimposed image 300.

また、物体画像表示システム100が端末装置160を備える場合を説明したが、物体画像表示システム100は、端末装置160を備えることなく物体画像表示装置120の各機能部が移動ロボット130により実現されても構わない。 Further, although the case where the object image display system 100 includes the terminal device 160 has been described, in the object image display system 100, each functional unit of the object image display device 120 is realized by the mobile robot 130 without providing the terminal device 160. It doesn't matter.

また、移動ロボット130は、掃除ロボットばかりでなく、愛玩ロボット、監視ロボット、搬送ロボットなど他の機能を備えていてもよい。 Further, the mobile robot 130 may have other functions such as a pet robot, a monitoring robot, and a transfer robot as well as a cleaning robot.

また、空間として住居200を例示したが、空間は、ホテルのロビー、空港、量販店、工場など比較的大きな空間であってもかまわない。 Further, although the residence 200 is illustrated as the space, the space may be a relatively large space such as a hotel lobby, an airport, a mass retailer, or a factory.

また、プログラムを実行することにより実現される処理部の一部、または全部は、移動ロボット130、および端末装置160のいずれかに備えられてもよく、また、ネットワークを介して接続されるサーバ上に備えられても構わない。 Further, a part or all of the processing unit realized by executing the program may be provided in either the mobile robot 130 or the terminal device 160, or on a server connected via a network. You may be prepared for.

また、1台の移動ロボット130を用いて第一図面情報を作成する場合を説明したが、複数台の移動ロボット130を走行させて第一図面情報の一部をそれぞれが作成しても構わない。この場合、端末装置160を複数台の移動ロボット130と通信可能とし、端末装置160が情報を統括して、第一図面情報を作成してもよい。 Further, although the case where the first drawing information is created by using one mobile robot 130 has been described, a part of the first drawing information may be created by running a plurality of mobile robots 130. .. In this case, the terminal device 160 may be able to communicate with a plurality of mobile robots 130, and the terminal device 160 may supervise the information and create the first drawing information.

本開示の物体画像表示装置、物体画像表示システム、および物体画像表示プログラムは、空間内に配置される物体のレイアウト表示に利用可能である。 The object image display device, the object image display system, and the object image display program of the present disclosure can be used for layout display of an object arranged in space.

100 物体画像表示システム
120 物体画像表示装置
130 移動ロボット
131 ボディ
132 駆動ユニット
133 吸引ユニット
134 掃除ユニット
135 制御ユニット
136 位置関係検出手段
138 吸込口
139 バンパ
140 ホイール
141 ハウジング
142 キャスター
143 塵埃保持部
160 端末装置
161 表示装置
162 入力装置
171 図面情報取得部
172 位置関係取得部
173 物体分離部
174 表示部
175 図面情報作成部
176 記憶部
177 物体画像移動部
178 距離表示部
179 物体情報統合部
180 物体情報取得部
181 入力部
200 住居
201 フロア
202 壁
203 突出部
204 ドア部
211 第一物体
213 第三物体
214 第四物体
215 第五物体
250 ネットワーク
300 重畳画像
301 空間画像
310 物体画像
100 Object image display system 120 Object image display device 130 Mobile robot 131 Body 132 Drive unit 133 Suction unit 134 Cleaning unit 135 Control unit 136 Positional relationship detection means 138 Suction port 139 Bumper 140 Wheel 141 Housing 142 Caster 143 Dust holder 160 Terminal device 161 Display device 162 Input device 171 Drawing information acquisition unit 172 Positional relationship acquisition unit 173 Object separation unit 174 Display unit 175 Drawing information creation unit 176 Storage unit 177 Object image movement unit 178 Distance display unit 179 Object information integration unit 180 Object information acquisition unit 181 Input part 200 Residential 201 Floor 202 Wall 203 Protruding part 204 Door part 211 First object 213 Third object 214 Fourth object 215 Fifth object 250 Network 300 Superimposed image 301 Spatial image 310 Object image

Claims (7)

所定の空間内を自律的に移動する移動ロボットによる測定に基づき作成された第一図面情報、および前記第一図面情報の作成以前に作成された前記空間内部に関する第二図面情報を取得する図面情報取得部と、
前記第一図面情報と前記第二図面情報の差分に基づき前記空間内に配置された物体を示す物体情報を個別に分離する物体分離部と、
前記第一図面情報、および前記第二図面情報の少なくとも一方に対応する空間画像に前記物体情報に対応する物体画像を重畳させた重畳画像を表示する表示部と、
を有する物体画像表示装置。
First drawing information created based on measurements by a mobile robot that autonomously moves in a predetermined space, and drawing information for acquiring second drawing information about the inside of the space created before the creation of the first drawing information. Acquisition department and
An object separation unit that individually separates object information indicating an object arranged in the space based on the difference between the first drawing information and the second drawing information.
A display unit that displays a superimposed image in which an object image corresponding to the object information is superimposed on a spatial image corresponding to at least one of the first drawing information and the second drawing information.
An object image display device having.
前記重畳画像において、前記物体画像を移動させる物体画像移動部
を備える請求項1に記載の物体画像表示装置。
The object image display device according to claim 1, further comprising an object image moving unit that moves the object image in the superimposed image.
前記重畳画像内の2点に対応する実際の距離を表示する距離表示部
を備える請求項1または2に記載の物体画像表示装置。
The object image display device according to claim 1 or 2, further comprising a distance display unit that displays an actual distance corresponding to two points in the superimposed image.
複数の前記物体画像に基づき対応する物体情報を統合する物体情報統合部
を備える請求項1から3のいずれか一項に記載の物体画像表示装置。
The object image display device according to any one of claims 1 to 3, further comprising an object information integration unit that integrates corresponding object information based on the plurality of object images.
物体情報を取得する物体情報取得部を備え、
前記表示部は、前記物体情報取得部が取得した物体情報に対応する物体画像を前記重畳画像に重畳させて表示する
請求項1から4のいずれか一項に記載の物体画像表示装置。
Equipped with an object information acquisition unit that acquires object information
The object image display device according to any one of claims 1 to 4, wherein the display unit displays an object image corresponding to the object information acquired by the object information acquisition unit by superimposing the object image on the superimposed image.
所定の空間内を自律的に移動する移動ロボットと、
前記移動ロボットと通信可能な端末装置と、
前記移動ロボットによる測定に基づき作成された第一図面情報、および前記第一図面情報の作成以前に作成された前記空間内部に関する第二図面情報を取得する図面情報取得部と、
前記第一図面情報と前記第二図面情報の差分に基づき前記空間内に配置された物体を示す物体情報を個別に分離する物体分離部と、
前記第一図面情報、および前記第二図面情報の少なくとも一方に対応する空間画像に前記物体情報に対応する物体画像を重畳させた重畳画像を表示する表示部と、
を備える物体画像表示システム。
A mobile robot that autonomously moves in a predetermined space,
A terminal device capable of communicating with the mobile robot and
A drawing information acquisition unit that acquires the first drawing information created based on the measurement by the mobile robot and the second drawing information about the inside of the space created before the creation of the first drawing information.
An object separation unit that individually separates object information indicating an object arranged in the space based on the difference between the first drawing information and the second drawing information.
A display unit that displays a superimposed image in which an object image corresponding to the object information is superimposed on a spatial image corresponding to at least one of the first drawing information and the second drawing information.
An object image display system equipped with.
所定の空間内を自律的に移動する移動ロボットによる測定に基づき作成された第一図面情報、および前記第一図面情報の作成以前に作成された前記空間内部に関する第二図面情報を取得する図面情報取得部と、
前記第一図面情報と前記第二図面情報の差分に基づき前記空間内に配置された物体を示す物体情報を個別に分離する物体分離部と、
前記第一図面情報、および前記第二図面情報の少なくとも一方に対応する空間画像に前記物体情報に対応する物体画像を重畳させた重畳画像を表示する表示部と、
をコンピュータに実行させることにより実現する物体画像表示プログラム。
First drawing information created based on measurements by a mobile robot that autonomously moves in a predetermined space, and drawing information for acquiring second drawing information about the inside of the space created before the creation of the first drawing information. Acquisition department and
An object separation unit that individually separates object information indicating an object arranged in the space based on the difference between the first drawing information and the second drawing information.
A display unit that displays a superimposed image in which an object image corresponding to the object information is superimposed on a spatial image corresponding to at least one of the first drawing information and the second drawing information.
An object image display program realized by letting a computer execute.
JP2020039109A 2020-03-06 2020-03-06 Object image display device, object image display system, and object image display program Active JP7281716B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020039109A JP7281716B2 (en) 2020-03-06 2020-03-06 Object image display device, object image display system, and object image display program
PCT/JP2021/001559 WO2021176863A1 (en) 2020-03-06 2021-01-19 Object image display device, object image display system, and object image display program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020039109A JP7281716B2 (en) 2020-03-06 2020-03-06 Object image display device, object image display system, and object image display program

Publications (2)

Publication Number Publication Date
JP2021140583A true JP2021140583A (en) 2021-09-16
JP7281716B2 JP7281716B2 (en) 2023-05-26

Family

ID=77614496

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020039109A Active JP7281716B2 (en) 2020-03-06 2020-03-06 Object image display device, object image display system, and object image display program

Country Status (2)

Country Link
JP (1) JP7281716B2 (en)
WO (1) WO2021176863A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003337900A (en) * 2002-05-20 2003-11-28 Nippon Telegr & Teleph Corp <Ntt> METHOD AND SYSTEM FOR SELLING PRODUCT Web-LINKED WITH THREE-DIMENSIONAL FLOOR PLAN OF HOUSE
JP2004033340A (en) * 2002-07-01 2004-02-05 Hitachi Home & Life Solutions Inc Robot vacuum cleaner and robot vacuum cleaner control program
JP2009169845A (en) * 2008-01-18 2009-07-30 Toyota Motor Corp Autonomous mobile robot and map update method
JP2014071847A (en) * 2012-10-01 2014-04-21 Sharp Corp Self-propelled electronic apparatus, electronic apparatus control system, and electronic apparatus control method
JP2019528487A (en) * 2017-04-25 2019-10-10 北京小米移動軟件有限公司Beijing Xiaomi Mobile Software Co.,Ltd. Method and apparatus for drawing room layout diagram

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003337900A (en) * 2002-05-20 2003-11-28 Nippon Telegr & Teleph Corp <Ntt> METHOD AND SYSTEM FOR SELLING PRODUCT Web-LINKED WITH THREE-DIMENSIONAL FLOOR PLAN OF HOUSE
JP2004033340A (en) * 2002-07-01 2004-02-05 Hitachi Home & Life Solutions Inc Robot vacuum cleaner and robot vacuum cleaner control program
JP2009169845A (en) * 2008-01-18 2009-07-30 Toyota Motor Corp Autonomous mobile robot and map update method
JP2014071847A (en) * 2012-10-01 2014-04-21 Sharp Corp Self-propelled electronic apparatus, electronic apparatus control system, and electronic apparatus control method
JP2019528487A (en) * 2017-04-25 2019-10-10 北京小米移動軟件有限公司Beijing Xiaomi Mobile Software Co.,Ltd. Method and apparatus for drawing room layout diagram

Also Published As

Publication number Publication date
WO2021176863A1 (en) 2021-09-10
JP7281716B2 (en) 2023-05-26

Similar Documents

Publication Publication Date Title
US20210106196A1 (en) System of robotic cleaning devices
JP7442063B2 (en) Vacuum cleaner control method and control system
EP3727122B1 (en) Robot cleaners and controlling method thereof
WO2019097626A1 (en) Self-propelled vacuum cleaner
CN105310604A (en) Robot cleaning system and method of controlling robot cleaner
US20190324473A1 (en) Method for creating an environment map for a processing unit
TW201825038A (en) Operating method of self-walking device in which the environment map is displayed on a display device during the movements of the walking device
KR102397035B1 (en) Use of augmented reality to exchange spatial information with robotic vacuums
WO2021176863A1 (en) Object image display device, object image display system, and object image display program
KR20200142865A (en) A robot cleaner using artificial intelligence and control method thereof
JP6945144B2 (en) Cleaning information providing device and vacuum cleaner system
JP2022101947A (en) Mobile robot system, terminal device and map update program
JP7417943B2 (en) vacuum cleaner system
JP7411897B2 (en) Vacuum cleaning systems and vacuum cleaners
JP2022086464A (en) Travel map creation apparatus, user terminal device, autonomous mobile robot, travel control system of autonomous mobile robot, travel control method of autonomous mobile robot, and program
WO2022137796A1 (en) Travel map creation device, autonomous travel robot, travel control system for autonomous travel robot, travel control method for autonomous travel robot, and program
US20240126290A1 (en) Travel map creating apparatus, travel map creating method, and recording medium
US20220031136A1 (en) Vacuum cleaner system and vacuum cleaner
WO2023157345A1 (en) Traveling map creation device, autonomous robot, method for creating traveling map, and program
JP7122573B2 (en) Cleaning information providing device
JP2019076658A (en) Autonomous travel cleaner and extension area identification method
JP2023075740A (en) Traveling map creation device, autonomous travel type robot, traveling map creation method, and program
WO2023089886A1 (en) Traveling map creating device, autonomous robot, method for creating traveling map, and program
JP7417944B2 (en) Autonomous vacuum cleaner, autonomous vacuum cleaner control method, and program
KR20230134800A (en) A robot cleaner and control method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220616

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230405

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230418

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230426

R151 Written notification of patent or utility model registration

Ref document number: 7281716

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151