JP2021140583A - Object image display device, object image display system, and object image display program - Google Patents
Object image display device, object image display system, and object image display program Download PDFInfo
- Publication number
- JP2021140583A JP2021140583A JP2020039109A JP2020039109A JP2021140583A JP 2021140583 A JP2021140583 A JP 2021140583A JP 2020039109 A JP2020039109 A JP 2020039109A JP 2020039109 A JP2020039109 A JP 2020039109A JP 2021140583 A JP2021140583 A JP 2021140583A
- Authority
- JP
- Japan
- Prior art keywords
- drawing information
- information
- object image
- unit
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000005259 measurement Methods 0.000 claims abstract description 14
- 238000000926 separation method Methods 0.000 claims abstract description 12
- 230000010354 integration Effects 0.000 claims description 5
- 239000000428 dust Substances 0.000 description 14
- 238000010586 diagram Methods 0.000 description 11
- 238000004140 cleaning Methods 0.000 description 8
- 238000000034 method Methods 0.000 description 7
- 230000001133 acceleration Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000007634 remodeling Methods 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 238000010408 sweeping Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J5/00—Manipulators mounted on wheels or on carriages
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/10—Geometric CAD
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/10—Geometric CAD
- G06F30/12—Geometric CAD characterised by design entry means specially adapted for CAD, e.g. graphical user interfaces [GUI] specially adapted for CAD
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Geometry (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Optimization (AREA)
- Mathematical Analysis (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Computational Mathematics (AREA)
- Architecture (AREA)
- Human Computer Interaction (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Manipulator (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
本開示は、所定の空間内における物体のレイアウトを表示する物体画像表示装置、物体画像表示システム、および物体画像表示プログラムに関するものである。 The present disclosure relates to an object image display device, an object image display system, and an object image display program for displaying the layout of an object in a predetermined space.
従来、住居の中に配置されている家電製品、家具などに無線タグをつけ、住居内を移動するロボットに無線タグの情報を読み込ませることで、物体の配置と物体の情報とを対応付けて表示する技術が開示されている(例えば特許文献1参照)。 Conventionally, by attaching a wireless tag to home appliances, furniture, etc. placed in a house and having a robot moving in the house read the information of the wireless tag, the arrangement of the object and the information of the object are associated with each other. A display technique is disclosed (see, for example, Patent Document 1).
ところが、住居内を移動するロボットの視点と、家具などの情報だけでは、住居内に設置する新たな家具、家電を購入するには壁との距離などを手で計測してサイズが十分住居に収まるかを事前に確認する必要があった。家具を住居内に設置可能かを購入前に判断したいとの要望もある。 However, with only the viewpoint of the robot moving in the house and the information such as furniture, the size is enough to measure the distance to the wall to purchase new furniture and home appliances to be installed in the house. It was necessary to confirm in advance whether it would fit. There is also a desire to determine before purchase whether furniture can be installed in a home.
本開示は、空間内の物体のレイアウトを表示できる物体画像表示装置、および物体画像表示プログラムを提供する。 The present disclosure provides an object image display device capable of displaying the layout of an object in space, and an object image display program.
本開示の物体画像表示装置は、所定の空間内を自律的に移動する移動ロボットによる測定に基づき作成された第一図面情報、および前記第一図面情報の作成以前に作成された前記空間内部に関する第二図面情報を取得する図面情報取得部と、前記第一図面情報と前記第二図面情報の差分に基づき前記空間内に配置された物体を示す物体情報を個別に分離する物体分離部と、前記第一図面情報、および前記第二図面情報の少なくとも一方に対応する空間画像に前記物体情報に対応する物体画像を重畳させた重畳画像を表示する表示部と、を有する。 The object image display device of the present disclosure relates to first drawing information created based on measurement by a mobile robot that autonomously moves in a predetermined space, and the inside of the space created before the creation of the first drawing information. A drawing information acquisition unit that acquires the second drawing information, and an object separation unit that individually separates object information indicating an object arranged in the space based on the difference between the first drawing information and the second drawing information. It has a display unit that displays a superposed image in which an object image corresponding to the object information is superimposed on a spatial image corresponding to at least one of the first drawing information and the second drawing information.
本開示の物体画像表示システムは、所定の空間内を自律的に移動する移動ロボットと、前記移動ロボットと通信可能な端末装置と、前記移動ロボットによる測定に基づき作成された第一図面情報、および前記第一図面情報の作成以前に作成された前記空間内部に関する第二図面情報を取得する図面情報取得部と、前記第一図面情報と前記第二図面情報の差分に基づき前記空間内に配置された物体を示す物体情報を個別に分離する物体分離部と、前記第一図面情報、および前記第二図面情報の少なくとも一方に対応する空間画像に前記物体情報に対応する物体画像を重畳させた重畳画像を表示する表示部と、を備える物体画像表示システム。 The object image display system of the present disclosure includes a mobile robot that autonomously moves in a predetermined space, a terminal device that can communicate with the mobile robot, first drawing information created based on measurement by the mobile robot, and A drawing information acquisition unit that acquires a second drawing information about the inside of the space created before the creation of the first drawing information, and an arrangement in the space based on the difference between the first drawing information and the second drawing information. A superposition in which an object image corresponding to the object information is superimposed on a space image corresponding to at least one of the first drawing information and the second drawing information and an object separation unit that individually separates the object information indicating the object. An object image display system including a display unit for displaying an image.
本開示の物体画像表示プログラムは、所定の空間内を自律的に移動する移動ロボットによる測定に基づき作成された第一図面情報、および前記第一図面情報の作成以前に作成された前記空間内部に関する第二図面情報を取得する図面情報取得部と、前記第一図面情報と前記第二図面情報の差分に基づき前記空間内に配置された物体を示す物体情報を個別に分離する物体分離部と、前記第一図面情報、および前記第二図面情報の少なくとも一方に対応する空間画像に前記物体情報に対応する物体画像を重畳させた重畳画像を表示する表示部と、をコンピュータに実行させることにより実現する。 The object image display program of the present disclosure relates to the first drawing information created based on the measurement by a mobile robot autonomously moving in a predetermined space, and the inside of the space created before the creation of the first drawing information. A drawing information acquisition unit that acquires the second drawing information, and an object separation unit that individually separates object information indicating an object arranged in the space based on the difference between the first drawing information and the second drawing information. Realized by causing a computer to execute a display unit that displays a superposed image in which an object image corresponding to the object information is superimposed on a spatial image corresponding to at least one of the first drawing information and the second drawing information. do.
本開示によれば、空間内に設置された物体の大きさや配置状態などを示すレイアウトを画面上に出力することができる。 According to the present disclosure, it is possible to output a layout showing the size and arrangement state of an object installed in the space on the screen.
次に、本開示における物体画像表示装置、物体画像表示システム、および物体画像表示プログラムの実施の形態について、図面を参照しつつ説明する。なお、以下の実施の形態は、本開示における物体画像表示装置、物体画像表示システム、および物体画像表示プログラムの一例を示したものに過ぎない。従って本開示は、以下の実施の形態を参考に請求の範囲の文言によって範囲が画定されるものであり、以下の実施の形態のみに限定されるものではない。よって、以下の実施の形態における構成要素のうち、本開示の最上位概念を示す独立請求項に記載されていない構成要素については、本開示の課題を達成するのに必ずしも必要ではないが、より好ましい形態を構成するものとして説明される。 Next, an embodiment of the object image display device, the object image display system, and the object image display program in the present disclosure will be described with reference to the drawings. The following embodiments are merely examples of the object image display device, the object image display system, and the object image display program in the present disclosure. Therefore, the present disclosure is defined by the wording of the claims with reference to the following embodiments, and is not limited to the following embodiments. Therefore, among the components in the following embodiments, the components not described in the independent claims indicating the highest level concept of the present disclosure are not necessarily necessary for achieving the subject of the present disclosure, but more. Described as constituting a preferred form.
また、図面は、本開示を示すために適宜強調や省略、比率の調整を行った模式的な図となっており、実際の形状や位置関係、比率とは異なる場合がある。 In addition, the drawings are schematic drawings in which emphasis, omission, and ratio are adjusted as appropriate to show the present disclosure, and may differ from the actual shape, positional relationship, and ratio.
図1は、実施の形態における物体画像表示システムが備える移動ロボットが移動する空間を移動ロボットと共に示す平面図である。本実施の形態の場合、移動ロボット130が移動する空間は、住居200であり、移動ロボット130は、住居200のフロア201上を自律的に移動する。住居200は、壁202で囲まれた空間であり、一部に突出部203、ドア部204などを有している。フロア201上には、家具や家電製品などの物体(第一物体211〜第五物体215)が配置されている。物体画像表示システム100は、移動ロボット130と、端末装置160と、を備えている。本実施の形態の場合、物体画像表示プログラムを端末装置160で実行することにより物体画像表示装置120が実現されている(図4参照)。
FIG. 1 is a plan view showing a space in which the mobile robot included in the object image display system according to the embodiment moves together with the mobile robot. In the case of the present embodiment, the space in which the
図2は、実施の形態における移動ロボットの外観を示す側面図である。図3は、実施の形態における移動ロボットの外観を示す底面図である。これらの図に示されるように、実施の形態にかかる移動ロボット130は、フロア201上を自律的に走行しながら掃除を行う掃除ロボットであり、フロア201に存在するごみを吸引して掃除を行う。
FIG. 2 is a side view showing the appearance of the mobile robot according to the embodiment. FIG. 3 is a bottom view showing the appearance of the mobile robot according to the embodiment. As shown in these figures, the
本実施の形態の場合、移動ロボット130は、各種の構成要素が搭載されるボディ131、ボディ131を移動させる駆動ユニット132、フロア201に存在するごみを集める掃除ユニット134、ごみをボディ131の内部に吸引する吸引ユニット133、駆動ユニット132と、掃除ユニット134と、吸引ユニット133とを制御する制御ユニット135、位置関係検出手段136を備えている。
In the case of the present embodiment, the
ボディ131は、駆動ユニット132、制御ユニット135などを収容する筐体である。下部に対し上部が取り外し可能な構成となっている。ボディ131の外周部にはボディ131に対して変位可能なバンパ139が取り付けられている。また、図3に示されるとおり、ボディ131は、ごみをボディ131の内部に吸引するための吸込口138が設けられている。
The
駆動ユニット132は、制御ユニット135からの指示に基づき移動ロボット130を走行させる装置である。駆動ユニット132は、掃除面上を走行するホイール140、ホイール140にトルクを与える走行用モータ(不図示)、および、走行用モータを収容するハウジング141を有する。ボディ131の底面にはキャスター142が補助輪として備えられている。移動ロボット130は、2つのホイール140の回転を独立して制御することで、直進、後退、左回転、右回転など自在に走行することができる。
The
掃除ユニット134は、塵埃を掃き集めて吸込口138からごみを吸い込ませるためのユニットであり、吸込口138の近傍に配置される回転ブラシ、回転ブラシを回転させるブラシ駆動モータなどを備えている。
The
吸引ユニット133は、吸込口138から塵埃を吸い込みボディ131の内部に吸い込んだ塵埃を保持するユニットであり、電動ファン(不図示)、および塵埃保持部143を有する。電動ファンは、塵埃保持部143の内部の空気を吸引し、ボディ131の外方に空気を吐出させることにより、吸込口138からごみを吸い込み、塵埃保持部143内に
位置関係検出手段136は、フロア201内において移動ロボット130と壁202、および物体などとの位置関係を検出する装置である。位置関係検出手段136は、ボディ131の周囲に存在する、壁202、および家具などの物体の方向、距離などを検出し、2.5次元的な情報取得する。また、移動ロボット130は、位置関係検出手段136が検出した方向と距離との情報から自己位置を把握することも可能となっている。位置関係検出手段136の種類は特に限定されるものではないが、例えば光を放射し障害物により反射して帰ってきた光に基づいて位置と距離とを検出するLiDAR(Light Detection and Ranging)、ToF(Time of Flight)カメラ等を例示できる。また、位置関係検出手段136としては、障害物が反射した照明光や自然光を像として取得し視差に基づき位置と距離とを取得する複眼カメラなどを例示することができる。本実施の形態の場合、移動ロボット130は、位置関係検出手段136として上部にLiDARを備え、側部にカメラを備えている。
The
なお、移動ロボット130は、位置関係検出手段136以外にセンサを備えていても構わない。例えば、ボディ131の底面の複数箇所に配置され、フロア201が存在するか否かを検出する床面センサを備えてもよい。また、駆動ユニット132に備えられ、走行用モータによって回転する一対のホイール140のそれぞれの回転角を検出するエンコーダを備えてもよい。また、移動ロボット130が走行する際の加速度を検出する加速度センサ、移動ロボット130が旋回する際の角速度を検出する角速度センサを備えてもよい。また、床面に堆積している塵埃の量を測定する塵埃量センサを備えてもよい。バンパ139の変位を検出して障害物が衝突したことを検出する接触センサを備えてもよい。また、ボディ131の前方に存在する障害物を検出する位置関係検出手段136以外の超音波センサなどの障害物センサを備えてもよい。
The
端末装置160は、プログラムを実行することにより種々の機能を実現することができるコンピュータ等である。本実施の形態の場合、端末装置160は、いわゆるスマートフォンやタブレット端末と称される装置であり、移動ロボット130との間で通信により情報の授受が可能となっている。本実施の形態の場合、端末装置160は、表示装置161(図5参照)と、表示装置161の表面に配置され手指などの接触を二次元的に検知するタッチセンサなどの入力装置162(図4参照)とを備えている。
The
図4は、実施の形態における物体画像表示システムの各機能部を示すブロック図である。同図に示すように、物体画像表示システム100は、物体画像表示装置120の機能部として図面情報取得部171と、物体分離部173と、表示部174と、を備えている。本実施の形態の場合、物体画像表示システム100はさらに、移動ロボット130の機能部として位置関係取得部172と、図面情報作成部175と、を備え、物体画像表示装置120の機能部としてさらに、物体画像移動部177と、距離表示部178と、物体情報統合部179と、物体情報取得部180と、入力部181と、を備えている。
FIG. 4 is a block diagram showing each functional unit of the object image display system according to the embodiment. As shown in the figure, the object
位置関係取得部172は、フロア201内における移動ロボット130と家具などの物体や壁などとの位置関係を位置関係検出手段136から取得する。本実施の形態の場合、位置関係検出手段136であるLiDAR、およびカメラの少なくとも一方から測定データから移動ロボット130の自己位置と物体などとの位置関係を演算により取得する。
The positional
図面情報作成部175は、位置関係取得部172が取得した移動ロボット130と物体や壁との位置関係に基づき図面情報を作成する。図面情報の作成方法は特に限定されるものではないが、本実施の形態の場合、SLAM(Simultaneous Localization and Mapping)技術により図面情報が作成される。作成された図面情報は記憶部176に保持される。
The drawing
図面情報取得部171は、所定の空間の形状などを示す情報である図面情報を取得する。図面情報取得部171は、少なくとも2種類の図面情報を取得する。図面情報の1つである第一図面情報は、住居200内を自律的に移動する移動ロボット130による測定に基づき作成された図面情報である。第二図面情報は、第一図面情報の作成以前に作成された住居200に関する図面情報である。
The drawing
第一図面情報の作成箇所は特に限定されるものではなく、移動ロボット130の位置関係検出手段136が検出したデータを、ネットワーク250を介してサーバが入手し、サーバなどにて第一図面情報を作成しても構わない。本実施の形態の場合、第一図面情報は移動ロボット130の位置関係検出手段136が検出したデータに基づき移動ロボット130が備える図面情報作成部175において作成される。図面情報取得部171は、移動ロボット130から第一図面情報を取得する。
The location where the first drawing information is created is not particularly limited, and the data detected by the positional relationship detecting means 136 of the
第二図面情報の作成箇所も特に限定されるものではない。例えば第二図面情報は住居200の設計時に作成されたデータに基づきサーバなどにおいて作成されてもよい。また、家具などが設置されていない住居200のフロア201に移動ロボット130を走行させ、位置関係検出手段136が検出したデータに基づき第二図面情報が作成されても構わない。第二図面情報は、家具などの物体が設置されていない住居200の壁の情報により構成されていることが好ましい。本実施の形態の場合、図面情報取得部171は、ネットワーク250を介していわゆる間取り図を第二図面データとして取得する。
The location where the second drawing information is created is not particularly limited. For example, the second drawing information may be created on a server or the like based on the data created at the time of designing the residence 200. Further, the
物体分離部173は、図面情報取得部171が取得した第一図面情報と第二図面情報との差分に基づき住居200内に配置された第一物体211〜第五物体215をそれぞれ示す物体情報を個別に分離する。個別に分離する方法は、特に限定されるものではないが、例えば、楕円形のソファーである第三物体213のように、移動ロボット130が第三物体213の周囲を走行することにより、独立した1個体と認識できる情報であって第二図面情報に該当情報がない情報は、物体情報の1つとして第一図面情報から分離する。なお、テーブルである第四物体214のように移動ロボット130が潜り込むことにより、4本の脚部の測定データに基づき脚部が1個体と認識される場合もある。また、壁202や他の物体に密着状態で配置され、移動ロボット130の移動経路からは物体全周の測定データが得られない場合などは、第一図面情報から第二図面情報に対応する情報を除去し、残存した情報から角部などを抽出し、矩形などに外挿して物体分離部173は、物体情報を生成する。
The
図5は、空間画像、物体画像などが表示された表示装置を示す図である。表示部174は、図面情報取得部171が取得した第一図面情報、および第二図面情報の少なくとも一方に対応する空間画像301に物体分離部173が分離した物体情報に対応する物体画像310を重畳させた重畳画像300を表示装置161に表示する。
FIG. 5 is a diagram showing a display device on which a spatial image, an object image, and the like are displayed. The
入力部181は、端末装置160に備えられている入力装置162からの信号を処理する。本実施の形態の場合、入力装置162にはタッチパネルが含まれており、入力部181はタッチパネル上の「タップ」「ドラッグ」「ピンチアウト」などのユーザの操作を受け付ける。
The
物体画像移動部177は、重畳画像300において、物体画像310を移動させる処理部である。本実施の形態の場合、図6に示すように、端末装置160のユーザが入力装置162に基づき「物体を移動させる」の文字が記載されたボタンをタップすると、物体移動モードになり、異動対象となる物体画像310の部分をタップするとタップされた物体画像310を重畳画像300内の他の物体画像310と重ならない位置にドラッグにより移動させることができる。
The object
距離表示部178は、重畳画像300内の2点に対応する実際の距離を表示する。本実施の形態の場合、図7に示すように、端末装置160のユーザが入力装置162に基づき「距離を測る」の文字が記載されたボタンをタップすると、距離測定モードになり、重畳画像300内での2箇所をタップするとタップされた物体画像310に対応する実際の距離を、表示部174を介して表示装置161に表示する。また、ユーザはピンチアウトすることにより重畳画像300を拡大して表示させることもできる。
The
物体情報統合部179は、複数の物体画像310に基づき対応する物体情報を統合する処理を行う。本実施の形態の場合、図8に示すように、端末装置160のユーザが入力装置162に基づき「複数の物体をまとめる」の文字が記載されたボタンをタップすると、物体統合モードになり、ユーザが入力装置162を用いて重畳画像300内の複数の物体画像310を矩形などの1つの図形で囲むことができる。囲まれた複数の物体画像310は、1つの物体画像310として以降は取り扱われる。つまり、移動の際は囲まれた画像と共に物体画像310が一体に移動する。
The object
物体情報取得部180は、新しく追加する物体情報を取得する。物体情報の取得方法は、特に限定されるものではなく、例えば家具や家電製品などの物体情報をウエブ上からネットワーク250を介して取得しても構わない。本実施の形態の場合、図9に示すように、端末装置160のユーザが入力装置162に基づき「新しい物体を追加する」の文字が記載されたボタンをタップすると追加モードになり、図10に示すような物体作成画面に遷移し、物体作成画面を用いてユーザが所望の形状を作成することができる。ユーザが物体作成画面内の「次へ」の文字が記載されたボタンをタップすると、物体情報取得部180は、ユーザが作成した形状を物体情報として取得し、表示部174は、物体情報取得部180が取得した物体情報に対応する物体画像310を図11の強調表示した物体画像310のように重畳画像300に重畳させて表示する。
The object
新しく追加された物体画像310も、先に表示されている物体画像310と同様に、移動が可能であり、距離測定の対象となる。
The newly added
上記実施の形態に係る物体画像表示システム100によれば、住居200内に物体を設置後にロボット掃除機などの移動ロボット130を移動させて第一図面情報を取得し、また物体を設置する前の居住空間を示す第二図面情報を取得することにより、端末装置160の画面上で移動可能な物体のレイアウトを居住空間と共に確認することができる。
According to the object
また、物体に対応した物体画像310は、実際の物体と1対1に対応付けて認識することができ、物体間の距離や物体から壁202までの実際の距離などを画面上で確認することが可能となる。
Further, the
また、物体画像310を任意に移動させることができ、物体のレイアウトを変更することができる。従って、住居200内の模様替えの計画に寄与することが可能となる。
Further, the
また、新しい物体情報を追加して物体画像310として重畳画像300内に表示することができるため、新しい家具などが住居200に設置可能かを確認することができる。また、新しい物体画像310も含めて物体画像310のそれぞれの位置を変更することができるため、レイアウト次第で新しい家具などが住居200内に収まるか否かを確認することも可能となる。
Further, since new object information can be added and displayed as an
なお、本開示は、上記実施の形態に限定されるものではない。例えば、本明細書において記載した構成要素を任意に組み合わせて、また、構成要素のいくつかを除外して実現される別の実施の形態を本開示の実施の形態としてもよい。また、上記実施の形態に対して本開示の主旨、すなわち、請求の範囲に記載される文言が示す意味を逸脱しない範囲で当業者が思いつく各種変形を施して得られる変形例も本開示に含まれる。 The present disclosure is not limited to the above embodiment. For example, another embodiment realized by arbitrarily combining the components described in the present specification and excluding some of the components may be the embodiment of the present disclosure. The present disclosure also includes modifications obtained by making various modifications that can be conceived by those skilled in the art within the scope of the gist of the present disclosure, that is, the meaning indicated by the wording described in the claims, with respect to the above-described embodiment. Is done.
例えば、物体画像表示装置120は、重畳画像300内の物体画像310を消去することができてもよい。
For example, the object
また、物体画像表示システム100が端末装置160を備える場合を説明したが、物体画像表示システム100は、端末装置160を備えることなく物体画像表示装置120の各機能部が移動ロボット130により実現されても構わない。
Further, although the case where the object
また、移動ロボット130は、掃除ロボットばかりでなく、愛玩ロボット、監視ロボット、搬送ロボットなど他の機能を備えていてもよい。
Further, the
また、空間として住居200を例示したが、空間は、ホテルのロビー、空港、量販店、工場など比較的大きな空間であってもかまわない。 Further, although the residence 200 is illustrated as the space, the space may be a relatively large space such as a hotel lobby, an airport, a mass retailer, or a factory.
また、プログラムを実行することにより実現される処理部の一部、または全部は、移動ロボット130、および端末装置160のいずれかに備えられてもよく、また、ネットワークを介して接続されるサーバ上に備えられても構わない。
Further, a part or all of the processing unit realized by executing the program may be provided in either the
また、1台の移動ロボット130を用いて第一図面情報を作成する場合を説明したが、複数台の移動ロボット130を走行させて第一図面情報の一部をそれぞれが作成しても構わない。この場合、端末装置160を複数台の移動ロボット130と通信可能とし、端末装置160が情報を統括して、第一図面情報を作成してもよい。
Further, although the case where the first drawing information is created by using one
本開示の物体画像表示装置、物体画像表示システム、および物体画像表示プログラムは、空間内に配置される物体のレイアウト表示に利用可能である。 The object image display device, the object image display system, and the object image display program of the present disclosure can be used for layout display of an object arranged in space.
100 物体画像表示システム
120 物体画像表示装置
130 移動ロボット
131 ボディ
132 駆動ユニット
133 吸引ユニット
134 掃除ユニット
135 制御ユニット
136 位置関係検出手段
138 吸込口
139 バンパ
140 ホイール
141 ハウジング
142 キャスター
143 塵埃保持部
160 端末装置
161 表示装置
162 入力装置
171 図面情報取得部
172 位置関係取得部
173 物体分離部
174 表示部
175 図面情報作成部
176 記憶部
177 物体画像移動部
178 距離表示部
179 物体情報統合部
180 物体情報取得部
181 入力部
200 住居
201 フロア
202 壁
203 突出部
204 ドア部
211 第一物体
213 第三物体
214 第四物体
215 第五物体
250 ネットワーク
300 重畳画像
301 空間画像
310 物体画像
100 Object
Claims (7)
前記第一図面情報と前記第二図面情報の差分に基づき前記空間内に配置された物体を示す物体情報を個別に分離する物体分離部と、
前記第一図面情報、および前記第二図面情報の少なくとも一方に対応する空間画像に前記物体情報に対応する物体画像を重畳させた重畳画像を表示する表示部と、
を有する物体画像表示装置。 First drawing information created based on measurements by a mobile robot that autonomously moves in a predetermined space, and drawing information for acquiring second drawing information about the inside of the space created before the creation of the first drawing information. Acquisition department and
An object separation unit that individually separates object information indicating an object arranged in the space based on the difference between the first drawing information and the second drawing information.
A display unit that displays a superimposed image in which an object image corresponding to the object information is superimposed on a spatial image corresponding to at least one of the first drawing information and the second drawing information.
An object image display device having.
を備える請求項1に記載の物体画像表示装置。 The object image display device according to claim 1, further comprising an object image moving unit that moves the object image in the superimposed image.
を備える請求項1または2に記載の物体画像表示装置。 The object image display device according to claim 1 or 2, further comprising a distance display unit that displays an actual distance corresponding to two points in the superimposed image.
を備える請求項1から3のいずれか一項に記載の物体画像表示装置。 The object image display device according to any one of claims 1 to 3, further comprising an object information integration unit that integrates corresponding object information based on the plurality of object images.
前記表示部は、前記物体情報取得部が取得した物体情報に対応する物体画像を前記重畳画像に重畳させて表示する
請求項1から4のいずれか一項に記載の物体画像表示装置。 Equipped with an object information acquisition unit that acquires object information
The object image display device according to any one of claims 1 to 4, wherein the display unit displays an object image corresponding to the object information acquired by the object information acquisition unit by superimposing the object image on the superimposed image.
前記移動ロボットと通信可能な端末装置と、
前記移動ロボットによる測定に基づき作成された第一図面情報、および前記第一図面情報の作成以前に作成された前記空間内部に関する第二図面情報を取得する図面情報取得部と、
前記第一図面情報と前記第二図面情報の差分に基づき前記空間内に配置された物体を示す物体情報を個別に分離する物体分離部と、
前記第一図面情報、および前記第二図面情報の少なくとも一方に対応する空間画像に前記物体情報に対応する物体画像を重畳させた重畳画像を表示する表示部と、
を備える物体画像表示システム。 A mobile robot that autonomously moves in a predetermined space,
A terminal device capable of communicating with the mobile robot and
A drawing information acquisition unit that acquires the first drawing information created based on the measurement by the mobile robot and the second drawing information about the inside of the space created before the creation of the first drawing information.
An object separation unit that individually separates object information indicating an object arranged in the space based on the difference between the first drawing information and the second drawing information.
A display unit that displays a superimposed image in which an object image corresponding to the object information is superimposed on a spatial image corresponding to at least one of the first drawing information and the second drawing information.
An object image display system equipped with.
前記第一図面情報と前記第二図面情報の差分に基づき前記空間内に配置された物体を示す物体情報を個別に分離する物体分離部と、
前記第一図面情報、および前記第二図面情報の少なくとも一方に対応する空間画像に前記物体情報に対応する物体画像を重畳させた重畳画像を表示する表示部と、
をコンピュータに実行させることにより実現する物体画像表示プログラム。 First drawing information created based on measurements by a mobile robot that autonomously moves in a predetermined space, and drawing information for acquiring second drawing information about the inside of the space created before the creation of the first drawing information. Acquisition department and
An object separation unit that individually separates object information indicating an object arranged in the space based on the difference between the first drawing information and the second drawing information.
A display unit that displays a superimposed image in which an object image corresponding to the object information is superimposed on a spatial image corresponding to at least one of the first drawing information and the second drawing information.
An object image display program realized by letting a computer execute.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020039109A JP7281716B2 (en) | 2020-03-06 | 2020-03-06 | Object image display device, object image display system, and object image display program |
PCT/JP2021/001559 WO2021176863A1 (en) | 2020-03-06 | 2021-01-19 | Object image display device, object image display system, and object image display program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020039109A JP7281716B2 (en) | 2020-03-06 | 2020-03-06 | Object image display device, object image display system, and object image display program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021140583A true JP2021140583A (en) | 2021-09-16 |
JP7281716B2 JP7281716B2 (en) | 2023-05-26 |
Family
ID=77614496
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020039109A Active JP7281716B2 (en) | 2020-03-06 | 2020-03-06 | Object image display device, object image display system, and object image display program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7281716B2 (en) |
WO (1) | WO2021176863A1 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003337900A (en) * | 2002-05-20 | 2003-11-28 | Nippon Telegr & Teleph Corp <Ntt> | METHOD AND SYSTEM FOR SELLING PRODUCT Web-LINKED WITH THREE-DIMENSIONAL FLOOR PLAN OF HOUSE |
JP2004033340A (en) * | 2002-07-01 | 2004-02-05 | Hitachi Home & Life Solutions Inc | Robot vacuum cleaner and robot vacuum cleaner control program |
JP2009169845A (en) * | 2008-01-18 | 2009-07-30 | Toyota Motor Corp | Autonomous mobile robot and map update method |
JP2014071847A (en) * | 2012-10-01 | 2014-04-21 | Sharp Corp | Self-propelled electronic apparatus, electronic apparatus control system, and electronic apparatus control method |
JP2019528487A (en) * | 2017-04-25 | 2019-10-10 | 北京小米移動軟件有限公司Beijing Xiaomi Mobile Software Co.,Ltd. | Method and apparatus for drawing room layout diagram |
-
2020
- 2020-03-06 JP JP2020039109A patent/JP7281716B2/en active Active
-
2021
- 2021-01-19 WO PCT/JP2021/001559 patent/WO2021176863A1/en active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003337900A (en) * | 2002-05-20 | 2003-11-28 | Nippon Telegr & Teleph Corp <Ntt> | METHOD AND SYSTEM FOR SELLING PRODUCT Web-LINKED WITH THREE-DIMENSIONAL FLOOR PLAN OF HOUSE |
JP2004033340A (en) * | 2002-07-01 | 2004-02-05 | Hitachi Home & Life Solutions Inc | Robot vacuum cleaner and robot vacuum cleaner control program |
JP2009169845A (en) * | 2008-01-18 | 2009-07-30 | Toyota Motor Corp | Autonomous mobile robot and map update method |
JP2014071847A (en) * | 2012-10-01 | 2014-04-21 | Sharp Corp | Self-propelled electronic apparatus, electronic apparatus control system, and electronic apparatus control method |
JP2019528487A (en) * | 2017-04-25 | 2019-10-10 | 北京小米移動軟件有限公司Beijing Xiaomi Mobile Software Co.,Ltd. | Method and apparatus for drawing room layout diagram |
Also Published As
Publication number | Publication date |
---|---|
WO2021176863A1 (en) | 2021-09-10 |
JP7281716B2 (en) | 2023-05-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210106196A1 (en) | System of robotic cleaning devices | |
JP7442063B2 (en) | Vacuum cleaner control method and control system | |
EP3727122B1 (en) | Robot cleaners and controlling method thereof | |
WO2019097626A1 (en) | Self-propelled vacuum cleaner | |
CN105310604A (en) | Robot cleaning system and method of controlling robot cleaner | |
US20190324473A1 (en) | Method for creating an environment map for a processing unit | |
TW201825038A (en) | Operating method of self-walking device in which the environment map is displayed on a display device during the movements of the walking device | |
KR102397035B1 (en) | Use of augmented reality to exchange spatial information with robotic vacuums | |
WO2021176863A1 (en) | Object image display device, object image display system, and object image display program | |
KR20200142865A (en) | A robot cleaner using artificial intelligence and control method thereof | |
JP6945144B2 (en) | Cleaning information providing device and vacuum cleaner system | |
JP2022101947A (en) | Mobile robot system, terminal device and map update program | |
JP7417943B2 (en) | vacuum cleaner system | |
JP7411897B2 (en) | Vacuum cleaning systems and vacuum cleaners | |
JP2022086464A (en) | Travel map creation apparatus, user terminal device, autonomous mobile robot, travel control system of autonomous mobile robot, travel control method of autonomous mobile robot, and program | |
WO2022137796A1 (en) | Travel map creation device, autonomous travel robot, travel control system for autonomous travel robot, travel control method for autonomous travel robot, and program | |
US20240126290A1 (en) | Travel map creating apparatus, travel map creating method, and recording medium | |
US20220031136A1 (en) | Vacuum cleaner system and vacuum cleaner | |
WO2023157345A1 (en) | Traveling map creation device, autonomous robot, method for creating traveling map, and program | |
JP7122573B2 (en) | Cleaning information providing device | |
JP2019076658A (en) | Autonomous travel cleaner and extension area identification method | |
JP2023075740A (en) | Traveling map creation device, autonomous travel type robot, traveling map creation method, and program | |
WO2023089886A1 (en) | Traveling map creating device, autonomous robot, method for creating traveling map, and program | |
JP7417944B2 (en) | Autonomous vacuum cleaner, autonomous vacuum cleaner control method, and program | |
KR20230134800A (en) | A robot cleaner and control method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220616 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230221 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230405 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230418 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230426 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7281716 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |