JP7144991B2 - Autonomous mobile device, autonomous mobile program and position estimation system - Google Patents

Autonomous mobile device, autonomous mobile program and position estimation system Download PDF

Info

Publication number
JP7144991B2
JP7144991B2 JP2018124890A JP2018124890A JP7144991B2 JP 7144991 B2 JP7144991 B2 JP 7144991B2 JP 2018124890 A JP2018124890 A JP 2018124890A JP 2018124890 A JP2018124890 A JP 2018124890A JP 7144991 B2 JP7144991 B2 JP 7144991B2
Authority
JP
Japan
Prior art keywords
marking
target
unit
autonomous mobile
building
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018124890A
Other languages
Japanese (ja)
Other versions
JP2020004231A (en
Inventor
康宏 大竹
義徳 山本
宰弘 朴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daiwa House Industry Co Ltd
Original Assignee
Daiwa House Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daiwa House Industry Co Ltd filed Critical Daiwa House Industry Co Ltd
Priority to JP2018124890A priority Critical patent/JP7144991B2/en
Publication of JP2020004231A publication Critical patent/JP2020004231A/en
Application granted granted Critical
Publication of JP7144991B2 publication Critical patent/JP7144991B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

本発明は、自律移動装置、自律移動プログラム及び位置推定システムに係り、特に、建物の施工現場内において自律移動する自律移動装置、自律移動プログラム及び位置推定システムに関する。 The present invention relates to an autonomous mobile device, an autonomous mobile program, and a position estimation system, and more particularly to an autonomous mobile device, an autonomous mobile program, and a position estimation system that autonomously move within a construction site of a building.

従来、自律移動ロボットの中には、光学式距離センサを用いて作業環境内の対象物体までの方位及び距離を検出して3次元点群データを取得した上で、予め記憶されている作業環境内の地図情報における対象物体の位置情報と、3次元点群データにおける実際の対象物体の位置情報とを照合することで、自己位置を推定するものが知られている(例えば、特許文献1、2参照)。 Conventionally, some autonomous mobile robots use an optical distance sensor to detect the azimuth and distance to a target object in the work environment, acquire 3D point cloud data, and then use the work environment stored in advance. It is known to estimate the self-position by comparing the position information of the target object in the map information in the map information and the actual position information of the target object in the 3D point cloud data (for example, Patent Document 1, 2).

特許文献1の自律移動装置では、カメラによって撮像した画像データ、及び距離センサによって取得したレンジデータ(3次元形状データ)の双方を用いて、自己位置を推定することが開示されている。
詳しく言うと、周囲環境に応じて画像データによる自己位置推定と、レンジデータによる自己位置推定との信頼度をそれぞれ決定し、決定した信頼度に基づいて最終的な自己位置を決定することが開示されている。上記構成により、様々な環境下において自己位置推定の精度を確保することができる。
The autonomous mobile device of Patent Literature 1 discloses estimating its own position using both image data captured by a camera and range data (three-dimensional shape data) acquired by a distance sensor.
Specifically, the reliability of the self-position estimation from image data and the self-position estimation from range data is determined according to the surrounding environment, and the final self-position is determined based on the determined reliability. It is With the above configuration, the accuracy of self-position estimation can be ensured under various environments.

特許文献2の自律移動型墨出しロボットでは、当該ロボットに搭載した距離測定センサを利用して建設現場にある柱の位置を測定することで、建設現場における現在位置を検出し、そこから墨出し位置へ移動して墨出し線を描画することが開示されている。
上記構成により、建設現場における墨出し作業を省力化することができる。
In the autonomous mobile marking robot of Patent Document 2, the current position of the construction site is detected by measuring the position of the pillar at the construction site using the distance measurement sensor mounted on the robot, and marking is performed from there. Moving to a location and drawing a marking line is disclosed.
With the above configuration, it is possible to save labor in the marking work at the construction site.

特開2007-322138号公報Japanese Patent Application Laid-Open No. 2007-322138 特開平8-1552号公報Japanese Patent Application Laid-Open No. 8-1552

ところで、建物の施工現場では、建物(特に建物の躯体)の部位ごとによって、また、建物(建物の部屋)の用途によって、各部位に対して要求される寸法精度が異なっており、各施工段階において建物ごとに異なった寸法誤差が生じるものである。
そのような施工現場内において精度良く自己位置を推定するためには、施工現場ならではの事情を考慮して、距離センサの対象部位を特定する必要があった。
例えば、外壁よりも内側の部位においては、その後の内装仕上げによって寸法誤差を吸収することができるため、要求される寸法精度が高くないことから、距離センサの対象部位としてはふさわしくない部位と言える。また、内壁に取り付けられる断熱材等の部位においても表面の凹凸が比較的大きいため、こちらも距離センサの対象部位としてはふさわしくない。
また例えば、各部屋の用途(顧客の要望を含む)によって、店舗系のショップならば、間仕切りの寸法精度を柱や外壁等の部位よりも優先することや、コンビニエンスストアならば、出入り口周辺の部位の寸法精度を優先して設計することも考えられる。
従って、特許文献1、2のような自律移動装置とは異なった観点で、上述したような建物の施工現場ならではの事情を考慮しながら、精度良く自己位置を推定することが可能な自律移動装置が求められていた。
By the way, at a building construction site, the dimensional accuracy required for each part differs depending on the part of the building (especially the frame of the building) and the use of the building (rooms of the building). Therefore, different dimensional errors occur for each building.
In order to accurately estimate the self-position within such a construction site, it was necessary to specify the target part of the distance sensor in consideration of the circumstances unique to the construction site.
For example, since the dimensional error can be absorbed by the subsequent interior finishing, the portion inside the outer wall is not suitable as the target portion of the distance sensor because the required dimensional accuracy is not high. In addition, since the surface of a portion such as a heat insulating material attached to the inner wall has relatively large unevenness, this is also not suitable as a target portion of the distance sensor.
For example, depending on the purpose of each room (including customer requests), if it is a store-type shop, the dimensional accuracy of the partition should be prioritized over the parts such as pillars and outer walls, and if it is a convenience store, the parts around the entrance It is also conceivable to design with priority given to the dimensional accuracy of
Therefore, from a different point of view from the autonomous mobile devices disclosed in Patent Documents 1 and 2, an autonomous mobile device capable of estimating its own position with high accuracy while considering the circumstances unique to the building construction site as described above. was sought.

また、建物の施工現場においては、各種作業(特に墨出し作業)を省力化し、ヒューマンエラーを低減することが課題として挙がっており、精度良く自己位置を推定した上で、床や壁面等に対し墨出し作業まで実行することが可能な自律移動装置が求められていた。 In addition, at the construction site of the building, labor saving of various work (especially marking work) and reduction of human error have been raised as challenges. There has been a demand for an autonomous mobile device that can even carry out unloading work.

本発明は、上記の課題に鑑みてなされたものであり、本発明の目的は、建物の施工現場ならではの事情を考慮して、当該施工現場内で精度良く自己位置を推定することが可能な自律移動装置、自律移動プログラム及び位置推定システムを提供することにある。
また、本発明の他の目的は、建物の施工現場において、精度良く自己位置を推定した上で、墨出し作業まで実行することが可能な自律移動装置、自律移動プログラム及び位置推定システムを提供することにある。
The present invention has been made in view of the above-mentioned problems, and an object of the present invention is to make it possible to accurately estimate a self-position within a building construction site, taking into consideration the circumstances unique to a building construction site. An object of the present invention is to provide an autonomous mobile device, an autonomous mobile program, and a position estimation system.
Another object of the present invention is to provide an autonomous mobile device, an autonomous mobile program, and a position estimation system that are capable of accurately estimating the self-position and performing marking work at a building construction site. That's what it is.

前記課題は、本発明の自律移動装置によれば、建物の施工現場内を自律移動する自律移動装置であって、記建物のうち、施工現場内に存在する複数の対象部位の形状を検出した検出結果に基づいて、前記複数の対象部位の形状データを取得する形状データ取得部と、予め作成された図面データを参照し、前記複数の対象部位それぞれの寸法に関する情報に基づいて、前記複数の対象部位の中から基準対象部位を特定する対象部位特定部と、前記図面データに含まれる前記基準対象部位の位置と、前記形状データ取得部によって取得された前記形状データにおける実際の前記基準対象部位の位置との照合結果に基づいて、施工現場内における自己位置を推定する自己位置推定部と、を備えていること、により解決される。
上記構成により、建物の施工現場ならではの事情を考慮して、施工現場内で精度良く自己位置を推定することが可能な自律移動装置を実現することができる。
詳しく説明すると、本発明の自律移動装置では、建物における複数の対象部位それぞれの寸法に関する情報に基づいて基準対象部位を特定している。そのため、施工現場ならではの事情、すなわち各施工段階において建物ごとに異なる寸法情報が生じている事情を考慮したものとなっている。
According to the autonomous mobile device of the present invention, the autonomous mobile device moves autonomously within a construction site of a building, and detects the shape of a plurality of target portions existing within the construction site of the building. a shape data acquisition unit that acquires shape data of the plurality of target regions based on the detection results; a position of the reference target portion included in the drawing data; and the actual reference target in the shape data acquired by the shape data acquisition unit. and a self-position estimating unit that estimates the self-position within the construction site based on the result of collation with the position of the part.
With the above configuration, it is possible to realize an autonomous mobile device capable of accurately estimating its own position within a building construction site, taking into consideration the circumstances unique to the construction site.
More specifically, in the autonomous mobile device of the present invention, a reference target portion is specified based on information regarding dimensions of each of a plurality of target portions in a building. Therefore, it takes into consideration the circumstances unique to the construction site, that is, the circumstances in which different dimension information is generated for each building at each construction stage.

このとき、前記寸法に関する情報は、寸法許容差であって、記対象部位特定部は、前記建物における前記複数の対象部位それぞれの前記寸法許容差を含む前記図面データを参照し、前記複数の対象部位の中から前記寸法許容差に基づいて前記基準対象部位を特定すると良い。
上記構成により、建物の寸法許容差を含む図面データを参照して、施工現場内に存在する複数の対象部位の中から寸法許容差に基づいて基準対象部位を特定している。そのため、各施工段階において建物ごとに異なる寸法許容差が生じている事情を考慮したものとなっている。
At this time, the information about the dimensions is a dimensional tolerance, and the target part identifying unit refers to the drawing data including the dimensional tolerance of each of the plurality of target parts of the building , It is preferable to specify the reference target portion from among the target portions based on the dimensional tolerance.
With the above configuration, the drawing data including the dimensional tolerance of the building is referred to, and the reference target portion is specified based on the dimensional tolerance from among the plurality of target portions present in the construction site. Therefore, it takes into consideration the fact that different dimensional tolerances occur for each building at each construction stage.

このとき、前記対象部位特定部は、前記複数の対象部位の中から前記寸法許容差が最も小さい対象部位を、少なくとも前記基準対象部位として特定すると良い。
上記構成により、建物の施工現場内においてより精度良く自己位置を推定することが可能な自律移動装置となる。
At this time, it is preferable that the target portion specifying unit specifies at least the target portion having the smallest dimensional tolerance among the plurality of target portions as the reference target portion.
With the above configuration, the autonomous mobile device is capable of estimating its own position with higher accuracy within the construction site of the building.

このとき、前記寸法に関する情報は、寸法誤差であって、前記対象部位特定部は、前記図面データと前記形状データの比較によって得られる、前記複数の対象部位それぞれの前記寸法誤差に基づいて、前記複数の対象部位の中から前記寸法誤差が最も小さい対象部位を、少なくとも前記基準対象部位として特定すると良い。
上記構成により、施工現場内に存在する複数の対象部位それぞれの寸法誤差に基づいて、複数の対象部位の中から基準対象部位を特定している。そのため、各施工段階において建物ごとに異なる寸法誤差が生じている事情を考慮したものとなっている。
At this time, the information about the dimensions is a dimensional error, and the target part specifying unit determines the It is preferable to specify at least the target portion having the smallest dimensional error from among the plurality of target portions as the reference target portion.
With the above configuration, the reference target portion is specified from among the plurality of target portions based on the dimensional errors of each of the plurality of target portions existing within the construction site. Therefore, it takes into consideration the fact that different dimensional errors occur for each building at each construction stage.

このとき、前記建物の施工現場内において墨出し線をマーキングするためのマーキング部と、前記自己位置推定部によって推定された前記自己位置に基づいて、実際の墨出し線のマーキング位置を検出するマーキング位置検出部と、該マーキング位置検出部によって検出された前記マーキング位置を対象として墨出し線のマーキングを実行するように、前記マーキング部を制御するマーキング実行部と、を備えていると良い。
また、記マーキング位置検出部は、前記建物の各施工段階における墨出し線のマーキング位置を含む前記図面データに含まれる前記マーキング位置と、前記自己位置推定部によって推定された前記自己位置との照合結果に基づいて、実際の前記マーキング位置を検出すると良い。
上記構成により、建物の施工現場において、精度良く自己位置を推定した上で、墨出し作業まで実行することが可能な自律移動装置を実現できる。
At this time, a marking unit for marking a marking line within the construction site of the building, and a marking unit for detecting the actual marking position of the marking line based on the self-position estimated by the self-position estimating unit. A position detection unit and a marking execution unit that controls the marking unit so as to mark the marking position detected by the marking position detection unit with a marking line may be provided.
Further, the marking position detection unit detects the difference between the marking positions included in the drawing data including the marking positions of the marking lines in each construction stage of the building and the self-position estimated by the self-position estimation unit. It is preferable to detect the actual marking position based on the collation result.
With the above configuration, it is possible to realize an autonomous mobile device capable of estimating its self-position with high accuracy and performing marking work at a construction site of a building.

このとき、前記建物内の複数の部屋を含む前記図面データに含まれる前記部屋内における前記複数の対象部位の位置と、前記形状データにおける実際の前記複数の対象部位の位置とを前記部屋ごとに照合し、前記複数の部屋の中から前記複数の対象部位の適合率に基づいて部屋を決定する部屋決定部を備えていると良い。
上記構成により、建物内においてレイアウトが類似した複数の部屋が存在する場合であっても、図面データにおいて複数の部屋の中から対象となる部屋を精度良く決定することができ、その後、当該部屋に対して自己位置を推定し、墨出し作業などの施工作業を進めることができる。
At this time, the positions of the plurality of target portions in the room included in the drawing data including the plurality of rooms in the building and the actual positions of the plurality of target portions in the shape data are determined for each room. It is preferable to provide a room determination unit that performs collation and determines a room from among the plurality of rooms based on the relevance rate of the plurality of target parts.
With the above configuration, even if there are multiple rooms with similar layouts in the building, it is possible to accurately determine the target room from among the multiple rooms in the drawing data. On the other hand, it is possible to estimate its own position and proceed with construction work such as marking work.

また、建物の施工現場内を自律移動する自律移動装置としてのコンピュータに、前記建物のうち、施工現場内に存在する複数の対象部位の形状を検出した検出結果に基づいて、複数の対象部位の形状データを取得する形状データ取得処理と、予め作成された図面データを参照し、前記複数の対象部位それぞれの寸法に関する情報に基づいて、前記複数の対象部位の中から基準対象部位を特定する対象部位特定処理と、前記図面データに含まれる前記基準対象部位の位置と、前記形状データ取得処理によって取得された前記形状データにおける実際の前記基準対象部位の位置との照合結果に基づいて、施工現場内における自己位置を推定する自己位置推定処理と、を実行させる自律移動プログラムも実現できる。 In addition, a computer as an autonomous mobile device that autonomously moves within a construction site of a building, based on the detection result of detecting the shape of a plurality of target portions existing in the construction site of the building, detects the shape of the plurality of target portions. A shape data acquisition process for acquiring shape data, and a target for identifying a reference target portion from among the plurality of target portions by referring to previously created drawing data and based on information on dimensions of each of the plurality of target portions. Based on the site identification process, the position of the reference target part included in the drawing data, and the actual position of the reference target part in the shape data acquired by the shape data acquisition process, the construction site It is also possible to realize an autonomous mobile program that executes a self-position estimation process for estimating the self-position within.

また、建物の施工現場内を自律移動する自律移動装置の位置を推定するための位置推定システムであって、記建物のうち、施工現場内に存在する複数の対象部位の形状を検出した検出結果に基づいて、前記複数の対象部位の形状データを取得する形状データ取得部と、予め作成された図面データを参照し、前記複数の対象部位それぞれの寸法に関する情報に基づいて、前記複数の対象部位の中から基準対象部位を特定する対象部位特定部と、前記図面データに含まれる前記基準対象部位の位置と、前記形状データ取得部によって取得された前記形状データにおける実際の前記基準対象部位の位置との照合結果に基づいて、施工現場内における前記自律移動装置の位置を推定する位置推定部と、を備えた位置推定システムも実現できる。 Also, a position estimation system for estimating the position of an autonomous mobile device that autonomously moves within a construction site of a building, wherein the detection detects the shape of a plurality of target portions existing within the construction site of the building. a shape data acquisition unit for acquiring shape data of the plurality of target regions based on the results; A target part specifying unit that specifies a reference target part from among parts, a position of the reference target part included in the drawing data, and an actual reference target part in the shape data acquired by the shape data acquisition unit A position estimation system including a position estimation unit that estimates the position of the autonomous mobile device within the construction site based on the result of matching with the position can also be realized.

本発明の自律移動装置、自律移動プログラム及び位置推定システムによれば、建物の施工現場ならではの事情を考慮して、当該施工現場内で精度良く自己位置を推定することが可能となる。
また、建物の施工現場において、精度良く自己位置を推定した上で、墨出し作業まで実
行することが可能となる。
ADVANTAGE OF THE INVENTION According to the autonomous moving apparatus, the autonomous moving program, and the position estimation system of the present invention, it is possible to accurately estimate the self-position within the construction site, taking into account the circumstances unique to the construction site of the building.
In addition, at a construction site of a building, it is possible to accurately estimate the self-position and perform the marking work.

本実施形態の位置推定システム全体の構成図である。It is a block diagram of the whole position estimation system of this embodiment. 自律移動装置、データサーバーのソフト構成図である。It is a software configuration diagram of an autonomous mobile device and a data server. 建物の部屋における「図面データ」の一例を示す図である。It is a figure which shows an example of the "drawing data" in the room of a building. 建物の部屋における「実際の施工状況」の一例を示す図である。It is a figure which shows an example of the "actual construction situation" in the room of a building. 建物の部屋における「形状データ(点群データ)」の一例を示す図である。It is a figure which shows an example of the "shape data (point cloud data)" in the room of a building. 部屋決定部による処理を説明する図である。It is a figure explaining the process by a room determination part. 自己位置推定部による処理、墨出し線マーキング処理を説明する図である。It is a figure explaining the process by a self-position estimation part, and a marking line marking process. 本実施形態の自律移動プログラムの処理の一例を示すフロー図である。It is a flow figure showing an example of processing of an autonomous movement program of this embodiment.

以下、本発明に係る実施形態について図1~図8を参照して説明する。
本実施形態は、建物の施工現場内で自己位置推定を行った上で墨出し作業を実行する自律移動装置であって、予め作成された、建物の寸法許容差を含む図面データを記憶しており、建物のうち施工現場内に存在する複数の対象部位の形状を検出し、検出結果に基づいて複数の対象部位の形状データ(点群データ)を取得し、図面データを参照して建物における複数の対象部位それぞれの寸法許容差に基づいて複数の対象部位の中から基準対象部位を特定し、図面データに含まれる基準対象部位の位置(座標位置)と、形状データにおける実際の基準対象部位の位置(座標位置)との照合結果に基づいて、施工現場内における自己位置を推定することを特徴とする発明に関するものである。
An embodiment according to the present invention will be described below with reference to FIGS. 1 to 8. FIG.
This embodiment is an autonomous mobile device that performs marking work after estimating its own position within a construction site of a building, and stores drawing data that has been created in advance and includes the dimensional tolerance of the building. Detect the shape of multiple target parts existing in the construction site of the building, acquire the shape data (point cloud data) of the multiple target parts based on the detection results, and refer to the drawing data to determine the shape of the building Based on the dimensional tolerance of each of the multiple target parts, the reference target part is specified from among the multiple target parts, and the position (coordinate position) of the reference target part included in the drawing data and the actual reference target part in the shape data The present invention relates to an invention characterized by estimating one's own position within a construction site based on the result of collation with the position (coordinate position) of .

本実施形態となる自律移動装置1を含む位置推定システムS全体の構成を図1に示す。
位置推定システムSは、建物の施工現場内において自己位置推定を行い、墨出し作業を行うときに用いられる自律移動装置1と、自律移動装置1とネットワークを通じて接続され、各種プログラムやデータを保管するデータサーバー100と、から主に構成されている。
「自己位置推定」とは、装置(ロボット)自身が現在どの場所にいるのか、どちらの方向を向いているのか、またはどれぐらいの速度で走行しているのか等、現在の装置(ロボット)の状態を各種センサデータを参照して推定することを意味する。
また「墨出し作業」とは、建物の施工現場等において、各種施工作業の基準位置を示す基準線(墨出し線)を床面、壁面または天井面等にマーキングする作業を意味し、具体的には、基礎墨出しや躯体墨出し、仕上げ墨出し等がある。基準線は、その後の建物の部材の取り付け作業や、空調・電気設備等の器具の取り付け作業を実施するために用いられる。
FIG. 1 shows the configuration of the entire position estimation system S including the autonomous mobile device 1 according to this embodiment.
The position estimation system S is connected to the autonomous mobile device 1 used when performing self-position estimation and marking work in the construction site of the building, and the autonomous mobile device 1 through a network, and stores various programs and data. The data server 100 is mainly configured.
"Self-position estimation" is the current location of the device (robot) itself, which direction it is facing, how fast it is running, etc. It means estimating the state by referring to various sensor data.
In addition, "marking work" means the work of marking a reference line (marking line) that indicates the reference position of various construction work on the floor, wall, ceiling, etc. at a building construction site. There are basic markings, frame markings, finishing markings, etc. The reference line is used for the subsequent work of installing building members and the work of installing appliances such as air conditioners and electrical equipment.

自律移動装置1は、施工現場内の床面を自律移動し、自己位置を推定しながら墨出し線を床面に対してマーキングするロボットであって、データサーバー100と情報データ通信を行い、データサーバー100に記憶されている最新のプログラムやデータを読み込んで記憶しておくことができる。
データサーバー100は、主に自己位置推定作業、墨出し作業を実行するための各種プログラムやデータを管理して保管しておくためのマスターサーバーとしての機能と、設計図面データを管理して保管しておくための管理サーバーとしての機能と、を有している。
The autonomous mobile device 1 is a robot that autonomously moves on the floor in the construction site and marks a marking line on the floor while estimating its own position. The latest programs and data stored in the server 100 can be read and stored.
The data server 100 mainly functions as a master server for managing and storing various programs and data for executing self-position estimation work and marking work, and also manages and stores design drawing data. It has a function as a management server for keeping

<自律移動装置1のハード構成>
自律移動装置1は、図1に示すように、距離センサ2と、移動ユニット3と、マーキングユニット4と、駆動ユニット5と、各種演算・制御を実行するためのプロセッサー6と、を主に備えており、それぞれロボットの本体部分に取り付けられている。
なお、マーキングユニット4が、特許請求の範囲においてマーキング部に相当する。
<Hardware Configuration of Autonomous Mobile Device 1>
As shown in FIG. 1, the autonomous moving device 1 mainly includes a distance sensor 2, a moving unit 3, a marking unit 4, a driving unit 5, and a processor 6 for executing various calculations and controls. are attached to the main body of the robot.
Note that the marking unit 4 corresponds to a marking section in the claims.

距離センサ2は、ロボット本体の上端に取り付けられたレーザーセンサであって、照射方向を連続的に変化させながらレーザー光を照射し、対象部位からの反射光を受光することで、当該対象部位までの距離を測定するものである。
具体的には、距離センサ2は、施工現場内に存在する対象部位との距離を計測することで、当該対象部位の形状を検出し、検出結果に基づいて対象部位の形状データを作成するものである。
「形状データ」とは、本実施例では対象部位の2次元距離情報に基づく2次元点群データを意味するが、3次元距離情報(3次元点群データ)であってももちろん良い。
なお、距離センサ2は、レーザーセンサに特に限定されることなく、加速度センサ(ジャイロセンサ)、磁気センサ、電波を使用して対象物体までの距離を計測するレーダセンサや、施工現場内の光学的情報を取得するカメラセンサ等を利用しても良い。
The distance sensor 2 is a laser sensor attached to the upper end of the main body of the robot. It measures the distance between
Specifically, the distance sensor 2 detects the shape of the target portion by measuring the distance to the target portion existing in the construction site, and creates shape data of the target portion based on the detection result. is.
"Shape data" means two-dimensional point cloud data based on two-dimensional distance information of the target part in this embodiment, but it may of course be three-dimensional distance information (three-dimensional point cloud data).
Note that the distance sensor 2 is not particularly limited to a laser sensor, but may be an acceleration sensor (gyro sensor), a magnetic sensor, a radar sensor that measures the distance to a target object using radio waves, or an optical sensor in the construction site. A camera sensor or the like that acquires information may be used.

移動ユニット3(移動部)は、ロボット本体を2次元方向に移動させるための一対の駆動車輪と、不図示の補助車輪とから主に構成されており、ロボット本体の側方に取り付けられている。そして、駆動ユニット5から駆動動力を受けて回転することで、ロボット本体を移動させることができる。
なお、移動ユニット3は、駆動車輪を想定しているが、特に限定されることなく、駆動クローラー等の公知な駆動手段を採用しても良い。
また、移動ユニット3は、本実施例では2次元方向の移動ユニットを想定しているが、特に限定されることなく、公知な機構によって3次元方向に移動することが可能なユニットを採用しても良い。
The moving unit 3 (moving part) is mainly composed of a pair of drive wheels for moving the robot body in two-dimensional directions and auxiliary wheels (not shown), and is attached to the side of the robot body. . The robot main body can be moved by receiving driving power from the drive unit 5 and rotating.
Although the moving unit 3 is assumed to be a driving wheel, it is not particularly limited, and a known driving means such as a driving crawler may be adopted.
Further, although the moving unit 3 is assumed to be a two-dimensional moving unit in this embodiment, it is not particularly limited, and a unit capable of moving in three-dimensional directions by a known mechanism may be adopted. Also good.

マーキングユニット4(マーキング部)は、インクジェット方式によって墨出し線をマーキングする機構を有し、ロボット本体の下端に取り付けられており、インクを下方に向かって噴霧することで床面に対し墨出し線をマーキングすることができる。
なお、マーキングユニット4は、インクジェット方式に特に限定されることなく、直接ペンの先端を床面に接触させて水平方向に移動することで床面に墨出し線をマーキングしても良いし、インクを滴下する方式で墨出し線をマーキングする等しても良い。
駆動ユニット5(駆動部)は、各種ユニットを駆動させるためのモーターであって、ロボット本体の内部に取り付けられており、プロセッサー6から受信した駆動命令に基づいて動作するものである。
The marking unit 4 (marking section) has a mechanism for marking a marking line by an inkjet method, and is attached to the lower end of the robot body. can be marked.
The marking unit 4 is not particularly limited to the ink jet method, and may mark a marking line on the floor surface by directly contacting the tip of the pen with the floor surface and moving in the horizontal direction. may be used to mark the marking lines by dripping.
The driving unit 5 (driving section) is a motor for driving various units, is attached inside the robot main body, and operates based on driving commands received from the processor 6 .

プロセッサー6は、データの演算・制御処理装置としてのCPUと、記憶装置としてのROM、RAM、及びHDDと、ホームネットワーク又はインターネットを通じて情報データの送受信を行う通信用インタフェースとを主に備えたものである。
なお、自律移動装置1は、文字又は画像の情報を表示する表示装置と、CPUに所定の指令を入力するときユーザー入力操作される入力装置と、外付けハードディスク等の外部記憶装置と、をさらに備えていても良い。
これらROM、HDD、及び外部記憶装置には、図2に示すように、コンピュータとして必要な機能を果たすメインプログラムに加えて、自己位置推定プログラムや、墨出し線マーキングプログラムが記憶されており、これらプログラムがCPUによって実行されることにより、自律移動装置1の機能が発揮されることになる。
なお、データサーバー100は、同様のハード構成を備えたコンピュータである。
The processor 6 mainly includes a CPU as a data arithmetic and control processing device, ROM, RAM and HDD as storage devices, and a communication interface for transmitting and receiving information data via a home network or the Internet. be.
The autonomous mobile device 1 further includes a display device for displaying text or image information, an input device operated by a user when inputting a predetermined command to the CPU, and an external storage device such as an external hard disk. It's okay to be prepared.
As shown in FIG. 2, these ROM, HDD, and external storage store a main program that performs necessary functions as a computer, as well as a self-position estimation program and a marking line marking program. The functions of the autonomous mobile device 1 are exhibited by executing the program by the CPU.
The data server 100 is a computer having a similar hardware configuration.

<自律移動装置1のソフト構成>
自律移動装置1は、図2に示すように、機能面から説明すると、予め作成された図面データや、各種プログラム及び各種データをデータサーバー100から読み込んで一時的に記憶しておく記憶部10と、施工現場内に存在する対象部位の形状を検出するように距離センサ2を制御する検出実行部11と、距離センサ2の検出結果によって作成された形状データを取得する形状データ取得部12と、図面データに含まれる部屋内における対象部位の位置と、形状データにおける実際の対象部位の位置とを部屋毎に照合し、複数の部屋の中から対象部位の適合率に基づいて部屋を決定する部屋決定部13と、図面データを参照し、複数の対象部位の中から基準対象部位を特定する対象部位特定部14と、図面データに含まれる基準対象部位の位置と、形状データにおける実際の基準対象部位の位置との照合結果に基づいて、施工現場内における自己位置を推定する自己位置推定部15と、を構成要素として備えている。
また、自律移動装置1は、自己位置推定部15によって推定された自己位置に基づいて、実際の墨出し線のマーキング位置を検出するマーキング位置検出部16と、マーキング位置検出部16によって検出されたマーキング位置を対象として墨出し線のマーキングを実行するように、マーキングユニット4及び駆動ユニット5を制御するマーキング実行部17と、を構成要素として備えている。
これらは、CPU、ROM、RAM、HDD、通信用インタフェース、及び各種プログラム等によって構成されている。
なお、データサーバー100についても機能面から説明すると、各種プログラム及び各種情報データを保持して格納しておく記憶部110と、自律移動装置1に向けて最新のプログラム及びデータを発信するデータ発信部111と、データ受信部112と、を主な構成要素として備えている。
<Software configuration of autonomous mobile device 1>
As shown in FIG. 2, the autonomous mobile device 1 is functionally composed of a storage unit 10 that reads previously created drawing data, various programs, and various data from a data server 100 and temporarily stores them. , a detection execution unit 11 that controls the distance sensor 2 so as to detect the shape of the target part existing in the construction site, a shape data acquisition unit 12 that acquires shape data created by the detection result of the distance sensor 2, A room that matches the position of the target part in the room included in the drawing data with the actual position of the target part in the shape data for each room, and determines the room from among multiple rooms based on the matching rate of the target part. A determining unit 13, a target part identifying unit 14 that identifies a reference target part from among a plurality of target parts by referring to drawing data, the position of the reference target part included in the drawing data, and the actual reference target in the shape data. A self-position estimating unit 15 for estimating the self-position within the construction site based on the result of collation with the position of the part is provided as a component.
In addition, the autonomous mobile device 1 detects the marking position of the actual marking line based on the self-position estimated by the self-position estimating unit 15, and the marking position detecting unit 16 detects the marking position. A marking execution unit 17 for controlling the marking unit 4 and the driving unit 5 is provided as a constituent element so as to execute the marking of the marking line with respect to the marking position.
These include a CPU, ROM, RAM, HDD, communication interface, various programs, and the like.
Note that the data server 100 will also be described from the functional aspect. 111 and a data receiving unit 112 as main components.

記憶部10に記憶される「図面データ」とは、図3に示すように、2次元形状の設計図に関する情報と、寸法許容差に関する情報とを含むデータであって、建物内の部屋ごとに作成されており、かつ、施工段階ごとにそれぞれ作成されている。
「部屋」とは、建物内において壁や間仕切り等によって隔てられた一空間を意味するほか、一空間又は複数の空間からなるフロア等を意味するものであっても良い。
なお、本実施例では建物の2次元形状を示す図面データを想定しているが、特に限定されることなく、3次元形状を示す図面データ、例えば建物のBIM(Building Information Modeling)データであっても良い。
また、本実施例では、設計図と寸法許容差の情報がまとめられて一つの図面データとして成立して保管されているが、特に限定されることなく、設計図の情報と寸法許容差の情報がそれぞれ別のデータに分かれて保管されていても良い。
The "drawing data" stored in the storage unit 10 is, as shown in FIG. It has been prepared and prepared for each construction stage.
A "room" means a space separated by walls, partitions, or the like in a building, and may also mean a floor or the like consisting of one space or a plurality of spaces.
In this embodiment, drawing data representing a two-dimensional shape of a building is assumed. Also good.
Further, in the present embodiment, the design drawing and the dimensional tolerance information are collected and stored as one piece of drawing data, but the design drawing information and the dimensional tolerance information are not particularly limited. may be stored separately as separate data.

「図面データ」のうち、設計図に関する情報は、建物内の所定の部屋において所定の施工段階における図面を示すものであって、当該設計図には墨出し線のマーキング位置情報も含まれている。
具体的には、建物の情報と、当該建物内の部屋の情報と、当該部屋の施工段階の情報とが対応付けられている。
図3の本実施例を見ると、建物ID「001」、建物名「Aビル」に対して部屋ID「201」、部屋名「2階B店舗」、施工段階「内装仕上げの墨出し」等が予め示されている。また、設計図面内には、建物における躯体の部位として柱及び外壁の施工位置と、墨出し線のマーキング位置とがそれぞれ示されている。
ここで当該墨出し線のマーキング位置は、次工程の「内装仕上げ」を実施するための基準線となるものである(既に前工程「外壁の取付け」が施工完了している段階である)。
Among the "drawing data", the information related to the blueprint indicates the drawing at a given construction stage in a given room in the building, and the blueprint includes marking position information of the marking line. .
Specifically, information on a building, information on a room in the building, and information on the construction stage of the room are associated with each other.
Looking at this embodiment in FIG. 3, building ID "001", building name "A building", room ID "201", room name "2nd floor B store", construction stage "interior finish marking", etc. is shown in advance. Further, in the design drawing, construction positions of pillars and outer walls and marking positions of marking lines are shown as parts of the skeleton of the building.
Here, the marking position of the marked line is the reference line for the next process of "interior finishing" (at the stage where the previous process "exterior wall installation" has already been completed).

「図面データ」のうち、寸法許容差に関する情報は、建物の各部位における寸法許容差を示すデータテーブルであって、設計図に関する情報と対応付けられている。
具体的には、図面データは、建物の部位におけるID番号と、部位名と、寸法許容差とが対応付けられている。
ここで「寸法許容差」とは、基準(施工基準)となる寸法値(施工寸法値)と、それに対して許容される限界の寸法値(施工寸法値)との差であって、施工時に施工誤差が生じてしまった場合に許容される範囲を示すもの(施工の寸法許容差)である。
図3の本実施例を見ると、建物の部位におけるID「001」、部位名「柱」に対して寸法許容差「±3(mm)」、また、ID「002」、部位名「外壁」に対して寸法許容差「±6(mm)」等が予め示されている。
つまり、本実施例では、複数の対象部位の中で「柱」が最も寸法許容差が小さい部位となっていることが分かる。
なお、最も寸法許容差が小さい部位を特定するにあたって、上記「柱」や「外壁」では寸法許容差の最大及び最小が対称的であるところ、所定の部位において寸法許容差の最大及び最小が非対称である場合には、例えば寸法公差(寸法上規定された最大値と最小値との差)に基づいて最も寸法公差が小さい部位を特定することとしても良い。
Among the "drawing data", the information about the dimensional tolerance is a data table showing the dimensional tolerance of each part of the building, and is associated with the information about the blueprint.
Specifically, in the drawing data, ID numbers, part names, and dimensional tolerances of parts of a building are associated with each other.
Here, "dimensional tolerance" is the difference between the standard (construction standard) dimension value (construction dimension value) and the allowable marginal dimension value (construction dimension value). It indicates the allowable range when a construction error occurs (construction dimensional tolerance).
Looking at this embodiment in FIG. 3, the ID "001" in the part of the building, the part name "pillar", the dimensional tolerance "±3 (mm)", the ID "002", the part name "outer wall" A dimensional tolerance of "±6 (mm)" or the like is shown in advance.
In other words, in this embodiment, it can be seen that the "column" has the smallest dimensional tolerance among the plurality of target parts.
In addition, when specifying the part with the smallest dimensional tolerance, while the maximum and minimum dimensional tolerances are symmetrical in the above "pillar" and "outer wall", the maximum and minimum dimensional tolerances are asymmetrical in the specified part. , the portion with the smallest dimensional tolerance may be specified based on the dimensional tolerance (difference between the maximum value and the minimum value defined in terms of dimensions), for example.

検出実行部11は、建物のうち、施工現場内に存在する対象部位の形状を検出するように距離センサ2を動作させるものである。
形状データ取得部12は、距離センサ2による検出結果に基づいて作成された、複数の対象部位の形状データを取得する。以下、図4を例に挙げて説明する。
図4に示す「実際の施工状況」は、施工段階として柱及び外壁の取付け作業が完了した時点の部屋の施工状況を示している。
本実施例の部屋では、4本の柱が外壁と比較して図3に示す設計図面通りに施工されていることが分かる。一方で、複数の外壁のうち、角部及び開口周辺以外に取り付けられた外壁は、図面と比較してやや傾いた形で施工されていることが分かる。
形状データ取得部12は、図4に示す部屋の施工状況において4本の柱(柱の内側)の形状、及び9本の外壁(外壁の内側)の形状を対象部位として検出し、部屋内においてこれら対象部位の形状データ(点群データ)を取得する。当該形状データが図5に示されている。
The detection execution unit 11 operates the distance sensor 2 so as to detect the shape of a target part existing in the construction site of the building.
The shape data acquisition unit 12 acquires shape data of a plurality of target parts created based on the detection results of the distance sensor 2 . Hereinafter, description will be made with reference to FIG. 4 as an example.
"Actual construction status" shown in FIG. 4 indicates the construction status of the room at the time when the installation work of the pillars and outer walls is completed as the construction stage.
In the room of this example, it can be seen that the four pillars were constructed according to the design drawing shown in FIG. 3 in comparison with the outer wall. On the other hand, among the plurality of outer walls, it can be seen that the outer walls attached outside the corners and around the opening are constructed in a slightly inclined manner compared to the drawing.
The shape data acquisition unit 12 detects the shape of four pillars (inside the pillars) and the shape of nine outer walls (inside the outer wall) as target parts in the construction situation of the room shown in FIG. Shape data (point cloud data) of these target parts are acquired. The shape data is shown in FIG.

部屋決定部13は、図3に示す「図面データ」に含まれる部屋内での対象部位の位置と、図5に示す「形状データ」における実際の対象部位の位置とを部屋ごとに照合し、複数の部屋の中から対象部位の適合率に基づいて部屋を決定する。
具体的には、部屋決定部13は、図6に示すように、まず、取得した部屋の形状データ(点群データ)をデジタル加工し、検出した点群データの各点のうち最も近い点同士を線で結ぶ処理を行う。
そして、加工された形状データにおける「実際の複数の対象部位の座標位置」と、予め用意された図面データに含まれる「設計上の複数の対象部位の座標位置」とを部屋ごとに重ね合わせて照合し、重ね合わせたときの複数の対象部位の適合率が最も高い値を示した部屋を決定する。
なお、適合率の値は、例えば互いの座標位置を重ね合わせたときの、対象部位同士の重ね合わせ誤差(投影誤差)を算出することで求めることができる。
The room determination unit 13 compares the position of the target part in the room included in the "drawing data" shown in FIG. 3 with the actual position of the target part in the "shape data" shown in FIG. 5 for each room, A room is determined from a plurality of rooms based on the matching rate of the target part.
Specifically, as shown in FIG. 6, the room determination unit 13 first digitally processes the acquired shape data (point cloud data) of the room, and determines the points of the detected point cloud data that are closest to each other. are connected with a line.
Then, the "coordinate positions of the actual multiple target parts" in the processed shape data and the "coordinate positions of the multiple target parts in design" included in the drawing data prepared in advance are superimposed for each room. A room is determined which has the highest matching rate for a plurality of target parts when they are collated and superimposed.
It should be noted that the matching rate value can be obtained, for example, by calculating a superimposition error (projection error) between target parts when their coordinate positions are superimposed on each other.

対象部位特定部14は、図3に示す「図面データ」を参照し、施工現場内に存在する複数の対象部位の中から寸法許容差(寸法に関する情報)に基づいて基準対象部位を特定する。
図3の本実施例で説明すると、対象部位特定部14は、複数の対象部位として「柱」及び「外壁」の中から、寸法許容差が最も小さい対象部位となる「柱」を基準対象部位として特定している。
「対象部位」としては、建物における躯体や内装材のほか、断熱材、空調・電気設備等の器具など、施工現場以内に存在するあらゆる部位を対象とすることができる。
The target portion identifying unit 14 refers to the “drawing data” shown in FIG. 3 and identifies a reference target portion based on the dimensional tolerance (information on dimensions) from among a plurality of target portions present in the construction site.
In this embodiment shown in FIG. 3, the target part specifying unit 14 selects the "column", which is the target part with the smallest dimensional tolerance, from among the "column" and the "outer wall" as the plurality of target parts. specified as.
The "target part" can be any part that exists within the construction site, such as the framework and interior materials of the building, as well as heat insulating materials, air conditioning, electrical equipment, and other fixtures.

自己位置推定部15は、図3に示す「図面データ」に含まれる基準対象部位の位置と、図5に示す「形状データ」における実際の基準対象部位の位置との照合結果に基づいて、施工現場内における自己位置を推定する。
具体的には、図7に示すように、まず、図面データに含まれる「対象部位の座標位置」と、形状データ(点群データ)に含まれる「実際の対象部位の座標位置」とを重ね合わせる処理を行う。その上で、寸法許容差が比較的大きい部材「外壁(外壁の内側)」は無視して、寸法許容差が最も小さい部材「柱(柱の内側)」を基準対象部位として照合し、照合結果に基づいて自己位置を推定している。
詳しく説明すると、例えば図3において「柱」を基準対象部位として特定したときに、図面上では、所定の「柱」から部屋の中心部に向かって南北方向(縦方向)において1000mm、東西方向(横方向)において2000mm離れた位置に自律移動装置が位置していたとする。その際に、所定の「柱」が、実際には縦及び横方向それぞれ2mmずつ部屋の中心部から離れるように誤差を生じて施工されていたとする。
その場合には、自己位置推定部15は、実際には所定の「柱」から南北方向において1002mm、東西方向において2002mm離れた位置を自己位置として推定することになる。
The self-position estimating unit 15 determines the position of the reference target part included in the "drawing data" shown in FIG. 3 and the actual position of the reference target part in the "shape data" shown in FIG. Estimate self-position in the field.
Specifically, as shown in FIG. 7, first, the “coordinate position of the target portion” included in the drawing data and the “coordinate position of the actual target portion” included in the shape data (point cloud data) are superimposed. Perform matching processing. After that, ignore the member "outer wall (inside the outer wall)" with relatively large dimensional tolerance, and collate the member "column (inside the column)" with the smallest dimensional tolerance as the reference target part, and check the result The self-position is estimated based on
To explain in detail, for example, when a "pillar" is specified as a reference target part in FIG. Assume that the autonomous mobile device is located at a position 2000 mm away in the lateral direction). At that time, it is assumed that the predetermined "pillars" were actually constructed with an error of 2 mm apart from the center of the room in each of the vertical and horizontal directions.
In that case, the self-position estimation unit 15 actually estimates a position 1002 mm in the north-south direction and 2002 mm in the east-west direction from the predetermined "pillar" as the self-position.

マーキング位置検出部16は、自己位置推定部15によって推定された自己位置に基づいて、実際の墨出し線のマーキング位置を検出する。
具体的には、図3に示す図面データに含まれる「マーキングの座標位置」と、自己位置推定部15によって推定された「自己の座標位置」との照合結果に基づいて、実際のマーキング位置を検出している。
その後、マーキング実行部17は、図7に示すように、マーキング位置検出部16によって検出されたマーキング位置を対象として墨出し線のマーキングを実行するように、マーキングユニット4及び駆動ユニット5を制御する。
本実施例では、部屋の床面に対して矩形状の墨出し線がマーキングされていることが分かる。
詳しく説明すると、例えば図3において「柱」を基準対象部位として特定したときに、それぞれの「柱」から部屋の中心部に向かって南北方向及び東西方向において10mmずつ離れた位置に墨出し線をマーキングする必要があるとする。その際に、所定の「柱」が、実際には南北及び東西方向それぞれ1mmずつ部屋の中心部とは離れるように誤差が生じて施工されていたとする。
その場合には、マーキング実行部17は、図面上ではそれぞれの「柱」から10mmずつ離れた位置に墨出し線をマーキングするところ、実際には所定の「柱」については11mmずつ離れた位置に墨出し線をマーキングすることになる。
The marking position detection unit 16 detects the actual marking position of the marking line based on the self-position estimated by the self-position estimation unit 15 .
Specifically, the actual marking position is determined based on the collation result between the "marking coordinate position" included in the drawing data shown in FIG. Detecting.
After that, the marking execution unit 17 controls the marking unit 4 and the drive unit 5 so as to mark the marking position detected by the marking position detection unit 16 as a marking line, as shown in FIG. .
In this embodiment, it can be seen that rectangular marking lines are marked on the floor surface of the room.
To explain in detail, for example, when "pillars" are specified as reference target parts in FIG. Suppose you need to mark. At that time, it is assumed that the predetermined "pillars" were actually constructed with an error such that they were separated from the center of the room by 1 mm each in the north-south and east-west directions.
In that case, the marking execution unit 17 marks the marking lines at positions separated by 10 mm from each "pillar" on the drawing, but in reality, the predetermined "columns" are marked at positions separated by 11 mm. You will be marking the inking lines.

<自律移動プログラム>
次に、自律移動装置1で実行される自律移動プログラム(墨出し線マーキングプログラムを含む)の処理について、図8に基づいて説明する。
本実施形態に係る上記プログラムは、記憶部10を備えた自律移動装置1の機能的な構成要素として、上述した検出実行部11と、形状データ取得部12と、部屋決定部13と、対象部位特定部14と、自己位置推定部15と、マーキング位置検出部16と、マーキング実行部17と、を実現させるために各種プログラムを集約させたユーティリティプログラムであって、自律移動装置1のCPUがこの自己位置推定プログラムを実行する。
なお、上記プログラムは、作業員から作業の指示を受け付けて実行されるものである。
<Autonomous movement program>
Next, processing of an autonomous movement program (including a marking line marking program) executed by the autonomous movement device 1 will be described based on FIG.
The program according to the present embodiment includes the detection execution unit 11, the shape data acquisition unit 12, the room determination unit 13, and the target part as functional components of the autonomous mobile device 1 having the storage unit 10. A utility program that integrates various programs to realize the identifying unit 14, the self-position estimating unit 15, the marking position detecting unit 16, and the marking executing unit 17, and the CPU of the autonomous mobile device 1 Run the localization program.
Note that the above program is executed upon receiving a work instruction from a worker.

図8に示す「自律移動処理フロー」では、まず、検出実行部11が、自律移動装置1が備える距離センサ2を動作させて、建物の部屋のうち、施工現場内に存在する複数の対象部位の形状を検出するステップ1(STEP1)から始まる。
なお、自律移動装置1の記憶部10には、予めデータサーバー100から受信した図3に示す「図面データ」が記憶されている。図面データは、2次元形状の設計図に関する情報と、寸法許容差に関する情報とを含むデータであって、建物内の部屋ごとに、かつ、施工段階ごとにそれぞれ作成されている。
In the "autonomous movement processing flow" shown in FIG. starts from step 1 (STEP 1) of detecting the shape of .
The storage unit 10 of the autonomous mobile device 1 stores "drawing data" shown in FIG. 3 received from the data server 100 in advance. The drawing data includes information on a two-dimensional design drawing and information on dimensional tolerances, and is created for each room in a building and for each construction stage.

次に、ステップ2で、形状データ取得部12が、距離センサ2の検出結果に基づいて作成された、複数の対象部位の「形状データ」を取得する。
なお、形状データは、図5に示すように、複数の対象部位の2次元距離情報に基づく2次元点群データであって、記憶部10に記憶される。
Next, in step 2 , the shape data acquisition unit 12 acquires “shape data” of a plurality of target parts created based on the detection results of the distance sensor 2 .
The shape data is two-dimensional point cloud data based on two-dimensional distance information of a plurality of target parts, as shown in FIG.

次に、ステップ3で、部屋決定部13が、図3に示す「図面データ」に含まれる部屋内での複数の対象部位の座標位置と、図5に示す「形状データ」における実際の複数の対象部位の座標位置とを部屋ごとに照合する。そして、複数の部屋の中から対象部位の適合率に基づいて所定の部屋を決定する(ステップ4)。
詳しく言うと、座標位置の原点及び軸を互いに重ね合わせて照合したときに、複数の対象部位同士の適合率が最も高い値を示した部屋を決定する。
Next, in step 3, the room determination unit 13 determines the coordinate positions of the plurality of target parts in the room included in the "drawing data" shown in FIG. The coordinate position of the target part is collated for each room. Then, a predetermined room is determined from a plurality of rooms based on the relevance rate of the target part (step 4).
More specifically, when the origins and axes of the coordinate positions are superimposed on each other and collated, the room showing the highest matching rate between the plurality of target parts is determined.

次に、ステップ5で、対象部位特定部14が、図3に示す「図面データ」を参照し、施工現場内に存在する複数の対象部位の中から寸法許容差に基づいて基準対象部位を特定する。詳しく言うと、寸法許容差が最も小さい対象部位を基準対象部位として特定している。 Next, in step 5, the target part identification unit 14 refers to the "drawing data" shown in FIG. 3, and identifies a reference target part based on the dimensional tolerance from among a plurality of target parts present in the construction site. do. Specifically, the target portion with the smallest dimensional tolerance is specified as the reference target portion.

次に、ステップ6で、自己位置推定部15、図3に示す「図面データ」に含まれる基準対象部位の座標位置と、図5に示す「形状データ」における実際の基準対象部位の座標位置とを照合する。そして、当該照合結果に基づいて、施工現場内における自己位置を推定する(ステップ7)。
詳しく言うと、予め寸法許容差が比較的大きい部材は対象外とし、寸法許容差が最も小さい部材を基準対象部位として照合し、照合結果に基づいて施工現場内における自己位置を推定している。
Next, in step 6, the self-position estimator 15 determines the coordinate position of the reference target part contained in the "drawing data" shown in FIG. 3 and the actual coordinate position of the reference target part in the "shape data" shown in FIG. to match. Then, based on the collation result, the self-position within the construction site is estimated (step 7).
Specifically, members with relatively large dimensional tolerances are excluded in advance, and members with the smallest dimensional tolerances are collated as reference target portions, and the self-position within the construction site is estimated based on the collation results.

次に、ステップ8で、マーキング位置検出部16が、自己位置推定部15によって推定された自己位置に基づいて、実際の墨出し線のマーキング位置を検出する。
詳しく言うと、図3に示す図面データに含まれる「マーキングの座標位置」と、自己位置推定部15によって推定された「自己の座標位置」との照合結果に基づいて、実際のマーキング位置を検出している。
最後に、ステップ9で、マーキング実行部17が、図7に示すように、検出されたマーキング位置を対象として墨出し線のマーキングを実行するように、マーキングユニット4及び駆動ユニット5を制御する。なお、本実施例では、部屋の床面に対して矩形状の墨出し線をマーキングしている。
Next, in step 8, the marking position detection unit 16 detects the actual marking position of the marking line based on the self-position estimated by the self-position estimation unit 15. FIG.
Specifically, the actual marking position is detected based on the collation result between the "marking coordinate position" included in the drawing data shown in FIG. is doing.
Finally, in step 9, the marking execution unit 17 controls the marking unit 4 and the driving unit 5 so as to mark the marking position as a target for the marking line, as shown in FIG. In this embodiment, rectangular marking lines are marked on the floor surface of the room.

上記ステップ1からステップ9を経て図8のプロセスを終了する。
上記の自律移動プログラムの処理フローにより、建物の施工現場ならではの事情を考慮して、当該施工現場内で精度良く自己位置を推定することが可能となる。
また、建物の施工現場において、精度良く自己位置を推定した上で、墨出し作業まで実
行することが可能となる。
The process of FIG. 8 is completed through steps 1 to 9 above.
According to the processing flow of the above-described autonomous movement program, it is possible to accurately estimate the self-position within the building construction site, taking into consideration the circumstances unique to the building construction site.
In addition, at a construction site of a building, it is possible to accurately estimate the self-position and perform the marking work.

<その他の実施形態>
上記実施形態では、「墨出し作業」を実行するための装置としているが、特に墨出し作業に限定されるものではなく、施工現場における各工程の計測作業や、部材や器具を取り付ける作業(例えば、間仕切の設置作業、間仕切りにおける煉瓦積み作業)を実行するための装置であっても良い。また、そのほか作業装置(作業ロボット)が自己位置推定をした上で実行可能な施工作業であれば広く適用することが可能である。
上記のような計測作業や取り付け作業を実行する場合には、自律移動装置1が、公知なロボットアームのような施工ユニットをさらに備えていると良い。当該施工ユニットは駆動ユニット5の駆動によって動作し、プロセッサー6の制御によって実行すると良い。
<Other embodiments>
In the above embodiment, the device is used to perform "marking work", but it is not particularly limited to marking work. , installation of partitions, brickwork in partitions). In addition, the present invention can be widely applied to construction work that can be performed by a work device (work robot) after estimating its own position.
In the case of performing the measurement work and the mounting work as described above, the autonomous mobile device 1 may further include a construction unit such as a known robot arm. The construction unit is preferably driven by the drive unit 5 and executed by the control of the processor 6 .

上記実施形態では、「床面に対して墨出し作業」を実行するための装置としているが、特に床面に限定されるものではなく、壁面または天井面等に墨出し線をマーキングする装置であっても良い。
上記の場合には、移動ユニット3が2次元方向の移動ユニットであるところ、代わりに公知な機構によって3次元方向に移動することが可能なユニットを採用すると良い。
また、自律移動装置1が、公知なロボットアームのような施工ユニットをさらに備え、当該ロボットアームの先端部分にマーキングユニット4を取り付けると良い。
In the above-described embodiment, the device is used to perform "marking work on the floor surface", but the device is not limited to the floor surface, and is a device for marking a marking line on a wall surface, a ceiling surface, or the like. It can be.
In the above case, although the moving unit 3 is a two-dimensional moving unit, it is preferable to employ a unit that can move three-dimensionally by a known mechanism instead.
Moreover, it is preferable that the autonomous mobile device 1 further includes a construction unit such as a known robot arm, and the marking unit 4 is attached to the tip portion of the robot arm.

上記実施形態では、「寸法許容差が最も小さい対象部位」を基準対象部位として特定しているが、特に限定されることなく、例えば、寸法許容差が所定の基準値以下となる部位を基準対象部位として特定しても良い。
または、寸法許容差に加えてその他の判断基準(建物の用途、顧客の要望、施工時期(季節)など)を組み合わせて特定しても良い。さらに基準対象部位を複数特定しても良い。
In the above embodiment, the "object part with the smallest dimensional tolerance" is specified as the reference object part, but there is no particular limitation. You may specify as a part.
Alternatively, in addition to the dimensional tolerance, other judgment criteria (use of the building, customer's request, construction period (season), etc.) may be combined for specification. Furthermore, a plurality of reference target parts may be specified.

上記実施形態では、「寸法許容差」に基づいて基準対象部位を特定しているが、特に限定されることなく、「寸法に関する情報」として「寸法誤差」に基づいて基準対象部位を特定しても良い。
ここで「寸法誤差」とは、実際の施工後に測定された寸法値(施工寸法値)から基準(施工基準)となる寸法値(施工寸法値)を引いた値である。
例えば、対象部位特定部14が、図面データと形状データの比較(照合結果)によって得られる、複数の対象部位それぞれの実際の寸法誤差に基づいて、複数の対象部位の中から基準対象部位を特定することとしても良い。その場合には、「寸法誤差が最も小さい対象部位」を基準対象部位として特定することが望ましい。
具体的には、図3において「柱」の実際の寸法誤差が2mm、「外壁」の寸法誤差が1mmで施工されていた場合には、対象部位特定部14は、複数の対象部位の中から「外壁」を基準対象部位として特定することになる。
In the above embodiment, the reference target part is specified based on the "dimensional tolerance", but without any particular limitation, the reference target part can be specified based on the "dimensional error" as the "dimensional information". Also good.
Here, the "dimensional error" is a value obtained by subtracting a dimension value (construction dimension value) serving as a reference (construction standard) from a dimension value (construction dimension value) measured after actual construction.
For example, the target part identification unit 14 identifies the reference target part from among the plurality of target parts based on the actual dimensional error of each of the plurality of target parts obtained by comparing the drawing data and the shape data (matching result). It is good to do. In that case, it is desirable to specify the "object part with the smallest dimensional error" as the reference object part.
Specifically, in FIG. 3, when the actual dimensional error of the "pillar" is 2 mm and the dimensional error of the "outer wall" is 1 mm, the target site identification unit 14 selects The "outer wall" is specified as the reference target portion.

上記実施形態では、自律移動装置1が、レーザー光を利用した距離センサ2を備えた構成となっているが、距離センサに限定されることなく変更可能である。
例えば、対象物体の加速度(重力加速度)を計測する加速度センサ(ジャイロセンサ)を採用しても良いし、対象磁場(磁界)の大きさや方向を計測する磁気センサを採用しても良い。
In the above-described embodiment, the autonomous mobile device 1 is configured to include the distance sensor 2 that uses laser light, but it can be changed without being limited to the distance sensor.
For example, an acceleration sensor (gyro sensor) that measures the acceleration (gravitational acceleration) of the target object may be employed, or a magnetic sensor that measures the magnitude and direction of the target magnetic field (magnetic field) may be employed.

上記実施形態では、位置推定システムSが自律移動装置1と、データサーバー100とから構成されているが、特に限定されることなく、より検出精度を高めるために公知な光波測定器(光波測距儀)をさらに備えたシステム構成としても良い。
その場合、自律移動装置1による距離センサ2と、この光波測定器とを併用しても良い。または、自律移動装置1が距離センサ2を備えておらず、代わりに光波測定器から検出結果に基づく形状データを取得する(受信する)構成としても良い。
In the above embodiment, the position estimation system S is composed of the autonomous mobile device 1 and the data server 100, but is not particularly limited, and a known light wave measuring device (light wave ranging It is also possible to adopt a system configuration further including a device.
In that case, the distance sensor 2 by the autonomous mobile device 1 and this light wave measuring device may be used together. Alternatively, the autonomous mobile device 1 may not include the distance sensor 2, and instead acquire (receive) shape data based on the detection result from the light wave measuring device.

上記実施形態では、位置推定システムSが自律移動装置1と、データサーバー100とから主に構成されており、自律移動装置1が主要な機能となる検出実行部11、形状データ取得部12、部屋決定部13、対象部位特定部14、自己位置推定部15、マーキング位置検出部16、マーキング実行部17を構成要素として備えているが、特に限定されることなく適宜変更可能である。
例えば、データサーバー100が主要な機能を備えており、自律移動装置1は、データサーバー100から各種の実行プログラムや実行データを受信することで、自己位置推定を行い、墨出し作業を実行することとしても良い。
具体的には、データサーバー100が、予め作成された図面データ等を記憶する記憶部110、データ発信部111、データ受信部112に加えて、形状データ取得部12、部屋決定部13、対象部位特定部14、位置推定部15を備えており、一方で自律移動装置1は、検出実行部11、データ発信部、データ受信部を備えていることとしても良い。
その場合、自律移動装置1は、検出実行部11によって得られた検出結果データをデータサーバー100にデータ発信し、その後、データサーバー100から自律移動装置1の位置を推定するための実行データや、墨出し作業を実行するための実行データをデータ受信する構成にすると良い。
なお、位置推定システムSにおいて、自律移動装置1とデータサーバー100のどちらが上記の機能的な構成要素をそれぞれ備えているかについては適宜変更可能である。
In the above-described embodiment, the position estimation system S is mainly composed of the autonomous mobile device 1 and the data server 100, and the autonomous mobile device 1 has the main functions of the detection execution unit 11, the shape data acquisition unit 12, the room Although the determining unit 13, the target part identifying unit 14, the self-position estimating unit 15, the marking position detecting unit 16, and the marking executing unit 17 are provided as constituent elements, they can be changed as appropriate without being limited to them.
For example, the data server 100 has a main function, and the autonomous mobile device 1 receives various execution programs and execution data from the data server 100 to estimate its own position and perform marking work. It is good as
Specifically, the data server 100 includes a storage unit 110, a data transmitting unit 111, a data receiving unit 112, a shape data obtaining unit 12, a room determining unit 13, a target part, and a storage unit 110 for storing drawing data created in advance. The identifying unit 14 and the position estimating unit 15 are included, while the autonomous mobile device 1 may include the detection executing unit 11, the data transmitting unit, and the data receiving unit.
In that case, the autonomous mobile device 1 transmits the detection result data obtained by the detection execution unit 11 to the data server 100, and then executes data for estimating the position of the autonomous mobile device 1 from the data server 100, It is preferable to adopt a configuration for receiving execution data for executing the marking work.
In the position estimation system S, which of the autonomous mobile device 1 and the data server 100 has the above-described functional components can be changed as appropriate.

上記実施形態では、主として本発明に係る自律移動装置、自律移動プログラム及び位置推定システムに関して説明した。
ただし、上記の実施形態は、本発明の理解を容易にするための一例に過ぎず、本発明を限定するものではない。本発明は、その趣旨を逸脱することなく、変更、改良され得ると共に、本発明にはその等価物が含まれることは勿論である。
In the above embodiments, the autonomous mobile device, the autonomous mobile program, and the position estimation system according to the present invention have been mainly described.
However, the above embodiment is merely an example for facilitating understanding of the present invention, and does not limit the present invention. The present invention can be modified and improved without departing from its spirit, and the present invention includes equivalents thereof.

S 位置推定システム
1 自律移動装置
2 距離センサ
3 移動ユニット(移動部)
4 マーキングユニット(マーキング部)
5 駆動ユニット(駆動部)
6 プロセッサー
10 記憶部
11 検出実行部
12 形状データ取得部
13 部屋決定部
14 対象部位特定部
15 自己位置推定部(位置推定部)
16 マーキング位置検出部
17 マーキング実行部
100 データサーバー
110 記憶部
111 データ発信部
112 データ受信部
S Position estimation system 1 Autonomous mobile device 2 Distance sensor 3 Mobile unit (moving part)
4 Marking unit (marking part)
5 drive unit (drive part)
6 processor 10 storage unit 11 detection execution unit 12 shape data acquisition unit 13 room determination unit 14 target part identification unit 15 self-position estimation unit (position estimation unit)
16 marking position detection unit 17 marking execution unit 100 data server 110 storage unit 111 data transmission unit 112 data reception unit

Claims (9)

建物の施工現場内を自律移動する自律移動装置であって、
記建物のうち、施工現場内に存在する複数の対象部位の形状を検出した検出結果に基づいて、前記複数の対象部位の形状データを取得する形状データ取得部と、
予め作成された図面データを参照し、前記複数の対象部位それぞれの寸法に関する情報に基づいて、前記複数の対象部位の中から基準対象部位を特定する対象部位特定部と、
前記図面データに含まれる前記基準対象部位の位置と、前記形状データ取得部によって取得された前記形状データにおける実際の前記基準対象部位の位置との照合結果に基づいて、施工現場内における自己位置を推定する自己位置推定部と、を備えていることを特徴とする自律移動装置。
An autonomous mobile device that autonomously moves within a construction site of a building,
A shape data acquisition unit that acquires shape data of the plurality of target portions based on detection results of shapes of the plurality of target portions existing in the construction site of the building;
a target part identification unit that identifies a reference target part from among the plurality of target parts by referring to drawing data created in advance and based on information on the dimensions of each of the plurality of target parts;
Based on the results of collation between the position of the reference target part included in the drawing data and the actual position of the reference target part in the shape data acquired by the shape data acquisition unit, the self-position in the construction site is determined. An autonomous mobile device, comprising: a self-position estimator for estimating.
前記寸法に関する情報は、寸法許容差であって、
記対象部位特定部は、前記建物における前記複数の対象部位それぞれの前記寸法許容差を含む前記図面データを参照し、前記複数の対象部位の中から前記寸法許容差に基づいて前記基準対象部位を特定することを特徴とする請求項1に記載の自律移動装置。
The dimensional information is dimensional tolerance,
The target portion specifying unit refers to the drawing data including the dimensional tolerance of each of the plurality of target portions of the building , and selects the reference target portion from among the plurality of target portions based on the dimensional tolerance. 2. The autonomous mobile device according to claim 1, characterized in that it specifies .
前記対象部位特定部は、前記複数の対象部位の中から前記寸法許容差が最も小さい対象部位を、少なくとも前記基準対象部位として特定することを特徴とする請求項2に記載の自律移動装置。 3. The autonomous mobile device according to claim 2, wherein the target part specifying unit specifies at least a target part having the smallest dimensional tolerance among the plurality of target parts as the reference target part. 前記寸法に関する情報は、寸法誤差であって、
前記対象部位特定部は、前記図面データと前記形状データの比較によって得られる、前記複数の対象部位それぞれの前記寸法誤差に基づいて、前記複数の対象部位の中から前記寸法誤差が最も小さい対象部位を、少なくとも前記基準対象部位として特定することを特徴とする請求項1に記載の自律移動装置。
The information on the dimensions is a dimensional error,
The target part identifying unit selects a target part having the smallest dimensional error from among the plurality of target parts based on the dimensional errors of the plurality of target parts obtained by comparing the drawing data and the shape data. is specified as at least the reference target part.
前記建物の施工現場内において墨出し線をマーキングするためのマーキング部と、
前記自己位置推定部によって推定された前記自己位置に基づいて、実際の墨出し線のマーキング位置を検出するマーキング位置検出部と、
該マーキング位置検出部によって検出された前記マーキング位置を対象として墨出し線のマーキングを実行するように、前記マーキング部を制御するマーキング実行部と、を備えていることを特徴とする請求項1乃至4のいずれか1項に記載の自律移動装置。
a marking unit for marking marking lines in the construction site of the building;
a marking position detection unit that detects the actual marking position of the marking line based on the self-position estimated by the self-position estimation unit;
and a marking execution unit that controls the marking unit so as to mark the marking position detected by the marking position detection unit as a target to mark the marking line. 5. The autonomous mobile device according to any one of 4.
記マーキング位置検出部は、前記建物の各施工段階における墨出し線のマーキング位置を含む前記図面データに含まれる前記マーキング位置と、前記自己位置推定部によって推定された前記自己位置との照合結果に基づいて、実際の前記マーキング位置を検出することを特徴とする請求項5に記載の自律移動装置。 The marking position detection unit compares the marking positions included in the drawing data including the marking positions of the marking lines in each construction stage of the building with the self-position estimated by the self-position estimation unit. 6. The autonomous mobile device according to claim 5, wherein the actual marking position is detected based on. 前記建物内の複数の部屋を含む前記図面データに含まれる前記部屋内における前記複数の対象部位の位置と、前記形状データにおける実際の前記複数の対象部位の位置とを前記部屋ごとに照合し、前記複数の部屋の中から前記複数の対象部位の適合率に基づいて部屋を決定する部屋決定部を備えていることを特徴とする請求項1乃至6のいずれか1項に記載の自律移動装置。 matching the positions of the plurality of target portions in the room included in the drawing data including the plurality of rooms in the building with the actual positions of the plurality of target portions in the shape data for each room; 7. The autonomous mobile device according to any one of claims 1 to 6, further comprising a room determination unit that determines a room from among the plurality of rooms based on the relevance rate of the plurality of target parts. . 建物の施工現場内を自律移動する自律移動装置としてのコンピュータに、
前記建物のうち、施工現場内に存在する複数の対象部位の形状を検出した検出結果に基づいて、複数の対象部位の形状データを取得する形状データ取得処理と、
予め作成された図面データを参照し、前記複数の対象部位それぞれの寸法に関する情報に基づいて、前記複数の対象部位の中から基準対象部位を特定する対象部位特定処理と、
前記図面データに含まれる前記基準対象部位の位置と、前記形状データ取得処理によって取得された前記形状データにおける実際の前記基準対象部位の位置との照合結果に基づいて、施工現場内における自己位置を推定する自己位置推定処理と、を実行させることを特徴とする自律移動プログラム。
A computer as an autonomous mobile device that autonomously moves within the construction site of a building,
Shape data acquisition processing for acquiring shape data of a plurality of target portions based on detection results of shapes of the plurality of target portions existing in the construction site of the building;
a target part identification process for identifying a reference target part from among the plurality of target parts based on information on dimensions of each of the plurality of target parts with reference to drawing data created in advance;
Based on the result of checking the position of the reference target part included in the drawing data and the actual position of the reference target part in the shape data acquired by the shape data acquisition process, the self-position in the construction site is determined. An autonomous mobile program characterized by executing a self-position estimation process for estimating.
建物の施工現場内を自律移動する自律移動装置の位置を推定するための位置推定システムであって、
記建物のうち、施工現場内に存在する複数の対象部位の形状を検出した検出結果に基づいて、前記複数の対象部位の形状データを取得する形状データ取得部と、
予め作成された図面データを取得し、前記図面データを参照し、前記複数の対象部位それぞれの寸法に関する情報に基づいて、前記複数の対象部位の中から基準対象部位を特定する対象部位特定部と、
前記図面データに含まれる前記基準対象部位の位置と、前記形状データ取得部によって取得された前記形状データにおける実際の前記基準対象部位の位置との照合結果に基づいて、施工現場内における前記自律移動装置の位置を推定する位置推定部と、を備えていることを特徴とする位置推定システム。
A position estimation system for estimating the position of an autonomous mobile device that autonomously moves within a building construction site,
A shape data acquisition unit that acquires shape data of the plurality of target portions based on detection results of shapes of the plurality of target portions existing in the construction site of the building;
a target part identification unit that acquires drawing data created in advance , refers to the drawing data, and identifies a reference target part from among the plurality of target parts based on information on dimensions of each of the plurality of target parts; ,
The autonomous movement within the construction site based on the result of collation between the position of the reference target part included in the drawing data and the actual position of the reference target part in the shape data acquired by the shape data acquisition unit. and a position estimating unit that estimates the position of the device.
JP2018124890A 2018-06-29 2018-06-29 Autonomous mobile device, autonomous mobile program and position estimation system Active JP7144991B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018124890A JP7144991B2 (en) 2018-06-29 2018-06-29 Autonomous mobile device, autonomous mobile program and position estimation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018124890A JP7144991B2 (en) 2018-06-29 2018-06-29 Autonomous mobile device, autonomous mobile program and position estimation system

Publications (2)

Publication Number Publication Date
JP2020004231A JP2020004231A (en) 2020-01-09
JP7144991B2 true JP7144991B2 (en) 2022-09-30

Family

ID=69100129

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018124890A Active JP7144991B2 (en) 2018-06-29 2018-06-29 Autonomous mobile device, autonomous mobile program and position estimation system

Country Status (1)

Country Link
JP (1) JP7144991B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001289638A (en) 2000-04-11 2001-10-19 Sumitomo Densetsu Corp Mobile working equipment
WO2013030929A1 (en) 2011-08-29 2013-03-07 株式会社日立製作所 Monitoring device, monitoring system and monitoring method
JP2017004102A (en) 2015-06-05 2017-01-05 日本精工株式会社 Travel device, robot for guidance, and control method of travel device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001289638A (en) 2000-04-11 2001-10-19 Sumitomo Densetsu Corp Mobile working equipment
WO2013030929A1 (en) 2011-08-29 2013-03-07 株式会社日立製作所 Monitoring device, monitoring system and monitoring method
JP2017004102A (en) 2015-06-05 2017-01-05 日本精工株式会社 Travel device, robot for guidance, and control method of travel device

Also Published As

Publication number Publication date
JP2020004231A (en) 2020-01-09

Similar Documents

Publication Publication Date Title
US10876307B2 (en) Construction management system and method
CN110312912B (en) Automatic vehicle parking system and method
JP6242591B2 (en) Localization with enhanced sensors in virtual and physical environments
US10612939B2 (en) Ground truth estimation for autonomous navigation
US10507578B1 (en) Optimization of observer robot locations
EP2972084B1 (en) System and method for positioning a tool in a work space
CN105486311A (en) Indoor robot positioning navigation method and device
KR101423139B1 (en) Method for localization and mapping using 3D line, and mobile body thereof
JP7113611B2 (en) LOCATION IDENTIFICATION APPARATUS, LOCATION IDENTIFICATION PROGRAM AND LOCATION IDENTIFICATION METHOD, PHOTOGRAPHED IMAGE REGISTRATION APPARATUS, PHOTOGRAPHED IMAGE REGISTRATION PROGRAM AND PHOTOGRAPHIED IMAGE REGISTRATION METHOD
WO2017057053A1 (en) Information processing device, information processing method
CN103913162A (en) Augmented Mobile Platform Localization
US20160349349A1 (en) Method and electronic device identifying indoor location
CN109564726A (en) A kind of localization method and mobile device
CN111263308A (en) Positioning data acquisition method and system
US10755478B1 (en) System and method for precision indoors localization and mapping
Kayhani et al. Tag-based indoor localization of UAVs in construction environments: Opportunities and challenges in practice
KR102105105B1 (en) Method of aiding driving and apparatuses performing the same
Hsu et al. Application of multisensor fusion to develop a personal location and 3D mapping system
US20150168155A1 (en) Method and system for measuring a vehicle position indoors
CN110942169A (en) Path planning method and robot
JP7144991B2 (en) Autonomous mobile device, autonomous mobile program and position estimation system
JP2020012774A (en) Method for measuring building
WO2015107623A1 (en) Management system and position specification method
JP2010170288A (en) Three-dimensional modeling device
CN112405522A (en) Cross-floor map switching method and device, robot and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210608

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220502

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220830

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220916

R150 Certificate of patent or registration of utility model

Ref document number: 7144991

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150