WO2024047967A1 - 建築物又は土木構造物の管理支援システム - Google Patents

建築物又は土木構造物の管理支援システム Download PDF

Info

Publication number
WO2024047967A1
WO2024047967A1 PCT/JP2023/018951 JP2023018951W WO2024047967A1 WO 2024047967 A1 WO2024047967 A1 WO 2024047967A1 JP 2023018951 W JP2023018951 W JP 2023018951W WO 2024047967 A1 WO2024047967 A1 WO 2024047967A1
Authority
WO
WIPO (PCT)
Prior art keywords
target marker
civil engineering
self
computer device
building
Prior art date
Application number
PCT/JP2023/018951
Other languages
English (en)
French (fr)
Inventor
文敬 山崎
Original Assignee
株式会社イクシス
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社イクシス filed Critical 株式会社イクシス
Publication of WO2024047967A1 publication Critical patent/WO2024047967A1/ja

Links

Images

Classifications

    • EFIXED CONSTRUCTIONS
    • E04BUILDING
    • E04GSCAFFOLDING; FORMS; SHUTTERING; BUILDING IMPLEMENTS OR AIDS, OR THEIR USE; HANDLING BUILDING MATERIALS ON THE SITE; REPAIRING, BREAKING-UP OR OTHER WORK ON EXISTING BUILDINGS
    • E04G21/00Preparing, conveying, or working-up building materials or building elements in situ; Other devices or measures for constructional work
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/40Control within particular dimensions
    • G05D1/43Control of position or course in two dimensions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/08Construction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts

Definitions

  • the present invention relates to a management support system for buildings or civil engineering structures.
  • BIM Building Information Modeling
  • CIM Construction Information Modeling
  • BIM/CIM By introducing BIM/CIM from the planning, investigation, and design stages, it is possible to easily share information at each stage of construction, maintenance, and management, and to improve the efficiency and sophistication of a series of tasks and operations. Furthermore, as a side effect of the introduction of BIM/CIM, it is expected that people's lives will be improved through the development and maintenance of better infrastructure, and that the motivation of employees working in the construction and civil engineering fields will be increased.
  • Patent Document 1 various construction management systems based on the introduction of BIM/CIM have been proposed one after another (for example, Patent Document 1).
  • the system according to Patent Document 1 photographs each member constituting a BIM with a camera, and links the photographed parts with the photographed images. This system facilitates traceability in units of members constituting a construction target and improves the convenience of construction management.
  • the present invention has been made in view of the above-mentioned problems, and provides a management support system that can reduce the number of man-hours for workers and improve safety during construction and civil engineering work.
  • BIM Building Information Modeling
  • a database that stores attribute information of CIM (Construction Information Modeling) to represent, and an identification pattern that is attached to a specific structure that is a part of the plurality of structures and that allows identification of each structure is drawn.
  • a self-propelled robot equipped with a plurality of target markers and a scanner, which patrols the premises of the building or the civil engineering structure and scans the surrounding area with the scanner to obtain three-dimensional point cloud data;
  • a computer device capable of analyzing point cloud data acquired during a patrol of a self-propelled robot, detecting the target marker, and recognizing the position and orientation of the specific structure to which the detected target marker is attached.
  • the computer device is capable of acquiring identification information of the target marker from the identification pattern of the detected target marker, and the identification information of the target marker acquired by the computer device is stored in the database.
  • a building wherein when the building is associated with an existing object, information regarding the existing object is updated based on the position and orientation of the specific structure recognized by the computer device.
  • a civil engineering structure management support system is provided.
  • the self-propelled robot scans a specific structure to be managed to obtain point cloud data
  • the computer device analyzes the point cloud data and identifies the location and location of the specific structure.
  • the configuration is such that the posture is reflected in the BIM or CIM attribute information on the database. Therefore, there is no need for the user to move close to a specific structure to be managed, and the number of work steps can be reduced. Furthermore, even if the specific structure is located in a highly dangerous location such as a high place, the safety of workers is ensured.
  • a management support system that can reduce worker man-hours and improve safety in construction work and civil engineering work.
  • FIG. 1 is a configuration diagram of a management support system in an embodiment of the present invention. It is a perspective view of a self-propelled robot. It is a figure which shows the advance map displayed three-dimensionally on the display screen of a communication terminal. It is a figure which shows the advance map displayed two-dimensionally on the display screen of a communication terminal.
  • FIG. 3 is a diagram showing a target marker according to the present invention. 6 is a diagram showing an error map generated from measurement results for the target marker of FIG. 5.
  • FIG. FIG. 2 is a schematic diagram showing point cloud data acquired by a self-propelled robot.
  • FIG. 2 is a schematic diagram showing point cloud data acquired by a self-propelled robot.
  • FIG. 2 is a schematic diagram showing point cloud data acquired by a self-propelled robot.
  • FIG. 2 is a schematic diagram showing point cloud data acquired by a self-propelled robot.
  • FIG. 1 is a configuration diagram of a management support system 100 in an embodiment of the present invention.
  • the management support system 100 includes a communication terminal 110, a management device 120, and a self-propelled robot 130.
  • the communication terminal 110, the management device 120, and the self-propelled robot 130 are configured to be able to communicate with each other.
  • being able to communicate with each other may mean that the communication terminal 110, the management device 120, and the self-propelled robot 130 can communicate directly or indirectly through a computer line such as the Internet. There may be. Therefore, the communication terminal 110 can transmit control commands to the self-propelled robot 130, the communication terminal 110 can read data files stored in the management device 120, and the data acquired by the self-propelled robot 130 can be transferred to the management device 120. It is possible to transmit the data processed by the management device 120 to the self-propelled robot 130, etc.
  • Management device 120 includes a computer device 121 and a database 122.
  • the computer device 121 can communicate directly or indirectly with the communication terminal 110 and the self-propelled robot 130, stores each received data in the database 122, and processes each data stored in the database 122.
  • the database 122 stores attribute information of BIM (Building Information Modeling) or CIM (Construction Information Modeling).
  • BIM Building Information Modeling
  • CIM Construction Information Modeling
  • the BIM or CIM attribute information stored in the database 122 is a data file that is compatible with multiple types of software (hereinafter simply referred to as BIM software) that are compatible with BIM or CIM. Specifically, it refers to a data file in IFC (Industry Foundation Classes) format. Note that in addition to IFC format data files, the database 122 may store attribute information of three-dimensional CAD data, point cloud data acquired by the laser scanner 132, and the like.
  • the self-propelled robot 130 is a robot that self-propels within the premises of a building or civil engineering structure. Self-propelled here is synonymous with autonomously traveling, and refers to autonomously determining a travel route and moving.
  • FIG. 2 is a perspective view of the self-propelled robot 130.
  • the self-propelled robot 130 is equipped with a sensor 131 that detects objects existing in the surroundings, and can self-propel while avoiding collisions with objects detected by the sensor 131.
  • the sensor 131 is not particularly limited in its detection method as long as it can detect objects existing in the surroundings in a non-contact manner.
  • the sensor 131 can be realized by an infrared sensor, an ultrasonic sensor, or the like.
  • the self-propelled robot 130 is equipped with a laser scanner 132 and can scan its surroundings to obtain three-dimensional point cloud data.
  • the form of the self-propelled robot 130 is not limited to the one that runs on wheels as shown in FIG. 2, but may be one that moves in the air like a drone.
  • the self-propelled robot 130 may include elements other than the sensor 131 and the laser scanner 132.
  • the self-propelled robot 130 may include a position sensor that detects the position of the target structure, a photographing position that photographs the target structure, and the like.
  • the communication terminal 110 includes an operation receiving unit that accepts user operations, and a display unit that displays the contents of various data so that the user can view them.
  • the communication terminal 110 may send a control command generated based on a user's operation to the self-propelled robot 130, or read and display a data file stored in a specified database 122 based on a user's operation. or can.
  • the communication terminal 110 in this embodiment will be described below on the premise that it employs a touch panel that integrally realizes both an operation reception means and a display means, each may be realized by separate devices (
  • the operation reception means may be realized by a keyboard, and the display means may be realized by a liquid crystal display).
  • the preliminary map is map data regarding the range in which the self-propelled robot 130 is to be moved, that is, the buildings or civil engineering structures to be managed, and is used by the self-propelled robot 130 to estimate its own position.
  • the following description will be made assuming that the preliminary map in this embodiment is stored in advance in the database 122, and that the communication terminal 110 can read and display the preliminary map from the database 122.
  • the preliminary map only needs to be in a file format compatible with the BIM software installed on the communication terminal 110, and there are no particular restrictions on the method of generating it.
  • the self-propelled robot 130 converts point cloud data obtained by measuring the building to be managed with a laser scanner into BIM or CIM.
  • a cross section taken at the height of the laser scanner 132 mounted on the vehicle is used as a preliminary map.
  • the communication terminal 110 may refer to CAD data generated at the time of design as a preliminary map.
  • FIG. 3 is a diagram showing an advance map displayed three-dimensionally on the display screen of the communication terminal 110.
  • the shape of the building from the running surface of the self-propelled robot 130 to the cross section at the height of the laser scanner 132 is displayed three-dimensionally and visually.
  • the position of the self-propelled robot 130 at that point in time is displayed in the preliminary map on the display screen of the communication terminal 110. , is configured so that the user of the communication terminal 110 can easily recognize the position of the self-propelled robot 130.
  • FIG. 4 is a diagram showing a preliminary map displayed two-dimensionally on the display screen of the communication terminal 110. More specifically, the display mode of FIG. 4 is a display of the preliminary map shown in FIG. 3 as a plan view of the self-propelled robot 130 viewed from above. Hereinafter, a method for managing object OB1 included in the preliminary map shown in FIG. 4 will be described.
  • FIG. 5 is a diagram showing a target marker 10 according to the present invention. As shown in FIG. 5, the target marker 10 is roughly divided into multiple types of areas, and in this embodiment, the respective areas are referred to as areas 11, 12, 13, and 14. Note that the region 12 is a general term for the region 12a, region 12b, and region 12c illustrated in FIG.
  • the area 11 is an area that includes a shape, pattern, or color representing the center position of the target marker 10.
  • the area 11 has a pattern that is a combination of two white triangles and two black triangles.
  • the location where the vertices overlap corresponds to the center position of the target marker 10.
  • Region 11 corresponds to the "second region" according to the present invention.
  • the area 12 is an area where the identification pattern assigned to the target marker 10 is drawn, in other words, it is an area including a shape, pattern, or color that distinguishes it from other target markers. Region 12 corresponds to the "first region" according to the present invention.
  • the "identification pattern” means that the computer device 121 can identify each target marker in a manner that can be automatically recognized from the measurement results (point cloud data) of the laser scanner 132 (a manner that can be deciphered through arithmetic processing). This is identification information.
  • Region 13 is a region where a retroreflective material is provided, and surrounds region 11 and region 12 described above.
  • a retroreflective material is a material that reflects the light coming from a light source over a wide irradiation angle in a direction roughly along the optical path of the incident light, and has properties opposite to regular reflection (specular reflection).
  • the irradiated light from the laser scanner 132 and the reflected light from the retroreflector are in phase, so the laser scanner 132 that receives the reflected light processes it within the range where the region 13 exists. Possible point cloud data cannot be obtained, and the range is treated as unmeasurable.
  • the area 14 is an area provided at the outermost edge of the target marker 10, and surrounds the areas 11, 12, and 13 described above.
  • the phase of the incident light to the retroreflective material and the reflected light received from the retroreflective material are aligned, so it is possible to detect the location where the retroreflective material is present. Generally, it becomes impossible to measure and is treated as an error.
  • the present invention is a technology that takes advantage of the above-mentioned phenomenon, and the computer device 121 generates an error map indicating an unmeasurable range from point cloud data, and adjusts the target marker based on the generated error map.
  • a computer process is performed to identify the location of the target marker (for example, to identify a location where unmeasurable locations are concentrated as the location of the target marker).
  • the present invention is more efficient than computer processing based on features (for example, the shape and color of the target marker) that have been focused on in known techniques.
  • features for example, the shape and color of the target marker
  • the point cloud corresponding to the target marker can be detected with high accuracy, and as a result, accurate surveying can be achieved.
  • the target marker 10 used in this embodiment is a flat plate, and since the identification pattern (the shape, pattern, or color of the area 12) drawn on both sides of the flat plate is the same, the laser scanner 132 can measure it from either side.
  • the computer device 121 can decipher the same identification pattern.
  • the regions 11, 12, and 14 may be formed of a material with properties different from that of the retroreflective material, and are preferably formed of a high-reflection-strength material that provides specular reflection or reflection approximately equal thereto. is preferred. This is because it becomes easier to distinguish between the area 13 and other areas in the analysis process performed by the computer device 121.
  • FIG. 6 is a diagram showing an error map generated from the measurement results for the target marker in FIG. 3.
  • the part represented in black in FIG. 6 is the part (error map) where the laser scanner 132 was unable to measure, and the computer device 121 detects that the part corresponds to area 13 and acquires information from the vicinity of the part. It is determined that the point group thus obtained is a point group representing the location of the target marker 10 (area 11, area 12, and area 14).
  • the white part surrounded by black is the existence range of point clouds corresponding to areas 11 and 12, and the computer device 121 calculates the shape and color of these point clouds.
  • the computer device 121 analyzes the shape of the unmeasurable range represented by the error map, and, on the condition that the analyzed shape is a predetermined shape (in this embodiment, the outer edge of the shape is a square), The range may be specified as the location of the target marker 10 (area 13).
  • the computer device 121 analyzes the size of the unmeasurable range represented by the error map, and targets those whose analyzed size falls within a predetermined threshold (smaller than the upper threshold and larger than the lower threshold). It may be specified as the location of the marker 10 (area 13). Note that the above criteria may be changed as appropriate within the scope of achieving the object of the present invention, and known conditions not described in this specification may be applied.
  • the computer device 121 since the target marker 10 has the above-mentioned region 13, the computer device 121 generates an error map indicating the range that could not be measured based on the measurement results of the laser scanner 132. The location of the target marker 10 can be specified based on the error map. Since the target marker 10 has the above-mentioned area 11, the computer device 121 can detect the center position of the target marker 10 by computer processing by analyzing the shape, pattern, or color of the area 11. . Since the target marker 10 has the area 12 described above, the computer device 121 analyzes the shape, pattern, or color of the area 12 to determine the identification pattern assigned to the target marker 10. Can be done.
  • the attribute information of the object OB1 stored in the database 122 includes the identification pattern of the target marker 10 associated with the object OB1 as well as the position and orientation information of the object OB1 in the premises where the self-propelled robot 130 patrols.
  • the communication terminal 110 can read the attribute information stored in the database 122 and display a list (not shown) of objects registered as management targets, and the object OB1 is selected based on the user's operation.
  • the action plan generated based on the preliminary map and the position information of the object OB1 and the identification pattern of the target marker 10 associated with the object OB1 are transmitted to the self-propelled robot 130.
  • the self-propelled robot 130 travels around the premises based on the received position information of the object OB1.
  • the self-propelled robot 130 Since the self-propelled robot 130 according to the present embodiment has a function of autonomously avoiding collision with a wall, even if a path to collide with a wall is transmitted to the self-propelled robot 130 as an action plan, the self-propelled robot 130 The robot 130 can run on its own along a route that reaches the specified object OB1 without colliding with a wall.
  • the management support system 100 there is a possibility that there are objects or people who are not placed on the preliminary map in the premises of the building or civil engineering structure where the self-propelled robot 130 is self-propelled.
  • One of the features of the management support system 100 is that in step), a rough route is created and movement is left to the autonomous judgment of the self-propelled robot 130.
  • the collision avoidance function of the self-propelled robot 130 is detected by the above-mentioned preliminary map (representing the premises of a building or civil engineering structure generated in advance based on BIM or CIM) and the on-board sensor 131. This is achieved by comparing the surrounding objects with the surrounding objects and determining the travel route in real time while moving on its own.
  • the self-propelled robot 130 detects an object that does not exist on the preliminary map, it can self-propel along a movement route that avoids collisions with the object.
  • the self-propelled robot 130 reaches the target position (near the object OB1) specified by the user's operation while avoiding collisions with surrounding objects and humans, the self-propelled robot 130 scans with the laser scanner 132 and moves around the target position.
  • the point cloud data acquired by the self-propelled robot 130 is transmitted to the computer device 121.
  • the computer device 121 analyzes point cloud data acquired while the self-propelled robot 130 is patrolling, detects the target marker 10, and recognizes the position and orientation of the object OB1 to which the detected target marker 10 is attached. Can be done. Further, the computer device 121 acquires the identification information of the target marker 10 from the detected identification pattern of the target marker 10, and the object associated with the acquired identification information is an existing structure ( When the structure is associated with the object OB1), the position and orientation information of the structure can be compared with the actual measured position and orientation of the object OB1.
  • FIG. 7 to 9 are schematic diagrams showing point cloud data acquired by the self-propelled robot 130.
  • FIG. 7 illustrates a case where the position and orientation of the object OB1 represented by the point cloud data match the position and orientation information of the object OB1 stored in the database 122.
  • the position and orientation information of the object OB1 stored in the database 122 corresponds to reality. Therefore, the computer device 121 does not update the position and orientation information of the object OB1 stored in the database 122.
  • FIG. 8 illustrates a case where the position and orientation of the object OB1 represented by the point cloud data do not match the position and orientation information of the object OB1 stored in the database 122.
  • the virtual object PP1 indicated by a two-dot chain line in FIG. 8 represents the position and orientation information of the object OB1 stored in the database 122.
  • the position and orientation information of the object OB1 stored in the database 122 does not match reality. Therefore, the computer device 121 updates the position and orientation information of the object OB1 stored in the database 122 based on the position and orientation of the object OB1 recognized based on the point cloud data.
  • FIG. 9 illustrates a case where the point cloud data includes the position and orientation of an object OB2 to which another target marker is attached, in addition to the object OB1 to which the target marker 10 is attached.
  • object OB2 is a structure that is not associated with any object stored in the database 122 (an object that is associated with a new target marker).
  • the computer device 121 since the position and orientation information of the object OB1 stored in the database 122 matches reality, the computer device 121 does not update the position and orientation information of the object OB1 stored in the database 122.
  • the position and orientation of the object OB2 included in the point cloud data are not stored in the database 122. Therefore, the computer device 121 adds a new object OB2 near the object OB1 based on the position and orientation of the object OB1 recognized based on the point cloud data.
  • the self-propelled robot 130 self-propels and patrols the premises of buildings or civil engineering structures, and identifies structures to be managed (object OB1 and object OB2). ) It is possible to acquire point cloud data by utilizing multiple target markers attached to each of them, and it is possible to accurately recognize the position and orientation of the structure to be managed based on the acquired point cloud data. Can be done.
  • the management support system 100 can then appropriately update the BIM or CIM attribute information stored in the database 122 based on the recognized position and orientation.
  • the user only needs to remotely control the self-propelled robot 130 using the communication terminal 110, and the number of man-hours required can be reduced. Further, even if the structure to be managed is located in a highly dangerous location such as a high place, the safety of workers is ensured.
  • FIG. 1 a configuration is shown in which a computer device 121 corresponding to a "computer device” according to the present invention and a database 122 corresponding to a “database” according to the present invention are integrally included in a management device 120.
  • the "computer device” and the “database” do not necessarily need to be configured as an integrated device, and may be configured to be separated.
  • the "database” according to the present invention may be implemented in a configuration installed on a cloud.
  • the "computer device" according to the present invention may be installed in a premises where the self-propelled robot patrols, may be integrated with a device corresponding to the self-propelled robot 130 in the above-described embodiment, or may be integrated with a device corresponding to the self-propelled robot 130 in the above-described embodiment, or the "computer device” according to the present invention It may be integrated with a corresponding device.
  • FIG. 5 shows a specific example of the "target marker" according to the present invention
  • the target marker used in the present embodiment is not necessarily limited to this embodiment, and may have different embodiments within the scope of achieving the purpose of the present invention.
  • a target marker may also be used.
  • BIM Building Information Modeling
  • CIM CIM
  • a database that stores attribute information (Construction Information Modeling); and a plurality of targets that are attached to specific structures that are part of the plurality of structures and each of which has an identification pattern that can be identified.
  • a self-propelled robot equipped with a marker and a scanner, which patrols the premises of the building or the civil engineering structure and scans the surrounding area with the scanner to obtain three-dimensional point cloud data; and the self-propelled robot a computer device capable of analyzing point cloud data acquired during a patrol to detect the target marker and recognize the position and orientation of the specific structure to which the detected target marker is attached;
  • the computer device is capable of acquiring identification information of the target marker from the identification pattern of the detected target marker, and the identification information of the target marker acquired by the computer device is stored in the database.
  • a building or civil engineering structure characterized in that, when associated with an existing object, information regarding the existing object is updated based on the position and orientation of the specific structure recognized by the computer device.
  • the management support system for a building or civil engineering structure according to (1), in which a new object is added based on the orientation of the building or civil engineering structure.
  • the self-propelled robot has a sensor that detects surrounding objects, and sets the position of the specific structure to which the target marker is attached as a target position to the object detected by the sensor. is capable of self-propelling along a movement route that avoids collisions with the target position, and upon reaching the target position by self-propelling, acquires point cloud data of the specific structure existing at the target position by scanning with the scanner;
  • a management support system for buildings or civil engineering structures as described in (1).
  • the target marker is a flat plate, and the same identification pattern is drawn on both sides of the flat plate. support system.
  • the target marker has a first area where the identification pattern is drawn and a second area where a pattern representing the center position of the target marker is drawn. Management support system for the mentioned building or civil engineering structure.
  • the target marker is surrounded by a region in which the first region and the second region are provided with a retroreflective material, and the computer device is configured to collect a point cloud obtained during the patrol of the self-propelled robot.
  • the building or civil engineering structure management support system which detects an unmeasurable range in data to generate an error map, and detects the target marker based on the generated error map. .
  • the computer device specifies, as the location of the target marker, a building in which the shape of the unmeasurable range represented in the error map has a predetermined shape; Management support system for civil engineering structures.
  • Management support system 110 Communication terminal 120 Management device 121 Computer device 122 Database 130 Self-propelled robot 131 Sensor 132 Laser scanner

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Architecture (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Marketing (AREA)
  • Tourism & Hospitality (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Computer Graphics (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Software Systems (AREA)
  • General Business, Economics & Management (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Civil Engineering (AREA)
  • Structural Engineering (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Processing Or Creating Images (AREA)

Abstract

建築工事や土木工事における作業員の工数削減や安全性確保を向上させることができる管理支援システムを提供する。当該システムは、BIM又はCIMの属性情報を記憶しているデータベースと、特定の構造物に対して付設される複数のターゲットマーカと、建築物又は土木構造物の構内を巡回し、スキャナによって周囲をスキャンして三次元の点群データを取得する自走ロボットと、点群データを解析して検出したターゲットマーカが付設されている特定の構造物の位置及び姿勢を認識可能であるコンピュータ装置と、を備え、コンピュータ装置が取得したターゲットマーカの識別情報が、データベースに記憶されている既存のオブジェクトに対応付けられているとき、コンピュータ装置が認識した特定の構造物の位置及び姿勢に基づいて当該既存のオブジェクトに関する情報が更新される。

Description

建築物又は土木構造物の管理支援システム
 本発明は、建築物又は土木構造物の管理支援システムに関する。
 近年、国土交通省からBIM及びCIMのガイドラインが公表され、建築分野や土木分野における業務へのBIM/CIMの導入が進んでいる。
 ここでBIMとは、ビルディングインフォメーションモデリング(Building Information Modeling)の略称であり、コンピュータ上に作成した建築物の三次元モデルに、種々の属性データを追加したものである。また、CIMとは、コンストラクションインフォメーションモデリング(Construction Information Modeling)の略称であり、BIMの概念を土木分野に応用したものである。
 BIM/CIMを計画、調査、設計段階から導入することによって、その後の施工、維持管理の各段階における情報共有を容易にし、一連の作業や業務の効率化、高度化を図ることができる。
 また、BIM/CIMの導入の副次的な効果として、よりよいインフラの整備・維持管理による国民生活の向上、建設分野や土木分野に従事する従業員のモチベーション向上等も期待される。
 上記のような背景を鑑みて、BIM/CIMの導入を前提とする種々の施工管理システムの提案が相次いでいる(例えば、特許文献1)。
 特許文献1に係るシステムは、BIMを構成する各部材をカメラで撮影し、その撮影対象となったパーツと撮影した画像との紐づけを行うものである。
 このシステムにより、施工対象物を構成する部材単位でのトレーサビリティを容易とし、施工管理の利便性を向上させることができる。
特開2020-149546号公報
 特許文献1に係るシステムにおいて、各部材を撮影する作業の主体は作業員(人間)であり、作業員の工数削減や安全性確保という観点からは未だ改善の余地がある。
 本発明は、上記の課題に鑑みなされたものであり、建築工事や土木工事における作業員の工数削減や安全性確保を向上させることができる管理支援システムを提供するものである。
 本発明によれば、建築物又は土木構造物を構成する複数の構造物に対応するオブジェクトをそれぞれ組み合わせて前記建築物を三次元に表すBIM(ビルディングインフォメーションモデリング)又は前記土木構造物を三次元に表すCIM(コンストラクションインフォメーションモデリング)の属性情報を記憶しているデータベースと、前記複数の構造物の一部である特定の構造物に対して付設され、それぞれを識別可能な識別パターンが描かれている複数のターゲットマーカと、スキャナを搭載しており、前記建築物又は前記土木構造物の構内を巡回し、前記スキャナによって周囲をスキャンして三次元の点群データを取得する自走ロボットと、前記自走ロボットの巡回中に取得された点群データを解析して前記ターゲットマーカを検出し、検出した前記ターゲットマーカが付設されている前記特定の構造物の位置及び姿勢を認識可能であるコンピュータ装置と、を備え、前記コンピュータ装置は、検出した前記ターゲットマーカの前記識別パターンから当該ターゲットマーカの識別情報を取得可能であり、前記コンピュータ装置が取得した前記ターゲットマーカの識別情報が、前記データベースに記憶されている既存のオブジェクトに対応付けられているとき、前記コンピュータ装置が認識した前記特定の構造物の位置及び姿勢に基づいて当該既存のオブジェクトに関する情報が更新される、ことを特徴とする建築物又は土木構造物の管理支援システムが提供される。
 上記発明によれば、自走ロボットが管理対象となる特定の構造物を対象としてスキャンして点群データを取得し、コンピュータ装置が点群データを解析して識別した特定の構造物の位置及び姿勢がデータベース上のBIM又はCIMの属性情報に反映される構成になっている。従って、ユーザが管理対象となる特定の構造物の近くまで移動する必要がなく、作業工数を削減することができる。また、上記特定の構造物が高所等の危険性の高い場所に存在する場合であっても、作業員の安全性は確保される。
 本発明によれば、建築工事や土木工事における作業員の工数削減や安全性確保を向上させることができる管理支援システムが提供される。
本発明の実施形態における管理支援システムの構成図である。 自走ロボットの斜視図である。 通信端末の表示画面において三次元表示される事前地図を示す図である。 通信端末の表示画面において二次元表示される事前地図を示す図である。 本発明に係るターゲットマーカを示す図である。 図5のターゲットマーカに対する測定結果から生成されるエラーマップを示す図である。 自走ロボットが取得した点群データを示す模式図である。 自走ロボットが取得した点群データを示す模式図である。 自走ロボットが取得した点群データを示す模式図である。
 以下、本発明の実施形態について、図面を用いて説明する。なお、すべての図面において、同様の構成要素には同一の符号を付し、適宜に説明を省略する。
<管理支援システム100のシステム構成>
 先ず、管理支援システム100のシステム構成について説明する。
 図1は、本発明の実施形態における管理支援システム100の構成図である。
 図1に示すとおり、管理支援システム100は、通信端末110と、管理装置120と、自走ロボット130と、を備える。
 通信端末110、管理装置120、及び自走ロボット130は、相互に通信可能に構成されている。ここで相互に通信可能とは、通信端末110、管理装置120、及び自走ロボット130が、直接的に通信可能であってもよいし、インターネットなどのコンピュータ回線を介して間接的に通信可能であってもよい。
 従って、通信端末110から自走ロボット130に対して制御コマンドを送信すること、通信端末110が管理装置120に保存されているデータファイルを読み出すこと、自走ロボット130が取得したデータを管理装置120に送信すること、管理装置120によって処理されたデータを自走ロボット130に送信すること等が可能である。
 管理装置120は、コンピュータ装置121とデータベース122とを含む。
 コンピュータ装置121は、通信端末110や自走ロボット130と直接的又は間接的に通信可能であり、受信した各データをデータベース122に記憶させ、データベース122に記憶されている各データを処理する。
 データベース122は、BIM(ビルディングインフォメーションモデリング)又はCIM(コンストラクションインフォメーションモデリング)の属性情報を記憶している。
 本実施形態の説明において、BIMとは、建築物に配置されている各構造物に対応する複数のオブジェクトを組み合わせて建築物を三次元に表す三次元モデルのことである。そして、CIMとは、土木構造物に配置されている各構造物に対応する複数のオブジェクトを組み合わせて土木構造物を三次元に表す三次元モデルのことである。
 データベース122に記憶されているBIM又はCIMの属性情報とは、BIM又はCIMに対応している複数とおりのソフトウェア(以下、単にBIMソフトウェアにと称する)に対して互換性を有するデータファイルであり、具体的にはIFC(Industry Foundation Classes)形式のデータファイルをいう。
 なお、データベース122には、IFC形式のデータファイルに加えて、三次元CADデータの属性情報や、レーザスキャナ132によって取得された点群データ等が記憶されてよい。
 自走ロボット130は、建築物又は土木構造物の構内を自走するロボットである。ここで自走するとは、自律走行することと同義であり、移動経路を自律的に定めて移動することをいう。
 図2は、自走ロボット130の斜視図である。
 図示のとおり、自走ロボット130は、周囲に存在する物体を検知するセンサ131を搭載しており、センサ131により検知される物体との衝突を回避しながら自走することができる。なお、本発明の実施において、センサ131は、周囲に存在する物体を非接触に検知することができるものであれば足り、その検知方式は特に制限されない。例えば、センサ131は、赤外線センサや超音波センサ等によって実現することができる。
 また、自走ロボット130は、レーザスキャナ132を搭載しており、その周囲をスキャンして三次元の点群データを取得することができる。なお、本発明の実施において、自走ロボット130の形態は、図2に図示したように車輪で走行する態様のものに限られず、ドローンのように空中移動するものであってもよい。
 なお、図2には不図示であるが、自走ロボット130は、センサ131及びレーザスキャナ132以外の要素を備えてもよい。例えば、自走ロボット130は、目標の構造物の位置を検知する位置センサ、目標の構造物を撮影する撮影位置等を備えてもよい。
 通信端末110は、ユーザの操作を受け付ける操作受付手段と、ユーザが視認可能に種々のデータの内容を表示する表示手段と、を有している。例えば、通信端末110は、ユーザの操作に基づいて生成された制御コマンドを自走ロボット130に送信したり、ユーザの操作に基づいて指定されたデータベース122に記憶されているデータファイルを読み込んで表示したり、することができる。
 なお、本実施形態における通信端末110は、操作受付手段と表示手段の双方を一体的に実現するタッチパネルを採用することを前提として以下説明するが、それぞれを別々のデバイスで実現してもよい(例えば、操作受付手段をキーボードで実現し、表示手段を液晶ディスプレイで実現してもよい)。
<事前地図について>
 続いて、自走ロボット130の自走制御に用いられる事前地図について説明する。
 ここで事前地図とは、自走ロボット130を移動させる範囲、すなわち管理対象となる建築物又は土木構造物に関する地図データであり、自走ロボット130が自己位置を推定するために用いられる。
 本実施形態における事前地図は、データベース122に予め記憶されており、通信端末110はデータベース122から事前地図を読み込んで表示可能であるものとして、以下説明する。
 事前地図は、通信端末110にインストールされているBIMソフトウェアに対応するファイル形式になっているものであれば足り、その生成手法は特に制限されない。本実施形態では、現実空間に極力近しい事前地図を生成するために、管理対象となる建築物をレーザスキャナで計測して取得した点群データを、BIM又はCIMに変換した後に、自走ロボット130に搭載されたレーザスキャナ132の高さでクロスセクションした断面を事前地図として使用する。その変形例として、例えば、通信端末110は、事前地図として設計時に生成されたCADデータを参照してもよい。
 図3は、通信端末110の表示画面において三次元表示される事前地図を示す図である。図3の表示態様は、自走ロボット130の走行面からレーザスキャナ132の高さの断面までにおける建築物の形状を、三次元的に視認可能に表示したものである。
 図3に図示するとおり、通信端末110の表示画面における事前地図の中には、その時点における自走ロボット130の位置(自走ロボット130が推定した自己位置)が表示されるようになっており、通信端末110のユーザが自走ロボット130の位置を容易に認識できるように構成されている。
<管理対象となるオブジェクトと撮影位置の指定について>
 続いて、管理対象となるオブジェクトと撮影位置の指定について説明する。
 図4は、通信端末110の表示画面において二次元表示される事前地図を示す図である。より詳細には、図4の表示態様は、図3に図示した事前地図を、自走ロボット130の上方向から視た平面図として表示したものである。
 以下、図4に図示されている事前地図の中に含まれるオブジェクトOB1を管理対象とする工夫について説明する。
 本発明の実施において管理対象となるオブジェクトOB1には、図5に示すターゲットマーカ10が付設される。図5は、本発明に係るターゲットマーカ10を示す図である。
 図5に示すとおり、ターゲットマーカ10は、複数種類の領域に大別され、本実施形態ではそれぞれの領域を領域11、領域12、領域13、領域14と呼称する。なお、領域12は、図5に図示する領域12a、領域12b、領域12cの総称である。
 領域11は、ターゲットマーカ10の中心位置を表す形状、模様又は色彩を含む領域であり、本実施形態では2つの白色の三角と2つの黒色の三角を組み合わせた模様になっており、4つの三角の頂点が重なる箇所がターゲットマーカ10の中心位置に該当する。領域11は、本発明に係る「第二領域」に相当する。
 領域12は、ターゲットマーカ10に割り当てられている識別パターンが描かれている領域であり、言い換えれば、他のターゲットマーカと識別する形状、模様又は色彩を含む領域である。領域12は、本発明に係る「第一領域」に相当する。ここで「識別パターン」とは、コンピュータ装置121が、レーザスキャナ132の測定結果(点群データ)から自動認識可能な態様(演算処理によって解読可能な態様)で、各ターゲットマーカのそれぞれを識別できる識別情報である。
 領域13は、再帰性反射材が設けられている領域であり、上記の領域11及び領域12の周囲を囲っている。再帰性反射材とは、光源から来た光を、広い照射角にわたって、入射光の光路にほぼ沿う方向へ反射する素材をいい、正反射(鏡面反射)とは逆の性質を持っている。上述したように、レーザスキャナ132からの照射光と、再帰性反射材による反射光と、は位相が揃ってしまうため、その反射光を受け付けたレーザスキャナ132は、領域13の存在する範囲において処理可能な点群データを取得することができず、当該範囲について測定不能と処理する。
 領域14は、ターゲットマーカ10の最縁部に設けられている領域であり、上記の領域11、領域12及び領域13の周囲を囲っている。
 レーザスキャナ132が再帰性反射材を測定すると、その再帰性反射材に対する入射光と、その再帰性反射材から受ける反射光と、の位相が揃ってしまうため、その再帰性反射材が存在する箇所については測定不能となりエラーとして処理されるのが一般的である。
 本発明は、上記の現象を逆手に取った技術であり、コンピュータ装置121は、点群データの中から測定不能だった範囲を示すエラーマップを生成し、生成したエラーマップに基づいてターゲットマーカの存在位置を特定する(例えば、測定不能箇所が集中している場所をターゲットマーカの存在位置として特定する)コンピュータ処理を実行する。
 測定不能であるという特徴はターゲットマーカの配置環境に依存する影響が少ないので、本発明は、既知の技術で着目されていた特徴(例えば、ターゲットマーカの形状や色彩など)に基づくコンピュータ処理に比べて、高い精度でターゲットマーカに相当する点群を検出することができ、その結果として正確な測量を実現することができる。
 本実施形態に用いられるターゲットマーカ10は平板であり、平板の両面に描かれている識別パターン(領域12の形状、模様又は色彩)が同一であるため、レーザスキャナ132によっていずれの面から測定されたとしても、コンピュータ装置121は同じ識別パターンを解読することができる。
 また、領域11、領域12及び領域14は、再帰性反射材とは異なる性質の素材によって形成されていればよく、好ましくは正反射またはそれにほぼ等しい反射をする高反射強度材によって形成されることが好ましい。コンピュータ装置121による解析処理において、領域13と他の領域とを区別するのが容易になるからである。
 図6は、図3のターゲットマーカに対する測定結果から生成されるエラーマップを示す図である。
 図6において黒色で表される部分が、レーザスキャナ132が測定不能だった箇所(エラーマップ)であり、コンピュータ装置121は、当該箇所が領域13に相当する範囲であり、当該箇所の近傍から取得された点群がターゲットマーカ10(領域11、領域12、及び領域14)の存在位置を表す点群であるものと判別する。
 また、図6において、黒色で囲われている白抜きの部分が、領域11と領域12に相当する点群の存在範囲であり、コンピュータ装置121はこれらの点群が表す形状及び点群の色彩等を解析することによって、ターゲットマーカ10の中心位置や識別パターンを判別する。
 コンピュータ装置121は、レーザスキャナ132が測定不能だった箇所の全てを領域13に相当する範囲と判別する必要はなく、他の条件に基づいて領域13に相当する範囲を絞り込むことが好ましい。
 例えば、コンピュータ装置121は、エラーマップによって表されている測定不能な範囲の形状を解析し、解析した形状が所定の形状(本実施形態では、その外縁が正方形)であることを条件として、当該範囲をターゲットマーカ10(領域13)の存在位置として特定してもよい。
 或いは、コンピュータ装置121は、エラーマップによって表されている測定不能な範囲の大きさを解析し、解析した大きさが所定の閾値に収まるもの(上限閾値より小さく、下限閾値より大きいもの)をターゲットマーカ10(領域13)の存在位置として特定してもよい。
 なお、上記の基準は、本発明の目的を達成する範囲において適宜変更してもよく、本明細書に記載していない既知の条件を適用してもよい。
 以上説明したように、ターゲットマーカ10が上記の領域13を有しているので、コンピュータ装置121が、レーザスキャナ132の測定結果に基づいて、測定不能だった範囲を示すエラーマップを生成し、生成したエラーマップに基づいてターゲットマーカ10の存在位置を特定することができる。
 そして、ターゲットマーカ10が上記の領域11を有しているので、コンピュータ装置121が領域11の形状、模様又は色彩を解析することによって、ターゲットマーカ10の中心位置をコンピュータ処理によって検出することができる。
 そして、ターゲットマーカ10が上記の領域12を有しているので、コンピュータ装置121が領域12の形状、模様又は色彩を解析することによって、そのターゲットマーカ10に割り当てられている識別パターンを判定することができる。
 データベース122に記憶されているオブジェクトOB1の属性情報には、自走ロボット130が巡回する構内におけるオブジェクトOB1の位置姿勢情報と共に、オブジェクトOB1に対応付けられているターゲットマーカ10の識別パターンが含まれる。
 通信端末110は、データベース122に記憶されている属性情報を読み出して管理対象として登録されているオブジェクトの一覧(不図示)を表示することができ、ユーザの操作に基づいてオブジェクトOB1が選択された場合、事前地図及びオブジェクトOB1の位置情報に基づいて生成した行動計画と、オブジェクトOB1に対応付けられているターゲットマーカ10の識別パターンと、が自走ロボット130に送信される。
 自走ロボット130は、受信したオブジェクトOB1の位置情報に基づいて構内を自走して巡回する。本実施形態に係る自走ロボット130は自律的に壁への衝突を回避する機能を有しているので、仮に壁に衝突する経路を行動計画として自走ロボット130に伝送したとしても、自走ロボット130は、壁に衝突することなく指定したオブジェクトOB1に到達する経路を自走することができる。
 自走ロボット130が自走する建築物や土木構造物の構内には、事前地図の中に配置されていない物体や人間が存在する可能性があるので、計画段階(通信端末110に対するユーザの操作段階)ではラフな経路を作成し、自走ロボット130の自律的な判断に任せて移動するように構成していることが管理支援システム100の特徴の一つである。
 自走ロボット130が衝突を回避する機能は、上述した事前地図(BIM又はCIMに基づいて事前に生成された建築物又は土木構造物の構内を表すもの)と、搭載しているセンサ131によって検知され周囲の物体と、を照合して、自走しながらリアルタイムに移動経路を求めることによって実現されるものである。
 従って、自走ロボット130は、事前地図に存在しない物体を検知した場合、当該物体の衝突を回避する移動経路を自走することができる。
 自走ロボット130は、周囲の物体や人間への衝突を回避しながら、ユーザの操作によって指定した目標位置(オブジェクトOB1の近傍)に到達すると、レーザスキャナ132によるスキャンを行い、当該目標位置の周辺に存在するオブジェクトOB1の形状及び姿勢を表す点群データを取得する。
 自走ロボット130が取得した点群データは、コンピュータ装置121に送信される。
 コンピュータ装置121は、自走ロボット130の巡回中に取得された点群データを解析してターゲットマーカ10を検出し、検出したターゲットマーカ10が付設されているオブジェクトOB1の位置及び姿勢を認識することができる。また、コンピュータ装置121は、検出したターゲットマーカ10の識別パターンからターゲットマーカ10の識別情報を取得し、取得した識別情報に対応付けられているオブジェクトがデータベース122に記憶されている既存の構造物(オブジェクトOB1)に対応付けられているとき、その構造物の位置姿勢情報と、測定された実際のオブジェクトOB1の位置及び姿勢と、を照合することができる。
 図7~9は、自走ロボット130が取得した点群データを示す模式図である。
 図7は、点群データが表すオブジェクトOB1の位置及び姿勢が、データベース122に記憶されているオブジェクトOB1の位置姿勢情報と一致するケースを図示している。
 当該ケースにおいて、データベース122に記憶されているオブジェクトOB1の位置姿勢情報は現実に即している。従って、コンピュータ装置121は、データベース122に記憶されているオブジェクトOB1の位置姿勢情報を更新しない。
 図8は、点群データが表すオブジェクトOB1の位置及び姿勢が、データベース122に記憶されているオブジェクトOB1の位置姿勢情報と一致しないケースを図示している。なお、図8において二点鎖線で示される仮想オブジェクトPP1は、データベース122に記憶されているオブジェクトOB1の位置姿勢情報を表している。
 当該ケースにおいて、データベース122に記憶されているオブジェクトOB1の位置姿勢情報は現実に合致していない。従って、コンピュータ装置121は、点群データに基づいて認識したオブジェクトOB1の位置及び姿勢に基づいて、データベース122に記憶されているオブジェクトOB1の位置姿勢情報を更新させる。
 図9は、点群データの中に、ターゲットマーカ10が付設されているオブジェクトOB1の他に、別のターゲットマーカが付設されているオブジェクトOB2の位置及び姿勢が含まれるケースを図示している。ここで、オブジェクトOB2は、データベース122に記憶されているいずれのオブジェクトにも対応付けられていない構造物(新規のターゲットマーカに対応付けられているオブジェクト)であるものとする。
 当該ケースにおいて、データベース122に記憶されているオブジェクトOB1の位置姿勢情報は現実に合致しているので、コンピュータ装置121は、データベース122に記憶されているオブジェクトOB1の位置姿勢情報を更新しない。一方で、点群データの中に含まれるオブジェクトOB2の位置及び姿勢は、データベース122に記憶されていない。従って、コンピュータ装置121は、点群データに基づいて認識したオブジェクトOB1の位置及び姿勢に基づいて、オブジェクトOB1の近傍に新規のオブジェクトOB2を追加する。
 上述したように、本実施形態に係る管理支援システム100は、自走ロボット130が、建築物又は土木構造物の構内を自走して巡回し、管理対象となる構造物(オブジェクトOB1とオブジェクトOB2)のそれぞれに付設されている複数のターゲットマーカを活用して点群データを取得することができ、取得した点群データに基づいて管理対象となる構造物の位置及び姿勢を正確に認識することができる。そして、管理支援システム100は、認識した位置及び姿勢に基づいて、データベース122に記憶されているBIM又はCIMの属性情報を適切に更新することができる。
 ユーザは通信端末110を用いて自走ロボット130を遠隔操作するだけでよく、その作業工数を削減できる。また、管理対象の構造物が高所等の危険性の高い場所に存在する場合であっても、作業員の安全性は確保される。
<変形例>
 以上に説明した本発明の実施形態は、本発明の目的と達成する範囲において、種々の変形が可能である。
 以下、未だ説明していない本発明の変形例について、言及する。
 図1に図示したシステム構成に含まれる構成要素のうち、一部を省いてもよく、また図示していない構成要素を追加してもよい。また、図1に図示したシステム構成において、一つの構成要素として図示したものを、複数の構成要素によって実現としてもよい。
 図1において、本発明に係る「コンピュータ装置」に相当するコンピュータ装置121と、本発明に係る「データベース」に相当するデータベース122と、が一体的に管理装置120に含まれる構成を示した。しかしながら、本実施形態において、必ずしも「コンピュータ装置」と「データベース」は一体の装置として構成される必要はなく、分離する構成にしてもよい。例えば、本発明に係る「データベース」がクラウド上に設置される構成によって実現されてもよい。或いは、本発明に係る「コンピュータ装置」は自走ロボットが巡回する構内に設置されてもよく、上述の実施形態における自走ロボット130に相当する装置と一体になってもよいし、通信端末110に相当する装置と一体になってもよい。
 図5において、本発明に係る「ターゲットマーカ」の一具体例を図示したが、本実施形態に使用されるターゲットマーカは必ずしもこの態様に限られず、本発明の目的を達成する範囲において異なる態様のターゲットマーカを用いてもよい。
 上述の実施形態において、図7~図9を用いて、自走ロボット130が取得する点群データの具体例と、それぞれのケースに応じたコンピュータ装置121の処理について説明した。しかしながら、本発明の実施において、図7~図9を用いて説明したコンピュータ装置121の処理の全てが実行可能である必要はなく、本発明の目的を達成する範囲において一部の処理が実行できなくてもよい。
 本実施形態は以下の技術思想を包含する。
(1)建築物又は土木構造物を構成する複数の構造物に対応するオブジェクトをそれぞれ組み合わせて前記建築物を三次元に表すBIM(ビルディングインフォメーションモデリング)又は前記土木構造物を三次元に表すCIM(コンストラクションインフォメーションモデリング)の属性情報を記憶しているデータベースと、前記複数の構造物の一部である特定の構造物に対して付設され、それぞれを識別可能な識別パターンが描かれている複数のターゲットマーカと、スキャナを搭載しており、前記建築物又は前記土木構造物の構内を巡回し、前記スキャナによって周囲をスキャンして三次元の点群データを取得する自走ロボットと、前記自走ロボットの巡回中に取得された点群データを解析して前記ターゲットマーカを検出し、検出した前記ターゲットマーカが付設されている前記特定の構造物の位置及び姿勢を認識可能であるコンピュータ装置と、を備え、前記コンピュータ装置は、検出した前記ターゲットマーカの前記識別パターンから当該ターゲットマーカの識別情報を取得可能であり、前記コンピュータ装置が取得した前記ターゲットマーカの識別情報が、前記データベースに記憶されている既存のオブジェクトに対応付けられているとき、前記コンピュータ装置が認識した前記特定の構造物の位置及び姿勢に基づいて当該既存のオブジェクトに関する情報が更新される、ことを特徴とする建築物又は土木構造物の管理支援システム。
(2)前記コンピュータ装置が取得した前記ターゲットマーカの識別情報が、前記データベースに記憶されている既存のオブジェクトに対応付けられていないとき、前記コンピュータ装置が認識した前記特定の構造物の位置の位置及び姿勢に基づいて新規のオブジェクトが追加される、(1)に記載の建築物又は土木構造物の管理支援システム。
(3)前記自走ロボットは、周囲の物体を検知するセンサを有しており、前記ターゲットマーカが付設されている前記特定の構造物の位置を目標位置として、前記センサにより検知される物体との衝突を回避する移動経路を自走可能であり、自走して前記目標位置に達したとき、前記スキャナによるスキャンによって当該目標位置に存在する前記特定の構造物の点群データを取得する、(1)に記載の建築物又は土木構造物の管理支援システム。
(4)前記ターゲットマーカは平板であり、前記平板の両面に同一の前記識別パターンが描かれている、(1)から(3)のいずれか一つに記載の建築物又は土木構造物の管理支援システム。
(5)前記ターゲットマーカは、前記識別パターンが描かれている第一領域と、当該ターゲットマーカの中心位置を表すパターンが描かれている第二領域と、を有している、(4)に記載の建築物又は土木構造物の管理支援システム。
(6)前記ターゲットマーカは、前記第一領域及び前記第二領域が再帰性反射材を設けた領域によって囲まれており、前記コンピュータ装置は、前記自走ロボットの巡回中に取得された点群データの中で測定不能だった範囲を検出してエラーマップを生成し、生成した前記エラーマップに基づいて前記ターゲットマーカを検出する、(5)に記載の建築物又は土木構造物の管理支援システム。
(7)前記コンピュータ装置は、前記エラーマップに表されている測定不能な範囲の形状が、所定の形状であるものを前記ターゲットマーカの存在位置として特定する、(6)に記載の建築物又は土木構造物の管理支援システム。
この出願は、2022年8月31日に出願された日本出願特願2022-137780を基礎とする優先権を主張し、その開示のすべてをここに取り込む。
100 管理支援システム
110 通信端末
120 管理装置
121 コンピュータ装置
122 データベース
130 自走ロボット
131 センサ
132 レーザスキャナ

Claims (7)

  1.  建築物又は土木構造物を構成する複数の構造物に対応するオブジェクトをそれぞれ組み合わせて前記建築物を三次元に表すBIM(ビルディングインフォメーションモデリング)又は前記土木構造物を三次元に表すCIM(コンストラクションインフォメーションモデリング)の属性情報を記憶しているデータベースと、
     前記複数の構造物の一部である特定の構造物に対して付設され、それぞれを識別可能な識別パターンが描かれている複数のターゲットマーカと、
     スキャナを搭載しており、前記建築物又は前記土木構造物の構内を巡回し、前記スキャナによって周囲をスキャンして三次元の点群データを取得する自走ロボットと、
     前記自走ロボットの巡回中に取得された点群データを解析して前記ターゲットマーカを検出し、検出した前記ターゲットマーカが付設されている前記特定の構造物の位置及び姿勢を認識可能であるコンピュータ装置と、
    を備え、
     前記コンピュータ装置は、検出した前記ターゲットマーカの前記識別パターンから当該ターゲットマーカの識別情報を取得可能であり、
     前記コンピュータ装置が取得した前記ターゲットマーカの識別情報が、前記データベースに記憶されている既存のオブジェクトに対応付けられているとき、前記コンピュータ装置が認識した前記特定の構造物の位置及び姿勢に基づいて当該既存のオブジェクトに関する情報が更新される、
    ことを特徴とする建築物又は土木構造物の管理支援システム。
  2.  前記コンピュータ装置が取得した前記ターゲットマーカの識別情報が、前記データベースに記憶されている既存のオブジェクトに対応付けられていないとき、前記コンピュータ装置が認識した前記特定の構造物の位置の位置及び姿勢に基づいて新規のオブジェクトが追加される、
    請求項1に記載の建築物又は土木構造物の管理支援システム。
  3.  前記自走ロボットは、
      周囲の物体を検知するセンサを有しており、
      前記ターゲットマーカが付設されている前記特定の構造物の位置を目標位置として、前記センサにより検知される物体との衝突を回避する移動経路を自走可能であり、
      自走して前記目標位置に達したとき、前記スキャナによるスキャンによって当該目標位置に存在する前記特定の構造物の点群データを取得する、
    請求項1に記載の建築物又は土木構造物の管理支援システム。
  4.  前記ターゲットマーカは平板であり、前記平板の両面に同一の前記識別パターンが描かれている、
    請求項1から3のいずれか一項に記載の建築物又は土木構造物の管理支援システム。
  5.  前記ターゲットマーカは、前記識別パターンが描かれている第一領域と、当該ターゲットマーカの中心位置を表すパターンが描かれている第二領域と、を有している、
    請求項4に記載の建築物又は土木構造物の管理支援システム。
  6.  前記ターゲットマーカは、前記第一領域及び前記第二領域が再帰性反射材を設けた領域によって囲まれており、
     前記コンピュータ装置は、前記自走ロボットの巡回中に取得された点群データの中で測定不能だった範囲を検出してエラーマップを生成し、生成した前記エラーマップに基づいて前記ターゲットマーカを検出する、
    請求項5に記載の建築物又は土木構造物の管理支援システム。
  7.  前記コンピュータ装置は、前記エラーマップに表されている測定不能な範囲の形状が、所定の形状であるものを前記ターゲットマーカの存在位置として特定する、
    請求項6に記載の建築物又は土木構造物の管理支援システム。
PCT/JP2023/018951 2022-08-31 2023-05-22 建築物又は土木構造物の管理支援システム WO2024047967A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022-137780 2022-08-31
JP2022137780A JP7369375B1 (ja) 2022-08-31 2022-08-31 建築物又は土木構造物の管理支援システム

Publications (1)

Publication Number Publication Date
WO2024047967A1 true WO2024047967A1 (ja) 2024-03-07

Family

ID=88418616

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/018951 WO2024047967A1 (ja) 2022-08-31 2023-05-22 建築物又は土木構造物の管理支援システム

Country Status (2)

Country Link
JP (1) JP7369375B1 (ja)
WO (1) WO2024047967A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012226525A (ja) * 2011-04-19 2012-11-15 Shinryo Corp 施工管理システムおよび施工管理方法
US20170278030A1 (en) * 2016-03-22 2017-09-28 Hexagon Technology Center Gmbh Method and system for a construction site management and support system with a marking robot
JP2017187904A (ja) * 2016-04-05 2017-10-12 清水建設株式会社 建築部材管理システム及び建築部材管理方法
JP2019101694A (ja) * 2017-11-30 2019-06-24 大成建設株式会社 位置特定装置、位置特定プログラム及び位置特定方法、並びに、撮影画像登録装置、撮影画像登録プログラム及び撮影画像登録方法
JP2021131652A (ja) * 2020-02-19 2021-09-09 株式会社トプコン データ構造、記録媒体、プログラム、及びシステム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012226525A (ja) * 2011-04-19 2012-11-15 Shinryo Corp 施工管理システムおよび施工管理方法
US20170278030A1 (en) * 2016-03-22 2017-09-28 Hexagon Technology Center Gmbh Method and system for a construction site management and support system with a marking robot
JP2017187904A (ja) * 2016-04-05 2017-10-12 清水建設株式会社 建築部材管理システム及び建築部材管理方法
JP2019101694A (ja) * 2017-11-30 2019-06-24 大成建設株式会社 位置特定装置、位置特定プログラム及び位置特定方法、並びに、撮影画像登録装置、撮影画像登録プログラム及び撮影画像登録方法
JP2021131652A (ja) * 2020-02-19 2021-09-09 株式会社トプコン データ構造、記録媒体、プログラム、及びシステム

Also Published As

Publication number Publication date
JP2024033883A (ja) 2024-03-13
JP7369375B1 (ja) 2023-10-26

Similar Documents

Publication Publication Date Title
Kim et al. SLAM-driven robotic mapping and registration of 3D point clouds
CN107272710B (zh) 一种基于视觉定位的医用物流机器人系统及其控制方法
Loupos et al. Autonomous robotic system for tunnel structural inspection and assessment
ES2914630T3 (es) Sistema y método para la operación autónoma de maquinaria pesada
US20230064071A1 (en) System for 3d surveying by an autonomous robotic vehicle using lidar-slam and an estimated point distribution map for path planning
WO2013059160A1 (en) Acquisition of information for a construction site
KR102031348B1 (ko) 자율 작업 시스템, 방법 및 컴퓨터 판독 가능한 기록매체
Wang et al. Two 4D models effective in reducing false alarms for struck-by-equipment hazard prevention
CN115597659A (zh) 一种变电站智能安全管控方法
CN115752462A (zh) 楼宇内重点巡检目标巡检方法、系统、电子设备和介质
Braun et al. Bim-based progress monitoring
RU139571U1 (ru) Устройство ориентации и навигации тележки мобильного робота при его перемещении по горизонтальной поверхности в заданном помещении
KR20230103002A (ko) 산업 현장의 안전 관리 시스템
JP7369375B1 (ja) 建築物又は土木構造物の管理支援システム
KR102252295B1 (ko) 실내 토폴로지맵 생성 방법 및 이를 위한 자율주행 로봇
So et al. LAN-based building maintenance and surveillance robot
CN112506187A (zh) 移动机器人监控方法、装置及存储介质
CN114391060A (zh) 地下工地中的移动设备的定位
CN115893201A (zh) 一种塔吊的自动驾驶方法、装置、设备及存储介质
JP2023130558A (ja) 測量支援システム、情報表示端末、測量支援方法、及び測量支援プログラム
Shapira et al. Quantitative analysis of blind tower-crane lifts using laser-scanning information
CN115565058A (zh) 机器人、避障方法、装置和存储介质
JP2021157706A (ja) 建設作業管理システムおよび自動巡回移動体
JP2021155179A (ja) クレーン用撮影システム及びプログラム
TW202418209A (zh) 建築物或土木構造物之管理支援系統

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23859737

Country of ref document: EP

Kind code of ref document: A1