WO2018042551A1 - 不要物除去システム、不要物除去方法及びプログラム - Google Patents

不要物除去システム、不要物除去方法及びプログラム Download PDF

Info

Publication number
WO2018042551A1
WO2018042551A1 PCT/JP2016/075485 JP2016075485W WO2018042551A1 WO 2018042551 A1 WO2018042551 A1 WO 2018042551A1 JP 2016075485 W JP2016075485 W JP 2016075485W WO 2018042551 A1 WO2018042551 A1 WO 2018042551A1
Authority
WO
WIPO (PCT)
Prior art keywords
target area
ground surface
unnecessary
point cloud
altitude
Prior art date
Application number
PCT/JP2016/075485
Other languages
English (en)
French (fr)
Inventor
俊二 菅谷
Original Assignee
株式会社オプティム
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社オプティム filed Critical 株式会社オプティム
Priority to JP2018536586A priority Critical patent/JP6457159B2/ja
Priority to PCT/JP2016/075485 priority patent/WO2018042551A1/ja
Publication of WO2018042551A1 publication Critical patent/WO2018042551A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C7/00Tracing profiles
    • G01C7/02Tracing profiles of land surfaces
    • G01C7/04Tracing profiles of land surfaces involving a vehicle which moves along the profile to be traced

Definitions

  • the present invention relates to an unnecessary object removal system, an unnecessary object removal method, and a program for removing unnecessary objects on the ground surface from data in a target area.
  • LIDAR Light Detection and Ranging
  • a target area is irradiated with a laser, the reflection point of this laser is acquired as a three-dimensional coordinate, a number of grids are derived on the horizontal plane of the target area,
  • a configuration is disclosed in which a topographic model of a target area is created by extracting a coordinate with the lowest elevation value from a vertical coordinate distribution of point cloud data in the middle (see Patent Document 1).
  • Patent Document 1 Although it is possible to create a terrain model of the target area, when extracting only the ground surface of the target area, the user himself / herself needs to correct unnecessary objects such as trees. It was.
  • An object of the present invention is to provide an unnecessary object removal system, an unnecessary object removal method, and a program that allow a user to extract a ground surface without performing a correction operation by removing unnecessary objects from acquired point cloud data.
  • the purpose is to provide.
  • the present invention provides the following solutions.
  • the invention according to the first feature is an unnecessary object removal system that removes unnecessary objects on the ground surface from data of a target area
  • Point cloud data acquisition means for acquiring point cloud data of the target area
  • Image analysis means for image analysis of image data obtained by photographing the target area
  • Elevation information acquisition means for acquiring elevation information of the target area based on position information of the target area
  • a surface height grasping means for grasping the height of the ground surface
  • Unnecessary object determining means for determining the unnecessary object based on the result of the image analysis and a portion different from the altitude of the ground surface based on the elevation information
  • An unnecessary object removing means for removing the determined unnecessary object from the point cloud data
  • An unnecessary object removing system is provided.
  • the unnecessary object removal system for removing unnecessary objects on the ground surface from the data of the target area acquires the point cloud data of the target area, and the image data obtained by photographing the target area is converted into an image. Analyzing and acquiring the altitude information of the target area based on the position information of the target area, grasping the altitude of the ground surface based on the acquired altitude information, the result of the image analysis, and the altitude information The unnecessary object is determined on the basis of the altitude and the different part of the ground surface based on, and the determined unnecessary object is removed from the point cloud data.
  • the invention according to the first feature is a category of the unnecessary object removal system, but also in other categories such as a method or a program, the same actions and effects according to the category are exhibited.
  • the invention according to a second feature includes a three-dimensional coordinate grasping means for grasping the three-dimensional coordinates of the target area based on the point cloud data;
  • the ground surface height grasping means grasps the height by assuming that the lowest coordinate among the three-dimensional coordinate height coordinates is the ground surface, and is an invention for removing an unnecessary object according to the first feature. I will provide a.
  • the unnecessary object removal system grasps the three-dimensional coordinates of the target area based on the point cloud data, and The height is grasped assuming that the lowest coordinate among the height coordinates is the ground surface.
  • a three-dimensional coordinate grasping means for grasping a three-dimensional coordinate of the target area based on the point cloud data; With The surface altitude grasping means grasps the altitude assuming that the height coordinate of the range with the largest number is the ground surface when the height coordinates of the three-dimensional coordinates are divided for each predetermined range.
  • the unnecessary object removal system grasps the three-dimensional coordinates of the target area based on the point cloud data, and When the height coordinates are divided for each predetermined range, the altitude is grasped assuming that the height coordinate in the range with the largest number is the ground surface.
  • the invention according to a fourth feature is an unnecessary object removal method for removing unnecessary objects on the ground surface from data of a target area, Obtaining point cloud data of the target area; Image analysis of image data obtained by photographing the target area; Obtaining the altitude information of the target area based on the position information of the target area; Based on the acquired elevation information, grasping the altitude of the ground surface; Determining the unnecessary object based on the result of the image analysis and a portion different from the altitude of the ground surface based on the elevation information; Removing the determined unnecessary matter from the point cloud data;
  • an unnecessary object removal method characterized by comprising:
  • the invention according to the fifth feature provides an unnecessary object removal system for removing unnecessary objects on the surface of the ground from the data of the target area Obtaining point cloud data of the target area; Image analysis of image data obtained by photographing the target area; Obtaining altitude information of the target area based on position information of the target area; Based on the acquired elevation information, grasping the altitude of the ground surface; Determining the unnecessary object based on a result of the image analysis and a portion different from the altitude of the ground surface based on the elevation information; Removing the determined unnecessary matter from the point cloud data; Provide a program to execute.
  • an unnecessary object removal system it is possible to provide an unnecessary object removal system, an unnecessary object removal method, and a program that allow a user to extract the ground surface without performing a correction operation.
  • FIG. 1 is a diagram showing an outline of the unnecessary object removal system 1.
  • FIG. 2 is an overall configuration diagram of the unnecessary object removal system 1.
  • FIG. 3 is a functional block diagram of the computer 10 and the flying object 100.
  • FIG. 4 is a flowchart showing an unnecessary object removal process executed by the computer 10 and the flying object 100.
  • FIG. 5 is a diagram schematically illustrating an example of image data in which the computer 10 recognizes the ground surface and an object.
  • FIG. 6 is a diagram illustrating an example of image data obtained by removing unnecessary objects generated by the computer 10.
  • FIG. 1 is a diagram for explaining an outline of an unnecessary object removal system 1 which is a preferred embodiment of the present invention.
  • the unnecessary object removal system 1 includes a computer 10 and an aircraft 100.
  • the number of flying bodies 100 is not limited to one and may be plural.
  • the computer 10 is not limited to an actual device, and may be a virtual device.
  • each process mentioned later may be implement
  • the computer 10 is a computer device capable of data communication with the flying object 100.
  • the flying object 100 is a flying object such as a drone or an aircraft capable of data communication with the computer 10.
  • the flying object 100 has an LIDAR and an imaging device such as a camera.
  • the flying object 100 flies over the target area and acquires area data of point cloud data, image data, and position information (step S01).
  • the flying object 100 acquires the ground surface of the target area and the point cloud data of the object existing on the ground surface by LIDAR.
  • the flying object 100 captures an image of the target area and acquires image data.
  • the flying object 100 acquires position information of the target area from the GPS or the like.
  • the flying object 100 transmits the area data to the computer 10 (step S02).
  • the computer 10 receives the area data.
  • the computer 10 analyzes the image data and recognizes the object and the ground (step S03).
  • the computer 10 recognizes the object and the ground surface based on the RGB values of the image data. For example, the computer 10 recognizes a region having an RGB value different from the RGB value as an object based on the RGB value of the ground surface.
  • the computer 10 classifies the object and the ground surface by drawing a contour line at the boundary between the identified object and the ground surface. This contour line indicates the contour of the object.
  • the computer 10 acquires the altitude information of the target area based on the position information (step S04).
  • the computer 10 acquires elevation information corresponding to the position information of the target area from, for example, various databases.
  • the computer 10 grasps the altitude of the surface of the target area based on the acquired point cloud data (step S05). For example, the computer 10 grasps the three-dimensional coordinates of the target area based on the point cloud data, and grasps the lowest coordinate among the three-dimensional coordinate height coordinates as the altitude that is the ground surface. In addition, for example, when the height coordinates of the grasped three-dimensional coordinates are divided for each predetermined range, the computer 10 grasps the height coordinates of the range having the largest number as the altitude that is the ground surface.
  • the computer 10 determines an unnecessary object such as an object existing on the ground surface based on the altitude of the ground surface grasped from the point cloud data and the altitude information acquired from the position information (step S06). For example, the computer 10 compares the altitude of the ground surface with the height coordinates of the three-dimensional coordinates of the point cloud data, and extracts a portion having an error in height. Then, the computer 10 determines whether or not this error matches the contour of the object identified by the image data.
  • the computer 10 removes the determined unnecessary object from the point cloud data (step S07).
  • the computer 10 removes the point cloud data corresponding to the object as a target to be removed from the acquired point cloud data, and removes the contour lines by smoothly connecting the heights of the contour lines with a plane. Generate point cloud data.
  • FIG. 2 is a diagram showing a system configuration of an unnecessary object removal system 1 which is a preferred embodiment of the present invention.
  • the unnecessary object removal system 1 includes a computer 10, a flying object 100, and a public line network (Internet network, third and fourth generation communication network, etc.) 5.
  • the number of flying bodies 100 is not limited to one, but may be plural.
  • the computer 10 is not limited to a real device, and may be a virtual device.
  • each process mentioned later may be implement
  • the computer 10 is the above-described computer device having the functions described below.
  • the flying object 100 is the above-described object having the functions described later.
  • FIG. 3 is a functional block diagram of the computer 10 and the flying object 100.
  • the computer 10 includes a CPU (Central Processing Unit), a RAM (Random Access Memory), a ROM (Read Only Memory), etc. as the control unit 11, and a device for enabling communication with other devices as the communication unit 12.
  • a WiFi (Wireless Fidelity) compatible device compliant with IEEE 802.11 is provided.
  • the computer 10 includes various data analysis devices, various data processing devices, and the like as the processing unit 13.
  • control unit 11 reads a predetermined program, thereby realizing the data reception module 20 and the altitude information acquisition module 21 in cooperation with the communication unit 12. Further, in the computer 10, the control unit 11 reads a predetermined program, so that the image analysis module 30, the altitude grasping module 31, the unnecessary object determination module 32, the unnecessary object removal module 33, A group data generation module 34 and an image generation module 35 are realized.
  • the flying object 100 includes a CPU, RAM, ROM, and the like as the control unit 110, and a WiFi compatible device for enabling communication with other devices as the communication unit 120.
  • the flying object 100 includes a flying device such as a propeller and a motor as the flying unit 130.
  • the flying object 100 includes an imaging device such as an image sensor or a lens, or a LIDAR device such as a laser, a scanner, an optical system, a light receiver, an electronic device, a GPS, or an inertial guidance device that acquires point cloud data. Etc.
  • the data transmission module 150 is realized in cooperation with the communication unit 120 by the control unit 110 reading a predetermined program.
  • the control unit 110 reads a predetermined program, thereby realizing the flight module 160 in cooperation with the flying unit 130.
  • the point cloud data acquisition module 170, the imaging module 171, and the position information acquisition module 172 are realized in cooperation with the acquisition unit 140 by the control unit 110 reading a predetermined program.
  • FIG. 4 is a diagram illustrating a flowchart of the unnecessary object removal process executed by the computer 10 and the flying object 100. The processing executed by the modules of each device described above will be described together with this processing.
  • step S10 the flight module 160 flies over the target area.
  • step S10 the flight module 160 flies based on a flight path based on a preset program or a flight instruction from a control terminal or information terminal (not shown).
  • the point cloud data acquisition module 170 acquires point cloud data of the target area during flight (step S11).
  • the point cloud data acquisition module 170 acquires point cloud data by LIDAR.
  • This point cloud data is three-dimensional data.
  • the point cloud data acquisition module 170 acquires point cloud data over the entire target area. That is, the point cloud data acquisition module 170 acquires the ground surface of the target area and the point cloud data of an object existing on the ground surface.
  • This point cloud data is shown as latitude, longitude, altitude, and GPS as a data format.
  • the point cloud data may be data other than the data format described above, or may be any one or a combination of a plurality of data formats described above.
  • the imaging module 171 captures an image of the target area during the flight (step S12).
  • the imaging module 171 divides the entire view of the target area or the target area into predetermined sections, and captures an image of each section.
  • the flying object 100 acquires an image of the target area by taking an image.
  • the location information acquisition module 172 acquires its location information from GPS or the like (step S13).
  • step S ⁇ b> 13 the position information acquisition module 172 acquires position information at the point where the image capturing module 171 captured.
  • the position information acquisition module 172 acquires the position information of the center of the captured entire scene when the imaging module 171 captures the entire scene.
  • the position information acquisition module 172 acquires position information of the center of each section when the shooting module 171 captures each section.
  • the position information is acquired as, for example, latitude and longitude. Note that the position information acquisition module 172 may acquire position information by a method other than that described above.
  • the position information may be in a format other than latitude and longitude.
  • steps S11 to S13 described above may be different.
  • the process of step S11 or step S13 may be executed, or after executing the process of step S13, the process of step S11 or step S12 may be executed.
  • the data transmission module 150 transmits the point cloud data, the image data, and the area data, which is position information, acquired by the above-described processing in steps S11 to S13 to the computer 10 (step S14).
  • the data receiving module 20 receives area data.
  • the image analysis module 30 performs image analysis on the image data (step S15).
  • the image analysis module 30 extracts RGB values of the image data. Note that the image analysis module 30 may extract the feature amount of the image data.
  • the image analysis module 30 recognizes the ground and objects present in the image data based on the result of the image analysis (step S16). In step S16, the image analysis module 30 recognizes the ground surface and the object based on the difference in color. The image analysis module 30 recognizes the ground surface based on preset RGB values of the ground surface, and recognizes an area having an RGB value different from the RGB value of the ground surface as an object. The image analysis module 30 recognizes the ground surface based on the general RGB values of the ground surface, and recognizes an area having an RGB value different from the RGB value of the ground surface as an object.
  • the image analysis module 30 recognizes an RGB value similar to the RGB value of the ground surface, whether or not a boundary exists between the region of the similar RGB value and the RGB value region of the ground surface is determined. If the boundary exists, the similar RGB value region is determined as an object, and if the boundary does not exist, the similar RGB value region is determined as the ground surface.
  • the image analysis module 30 may recognize the ground surface and the object based on a preset ground surface feature amount when the feature amount is extracted. At this time, the image analysis module 30 recognizes the ground surface based on a preset feature amount of the ground surface, and recognizes a region having a feature amount different from the feature amount of the ground surface as an object. The image analysis module 30 may recognize an object based on a preset feature amount of the object, and may recognize a region having a feature amount different from the feature amount of the object as an object. Further, the image analysis module 30 may recognize a region where no feature amount exists as the ground surface.
  • FIG. 5 is a diagram schematically illustrating an example of image data in which the image analysis module 30 recognizes the ground surface and an object.
  • the image analysis module 30 recognizes the ground surface 300 and the object 310 based on the color of the image data as described above.
  • the image analysis module 30 recognizes a region having an RGB value different from the RGB value of the ground surface 300 as a region of the object 310 and recognizes a boundary between the ground surface 300 and the object 310.
  • the image analysis module 30 separates the ground surface 300 and the object 310 from each other by drawing an outline 320 at the boundary between the ground surface 300 and the object 310.
  • This outline 320 is a rough shape of the object 310 and indicates the outline of the object 310.
  • the image analysis module 30 draws the contour 320 by analogizing the unclear point from the point where the boundary is clear. May be.
  • the altitude information acquisition module 21 acquires the altitude information of the target area based on the position information (step S17).
  • the altitude information acquisition module 21 acquires altitude information corresponding to the position information of the target area from, for example, various databases managed by public institutions, national institutions, private organizations, and the like. This is realized by acquiring corresponding altitude information from the various databases based on the current latitude, longitude, address, and the like.
  • the altitude information acquisition module 21 may directly acquire its own altitude information, or may acquire altitude information by a method other than the example described above.
  • the altitude grasping module 31 grasps the height coordinates of the target area based on the acquired point cloud data (step S18).
  • the altitude grasping module 31 grasps the three-dimensional coordinates of the target area based on the point cloud data.
  • the three-dimensional coordinates are orthogonal coordinates including a horizontal X coordinate and a Y coordinate, and a vertical Z direction.
  • the altitude grasping module 31 grasps the altitude of the ground surface and the object based on the height coordinates. For example, the altitude grasping module 31 grasps the lowest coordinate among the three-dimensional coordinates of the point cloud data as the altitude of the ground surface. This is effective when there are no holes or the like on the ground surface.
  • the altitude grasping module 31 grasps the height coordinates of the range with the largest number as the altitude of the ground surface.
  • the predetermined range is, for example, 10 steps in height. This is effective when the area of the ground surface is the largest when the ground surface and the object are compared.
  • the altitude grasping module 31 may grasp the altitude of the ground surface by other methods.
  • the altitude grasping module 31 may grasp the altitude by a method other than the example described above.
  • the unnecessary object determination module 32 extracts a portion having an error in height based on the altitude obtained from the point cloud data and the altitude information acquired from the position information (step S19). In step S19, the unnecessary object determination module 32 compares the altitude of the ground surface and the object grasped from the point cloud data with the altitude information acquired from the position information, and extracts a portion where an error exists.
  • the unnecessary object determination module 32 determines whether or not the extracted error matches the contour drawn in the image data (step S20). In step S20, the unnecessary object determination module 32 determines whether or not the portion where the extracted error exists matches the contour line.
  • step S20 if the unnecessary object determination module 32 determines that they do not match (NO in step S20), it determines that this error is not due to an object, and ends this process. For example, ridges or irregularities on the ground surface are applicable in this case.
  • step S20 determines that the unnecessary object determination module 32 matches (YES in step S20)
  • the unnecessary object removal module 33 determines that this contour line.
  • the area surrounded by is removed from the point cloud data as an unnecessary object (step S21).
  • step S ⁇ b> 21 the unnecessary object determination module 32 specifies point cloud data corresponding to the area surrounded by the outline in the image data.
  • the unnecessary object determination module 32 specifies the position of the point cloud data corresponding to this region based on, for example, the position information of the spot where the image was taken, the positional relationship in the image data, and the like.
  • the unnecessary object determination module 32 removes the specified point cloud data.
  • the point cloud data generation module 34 connects the heights of the removed contours smoothly on a plane to generate point cloud data from which unnecessary objects are removed (step S22).
  • the point cloud data generation module 34 supplements the area of the removed point cloud data with the remaining point cloud data.
  • the point cloud data generation module 34 smoothly connects the remaining point cloud data.
  • the point cloud data generation module 34 may generate point cloud data by removing unnecessary objects by applying a part or all of the remaining point cloud data to the area of the removed point cloud data. However, it may be generated by other methods.
  • the image generation module 35 generates image data from which unnecessary objects have been removed based on the point cloud data from which unnecessary objects have been removed (step S23).
  • step S23 the image generation module 35 superimposes a part or all of the ground portion of the image data on the position of the image data corresponding to the area where the unnecessary objects are removed in the point cloud data from which the unnecessary objects are removed.
  • image data from which unnecessary objects are removed is generated.
  • the image data generation module 35 removes the data existing at the position of the image data corresponding to the area where the unnecessary objects are removed from the point cloud data from which the unnecessary objects are removed, and the data corresponding to the ground surface at the removed positions. May be overwritten.
  • the image generation module 35 may generate image data from which unnecessary objects are removed by other methods.
  • FIG. 6 is a diagram illustrating an example of image data from which unnecessary objects generated by the image generation module 35 are removed.
  • the image generation module 35 generates a ground surface 400.
  • the ground surface 400 is obtained by removing the object 310 existing in FIG. 5 and superimposing a part of the ground surface 300 on the position of the object 310.
  • the image generation module 35 removes the unnecessary object 310 from the image data shown in FIG. 5 and generates image data of only the ground surface 400.
  • the means and functions described above are realized by a computer (including a CPU, an information processing apparatus, and various terminals) reading and executing a predetermined program.
  • the program is provided in a form recorded on a computer-readable recording medium such as a flexible disk, CD (CD-ROM, etc.), DVD (DVD-ROM, DVD-RAM, etc.).
  • the computer reads the program from the recording medium, transfers it to the internal storage device or the external storage device, stores it, and executes it.
  • the program may be recorded in advance in a storage device (recording medium) such as a magnetic disk, an optical disk, or a magneto-optical disk, and provided from the storage device to a computer via a communication line.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】、ユーザが補正操作を行わずに、地表面を抽出することが可能な不要物除去システム、不要物除去方法及びプログラムを提供することを目的とする。 【解決手段】対象エリアのデータから地表の不要物を除去する不要物除去システム1は、対象エリアの点群データを取得し、対象エリアを撮影した画像データを画像解析し、対象エリアの位置情報に基づいて、対象エリアの標高情報を取得し、取得された標高情報に基づいて、地表の高度を把握し、画像解析の結果と、標高情報に基づく地表の高度と異なる部分とに基づいて、不要物を判定し、判定された不要物を点群データから除去する。

Description

不要物除去システム、不要物除去方法及びプログラム
 本発明は、対象エリアのデータから地表の不要物を除去する不要物除去システム、不要物除去方法及びプログラムに関する。
 近年、地表面の3次元データを取得する際、LIDAR(Light Detection and Ranging)を用いた点群処理の技術が利用されている。LIDARとは、光を用いたリモートセンシング技術の1つである。3次元データの取得に際して、航空機等の飛行体に搭載したLIDARとGPSとを組み合わせることにより、地表面に存在する森林や物体等を点群データとして取得する。このような点群データを取得する際、地表に観測したくない物体等の不要物が存在する場合、この不要物を除去した点群データを、後からユーザが自ら補正する必要があった。
 例えば、このような点群データの補正方法として、対象エリアにレーザを照射し、このレーザの反射点を3次元座標として取得し、対象エリアの水平面上に多数のグリッドを派生させ、各グリッドの中にある点群データの鉛直座標分布から標高値の最も低い座標を抽出することにより、対象エリアの地形モデルを作成する構成が開示されている(特許文献1参照)。
特開2013-88188号公報
 しかしながら、特許文献1の構成では、対象エリアの地形モデルを作成することは可能となるものの、この対象エリアの地表面のみを抽出する際、樹木等の不要物をユーザ自らが補正する必要があった。
 本発明の目的は、取得した点群データから不要物を除去することにより、ユーザが補正操作を行わずに、地表面を抽出することが可能な不要物除去システム、不要物除去方法及びプログラムを提供することを目的とする。
 本発明では、以下のような解決手段を提供する。
 第1の特徴に係る発明は、対象エリアのデータから地表の不要物を除去する不要物除去システムであって、
 前記対象エリアの点群データを取得する点群データ取得手段と、
 前記対象エリアを撮影した画像データを画像解析する画像解析手段と、
 前記対象エリアの位置情報に基づいて、前記対象エリアの標高情報を取得する標高情報取得手段と、
 前記取得された標高情報に基づいて、地表の高度を把握する地表高度把握手段と、
 前記画像解析の結果と、前記標高情報に基づく地表の高度と異なる部分とに基づいて、前記不要物を判定する不要物判定手段と、
 前記判定された不要物を前記点群データから除去する不要物除去手段と、
 を備えることを特徴とする不要物除去システムを提供する。
 第1の特徴に係る発明によれば、対象エリアのデータから地表の不要物を除去する不要物除去システムは、前記対象エリアの点群データを取得し、前記対象エリアを撮影した画像データを画像解析し、前記対象エリアの位置情報に基づいて、前記対象エリアの標高情報を取得し、前記取得された標高情報に基づいて、地表の高度を把握し、前記画像解析の結果と、前記標高情報に基づく地表の高度と異なる部分とに基づいて、前記不要物を判定し、前記判定された不要物を前記点群データから除去する。
 ここで、第1の特徴に係る発明は、不要物除去システムのカテゴリであるが、方法又はプログラム等の他のカテゴリにおいても、そのカテゴリに応じた同様の作用・効果を発揮する。
 第2の特徴に係る発明は、前記点群データに基づいて、前記対象エリアの3次元座標を把握する3次元座標把握手段と、
 を備え、
 前記地表高度把握手段が、前記3次元座標の高さ座標の中で、一番低い座標を地表であるとして高度を把握することを特徴とする第1の特徴に係る発明である不要物除去システムを提供する。
 第2の特徴に係る発明によれば、第1の特徴に係る発明である不要物除去システムは、前記点群データに基づいて、前記対象エリアの3次元座標を把握し、前記3次元座標の高さ座標の中で、一番低い座標を地表であるとして高度を把握する。
 第3の特徴に係る発明は、前記点群データに基づいて、前記対象エリアの3次元座標を把握する3次元座標把握手段と、
 を備え、
 前記地表高度把握手段が、前記3次元座標の高さ座標を、所定の範囲毎に区切ったときに、個数が一番多い範囲の高さ座標を地表であるとして高度を把握することを特徴とする第1の特徴に係る発明である不要物除去システムを提供する。
 第3の特徴に係る発明によれば、第1の特徴に係る発明である不要物除去システムは、前記点群データに基づいて、前記対象エリアの3次元座標を把握し、前記3次元座標の高さ座標を、所定の範囲毎に区切ったときに、個数が一番多い範囲の高さ座標を地表であるとして高度を把握する。
 第4の特徴に係る発明は、対象エリアのデータから地表の不要物を除去する不要物除去方法であって、
 前記対象エリアの点群データを取得するステップと、
 前記対象エリアを撮影した画像データを画像解析するステップと、
 前記対象エリアの位置情報に基づいて、前記対象エリアの標高情報を取得するステップと、
 前記取得された標高情報に基づいて、地表の高度を把握するステップと、
 前記画像解析の結果と、前記標高情報に基づく地表の高度と異なる部分とに基づいて、前記不要物を判定するステップと、
 前記判定された不要物を前記点群データから除去するステップと、
 を備えることを特徴とする不要物除去方法を提供する。
 第5の特徴に係る発明は、対象エリアのデータから地表の不要物を除去する不要物除去システムに、
 前記対象エリアの点群データを取得するステップ、
 前記対象エリアを撮影した画像データを画像解析するステップ、
 前記対象エリアの位置情報に基づいて、前記対象エリアの標高情報を取得するステップ、
 前記取得された標高情報に基づいて、地表の高度を把握するステップ、
 前記画像解析の結果と、前記標高情報に基づく地表の高度と異なる部分とに基づいて、前記不要物を判定するステップ、
 前記判定された不要物を前記点群データから除去するステップ、
 を実行させるためのプログラムを提供する。
 本発明によれば、ユーザが補正操作を行わずに、地表面を抽出することが可能な不要物除去システム、不要物除去方法及びプログラムを提供することが可能となる。
図1は、不要物除去システム1の概要を示す図である。 図2は、不要物除去システム1の全体構成図である。 図3は、コンピュータ10、飛行体100の機能ブロック図である。 図4は、コンピュータ10、飛行体100が実行する不要物除去処理を示すフローチャートである。 図5は、コンピュータ10が、地表と物体とを認識した画像データの一例を模式的に示す図である。 図6は、コンピュータ10が、生成した不要物を除去した画像データの一例を示す図である。
 以下、本発明を実施するための最良の形態について、図を参照しながら説明する。なお、これはあくまでも一例であって、本発明の技術的範囲はこれに限られるものではない。
 [不要物除去システム1の概要]
 本発明の好適な実施形態の概要について、図1に基づいて説明する。図1は、本発明の好適な実施形態である不要物除去システム1の概要を説明するための図である。不要物除去システム1は、コンピュータ10、飛行体100から構成される。
 なお、図1において、飛行体100は、1つに限らず複数であってもよい。また、コンピュータ10は、実在する装置に限らず仮想的な装置であってもよい。また、後述する各処理は、コンピュータ10又は飛行体100のいずれか又は双方により実現されてもよい。
 コンピュータ10は、飛行体100とデータ通信可能なコンピュータ装置である。
 飛行体100は、コンピュータ10とデータ通信可能なドローンや航空機等の飛行可能な物体である。飛行体100はLIDARを搭載するとともに、カメラ等の撮像装置を有する。
 はじめに、飛行体100は、対象エリアを飛行し、点群データ、画像データ、位置情報のエリアデータを取得する(ステップS01)。飛行体100は、LIDARにより、対象エリアの地表及び地表に存在する物体の点群データを取得する。また、飛行体100は、対象エリアの画像を撮影し、画像データを取得する。また、飛行体100は、対象エリアの位置情報をGPS等から取得する。
 飛行体100は、エリアデータを、コンピュータ10に送信する(ステップS02)。
 コンピュータ10は、エリアデータを受信する。コンピュータ10は、画像データを画像解析し、物体と地表とを認識する(ステップS03)。コンピュータ10は、画像データのRGB値により、物体と地表とを認識する。例えば、コンピュータ10は、地表のRGB値に基づいて、このRGB値とは異なるRGB値の領域を物体として認識する。コンピュータ10は、識別した物体と地表との境界に輪郭線を引くことにより、物体と地表とを区分けする。この輪郭線は、物体の輪郭を示す。
 コンピュータ10は、位置情報に基づいて、対象エリアの標高情報を取得する(ステップS04)。コンピュータ10は、例えば、各種データベース等から、対象エリアの位置情報に対応する標高情報を取得する。
 コンピュータ10は、取得した点群データに基づいて、対象エリアの地表の高度を把握する(ステップS05)。コンピュータ10は、例えば、点群データに基づいて、対象エリアの3次元座標を把握し、この3次元座標の高さ座標の中で一番低い座標を地表である高度として把握する。また、コンピュータ10は、例えば、把握された3次元座標の高さ座標を、所定の範囲毎に区切ったときに、個数が一番多い範囲の高さ座標を地表である高度として把握する。
 コンピュータ10は、点群データから把握した地表の高度と、位置情報から取得した標高情報とに基づいて、地表に存在する物体等の不要物を判定する(ステップS06)。例えば、コンピュータ10は、地表の標高と、点群データの3次元座標の高さ座標とを比較し、高さに誤差がある部分を抽出する。そして、コンピュータ10は、画像データで識別した物体の輪郭と、この誤差が合致するか否かを判定する。
 コンピュータ10は、判定された不要物を点群データから除去する(ステップS07)。コンピュータ10は、誤差が合致した場合、除去すべき対象として、この物体に該当する点群データを、取得した点群データから除去し、輪郭線の高さを平面で滑らかにつなげて、除去した点群データを生成する。
 以上が、不要物除去システム1の概要である。
 [不要物除去システム1のシステム構成]
 図2に基づいて、本発明の好適な実施形態である不要物除去システム1のシステム構成について説明する。図2は、本発明の好適な実施形態である不要物除去システム1のシステム構成を示す図である。不要物除去システム1は、コンピュータ10、飛行体100、公衆回線網(インターネット網や、第3、第4世代通信網等)5から構成される。なお、飛行体100は、1つに限らず、複数であってもよい。また、コンピュータ10は、実在する装置に限らず、仮想的な装置であってもよい。また、後述する各処理は、コンピュータ10又は飛行体100のいずれか又は双方により実現されてもよい。
 コンピュータ10は、後述の機能を備えた上述したコンピュータ装置である。
 飛行体100は、後述の機能を備えた上述した物体である。
 [各機能の説明]
 図3に基づいて、本発明の好適な実施形態である不要物除去システム1の機能について説明する。図3は、コンピュータ10、飛行体100の機能ブロック図を示す図である。
 コンピュータ10は、制御部11として、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等を備え、通信部12として、他の機器と通信可能にするためのデバイス、例えば、IEEE802.11に準拠したWiFi(Wireless Fidelity)対応デバイスを備える。また、コンピュータ10は、処理部13として、各種データ解析デバイス、各種データ処理デバイス等を備える。
 コンピュータ10において、制御部11が所定のプログラムを読み込むことにより、通信部12と協働して、データ受信モジュール20、高度情報取得モジュール21を実現する。また、コンピュータ10において、制御部11が所定のプログラムを読み込むことにより、処理部13と協働して、画像解析モジュール30、高度把握モジュール31、不要物判定モジュール32、不要物除去モジュール33、点群データ生成モジュール34、画像生成モジュール35を実現する。
 飛行体100は、コンピュータ10と同様に、制御部110として、CPU、RAM、ROM等を備え、通信部120として、他の機器と通信可能にするためのWiFi対応デバイス等を備える。また、飛行体100は、飛行部130として、プロペラやモータ等の飛行デバイス等を備える。また、飛行体100は、取得部140として、撮像素子やレンズ等の撮影デバイスや、点群データを取得するレーザ、スキャナ、光学系、受光器、電子機器、GPS、慣性誘導装置等のLIDARデバイス等を備える。
 飛行体100において、制御部110が所定のプログラムを読み込むことにより、通信部120と協働して、データ送信モジュール150を実現する。また、飛行体100において、制御部110が所定のプログラムを読み込むことにより、飛行部130と協働して、飛行モジュール160を実現する。また、飛行体100において、制御部110が所定のプログラムを読み込むことにより、取得部140と協働して、点群データ取得モジュール170、撮影モジュール171、位置情報取得モジュール172を実現する。
 [不要物除去処理]
 図4に基づいて、不要物除去システム1が実行する不要物除去処理について説明する。図4は、コンピュータ10、飛行体100が実行する不要物除去処理のフローチャートを示す図である。上述した各装置のモジュールが実行する処理について、本処理に併せて説明する。
 はじめに、飛行モジュール160は、対象エリアを飛行する(ステップS10)。ステップS10において、飛行モジュール160は、予め設定されたプログラムに基づいた飛行経路や、図示していない操縦用端末や情報端末等からの飛行指示に基づいて飛行する。
 点群データ取得モジュール170は、飛行中の対象エリアの点群データを取得する(ステップS11)。ステップS11において、点群データ取得モジュール170は、LIDARにより、点群データを取得する。この点群データは、3次元データである。点群データ取得モジュール170は、対象エリアの全域に亘って点群データを取得する。すなわち、点群データ取得モジュール170は、対象エリアの地表及び地表に存在する物体の点群データを取得する。この点群データは、データ形式として、緯度、経度、標高、GPSとして示される。なお、点群データは、上述したデータ形式以外のデータであってもよいし、上述したデータ形式のいずれか又は複数の組合わせであってもよい。
 撮影モジュール171は、飛行中の対象エリアの画像を撮影する(ステップS12)。撮影モジュール171は、対象エリアの全景又は対象エリアを所定の区画に分割し、各区画の画像を撮影する。飛行体100は、画像を撮影することにより、対象エリアの画像を取得する。
 位置情報取得モジュール172は、自身の位置情報をGPS等から取得する(ステップS13)。ステップS13において、位置情報取得モジュール172は、撮影モジュール171が撮影した地点における位置情報を取得する。位置情報取得モジュール172は、撮影モジュール171が全景を撮影する場合、撮影した全景の中心地の位置情報を取得する。また、位置情報取得モジュール172は、撮影モジュール171が各区画を撮影する場合、各区画の中心地の位置情報を取得する。位置情報は、例えば、緯度及び経度として取得する。なお、位置情報取得モジュール172は、上述した以外の方法により位置情報を取得してもよい。また、位置情報は、緯度及び経度以外の形式であってもよい。
 また、上述したステップS11~ステップS13の処理は、その順番が異なっていてもよい。例えば、ステップS12の処理を実行した後、ステップS11又はステップS13の処理を実行してもよいし、ステップS13の処理を実行した後、ステップS11又はステップS12の処理を実行してもよい。
 データ送信モジュール150は、上述したステップS11~ステップS13の処理で取得した点群データ、画像データ、位置情報であるエリアデータを、コンピュータ10に送信する(ステップS14)。
 データ受信モジュール20は、エリアデータを受信する。画像解析モジュール30は、画像データを画像解析する(ステップS15)。ステップS15において、画像解析モジュール30は、画像データのRGB値を抽出する。なお、画像解析モジュール30は、画像データの特徴量を抽出してもよい。
 画像解析モジュール30は、画像解析の結果に基づいて、画像データに存在する地表と物体とを認識する(ステップS16)。ステップS16において、画像解析モジュール30は、色彩の相違に基づいて、地表と物体とを認識する。画像解析モジュール30は、予め設定された地表のRGB値に基づいて、地表を認識し、この地表のRGB値とは異なるRGB値を有する領域を、物体として認識する。また、画像解析モジュール30は、一般的な地表のRGB値に基づいて、地表を認識し、この地表のRGB値とは異なるRGB値を有する領域を物体として認識する。また、画像解析モジュール30は、地表のRGB値と類似するRGB値とを認識したとき、この類似するRGB値の領域と、地表のRGB値の領域との間に境界が存在するか否かを判定し、境界が存在する場合、この類似するRGB値の領域を物体として判定し、境界が存在しない場合、この類似するRGB値の領域を地表として判定する。
 なお、画像解析モジュール30は、特徴量を抽出した場合、予め設定された地表の特徴量に基づいて、地表と物体を認識してもよい。このとき、画像解析モジュール30は、予め設定された地表の特徴量に基づいて、地表を認識し、この地表の特徴量とは異なる特徴量を有する領域を、物体として認識する。また、画像解析モジュール30は、予め設定された物体の特徴量に基づいて、物体を認識し、この物体の特徴量とは異なる特徴量を有する領域を物体として認識してもよい。また、画像解析モジュール30は、特徴量が存在しない領域を地表として認識してもよい。
 図5に基づいて、画像解析モジュール30が地表と物体とを認識した画像データについて説明する。図5は、画像解析モジュール30が地表と物体とを認識した画像データの一例を模式的に示す図である。図5において、画像解析モジュール30は、上述した通り、画像データの色彩に基づいて、地表300と物体310とを認識する。図5において、画像解析モジュール30は、地表300のRGB値とは異なるRGB値の領域を、物体310の領域と認識し、地表300と物体310との境界を認識する。画像解析モジュール30は、この地表300と物体310との境界に、輪郭線320を引くことにより、地表300と物体310と区分けする。この輪郭線320は、物体310の概形であり、物体310の輪郭を示す。画像解析モジュール30は、地表300と物体310との境界が明確になっていない場合、この明確になっていない地点を、境界が明確になっている地点から類推することにより、輪郭線320を引いてもよい。
 高度情報取得モジュール21は、位置情報に基づいて、対象エリアの標高情報を取得する(ステップS17)。高度情報取得モジュール21は、例えば、公共機関、国家機関、民間団体等が管理する各種データベース等から、対象エリアの位置情報に対応する標高情報を取得する。これは、現在の緯度及び経度や住所等に基づいて、対応する標高情報をこの各種データベースから取得することにより実現される。なお、高度情報取得モジュール21は、直接自身の標高情報を取得してもよいし、上述した例以外の方法により標高情報を取得してもよい。
 高度把握モジュール31は、取得した点群データに基づいて、対象エリアの高さ座標を把握する(ステップS18)。高度把握モジュール31は、点群データに基づいて、対象エリアの3次元座標を把握する。この3次元座標は、水平方向のX座標及びY座標、鉛直方向のZ方向からなる直行座標である。高度把握モジュール31は、この高さ座標に基づいて、地表及び物体の高度を把握する。高度把握モジュール31は、例えば、点群データの3次元座標の中で、最も低い座標を地表の高度として把握する。これは、地表に、穴等がない場合に有効である。また、高度把握モジュール31は、例えば、点群データの3次元座標を所定の範囲毎に区切ったときに、個数が最大の範囲の高さ座標を、地表の高度として把握する。所定の範囲とは、例えば、高さ10刻み等である。これは、地表と物体とを比較して、地表の面積が一番広い場合に有効である。なお、高度把握モジュール31は、これ以外の方法により、地表の高度を把握してもよい。なお、高度把握モジュール31は、上述した例以外の方法により高度を把握してもよい。
 不要物判定モジュール32は、点群データから把握した高度と、位置情報から取得した標高情報とに基づいて、高さに誤差がある部分を抽出する(ステップS19)。ステップS19において、不要物判定モジュール32は、点群データから把握した地表及び物体の高度と、位置情報から取得した標高情報とを比較し、誤差が存在する部分を抽出する。
 不要物判定モジュール32は、抽出した誤差が、画像データに引いた輪郭線と合致するか否かを判断する(ステップS20)。ステップS20において、不要物判定モジュール32は、抽出した誤差が存在する部分が、この輪郭線と合致するか否かを判定する。
 ステップS20において、不要物判定モジュール32は、合致していないと判定した場合(ステップS20 NO)、この誤差が、物体によるものではないと判定し、本処理を終了する。例えば、地表の隆起や凹凸等がこの場合に当てはまる。
 一方、ステップS20において、不要物判定モジュール32は、合致していると判定した場合(ステップS20 YES)、この誤差は、物体によるものであると判定し、不要物除去モジュール33は、この輪郭線で囲われた領域を不要物として点群データから除去する(ステップS21)。ステップS21において、不要物判定モジュール32は、画像データにおける輪郭線で囲われた領域に該当する点群データを特定する。不要物判定モジュール32は、例えば、画像を撮影した地点の位置情報や、画像データにおける位置関係等に基づいて、この領域に該当する点群データの位置を特定する。不要物判定モジュール32は、特定した点群データを除去する。
 点群データ生成モジュール34は、除去した輪郭の高さを、平面で滑らかにつなげ、不要物を除去した点群データを生成する(ステップS22)。ステップS22において、点群データ生成モジュール34は、除去した点群データの領域を、残された点群データにより補完する。点群データ生成モジュール34は、残された点群データを、平滑につなげる。なお、点群データ生成モジュール34は、残された点群データの一部又は全部を、除去した点群データの領域に当てはめることにより、不要物を除去して点群データを生成してもよいし、それ以外の方法により生成してもよい。
 画像生成モジュール35は、この不要物を除去した点群データに基づいて、不要物を除去した画像データを生成する(ステップS23)。ステップS23において、画像生成モジュール35は、不要物を除去した点群データにおいて、不要物を除去した領域に該当する画像データの位置に、この画像データの地表部分の一部又は全部を重畳させることにより、不要物を除去した画像データを生成する。なお、画像データ生成モジュール35は、不要物を除去した点群データにおいて、不要物を除去した領域に該当する画像データの位置に存在するデータを除去し、除去した位置に、地表に該当するデータを上書きしてもよい。また、画像生成モジュール35は、その他の方法により、不要物を除去した画像データを生成してもよい。
 図6に基づいて、画像生成モジュール35が生成する不要物を除去した画像データについて説明する。図6は、画像生成モジュール35が生成した不要物を除去した画像データの一例を示す図である。図6において、画像生成モジュール35は、地表400を生成する。この地表400は、図5で存在していた物体310を除去し、この物体310の位置に地表300の一部を重畳させたものである。画像生成モジュール35は、図5で示した画像データから不要物である物体310を除去し、地表400のみの画像データを生成する。
 以上が、不要物除去処理である。
 上述した手段、機能は、コンピュータ(CPU、情報処理装置、各種端末を含む)が、所定のプログラムを読み込んで、実行することによって実現される。プログラムは、例えば、フレキシブルディスク、CD(CD-ROMなど)、DVD(DVD-ROM、DVD-RAMなど)等のコンピュータ読取可能な記録媒体に記録された形態で提供される。この場合、コンピュータはその記録媒体からプログラムを読み取って内部記憶装置又は外部記憶装置に転送し記憶して実行する。また、そのプログラムを、例えば、磁気ディスク、光ディスク、光磁気ディスク等の記憶装置(記録媒体)に予め記録しておき、その記憶装置から通信回線を介してコンピュータに提供するようにしてもよい。
 以上、本発明の実施形態について説明したが、本発明は上述したこれらの実施形態に限るものではない。また、本発明の実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、本発明の実施形態に記載されたものに限定されるものではない。
 1 不要物除去システム、10 コンピュータ、100 飛行体

Claims (5)

  1.  対象エリアのデータから地表の不要物を除去する不要物除去システムであって、
     前記対象エリアの点群データを取得する点群データ取得手段と、
     前記対象エリアを撮影した画像データを画像解析する画像解析手段と、
     前記対象エリアの位置情報に基づいて、前記対象エリアの標高情報を取得する標高情報取得手段と、
     前記取得された標高情報に基づいて、地表の高度を把握する地表高度把握手段と、
     前記画像解析の結果と、前記標高情報に基づく地表の高度と異なる部分とに基づいて、前記不要物を判定する不要物判定手段と、
     前記判定された不要物を前記点群データから除去する不要物除去手段と、
     を備えることを特徴とする不要物除去システム。
  2.  前記点群データに基づいて、前記対象エリアの3次元座標を把握する3次元座標把握手段と、
     を備え、
     前記地表高度把握手段は、前記3次元座標の高さ座標の中で、一番低い座標を地表であるとして高度を把握することを特徴とする請求項1に記載の不要物除去システム。
  3.  前記点群データに基づいて、前記対象エリアの3次元座標を把握する3次元座標把握手段と、
     を備え、
     前記地表高度把握手段は、前記3次元座標の高さ座標を、所定の範囲毎に区切ったときに、個数が一番多い範囲の高さ座標を地表であるとして高度を把握することを特徴とする請求項1に記載の不要物除去システム。
  4.  対象エリアのデータから地表の不要物を除去する不要物除去方法であって、
     前記対象エリアの点群データを取得するステップと、
     前記対象エリアを撮影した画像データを画像解析するステップと、
     前記対象エリアの位置情報に基づいて、前記対象エリアの標高情報を取得するステップと、
     前記取得された標高情報に基づいて、地表の高度を把握するステップと、
     前記画像解析の結果と、前記標高情報に基づく地表の高度と異なる部分とに基づいて、前記不要物を判定するステップと、
     前記判定された不要物を前記点群データから除去するステップと、
     を備えることを特徴とする不要物除去方法。
  5.  対象エリアのデータから地表の不要物を除去する不要物除去システムに、
     前記対象エリアの点群データを取得するステップ、
     前記対象エリアを撮影した画像データを画像解析するステップ、
     前記対象エリアの位置情報に基づいて、前記対象エリアの標高情報を取得するステップ、
     前記取得された標高情報に基づいて、地表の高度を把握するステップ、
     前記画像解析の結果と、前記標高情報に基づく地表の高度と異なる部分とに基づいて、前記不要物を判定するステップ、
     前記判定された不要物を前記点群データから除去するステップ、
     を実行させるためのプログラム。
PCT/JP2016/075485 2016-08-31 2016-08-31 不要物除去システム、不要物除去方法及びプログラム WO2018042551A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018536586A JP6457159B2 (ja) 2016-08-31 2016-08-31 不要物除去システム、不要物除去方法及びプログラム
PCT/JP2016/075485 WO2018042551A1 (ja) 2016-08-31 2016-08-31 不要物除去システム、不要物除去方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/075485 WO2018042551A1 (ja) 2016-08-31 2016-08-31 不要物除去システム、不要物除去方法及びプログラム

Publications (1)

Publication Number Publication Date
WO2018042551A1 true WO2018042551A1 (ja) 2018-03-08

Family

ID=61301747

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/075485 WO2018042551A1 (ja) 2016-08-31 2016-08-31 不要物除去システム、不要物除去方法及びプログラム

Country Status (2)

Country Link
JP (1) JP6457159B2 (ja)
WO (1) WO2018042551A1 (ja)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002063580A (ja) * 2000-08-22 2002-02-28 Asia Air Survey Co Ltd 不定形窓を用いた画像間拡張イメージマッチング方法
JP2002074323A (ja) * 2000-09-01 2002-03-15 Kokusai Kogyo Co Ltd 三次元市街地空間モデル作成方法およびシステム
US20020035553A1 (en) * 2000-07-20 2002-03-21 Kim Seung Bum Intelligent interpolation methods for automatic generation of an accurate digital elevation model
JP2006323608A (ja) * 2005-05-18 2006-11-30 Kozo Keikaku Engineering Inc 立体構造物群モデル作成装置、立体構造物群モデル作成方法及び立体モデル作成システム
JP2008164481A (ja) * 2006-12-28 2008-07-17 Mitsubishi Electric Corp 標高モデル生成装置、標高モデル生成方法および標高モデル生成プログラム
JP2009014643A (ja) * 2007-07-09 2009-01-22 Asahi Koyo Kk 3次元形状抽出装置、方法及びプログラム
JP2011158278A (ja) * 2010-01-29 2011-08-18 Pasuko:Kk レーザデータのフィルタリング方法及び装置
JP2013088188A (ja) * 2011-10-14 2013-05-13 Fuji Architect Co Ltd 三次元測定対象物の形態調査方法
US20140267250A1 (en) * 2013-03-15 2014-09-18 Intermap Technologies, Inc. Method and apparatus for digital elevation model systematic error correction and fusion

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002236019A (ja) * 2001-02-08 2002-08-23 Pasuko:Kk 地表面抽出処理システム
JP4438418B2 (ja) * 2004-01-13 2010-03-24 朝日航洋株式会社 3次元デ−タ処理方法及び装置

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020035553A1 (en) * 2000-07-20 2002-03-21 Kim Seung Bum Intelligent interpolation methods for automatic generation of an accurate digital elevation model
JP2002063580A (ja) * 2000-08-22 2002-02-28 Asia Air Survey Co Ltd 不定形窓を用いた画像間拡張イメージマッチング方法
JP2002074323A (ja) * 2000-09-01 2002-03-15 Kokusai Kogyo Co Ltd 三次元市街地空間モデル作成方法およびシステム
JP2006323608A (ja) * 2005-05-18 2006-11-30 Kozo Keikaku Engineering Inc 立体構造物群モデル作成装置、立体構造物群モデル作成方法及び立体モデル作成システム
JP2008164481A (ja) * 2006-12-28 2008-07-17 Mitsubishi Electric Corp 標高モデル生成装置、標高モデル生成方法および標高モデル生成プログラム
JP2009014643A (ja) * 2007-07-09 2009-01-22 Asahi Koyo Kk 3次元形状抽出装置、方法及びプログラム
JP2011158278A (ja) * 2010-01-29 2011-08-18 Pasuko:Kk レーザデータのフィルタリング方法及び装置
JP2013088188A (ja) * 2011-10-14 2013-05-13 Fuji Architect Co Ltd 三次元測定対象物の形態調査方法
US20140267250A1 (en) * 2013-03-15 2014-09-18 Intermap Technologies, Inc. Method and apparatus for digital elevation model systematic error correction and fusion

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
XU, JINGZHONG ET AL.: "High-precision DEM reconstruction based on airborne LiDAR point clouds, Proceedings of SPIE 9158", REMOTE SENSING OF THE ENVIRONMENT: 18TH NATIONAL SYMPOSIUM ON REMOTE SENSING OF CHINA, vol. 915808, 14 May 2014 (2014-05-14), pages 915808 - 1 - 915808-8 *

Also Published As

Publication number Publication date
JPWO2018042551A1 (ja) 2018-12-20
JP6457159B2 (ja) 2019-01-23

Similar Documents

Publication Publication Date Title
WO2020207166A1 (zh) 一种物体检测方法、装置、电子设备和存储介质
JP6144826B2 (ja) データベース作成のための対話型および自動的3dオブジェクト走査方法
CN113192179B (zh) 一种基于双目立体视觉的三维重建方法
CN112710318A (zh) 地图生成方法、路径规划方法、电子设备以及存储介质
US9922049B2 (en) Information processing device, method of processing information, and program for processing information
JP6259959B1 (ja) ドローン制御システム、ドローン制御方法及びプログラム
JP2015114954A (ja) 撮影画像解析方法
WO2019080768A1 (zh) 信息处理装置、空中摄像路径生成方法、程序、及记录介质
US10645297B2 (en) System, method, and program for adjusting angle of camera
JP2022514429A (ja) 画像収集機器のキャリブレーション方法、装置、システム、機器及び記憶媒体
JP6775748B2 (ja) コンピュータシステム、位置推測方法及びプログラム
KR102475790B1 (ko) 지도제작플랫폼장치 및 이를 이용한 지도제작방법
CN113987246A (zh) 无人机巡检的图片自动命名方法、装置、介质和电子设备
JP6457159B2 (ja) 不要物除去システム、不要物除去方法及びプログラム
WO2019150418A1 (ja) ドローン、駆除方法及びプログラム
CN109242900B (zh) 焦平面定位方法、处理装置、焦平面定位系统及存储介质
CN114627395B (zh) 基于嵌套靶标的多旋翼无人机角度分析方法、系统及终端
CN113312435A (zh) 高精度地图更新方法和设备
CN111890358B (zh) 双目避障方法、装置、存储介质及电子装置
CN113674331A (zh) 图像对齐方法和装置、电子设备和计算机可读存储介质
CN110852278B (zh) 地面标识线识别方法、设备及计算机可读存储介质
US10553022B2 (en) Method of processing full motion video data for photogrammetric reconstruction
KR101967284B1 (ko) 다중 영상 정렬 장치 및 방법
KR102300541B1 (ko) GeoAI를 이용한 공간 정보 생성 방법 및 공간 정보 생성 장치
US12025423B2 (en) Camera information calculation device and system

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2018536586

Country of ref document: JP

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16915112

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 11/06/2019)

122 Ep: pct application non-entry in european phase

Ref document number: 16915112

Country of ref document: EP

Kind code of ref document: A1