WO2015146658A1 - 画像データ編集装置および画像データ編集方法ならびに画像データ編集プログラム - Google Patents
画像データ編集装置および画像データ編集方法ならびに画像データ編集プログラム Download PDFInfo
- Publication number
- WO2015146658A1 WO2015146658A1 PCT/JP2015/057630 JP2015057630W WO2015146658A1 WO 2015146658 A1 WO2015146658 A1 WO 2015146658A1 JP 2015057630 W JP2015057630 W JP 2015057630W WO 2015146658 A1 WO2015146658 A1 WO 2015146658A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image data
- dimensional image
- dimensional
- data editing
- point cloud
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/56—Particle system, point based geometry or rendering
Definitions
- the present invention relates to an image data editing apparatus, an image data editing method, and an image data editing program.
- Patent Document 1 describes that “features are extracted from point cloud data of an object to be measured, and data relating to the contour of the object is automatically generated in a short time”. ing.
- An object of the present invention is to provide a technique that removes the influence of a measurement environment on three-dimensional point cloud data measured by a mobile sensor and makes it possible to reproduce the appearance of a measurement object in order to obtain data necessary for the user. That is.
- One embodiment of the present invention has a storage device that stores three-dimensional point cloud data collected by a mobile sensor.
- an input device for inputting a 3D image generation parameter used when the 3D point cloud data is converted into 3D image data is provided.
- a display processing unit configured to convert the three-dimensional point cloud data into three-dimensional image data based on the three-dimensional image generation parameters set by the input device;
- the image processing apparatus includes a display device that displays a 3D image based on the 3D image data output from the display processing unit.
- the storage device has a 3D point cloud data storage step for storing 3D point cloud data collected by the mobile sensor.
- a three-dimensional image generation parameter input step for inputting a three-dimensional image generation parameter used when the three-dimensional point cloud data is converted into three-dimensional image data.
- a 3D image output step for outputting the generated 3D image data is provided.
- an image data editing program to be executed by a computer of an image data editing apparatus having a storage device, an input device, a display processing unit, and a display device, wherein the storage device is mobile
- the computer is caused to execute a three-dimensional point cloud data storage step for storing the three-dimensional point cloud data collected by the sensor.
- the computer is caused to execute a three-dimensional image generation parameter input step of inputting a three-dimensional image generation parameter used for converting the three-dimensional point cloud data into three-dimensional image data to the display processing unit.
- the display processing unit causes the computer to execute a three-dimensional image generation step of converting the three-dimensional point cloud data into three-dimensional image data based on the three-dimensional image generation parameters.
- the display device causes the computer to execute a 3D image display step of displaying a 3D image based on the 3D image data output from the display processing unit.
- the influence of the measurement environment on the three-dimensional point cloud data measured by the mobile sensor is removed, and the data necessary for the user is obtained, so that the appearance of the measurement object is obtained. Can be reproduced.
- FIG. 1 It is a figure which shows the other example of the image data edit screen which the display apparatus in one embodiment of this invention displays. It is a figure for demonstrating the process in which the clearance gap of a three-dimensional image is interpolated by sliding the gap interpolation slide bar in one embodiment of this invention. It is a figure for demonstrating the process in which the clearance gap of a three-dimensional image is interpolated by sliding the gap interpolation slide bar in one embodiment of this invention. It is a figure for demonstrating the process in which the clearance gap of a three-dimensional image is interpolated by sliding the gap interpolation slide bar in one embodiment of this invention.
- FIG. 1 is a diagram showing an outline of a configuration example of an image data editing apparatus 10 according to an embodiment of the present invention.
- the image data editing device 10 includes an input device 100, a processing device 200, a storage device 300, and a display device 400.
- the processing apparatus 200 includes an input processing unit 210, a data conversion processing unit 220, a display processing unit 230, and a data input / output processing unit 240.
- Storage device 300 stores 3D point cloud data 310 and 3D image data 320.
- the input device 100, the processing device 200, the storage device 300, and the display device 400 indicated by the solid line in FIG. 1 are implemented by predetermined hardware.
- the input processing unit 210, the data conversion processing unit 220, the display processing unit 230, and the data input / output processing unit 240 indicated by broken lines in FIG. 1 are implemented by predetermined hardware or software.
- the storage device 300 stores the three-dimensional point cloud data 310 measured by the mobile sensor traveling on the road surface in association with the file name.
- the three-dimensional point cloud data 310 will be described in detail with reference to FIGS.
- the measurement environment shown in FIG. 2 includes a first wall portion 610, a second wall portion 630, and a slit portion 620 made of a plurality of rectangular members provided in the vertical direction.
- the mobile sensor 500 collects three-dimensional point cloud data 310 by irradiating a laser in a plurality of surrounding directions and measuring the distance to the point where the light hits. Accordingly, the mobile sensor 500 collects the three-dimensional point cloud data 310 for the first wall portion 610, the slit portion 620, and the second wall portion 630 that are measurement objects.
- the three-dimensional point group data 310 includes position information of coordinates in the three-dimensional space of each point included in the point group.
- the three-dimensional point cloud data 310 collected by the mobile sensor 500 is stored in the storage device 300.
- FIG. 3 shows the points constituting the three-dimensional point cloud data 310 collected for the first wall 610, the slit 620, and the second wall 630, which are the measurement objects shown in FIG. A dimension point cloud image is shown.
- FIG. 4 is a diagram showing the relationship between the three-dimensional point cloud image shown in FIG. 3 and the first wall portion 610, the slit portion 620, and the second wall portion 630, which are measurement objects.
- the first wall portion 610 and the second wall portion 630 continuous three-dimensional point group data 310 constituting the same plane is collected.
- the slit part 620 consists of a some rectangular member, and a clearance gap exists between the member which comprises the slit part 620, and a member. Then, although the three-dimensional point cloud data 310 is collected for each member, the three-dimensional point cloud data 310 is not collected for the gap where the laser is not irradiated.
- FIG. 5 shows three-dimensional image data 320 converted from the three-dimensional point cloud data 310 collected for the first wall portion 610, the slit portion 620, and the second wall portion 630, which are the measurement objects shown in FIG.
- the three-dimensional image displayed based on is shown.
- a three-dimensional image is displayed in a corresponding range for the first wall portion 610, the slit portion 620, and the second wall portion 630 from which the three-dimensional point cloud data 310 is collected.
- the mobile sensor 500 may move on the road surface at a high speed. In such a case, the three-dimensional point cloud data 310 of the measurement object may not be comprehensively collected.
- the three-dimensional point cloud data 310 is collected only on one surface of each measurement object. Therefore, the three-dimensional image shown in FIG. 5 is a flat image without thickness. ⁇ Response screen>
- FIG. 6 is a diagram showing an example of an image data editing screen displayed by the display device 400 according to the embodiment of the present invention.
- the image data editing screen includes a data display area 410, a data reference button 420, a data save button 430, a point cloud data check box 440, an image data check box 450, a parameter adjustment unit. 460.
- the input device 100 receives input from the user.
- the input received by the input device 100 is input to the data conversion processing unit 220 via the input processing unit 210.
- the display device 400 displays the data selection dialog box 470 shown in FIG. 7 in a superimposed manner on the image data editing screen. Thereafter, when the file name of the 3D point cloud data 310 (or the project name for identifying the image data group to be edited) is selected in the data selection dialog box 470, the display device 400 displays the data selection dialog box. The display of 470 is deleted. Then, the display device 400 outputs the file name of the selected 3D point cloud data 310 to the processing device 200. Thereafter, the processing apparatus 200 holds the file name of the output 3D point cloud data 310.
- the data input / output processing unit 240 of the processing device 200 searches the storage device 300 using the file name held by the processing device 200 as a key, thereby corresponding to the key. Three-dimensional point cloud data 310 is acquired. Then, the data input / output processing unit 240 outputs the acquired three-dimensional point cloud data 310 to the display processing unit 230.
- the display processing unit 230 converts the output three-dimensional point cloud data 310 into three-dimensional point cloud image data for displaying each point constituting the three-dimensional point cloud data 310, and the converted three-dimensional point cloud image data is displayed.
- the data is output to the display device 400.
- the display device 400 displays a 3D point cloud image based on the 3D point cloud image data output from the display processing unit 230.
- the display device 400 displays the 3D point cloud image of the 3D point cloud data 310 selected in the data selection dialog box 470 in the data display area 410, as shown in FIG.
- the display device 400 deletes the three-dimensional point cloud image displayed in the data display area 410.
- the 3D point cloud image data and the 3D image data 320 for displaying the 3D image displayed in the data display area 410 are stored in the storage device 300.
- the data input / output processing unit 240 of the processing device 200 searches the storage device 300 using the file name held by the processing device 200 as a key, thereby corresponding to the key 3.
- the dimension point cloud data 310 is acquired.
- the data input / output processing unit 240 outputs the acquired three-dimensional point cloud data 310 to the display processing unit 230.
- a 3D image generation parameter that is a parameter used when converting the 3D point cloud data 310 into the 3D image data 320 is set. Then, the display processing unit 230 extracts the point group constituting the same plane of the structure from the output three-dimensional point group data 310 based on the set three-dimensional image generation parameter, and the extracted point group is represented by 3 Conversion to dimensional image data 320 is performed.
- the display processing unit 230 outputs the converted three-dimensional image data 320 to the display device 400. Then, the display device 400 displays a 3D image in the data display area 410 based on the 3D image data 320 output from the display processing unit 230. When receiving an input for canceling the selection of the image data check box 450, the display device 400 erases the three-dimensional image displayed in the data display area 410.
- the road surface step removal parameter for removing the influence of the road surface step (for example, the step of the plane formed in the horizontal direction) and the undulation removal for removing the influence of the road surface undulation.
- a parameter for interpolating the gap
- a wall step removal parameter for removing a step in a plane formed in the vertical direction.
- the parameter adjustment unit 460 includes a road surface level difference removal slide bar 461 for specifying the value of the road level level difference removal parameter, and a swell level removal slide bar 462 for specifying the value of the undulation level parameter.
- the input device 100 receives an input for sliding the road surface level difference removing slide bar 461, the undulation level removing slide bar 462, the gap interpolation slide bar 463, and the wall level difference removing slide bar 464. Then, by sliding the slide bars 461, 462, 463, and 464, three-dimensional image generation parameters corresponding to the position after the slide are input to the data conversion processing unit 220. Note that instead of sliding the slide bars 461, 462, 463, and 464, the input device 100 may accept input of the value of the three-dimensional image generation parameter.
- the gap interpolation parameter is a parameter for the display processing unit 230 to determine a range in which continuous point groups constituting the same plane are extracted. In proportion to the increase in the value of the gap interpolation parameter, the range in which the points are extracted as a continuous point group constituting the same plane becomes wider, whereby the gap is interpolated.
- a process for interpolating a gap in a three-dimensional image when the gap interpolation slide bar 463 is slid will be described with reference to FIGS.
- the gap interpolation parameter is set to “0” as an initial value.
- the display processing unit 230 indicates that the distance from the position of each point of the three-dimensional point cloud data 310 is within “A” as shown in FIG.
- the points existing on the same plane are extracted as a group of points constituting the same plane (that is, the points existing within the radius A centered on each point and the same points existing on the same plane are the same) Extracted as points constituting a plane).
- the display processing unit 230 extracts the point group 801, the point groups 802 to 809, and the point group 810 as the point groups constituting the same plane.
- the display processing unit 230 converts the extracted point groups 801 to 810 into 3D image data 320 for displaying the 3D images 901 to 910 shown in FIG. 10, and the converted 3D image data 320 is displayed on the display device. Output to 400. Then, the display device 400 displays the 3D images 901 to 910 in the data display area 410 based on the 3D image data 320 output from the display processing unit 230.
- the gap interpolation slide bar 463 When the gap interpolation slide bar 463 is slid, the gap interpolation parameter corresponding to the position is input to the data conversion processing unit 220, and the gap interpolation parameter set in the data conversion processing unit 220 is input to the gap interpolation parameter. Be changed.
- the display processing unit 230 extracts the point group 1001, the point group 1002, and the point group 1003 as the point group constituting the same plane.
- the display processing unit 230 converts the extracted point groups 1001 to 1003 into the three-dimensional image data 320 for displaying the three-dimensional images 1101 to 1103 shown in FIG. 12, and the converted three-dimensional image data 320 is displayed on the display device. Output to 400.
- the display device 400 displays the three-dimensional images 1101 to 1103 in the data display area 410 based on the three-dimensional image data 320 output from the display processing unit 230.
- the gap interpolation parameter By changing the value of the gap interpolation parameter to a value larger than the initial value, the gap between the members constituting the slit portion is interpolated, and the slit portion is displayed as one three-dimensional image 1102.
- the display processing unit 230 displays the three-dimensional point cloud data as shown in FIG. 310 are points within the distance “C” (distance C is longer than the distance B) from the position of each point, and the points existing on the same plane are extracted as points constituting the same plane. .
- the display processing unit 230 extracts the point group 1201, the point group 1202, and the point group 1203 as point groups that constitute the same plane.
- the display processing unit 230 converts the extracted point groups 1201 to 1203 into 3D image data 320 for displaying the 3D images 1301 to 1303 shown in FIG. 14, and the converted 3D image data 320 is displayed on the display device. Output to 400.
- the display device 400 displays the three-dimensional images 1301 to 1303 in the data display area 410 based on the three-dimensional image data 320 output from the display processing unit 230. By changing the value of the gap interpolation parameter from “5” to “9”, the gap 601 included in the three-dimensional image 1103 is interpolated.
- the wall level difference removal parameter is a parameter for the display processing unit 230 to determine a horizontal distance for extracting a continuous point group constituting the same plane.
- the distance in the horizontal direction from which points are extracted as a series of consecutive points that constitute the same plane is increased, thereby causing a level difference in the plane formed in the vertical direction. Is removed.
- a process for removing a level difference in a plane formed in the vertical direction of a three-dimensional image when the wall level difference removal slide bar 464 is slid will be described with reference to FIGS. 15 and 16.
- the display processing unit 230 extracts the point group 2001 as a point group that constitutes the same plane.
- the display processing unit 230 converts the extracted point group 2001 into 3D image data 320 for displaying the 3D image 2101 shown in FIG. 16, and outputs the converted 3D image data 320 to the display device 400.
- the display processing unit 230 calculates the average value of the horizontal coordinates of each point constituting the extracted point group 2001 and displays the point group in the three-dimensional image data so as to be displayed at the position of the calculated average value. 320, and the converted three-dimensional image data 320 is output to the display device 400.
- the display device 400 displays the three-dimensional image 2101 in the data display area 410 based on the three-dimensional image data 320 output from the display processing unit 230.
- the road surface level difference removal parameter is a parameter for the display processing unit 230 to determine a vertical distance for extracting a continuous point group constituting the same plane.
- the vertical distance from which points are extracted as a continuous point group constituting the same plane becomes longer, and thereby the level difference of the plane formed in the horizontal direction. Is removed.
- a process for removing a level difference in a plane formed in the horizontal direction of a three-dimensional image when the road surface level difference removal slide bar 461 is slid will be described with reference to FIGS.
- the measurement environment shown in FIG. 17 includes a wall portion 1110 provided in the vertical direction perpendicular to the horizontal plane, a first overhang portion 1120 provided in a horizontal direction at a position higher than the road surface, and a first overhang portion 1120. 2nd overhang
- the mobile sensor 500 instantaneously measures the distances to the wall 1110, the first overhanging portion 1120, and the second overhanging portion 1130 that are measurement objects in different directions.
- the three-dimensional point cloud data 310 is collected.
- an error due to a road surface step may occur. That is, as shown in FIG. 17, in the measurement environment where the road surface has unevenness so as to be orthogonal to the moving direction of the mobile sensor 500, the mobile sensor 500 is in the concave portion and the convex portion. Thus, the distance from the mobile sensor 500 to the wall 1110 does not change. On the other hand, the distance from the mobile sensor 500 to the first overhanging portion 1120 and the distance from the mobile sensor 500 to the second overhanging portion 1130 are determined depending on whether the mobile sensor 500 is in the concave portion or the convex portion.
- the three-dimensional point cloud data 310 corresponding to the first overhanging portion 1120 and the second overhanging portion 1130 that are originally one horizontal plane reproduces a plurality of inclined planes.
- the three-dimensional point cloud data 310 is obtained.
- the road surface step removal parameter is set to “0” as an initial value.
- the display processing unit 230 has a vertical distance within “D” from the position of each point in the three-dimensional point cloud data 310 as shown in FIG. A point is extracted as a point group which comprises the same plane.
- the display processing unit 230 extracts points whose distance from the newly constructed plane (corresponding to the length of a straight line orthogonal to the plane) within “D” as a point group constituting the same plane.
- the display processing unit 230 sets the point group 1401, the point group 1402, the point group 1403, and the point group 1404 as point groups constituting the same plane. To extract.
- the display processing unit 230 converts the extracted point groups 1401 to 1404 into 3D image data 320 for displaying the 3D images 1501 to 1504 shown in FIG. 20, and the converted 3D image data 320 is displayed on the display device. Output to 400.
- the display device 400 displays the three-dimensional images 1501 to 1504 in the data display area 410 based on the three-dimensional image data 320 output from the display processing unit 230.
- a road surface step removal parameter corresponding to the position is input to the data conversion processing unit 220, and a road surface step removal parameter set in the data conversion processing unit 220 is input. Changed to step removal parameter.
- the display processing unit 230 extracts the point group 1601, the point group 1602, and the point group 1603 as point groups that constitute the same plane.
- the display processing unit 230 converts the extracted point groups 1601 to 1603 into 3D image data 320 for displaying the 3D images 1701 to 1703 shown in FIG. 22, and the converted 3D image data 320 is displayed on the display device 400. Output to. Further, the display processing unit 230 calculates the average value of the heights of the points constituting the point group from the horizontal plane, and displays the point group in the three-dimensional image so that the point group is displayed at the position of the calculated average value of the height. The data is converted into data 320, and the converted three-dimensional image data 320 is output to the display device 400. The display device 400 displays the three-dimensional images 1701 to 1703 in the data display area 410 based on the three-dimensional image data 320 output from the display processing unit 230. By changing the value of the road surface step removal parameter to a value larger than the initial value, the step between the three-dimensional image 1502 and the three-dimensional image 1503 that are adjacent planes parallel to the horizontal plane is removed.
- the display processing unit 230 displays the extracted point group at any position between the point where the height from the horizontal plane of each point is the lowest and the point where the height from the horizontal plane is the highest.
- the point group may be converted into the three-dimensional image data 320, and the converted three-dimensional image data 320 may be output to the display device 400.
- the display processing unit 230 may convert the extracted point group into the three-dimensional image data 320 so that each point of the extracted point group is displayed at the position of the median height from the horizontal plane. good.
- the display processing unit 230 converts the extracted point group into the three-dimensional image data 320 so that each point of the extracted point group is displayed at the lowest position (or highest position) from the horizontal plane. You may make it do.
- a point within a distance “F” (distance F is longer than the distance E) from the position of each point in the group data 310 is extracted as a point group constituting the same plane.
- the display processing unit 230 extracts points whose distance from the newly configured plane (corresponding to the length of a straight line orthogonal to the plane) within “F” as a point group that configures the same plane.
- the display processing unit 230 extracts a point group 1801 and a point group 1802 as point groups that constitute the same plane.
- the display processing unit 230 converts the extracted point group 1801 and point group 1802 into the three-dimensional image data 320 for displaying the three-dimensional image 1901 and the three-dimensional image 1902 shown in FIG. Data 320 is output to display device 400. Then, the display device 400 displays the 3D image 1901 and the 3D image 1902 in the data display area 410 based on the 3D image data 320 output from the display processing unit 230. By changing the value of the road surface step removal parameter to a larger value, the step between the three-dimensional image 1701 and the three-dimensional image 1702, which are adjacent planes parallel to the horizontal plane, is removed.
- the mobile sensor 500 converts the 3D point cloud data 310 into the 3D image data 320 by adjusting the 3D image generation parameters. It is possible to remove errors caused by the measurement environment of the three-dimensional point cloud data 310 to be measured. In addition, it is possible to adjust the 3D image generation parameter regardless of the error caused by the measurement environment of the 3D point cloud data 310, and the appearance of the measurement object can be reproduced according to the use of the user. .
- the three-dimensional image generation parameter presents a plurality of adjustment items to the user, and the user can select each adjustment item from a plurality of values. Thereby, the user can generate the three-dimensional image data suitable for the use by adjusting the parameters freely.
- the 3D image data 320 is CAD data that can be edited by CAD (Computer Aided Design) software.
- the image data editing device is a tablet terminal.
- the touch panel included in the tablet terminal functions as the input device 100 and the display device 400.
- DESCRIPTION OF SYMBOLS 10 ... Image data editing device, 100 ... Input device, 200 ... Processing device, 210 ... Input processing unit, 220 ... Data conversion processing unit, 230 ... Display processing unit, 240 ... Data input / output processing unit, 300 ... Storage device, 310 3D point cloud data, 320 3D image data, 400 Display device, 410 Data display area, 420 Data reference button, 430 Data save button, 440 Point cloud data check box, 450 Image data check Box, 460 ... Parameter adjustment unit, 461 ... Road surface step removal slide bar, 462 ... Waviness removal slide bar, 463 ... Gap interpolation slide bar, 464 ... Wall step removal slide bar, 470 ... Data selection dialog box, 500 ...
- Mobile sensor 601 ... Gap, 610 ... First wall, 620 ... Slit, 630 ... 2 walls, 801, 802, 803, 804, 805, 806, 807, 808, 809, 810, 1001, 1002, 1003, 1201, 1202, 1203, 1401, 1402, 1403, 1404, 1601, 1602, 1603 1801, 1802, 2001 ... point cloud, 901, 902, 903, 904, 905, 906, 907, 908, 909, 910, 1101, 1102, 1103, 1301, 1302, 1303, 1501, 1502, 1503, 1504, 1701 , 1702, 1703, 1901, 1902 ... 3D image, 1110 ... wall, 1120 ... first overhang, 1130 ... second overhang.
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
Abstract
移動式センサにより収集される3次元点群データ310を記憶する記憶装置300と、3次元点群データ310を3次元画像データに変換する場合に使用される3次元画像生成パラメータを入力する入力装置と、入力装置により設定された3次元点群データ310を3次元画像データ320へ変換する表示処理部230と、表示処理部230から出力される3次元画像データ320に基づき、3次元画像を表示する表示装置400とを有する。
Description
本発明は、画像データ編集装置および画像データ編集方法ならびに画像データ編集プログラムに関する。
点の集合からなる3次元点群データを用いて、測定対象物の外形を再現することが知られている。
特開2012-13660号公報(特許文献1)には、「測定対象物の点群データからその特徴を抽出し、対象物の輪郭に係るデータを自動的かつ短時間に生成する」と記載されている。
対象物を測定して3次元点群データを得る際、特に広い範囲の測定を行う場合には、センサを移動させながら測定を行う方法が有効である。しかしながら、移動式センサにより測定される3次元点群データには測定環境の影響が現れるため、特許文献1に記載された技術では、ユーザが必要とするデータが得られない場合があった。測定環境の影響は、たとえば路面上を走行する移動式センサの場合、路面の段差や路面の傾きなどに起因する測定誤差などであり、特許文献1に記載された技術では、この影響を除去して測定対象物の外形を再現することができなかった。
本発明の目的は、移動式センサにより測定される3次元点群データに対する測定環境の影響を除去し、ユーザにとって必要なデータを得るために測定対象物の外見を再現可能にする技術を提供することである。
本願において開示される発明のうち、代表的なものの概要を簡単に説明すれば、次の通りである。
本発明の一実施の形態は、移動式センサにより収集される3次元点群データを記憶する記憶装置を有する。また、前記3次元点群データを3次元画像データへ変換する場合に使用される3次元画像生成パラメータを入力する入力装置を有する。また、前記入力装置により設定された前記3次元画像生成パラメータに基づき前記3次元点群データを3次元画像データへ変換する表示処理部を有する。また、前記表示処理部から出力される前記3次元画像データに基づき、3次元画像を表示する表示装置を有する。
また、他の実施の形態では、記憶装置が、移動式センサにより収集される3次元点群データを記憶する3次元点群データ記憶ステップを有する。また、前記3次元点群データを3次元画像データへ変換する場合に使用される3次元画像生成パラメータを入力する3次元画像生成パラメータ入力ステップを有する。また、前記3次元画像生成パラメータに基づき、前記3次元点群データを3次元画像データへ変換する3次元画像生成ステップを有する。また、生成された3次元画像データを出力する3次元画像出力ステップを有する。
また、他の実施の形態では、記憶装置と、入力装置と、表示処理部と、表示装置とを有する画像データ編集装置のコンピュータに実行させる画像データ編集プログラムであって、記憶装置が、移動式センサにより収集される3次元点群データを記憶する3次元点群データ記憶ステップを前記コンピュータに実行させる。また、前記3次元点群データを3次元画像データに変換する場合に使用される3次元画像生成パラメータを前記表示処理部に入力する3次元画像生成パラメータ入力ステップを前記コンピュータに実行させる。また、前記表示処理部が、前記3次元画像生成パラメータに基づき、前記3次元点群データを3次元画像データへ変換する、3次元画像生成ステップを前記コンピュータに実行させる。また、前記表示装置が、前記表示処理部から出力される前記3次元画像データに基づき、3次元画像を表示する3次元画像表示ステップを前記コンピュータに実行させる。
本願において開示される発明のうち、代表的なものによって得られる効果を簡単に説明すれば以下のとおりである。
本発明の代表的な実施の形態によれば、移動式センサにより測定される3次元点群データに対する測定環境の影響を除去し、ユーザにとって必要なデータを得るようにして、測定対象物の外見を再現できるようになる。
以下、本発明の実施の形態を図面に基づいて詳細に説明する。なお、実施の形態を説明するための全図において、同一部には原則として同一の符号を付し、その繰り返しの説明は省略する。
<全体構成>
<全体構成>
図1は、本発明の一実施の形態における画像データ編集装置10の構成例の概要を示す図である。図1に示されるように画像データ編集装置10は、入力装置100と、処理装置200と、記憶装置300と、表示装置400とを有する。
処理装置200は、入力処理部210と、データ変換処理部220と、表示処理部230と、データ入出力処理部240とを有する。
記憶装置300は、3次元点群データ310と3次元画像データ320とを記憶する。
また、図1の実線で示される入力装置100と、処理装置200と、記憶装置300と、表示装置400とは、所定のハードウェアにより実装される。そして、図1の破線で示される入力処理部210と、データ変換処理部220と、表示処理部230と、データ入出力処理部240とは、所定のハードウェアもしくはソフトウェアにより実装される。
記憶装置300は、路面上を走行する移動式センサにより測定される3次元点群データ310をファイル名と対応付けて記憶する。以下、図2~図4を用いて3次元点群データ310について詳細に説明する。
図2に示される測定環境は、垂直方向に設けられる第1壁部610と、第2壁部630と、複数の矩形の部材からなるスリット部620とを有する。
図2に示されるように、移動式センサ500は、周辺の複数の方向にレーザーを照射し、光が当たった点までの距離を測定することで3次元点群データ310を収集する。これによって、移動式センサ500は、測定対象物である第1壁部610と、スリット部620と、第2壁部630について3次元点群データ310を収集する。3次元点群データ310は、点群に含まれる各点の3次元空間上の座標の位置情報からなる。また、移動式センサ500により収集された3次元点群データ310は、記憶装置300に記憶される。
図3は、図2に示される測定対象物である第1壁部610と、スリット部620と、第2壁部630について収集された3次元点群データ310を構成する各点を表示する3次元点群画像を示す。
また、図4は、図3に示される3次元点群画像と測定対象物である第1壁部610と、スリット部620と、第2壁部630との関係を示す図である。図4に示されるように、第1壁部610および第2壁部630については、同じ平面を構成する連続する3次元点群データ310が収集される。また、スリット部620は、複数の矩形の部材からなり、スリット部620を構成する部材と部材との間には隙間が存在する。そして、各部材については3次元点群データ310が収集されるものの、レーザーが照射されない隙間については、3次元点群データ310は収集されない。
図5は、図2に示される測定対象物である第1壁部610と、スリット部620と、第2壁部630について収集された3次元点群データ310から変換される3次元画像データ320に基づいて表示される3次元画像を示す。図5に示されるように、3次元点群データ310が収集された第1壁部610と、スリット部620と、第2壁部630については、対応する範囲に3次元画像が表示される。ここで、移動式センサ500は、路面を早い速度で移動することがある。このような場合には、測定対象物の3次元点群データ310を網羅して収集できないことがある。そして、実際には平面が存在するにも関わらず、図5に示されるような隙間601が表示されてしまうことがある。また、このような隙間601は、スリット部620の一部のような実際に存在する隙間なのか、実際には存在しない隙間なのかを区別することが困難であるという問題があった。その他にも、測定環境に起因する誤差としては、路面に段差や斜面があることにより、進行に伴い移動式センサ500の位置が上下方向に移動し、測定される高さ方向に誤差が生じるものがある。
また、図2に示される測定環境では、各測定対象物について一方の面についてしか3次元点群データ310を収集していない。よって、図5に示される3次元画像は、厚みのない平面の画像である。
<応答画面>
<応答画面>
図6は、本発明の一実施の形態における表示装置400が表示する画像データ編集画面の例を示す図である。図6に示されるように、画像データ編集画面は、データ表示領域410と、データ参照ボタン420と、データ保存ボタン430と、点群データチェックボックス440と、画像データチェックボックス450と、パラメータ調整部460とを含む。
入力装置100は、ユーザから入力を受け付ける。入力装置100が受け付けた入力は、入力処理部210を介して、データ変換処理部220に入力される。
データ参照ボタン420を選択する入力を受け付けると、表示装置400は、画像データ編集画面に対して、図7に示されるデータ選択ダイアログボックス470を重畳して表示する。その後、データ選択ダイアログボックス470にて3次元点群データ310のファイル名(または、編集対象の画像データ群を識別するためのプロジェクト名)が選択されると、表示装置400は、データ選択ダイアログボックス470の表示を消去する。そして、表示装置400は、選択された3次元点群データ310のファイル名を処理装置200に出力する。その後、処理装置200は、出力された3次元点群データ310のファイル名を保持する。
点群データチェックボックス440を選択する入力を受け付けると、処理装置200のデータ入出力処理部240は、処理装置200が保持するファイル名をキーに記憶装置300を検索することで、キーと対応する3次元点群データ310を取得する。そして、データ入出力処理部240は、取得した3次元点群データ310を表示処理部230に出力する。
表示処理部230は、出力された3次元点群データ310を、3次元点群データ310を構成する各点を表示する3次元点群画像データへ変換し、変換した3次元点群画像データを表示装置400に出力する。そして、表示装置400は、表示処理部230から出力された3次元点群画像データに基づき、3次元点群画像を表示する。これにより、図8に示されるように、表示装置400は、データ選択ダイアログボックス470にて選択された3次元点群データ310の3次元点群画像をデータ表示領域410に表示する。また、点群データチェックボックス440の選択を解除する入力を受け付けると、表示装置400は、データ表示領域410に表示された3次元点群画像を消去する。
データ保存ボタン430を選択する入力を受け付けると、データ表示領域410に表示される3次元画像を表示するための3次元点群画像データおよび3次元画像データ320が記憶装置300に記憶される。
画像データチェックボックス450を選択する入力を受け付けると、処理装置200のデータ入出力処理部240は、処理装置200が保持するファイル名をキーに記憶装置300を検索することで、キーと対応する3次元点群データ310を取得する。そして、データ入出力処理部240は、取得した3次元点群データ310を表示処理部230に出力する。
表示処理部230には、3次元点群データ310を3次元画像データ320に変換する際に使用するパラメータである3次元画像生成パラメータが設定されている。そして、表示処理部230は、設定されている3次元画像生成パラメータに基づき、出力された3次元点群データ310から構造物の同じ平面を構成する点群を抽出し、抽出した点群を3次元画像データ320へ変換する。
表示処理部230は、変換した3次元画像データ320を表示装置400に出力する。そして、表示装置400は、表示処理部230から出力された3次元画像データ320に基づき、3次元画像をデータ表示領域410に表示する。また、画像データチェックボックス450の選択を解除する入力を受け付けると、表示装置400は、データ表示領域410に表示された3次元画像を消去する。
ここで、3次元画像生成パラメータとしては、路面段差の影響(例えば、水平方向に形成される平面の段差)を除去するための路面段差除去パラメータと、路面うねりの影響を除去するためのうねり除去パラメータと、隙間を補間するための隙間補間パラメータと、垂直方向に形成される平面の段差を除去するため壁段差除去パラメータとがある。これらのパラメータを調整することで、3次元点群データの測定環境に起因する誤差を除去したり、ユーザの用途に応じた3次元画像の生成が可能となる。
そして、図8に示されるように、パラメータ調整部460は路面段差除去パラメータの値を指定するための路面段差除去スライドバー461と、うねり除去パラメータの値を指定するための、うねり除去スライドバー462と、隙間補間パラメータの値を指定するための隙間補間スライドバー463と、壁段差除去パラメータの値を指定するための壁段差除去スライドバー464とを有する。
入力装置100は、路面段差除去スライドバー461、うねり除去スライドバー462、隙間補間スライドバー463、壁段差除去スライドバー464をスライドさせる入力を受け付ける。そして、各スライドバー461、462、463、464がスライドされることにより、スライド後の位置に応じた3次元画像生成パラメータが、データ変換処理部220に入力される。なお、スライドバー461、462、463、464をスライドさせることに替えて、3次元画像生成パラメータの値の入力を入力装置100が受け付けるようにしても良い。
隙間補間パラメータは、表示処理部230が、同じ平面を構成する連続する点群を抽出する範囲を決定するためのパラメータである。隙間補間パラメータの値が大きくなるのに比例して、同じ平面を構成する連続する点群として点が抽出される範囲は広くなり、これにより、隙間が補間される。以下、図9~図14を用いて、隙間補間スライドバー463がスライドされることに伴い、3次元画像の隙間が補間される処理について説明する。
隙間補間パラメータは、初期値として「0」が設定されている。表示処理部230は、隙間補間パラメータの値が「0」である場合、図9に示されるように、3次元点群データ310の各点の位置からの距離が「A」以内の点であって、同じ平面上に存在する点を、同じ平面を構成する点群として抽出する(つまり、各点を中心とする半径A以内に存在する点であって、同じ平面上に存在する点を同じ平面を構成する点として抽出する)。
そして、隙間補間パラメータの値が「0」である場合、表示処理部230は、同じ平面を構成する点群として、点群801と、点群802~809と、点群810とを抽出する。
表示処理部230は、抽出した点群801~810を、図10に示される3次元画像901~910を表示するための3次元画像データ320へ変換し、変換した3次元画像データ320を表示装置400に出力する。そして、表示装置400は、表示処理部230から出力された3次元画像データ320に基づき、3次元画像901~910をデータ表示領域410に表示する。
隙間補間スライドバー463がスライドされることにより、その位置に応じた隙間補間パラメータがデータ変換処理部220に入力され、データ変換処理部220に設定される隙間補間パラメータが入力される隙間補間パラメータへ変更される。
隙間補間スライドバー463がスライドされることで、隙間補間パラメータの値が初期値である「0」から「5」に変更されると、図11に示されるように、表示処理部230は、3次元点群データ310の各点の位置からの距離が「B」(距離Bは、距離Aよりも長い)以内の点であって、同じ平面上に存在する点を、同じ平面を構成する点群として抽出する。
そして、隙間補間パラメータの値が「5」である場合、表示処理部230は、同じ平面を構成する点群として、点群1001と、点群1002と、点群1003とを抽出する。
表示処理部230は、抽出した点群1001~1003から、図12に示される3次元画像1101~1103を表示するための3次元画像データ320へ変換し、変換した3次元画像データ320を表示装置400に出力する。そして、表示装置400は、表示処理部230から出力された、3次元画像データ320に基づき、3次元画像1101~1103をデータ表示領域410に表示する。隙間補間パラメータの値が初期値よりも大きな値に変更されることで、スリット部を構成する部材と部材との間の隙間が補間され、スリット部は一つの3次元画像1102として表示される。
隙間補間スライドバー463がさらにスライドされることで、隙間補間パラメータの値が「5」から「9」に変更されると、図13に示されるように表示処理部230は、3次元点群データ310の各点の位置からの距離が「C」(距離Cは、距離Bよりも長い)以内の点であって、同じ平面上に存在する点を、同じ平面を構成する点群として抽出する。
そして、隙間補間パラメータの値が「9」である場合、表示処理部230は、同じ平面を構成する点群として、点群1201と、点群1202と、点群1203とを抽出する。
表示処理部230は、抽出した点群1201~1203を、図14に示される3次元画像1301~1303を表示するための3次元画像データ320に変換し、変換した3次元画像データ320を表示装置400に出力する。そして、表示装置400は、表示処理部230から出力された3次元画像データ320に基づき、3次元画像1301~1303をデータ表示領域410に表示する。隙間補間パラメータの値が「5」から「9」に変更されることで、3次元画像1103が有する隙間601が補間される。
次に、壁段差除去パラメータは、表示処理部230が、同じ平面を構成する連続する点群を抽出する水平方向の距離を決定するためのパラメータである。壁段差除去パラメータの値が大きくなるのに比例して、同じ平面を構成する連続する点群として点が抽出される水平方向の距離が長くなり、これにより、垂直方向に形成される平面の段差が除去される。以下、図15および図16を用いて、壁段差除去スライドバー464がスライドされることに伴い、3次元画像の垂直方向に形成される平面の段差が除去される処理について説明する。
壁段差除去スライドバー464がスライドされることにより、壁段差除去パラメータの値が初期値である「0」から「5」に変更されると、図15に示されるように、表示処理部230は、3次元点群データ310の各点の位置から水平方向の距離が「H」(距離Hは、壁段差除去パラメータの値が初期値である「0」の場合の距離よりも長い)以内の点を、同じ平面を構成する点群として抽出する。なお、表示処理部230は、新たに構成される平面からの距離(平面と直交する直線の長さが相当する)が「H」以内の点を、同じ平面を構成する点群として抽出するようにしても良い。
そして、壁段差除去パラメータの値が「5」である場合、表示処理部230は、同じ平面を構成する点群として、点群2001を抽出する。
表示処理部230は、抽出した点群2001を図16に示される3次元画像2101を表示するための3次元画像データ320へ変換し、変換した3次元画像データ320を表示装置400に出力する。また、表示処理部230は、抽出した点群2001を構成する各点の水平方向の座標の平均値を算出し、算出した平均値の位置に表示されるように、点群を3次元画像データ320へ変換し、変換した3次元画像データ320を表示装置400に出力する。そして、表示装置400は、表示処理部230から出力された3次元画像データ320に基づき、3次元画像2101をデータ表示領域410に表示する。壁段差除去パラメータの値が初期値よりも大きな値に変更されることで、水平面と直交する各平面の3次元画像1301~1303(前述、図14)間の段差が除去される。
次に、路面段差除去パラメータは、表示処理部230が、同じ平面を構成する連続する点群を抽出する垂直方向の距離を決定するためのパラメータである。路面段差除去パラメータの値が大きくなるのに比例して、同じ平面を構成する連続する点群として点が抽出される垂直方向の距離が長くなり、これにより、水平方向に形成される平面の段差が除去される。以下、図17~図24を用いて、路面段差除去スライドバー461がスライドされることに伴い、3次元画像の水平方向に形成される平面の段差が除去される処理について説明する。
図17に示される測定環境は、水平面と直交して上下方向に設けられる壁部1110と、路面よりも高い位置に水平方向に設けられる第1張出部1120と、第1張出部1120よりも高い位置に水平方向に設けられる第2張出部1130とを有する。
図17に示されるように、移動式センサ500は、異なる方向について、測定対象物である壁部1110と、第1張出部1120と、第2張出部1130までの距離を瞬時に測定することで3次元点群データ310を収集する。
ここで、図17に示される測定環境の路面の一部に段差がある。そして、路面上を走行する移動式センサ500により収集される3次元点群データ310には、路面の段差に起因する誤差が生じることがある。すなわち、図17に示されるように、移動式センサ500の移動方向に対して直交するように、路面に凹凸が続く測定環境において、移動式センサ500が凹部にある場合と凸部にある場合とで、移動式センサ500から壁部1110までの距離は変わらない。一方で、移動式センサ500が凹部にある場合と凸部にある場合とでは、移動式センサ500から第1張出部1120までの距離と、移動式センサ500から第2張出部1130までの距離は変化する。このため、測定環境(図17に示される測定環境)で収集される3次元点群データ310には、特に第1張出部1120と、第2張出部1130に相当する部分に、図18に示されるノイズが現れる。
そして、図18に示されるように、本来は1つの水平な平面である第1張出部1120および第2張出部1130と対応する3次元点群データ310は、傾いた複数の平面を再現する3次元点群データ310になっている。
路面段差除去パラメータは、初期値として「0」が設定されている。表示処理部230は、路面段差除去パラメータの値が「0」である場合、図19に示されるように、3次元点群データ310の各点の位置から垂直方向の距離が「D」以内の点を、同じ平面を構成する点群として抽出する。なお、表示処理部230は、新たに構成される平面からの距離(平面と直交する直線の長さが相当する)が「D」以内の点を、同じ平面を構成する点群として抽出するようにしても良い。
そして、路面段差除去パラメータの値が「0」である場合、表示処理部230は、同じ平面を構成する点群として、点群1401と、点群1402と、点群1403と、点群1404とを抽出する。
表示処理部230は、抽出した点群1401~1404を、図20に示される3次元画像1501~1504を表示するための3次元画像データ320へ変換し、変換した3次元画像データ320を表示装置400に出力する。そして、表示装置400は、表示処理部230から出力された3次元画像データ320に基づき、3次元画像1501~1504をデータ表示領域410に表示する。
路面段差除去スライドバー461がスライドされることにより、その位置に応じた路面段差除去パラメータがデータ変換処理部220に入力され、データ変換処理部220に設定される路面段差除去パラメータが入力される路面段差除去パラメータへ変更される。
路面段差除去スライドバー461がスライドされることにより、路面段差除去パラメータの値が初期値である「0」から「5」に変更されると、図21に示されるように、表示処理部230は、3次元点群データ310の各点の位置から垂直方向の距離が「E」(距離Eは、距離Dよりも長い)以内の点を、同じ平面を構成する点群として抽出する。なお、表示処理部230は、新たに構成される平面からの距離(平面と直交する直線の長さが相当する)が「E」以内の点を、同じ平面を構成する点群として抽出するようにしても良い。
そして、路面段差除去パラメータの値が「5」である場合、表示処理部230は、同じ平面を構成する点群として、点群1601と、点群1602と、点群1603とを抽出する。
表示処理部230は、抽出した点群1601~1603を図22に示される3次元画像1701~1703を表示するための3次元画像データ320へ変換し、変換した3次元画像データ320を表示装置400に出力する。また、表示処理部230は、点群を構成する各点の水平面からの高さの平均値を算出し、算出した高さの平均値の位置に表示されるように、点群を3次元画像データ320へ変換し、変換した3次元画像データ320を表示装置400に出力する。そして、表示装置400は、表示処理部230から出力された3次元画像データ320に基づき、3次元画像1701~1703をデータ表示領域410に表示する。路面段差除去パラメータの値が初期値よりも大きな値に変更されることで、水平面と平行な隣接する平面である3次元画像1502と3次元画像1503の間の段差が除去される。
なお、表示処理部230は、抽出した点群の各点の水平面からの高さが最も低い点から、水平面からの高さが最も高い点までの間のいずれかの位置に表示されるように、点群を3次元画像データ320へ変換し、変換した3次元画像データ320を表示装置400に出力するようにしても良い。例えば、表示処理部230は、抽出した点群の各点の水平面からの高さの中央値の位置に表示されるように、抽出した点群を3次元画像データ320へ変換するようにしても良い。また、表示処理部230は、抽出した点群の各点の水平面からの高さが最も低い位置(または最も高い位置)に表示されるように、抽出した点群を3次元画像データ320へ変換するようにしても良い。
路面段差除去スライドバー461がさらにスライドされることで、路面段差除去パラメータの値が「5」から「9」に変更されると、図23に示されるように表示処理部230は、3次元点群データ310の各点の位置からの距離が「F」(距離Fは、距離Eよりも長い)以内の点を、同じ平面を構成する点群として抽出する。なお、表示処理部230は、新たに構成される平面からの距離(平面と直交する直線の長さが相当する)が「F」以内の点を、同じ平面を構成する点群として抽出するようにしても良い。
そして、路面段差除去パラメータの値が「9」である場合、表示処理部230は、同じ平面を構成する点群として、点群1801と、点群1802とを抽出する。
表示処理部230は、抽出した点群1801と点群1802を、図24に示される3次元画像1901と3次元画像1902を表示するための3次元画像データ320へ変換し、変換した3次元画像データ320を表示装置400に出力する。そして、表示装置400は、表示処理部230から出力された3次元画像データ320に基づき、3次元画像1901と3次元画像1902とをデータ表示領域410に表示する。路面段差除去パラメータの値がさらに大きな値に変更されることで、水平面と平行な隣接する平面である3次元画像1701と3次元画像1702との間の段差が除去される。
なお、次回以降に、3次元画像データを編集するに際しては、初期値に替えて、前回、3次元画像データ320へ変換するのに使用した3次元画像生成パラメータの値を、表示処理部230に入力するようにしても良い。
<本実施の形態の効果>
<本実施の形態の効果>
以上説明した本実施の形態における画像データ編集装置によれば、3次元画像生成パラメータを調整することにより、3次元点群データ310を3次元画像データ320へ変換することで、移動式センサ500により測定される3次元点群データ310の測定環境に起因する誤差を除去することが可能になる。また、3次元点群データ310の測定環境に起因する誤差に拘わらず3次元画像生成パラメータを調整することが可能であり、ユーザの用途に応じて、測定対象物の外見を再現できるようになる。
特に3次元画像生成パラメータは、複数の調整項目をユーザに提示することで、ユーザが各々の調整項目は複数の値から選択可能である。これによりユーザはパラメータを自由に調整することにより、その用途に適した3次元画像データを生成することができる。
特に3次元画像生成パラメータは、複数の調整項目をユーザに提示することで、ユーザが各々の調整項目は複数の値から選択可能である。これによりユーザはパラメータを自由に調整することにより、その用途に適した3次元画像データを生成することができる。
以上、本発明者によってなされた発明を実施の形態に基づき具体的に説明したが、本発明は前記実施の形態に限定されるものではなく、その要旨を逸脱しない範囲で種々変更可能であることはいうまでもない。
例えば、3次元画像データ320が、CAD(Computer Aided Design)ソフトで編集可能なCADデータである実施形態もある。
また、画像データ編集装置がタブレット端末である実施形態もある。その場合、タブレット端末が有するタッチパネルが、入力装置100および表示装置400として機能する。
10…画像データ編集装置、100…入力装置、200…処理装置、210…入力処理部、220…データ変換処理部、230…表示処理部、240…データ入出力処理部、300…記憶装置、310…3次元点群データ、320…3次元画像データ、400…表示装置、410…データ表示領域、420…データ参照ボタン、430…データ保存ボタン、440…点群データチェックボックス、450…画像データチェックボックス、460…パラメータ調整部、461…路面段差除去スライドバー、462…うねり除去スライドバー、463…隙間補間スライドバー、464…壁段差除去スライドバー、470…データ選択ダイアログボックス、500…移動式センサ、601…隙間、610…第1壁部、620…スリット部、630…第2壁部、801,802,803,804,805,806,807,808,809,810,1001,1002,1003,1201,1202,1203,1401,1402,1403,1404,1601,1602,1603,1801,1802,2001…点群、901,902,903,904,905,906,907,908,909,910,1101,1102,1103,1301,1302,1303,1501,1502,1503,1504,1701,1702,1703,1901,1902…3次元画像、1110…壁部、1120…第1張出部、1130…第2張出部。
Claims (15)
- 移動式センサにより収集される3次元点群データを記憶する記憶装置と、
前記3次元点群データを3次元画像データへ変換する場合に使用される3次元画像生成パラメータを入力する入力装置と、
前記入力装置により設定された前記3次元画像生成パラメータに基づき前記3次元点群データを3次元画像データへ変換する表示処理部と、
前記表示処理部から出力される前記3次元画像データに基づき、3次元画像を表示する表示装置と、
を有する、画像データ編集装置。 - 請求項1に記載の画像データ編集装置において、
前記3次元画像生成パラメータには、生成される3次元画像に関する複数の調整項目を有し、前記調整項目は複数の値から選択可能であることを特徴とする画像データ編集装置。 - 請求項1に記載の画像データ編集装置において、
前記3次元画像生成パラメータは、同じ平面を構成する点群として点が抽出される垂直方向の距離を決定する路面段差除去パラメータを含む、画像データ編集装置。 - 請求項1に記載の画像データ編集装置において、
前記3次元画像生成パラメータは、同じ平面を構成する点群として点が抽出される水平方向の距離を決定する壁段差除去パラメータを含む、画像データ編集装置。 - 請求項1に記載の画像データ編集装置において、
前記3次元画像生成パラメータは、同じ平面を構成する点群として点を抽出する範囲を決定する隙間補間パラメータを含む、画像データ編集装置。 - 記憶装置が、移動式センサにより収集される3次元点群データを記憶する3次元点群データ記憶ステップと、
前記3次元点群データを3次元画像データへ変換する場合に使用される3次元画像生成パラメータを入力する3次元画像生成パラメータ入力ステップと、
前記3次元画像生成パラメータに基づき、前記3次元点群データを3次元画像データへ変換する3次元画像生成ステップと、
生成された3次元画像データを出力する3次元画像出力ステップと、
を有する、画像データ編集方法。 - 請求項6に記載の画像データ編集方法において、
前記3次元画像生成パラメータには、生成される3次元画像に関する複数の調整項目を有し、前記調整項目は複数の値から選択可能であることを特徴とする画像データ編集方法。 - 請求項6に記載の画像データ編集方法において、
前記3次元画像生成パラメータは、同じ平面を構成する点群として点が抽出される垂直方向の距離を決定する路面段差除去パラメータを含む、画像データ編集方法。 - 請求項6に記載の画像データ編集方法において、
前記3次元画像生成パラメータは、同じ平面を構成する点群として点が抽出される水平方向の距離を決定する壁段差除去パラメータを含む、画像データ編集方法。 - 請求項6に記載の画像データ編集方法において、
前記3次元画像生成パラメータは、同じ平面を構成する点群として点を抽出する範囲を決定する隙間補間パラメータを含む、画像データ編集方法。 - 記憶装置と、表示処理部と、入力装置と、表示装置とを有する画像データ編集装置のコンピュータに実行させる画像データ編集プログラムであって、
記憶装置が、移動式センサにより収集される3次元点群データを記憶する3次元点群データ記憶ステップと、
前記入力装置が、前記3次元点群データを3次元画像データに変換する場合に使用される3次元画像生成パラメータを前記表示処理部に入力する3次元画像生成パラメータ入力ステップと、
前記表示処理部が、前記3次元画像生成パラメータに基づき、前記3次元点群データを3次元画像データへ変換する、3次元画像生成ステップと、
前記表示装置が、前記表示処理部から出力される前記3次元画像データに基づき、3次元画像を表示する3次元画像表示ステップと、
を前記コンピュータに実行させる、画像データ編集プログラム。 - 請求項11に記載の画像データ編集プログラムにおいて、
前記3次元画像生成パラメータには、生成される3次元画像に関する複数の調整項目を有し、前記調整項目は複数の値から選択可能であることを特徴とする画像データ編集プログラム。 - 請求項11に記載の画像データ編集プログラムにおいて、
前記3次元画像生成パラメータは、同じ平面を構成する点群として点が抽出される垂直方向の距離を決定する路面段差除去パラメータを含む、画像データ編集プログラム。 - 請求項11に記載の画像データ編集プログラムにおいて、
前記3次元画像生成パラメータは、同じ平面を構成する点群として点が抽出される水平方向の距離を決定する壁段差除去パラメータを含む、画像データ編集プログラム。 - 請求項11に記載の画像データ編集プログラムにおいて、
前記3次元画像生成パラメータは、同じ平面を構成する点群として点を抽出する範囲を決定する隙間補間パラメータを含む、画像データ編集プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016510245A JP6282725B2 (ja) | 2014-03-28 | 2015-03-16 | 画像データ編集装置および画像データ編集方法ならびに画像データ編集プログラム |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014069425 | 2014-03-28 | ||
JP2014-069425 | 2014-03-28 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2015146658A1 true WO2015146658A1 (ja) | 2015-10-01 |
Family
ID=54195181
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2015/057630 WO2015146658A1 (ja) | 2014-03-28 | 2015-03-16 | 画像データ編集装置および画像データ編集方法ならびに画像データ編集プログラム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6282725B2 (ja) |
WO (1) | WO2015146658A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018179424A1 (ja) * | 2017-03-31 | 2018-10-04 | 株式会社オプティム | 点群処理システム |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008020993A (ja) * | 2006-07-11 | 2008-01-31 | Tookin:Kk | 作業用ロボットの教示データ作成装置 |
JP2008032449A (ja) * | 2006-07-27 | 2008-02-14 | Pulstec Industrial Co Ltd | 三次元形状測定方法、三次元形状測定装置および校正用物体 |
JP2012014259A (ja) * | 2010-06-29 | 2012-01-19 | Casio Comput Co Ltd | 撮影装置、撮影装置の制御装置、撮影装置の制御プログラム、及び撮影装置の制御方法 |
JP2012013660A (ja) * | 2010-07-05 | 2012-01-19 | Topcon Corp | 点群データ処理装置、点群データ処理システム、点群データ処理方法、および点群データ処理プログラム |
-
2015
- 2015-03-16 WO PCT/JP2015/057630 patent/WO2015146658A1/ja active Application Filing
- 2015-03-16 JP JP2016510245A patent/JP6282725B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008020993A (ja) * | 2006-07-11 | 2008-01-31 | Tookin:Kk | 作業用ロボットの教示データ作成装置 |
JP2008032449A (ja) * | 2006-07-27 | 2008-02-14 | Pulstec Industrial Co Ltd | 三次元形状測定方法、三次元形状測定装置および校正用物体 |
JP2012014259A (ja) * | 2010-06-29 | 2012-01-19 | Casio Comput Co Ltd | 撮影装置、撮影装置の制御装置、撮影装置の制御プログラム、及び撮影装置の制御方法 |
JP2012013660A (ja) * | 2010-07-05 | 2012-01-19 | Topcon Corp | 点群データ処理装置、点群データ処理システム、点群データ処理方法、および点群データ処理プログラム |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018179424A1 (ja) * | 2017-03-31 | 2018-10-04 | 株式会社オプティム | 点群処理システム |
JPWO2018179424A1 (ja) * | 2017-03-31 | 2019-04-04 | 株式会社オプティム | 点群処理システム |
Also Published As
Publication number | Publication date |
---|---|
JP6282725B2 (ja) | 2018-02-21 |
JPWO2015146658A1 (ja) | 2017-04-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5161936B2 (ja) | データ解析装置、データ解析方法、及びプログラム | |
JP4677536B1 (ja) | 3次元物体認識装置及び3次元物体認識方法 | |
JP4776531B2 (ja) | 地図情報生成装置、地図情報生成方法、および地図情報生成プログラム | |
JP5948480B1 (ja) | 2次元または3次元の形状情報を表示・操作するシステム、方法及びコンピュータソフトウエアプログラム | |
WO2015182654A1 (ja) | 干渉チェックシステム | |
JP6956899B2 (ja) | 表示データ生成装置、表示データ生成方法、および表示データ生成プログラム | |
JP2012146262A (ja) | 構造物計測システム | |
JP7300930B2 (ja) | 測量データ処理装置、測量データ処理方法および測量データ処理用プログラム | |
JP2008305331A (ja) | 解析用メッシュ生成装置 | |
WO2015098222A1 (ja) | 情報処理装置及び情報処理方法及びプログラム | |
US8587586B2 (en) | Electronic device and method for meshing curved surface | |
JP2006349579A (ja) | 変位情報測定システム及び方法並びにプログラム | |
JP2007170821A (ja) | 三次元変位計測方法 | |
JP6282725B2 (ja) | 画像データ編集装置および画像データ編集方法ならびに画像データ編集プログラム | |
KR102318492B1 (ko) | 정보 처리장치, 그 제어방법 및 기억매체 | |
JP6780431B2 (ja) | 造形処理システム、造形処理装置、造形処理方法およびプログラム | |
JP7004636B2 (ja) | 表示データ生成装置、表示データ生成方法、および表示データ生成プログラム | |
JP2005107929A (ja) | 板金モデル生成方法、装置、コンピュータプログラム及び記憶媒体 | |
JP6280425B2 (ja) | 画像処理装置、画像処理システム、3次元計測器、画像処理方法及び画像処理プログラム | |
JP2013092888A (ja) | データ処理装置 | |
KR101359661B1 (ko) | 삼각형 메쉬로 표현된 3차원 물체를 DoSurface 표현 방법으로 변환하는 시스템 및 그 방법 | |
JP2023059688A (ja) | 点群データ処理装置、該方法および該プログラム | |
KR101621858B1 (ko) | 정점과 구조물이 위치하는 지점 간의 수평거리를 산출하는 장치 및 방법 | |
JP2018040181A (ja) | 土木工事の出来形評価システム、出来形評価方法、及びプログラム | |
JP6793055B2 (ja) | フィルタ処理装置及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 15767748 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 2016510245 Country of ref document: JP Kind code of ref document: A |
|
NENP | Non-entry into the national phase | ||
122 | Ep: pct application non-entry in european phase |
Ref document number: 15767748 Country of ref document: EP Kind code of ref document: A1 |