WO2022209166A1 - 情報処理装置、情報処理方法、及び較正用ターゲット - Google Patents

情報処理装置、情報処理方法、及び較正用ターゲット Download PDF

Info

Publication number
WO2022209166A1
WO2022209166A1 PCT/JP2022/001613 JP2022001613W WO2022209166A1 WO 2022209166 A1 WO2022209166 A1 WO 2022209166A1 JP 2022001613 W JP2022001613 W JP 2022001613W WO 2022209166 A1 WO2022209166 A1 WO 2022209166A1
Authority
WO
WIPO (PCT)
Prior art keywords
sensor
calibration
distance
information processing
data
Prior art date
Application number
PCT/JP2022/001613
Other languages
English (en)
French (fr)
Inventor
友希 鴇崎
和憲 神尾
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Publication of WO2022209166A1 publication Critical patent/WO2022209166A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration

Definitions

  • the present technology relates to an information processing device, an information processing method, and a calibration target that can be applied to processing for calibrating the arrangement of a plurality of sensors used for measuring a three-dimensional shape or the like.
  • Patent Document 1 describes a method for estimating the position and orientation of an active sensor capable of acquiring three-dimensional information and an omnidirectional image.
  • an omnidirectional edge histogram at the current position of the active sensor is calculated from an omnidirectional image acquired by the active sensor.
  • the movement direction and rotation angle with respect to the reference point are calculated. This makes it possible to estimate the position and orientation of the active sensor (paragraphs [0025] [0038] [0053] [0108] FIG. 3 of Patent Document 1, etc.).
  • an object of the present technology is to provide an information processing device, an information processing method, and a calibration target capable of accurately calibrating the arrangement relationship between sensors.
  • an information processing device includes a calibration processing section.
  • the calibration processing unit has a concave portion, and the reflectance of the bottom surface portion of the concave portion and the edge surface portion surrounding the concave portion with respect to the measuring light is higher than a predetermined threshold value by the distance measuring sensor that irradiates the measuring light.
  • the distance measuring sensor Based on data obtained by measuring a calibration target having a plurality of concave patterns configured as described above, and data obtained by measuring the calibration target by a sensor different from the distance measuring sensor, the distance measuring sensor and A calibration parameter is calculated that represents the placement relationship with the other sensors.
  • a calibration parameter representing the positional relationship of each sensor is calculated from data obtained by measuring a calibration target provided with a plurality of concave patterns by a distance measuring sensor and other sensors.
  • the bottom surface and the edge surface of each concave pattern have a high reflectance with respect to the measurement light of the distance measuring sensor.
  • the distance measuring sensor can accurately measure the shape of the concave pattern, and the calculation accuracy of the calibration parameter representing the positional relationship of each sensor is improved. As a result, it is possible to accurately calibrate the positional relationship between the sensors.
  • the plurality of concave patterns may be configured such that the bottom surface portion and the edge surface portion are flat surfaces.
  • the plurality of recessed patterns may be configured such that the bottom surface portion is circular, and the edge surface portion is an annular shape whose center coincides with the bottom surface portion in a plan view.
  • the ranging sensor may output first distance data representing a distance to each point of the calibration target.
  • the calibration processing unit calculates first calibrated distance information obtained by calibrating the distance represented by the first distance data with reference to the depth of the recess for each of the plurality of recessed patterns, and calculates the first calibrated distance information.
  • a calibration parameter representing the arrangement relationship may be calculated based on the calibrated distance information of .
  • the calibration processing unit may smooth the first distance data and calculate the first calibrated distance information based on the smoothed first distance data.
  • the other sensor may be a visible camera that captures an image of the target with visible light, and may output visible image data of the calibration target captured with the visible light.
  • the plurality of concave patterns may be configured such that the bottom surface portion and the edge surface portion have a first color.
  • the calibration target has a planar arrangement surface including an area on which the plurality of concave patterns are arranged and which becomes a second color different from the first color when photographed with the visible light. good too.
  • the arrangement surface may be colored with the second color in a region excluding the plurality of concave patterns.
  • the arrangement surface may have a lattice pattern divided into a plurality of rectangular areas alternately colored with the first color and the second color.
  • at least one of the plurality of concave patterns may be arranged in each of the plurality of rectangular regions.
  • the first color may be white.
  • the second color may be black.
  • the first color may be set such that the contrast with respect to the second color is maximized within a range in which the intensity of the reflected light of the measurement light falls within the measurement range of the distance measuring sensor.
  • the ranging sensor may output reflection intensity data representing the reflection intensity of the measurement light at each point on the calibration target.
  • the calibration processing unit calculates a calibration parameter representing the arrangement relationship based on the visible image data and the reflection intensity data, and corrects the calculation result based on the first calibrated distance information. good too.
  • the ranging sensor may output reflection intensity data representing the reflection intensity of the measurement light at each point on the calibration target.
  • the calibration processing unit performs parallax correction between the visible image data and the reflection intensity data based on the first calibrated distance information, and determines the arrangement relationship based on the result of the parallax correction.
  • a representative calibration parameter may be calculated.
  • the other sensor is another ranging sensor that emits the measurement light, and may output second distance data representing a distance to each point on the calibration target.
  • the calibration target may have a spherical arrangement surface on which the plurality of concave patterns are arranged.
  • the calibration processing unit may calculate second calibrated distance information obtained by calibrating the distance represented by the second distance data with reference to the depth of the recess for each of the plurality of recessed patterns.
  • the calibration processing unit calculates a calibration parameter representing the arrangement relationship based on the first calibrated distance information and the second calibrated distance information, and calculates the distance measurement sensor and the other measurement based on the calculation result. Each internal parameter of the distance sensor may be corrected.
  • the distance measuring sensor and the other distance measuring sensor may each output reflection intensity data representing the reflection intensity of the measurement light at each point on the calibration target.
  • the calibration processing unit performs viewpoint conversion on each reflection intensity data output from the range sensor and the other range sensors based on the first calibrated distance information and the second calibrated distance information. and calculating a calibration parameter representing the arrangement relationship based on the result of the viewpoint transformation.
  • An information processing method is an information processing method executed by a computer system, wherein a distance measuring sensor that irradiates measurement light has a concave portion, a bottom portion of the concave portion and the concave portion. data obtained by measuring a calibration target having a plurality of concave patterns configured such that the reflectance of the measurement light of the edge surface portion surrounding is higher than a predetermined threshold, and by another sensor different from the range sensor and calculating a calibration parameter representing a positional relationship between the distance measuring sensor and the other sensor, based on data obtained by measuring the calibration target.
  • a calibration target is a calibration target used to calibrate the positional relationship between a plurality of sensors including a ranging sensor that emits measurement light, and includes a plurality of concave patterns.
  • Each of the plurality of concave patterns has a concave portion, and is configured such that the reflectance of the bottom surface portion of the concave portion and the edge surface portion surrounding the concave portion with respect to the measurement light is higher than a predetermined threshold.
  • FIG. 1 is a block diagram showing a configuration example of a three-dimensional measurement system according to a first embodiment of the present technology
  • FIG. 1 is a schematic diagram showing an overview of a three-dimensional measurement system
  • FIG. 3 is a schematic diagram showing a configuration example of a calibration board
  • It is a schematic diagram which shows an example of the data which measured the calibration board. It is an example of data for explaining the characteristics of a 3D sensor.
  • FIG. 5 is a schematic diagram showing an example of a calibration pattern as a comparative example
  • FIG. 5 is a schematic diagram showing another configuration example of the calibration board
  • FIG. 5 is a schematic diagram showing another configuration example of the calibration board
  • FIG. 4 is a schematic diagram for explaining calibration parameters;
  • FIG. 1 is a block diagram showing a configuration example of a three-dimensional measurement system according to a first embodiment of the present technology
  • FIG. 1 is a schematic diagram showing an overview of a three-dimensional measurement system
  • FIG. 3 is a schematic diagram showing a configuration example
  • FIG. 4 is a schematic diagram illustrating processing for calibrating the arrangement relationship between camera sensors;
  • FIG. 4 is a schematic diagram showing the relationship between depth value and parallax in stereo imaging.
  • 4 is a flowchart showing an example of calibration processing;
  • 4 is a block diagram showing an example of a processing flow of calibration processing;
  • FIG. 9 is a block diagram showing another example of the processing flow of calibration processing;
  • FIG. 5 is a block diagram showing a processing flow of calibration processing given as a comparative example;
  • FIG. 11 is a block diagram showing a configuration example of a three-dimensional measurement system according to a second embodiment;
  • FIG. FIG. 4 is a schematic diagram showing an overview of the operation of the three-dimensional measurement system;
  • FIG. 1 is a block diagram showing a configuration example of a three-dimensional measurement system according to the first embodiment of the present technology.
  • FIG. 2 is a schematic diagram showing an overview of the three-dimensional measurement system 100.
  • the three-dimensional measurement system 100 has a 3D sensor 11 , a 2D sensor 12 , a storage section 13 and a controller 20 .
  • the three-dimensional measurement system 100 is a system that performs 2D-3D stereo imaging that uses a 3D sensor 11 and a 2D sensor 12 to image a measurement object 1 in a three-dimensional space. In this embodiment, three-dimensional information including the three-dimensional shape and appearance of the measurement object 1 is measured.
  • the 3D sensor 11 and the 2D sensor 12 are arranged so that they can measure the common measurement object 1 from different directions.
  • the 3D sensor 11 and the 2D sensor 12 may be configured as independent sensor units housed in separate housings, for example. In this case, each sensor can be freely arranged. Alternatively, the 3D sensor 11 and the 2D sensor 12 may be housed in one housing. In this case, for example, each sensor is provided in a terminal device such as a smart phone or a stationary measuring device.
  • a calibration process and a model generation process are executed.
  • the left and right sides of FIG. 2 schematically show how the measurement is performed when performing the calibration process and the model generation process, respectively.
  • the calibration process is a process of measuring the calibration board 30 with the 3D sensor 11 and the 2D sensor 12 and aligning the data measured by each sensor.
  • calibration parameters 25 for mainly calibrating the arrangement relationship (relative position and orientation) of the 3D sensor 11 and 2D sensor 12 are calculated.
  • the calibration board 30 corresponds to a calibration target.
  • the model generation process is a process of generating a 3D model 26 of the measurement object 1 using three-dimensional information of the measurement object 1 measured by the 3D sensor 11 and the 2D sensor 12 .
  • the calibration parameters 25 calculated by the calibration process are used to align the data of each sensor.
  • the configuration of the three-dimensional measurement system 100 will be specifically described below.
  • the 3D sensor 11 is an active ranging sensor that measures the distance to each point of the measurement object 1 by irradiating the measurement object 1 with the measurement light 2 and measuring the reflected light 3 reflected by the measurement object 1. .
  • the 3D sensor 11 corresponds to a ranging sensor that emits measurement light.
  • As the measurement light 2 infrared light (IR: Infrared) is typically used.
  • the 3D sensor 11 includes a light source 14 (such as an infrared LED) that emits infrared light, and an image sensor 15 (such as an IR image sensor) that detects the infrared light reflected by the object 1 to be measured. configured using
  • the ToF method measures the distance (depth value) to each point on the measurement object 1 by measuring the time difference until the measurement light 2 irradiated to the measurement object 1 becomes the reflected light 3 and returns to the sensor. It is a detection method that
  • an iToF (indirect time of flight) 3D sensor 11 that measures the depth value based on the phase difference between the measurement light 2 and the reflected light 3 is used.
  • a dToF (direct Time of Flight) type 3D sensor 11 that directly detects the time from when the measuring light 2 is irradiated until the reflected light 3 returns may be used.
  • the specific configuration of the 3D sensor 11 is not limited, and any sensor that measures distance by emitting light (measurement light 2) may be used as the 3D sensor 11 .
  • the 3D sensor 11 outputs distance data representing the distance to each point on the object 1 to be measured.
  • the distance data is, for example, data representing the depth (depth value) to the measurement point in camera coordinates with the 3D sensor 11 as a reference.
  • the 3D sensor 11 detects a depth value for each pixel of the image sensor 15 .
  • This depth value data is distance data (depth image).
  • the 3D sensor 11 also outputs reflection intensity data representing the reflection intensity of the measurement light 2 at each point on the measurement object 1 .
  • the 3D sensor 11 detects the intensity of the reflected light 3 for each pixel of the image sensor 15 .
  • Data representing the intensity of the reflected light 3 is reflected intensity data (reflection intensity image).
  • the 2D sensor 12 is a visible camera that captures the measurement target 1 with visible light 4 and outputs visible image data of the measurement target 1 captured with the visible light 4 .
  • the visible image data is color moving image or still image data, and serves as visible information representing the appearance of the object 1 to be measured.
  • the 2D sensor 12 is an example of a sensor other than a distance measuring sensor, and corresponds to a visible camera that captures an image of an object using visible light.
  • the 2D sensor 12 it is possible to use a digital camera equipped with an image sensor such as a CMOS (Complementary Metal-Oxide Semiconductor) sensor or a CCD (Charge Coupled Device) sensor.
  • CMOS Complementary Metal-Oxide Semiconductor
  • CCD Charge Coupled Device
  • a digital camera having a zoom function, various optical filters, and the like may be used.
  • any configuration capable of photographing the measurement object 1 with the visible light 4 may be adopted.
  • the storage unit 13 is a non-volatile storage device.
  • a recording medium using a solid state device such as SSD (Solid State Drive) or a magnetic recording medium such as HDD (Hard Disk Drive) is used.
  • the type of recording medium used as the storage unit 13 is not limited, and for example, any recording medium that records data non-temporarily may be used.
  • a control program for controlling the overall operation of the three-dimensional measurement system 100 is stored in the storage unit 13 .
  • the control program is a program according to the present embodiment, and the storage unit 13 corresponds to a computer-readable recording medium in which the program is recorded.
  • the storage unit 13 also stores data of the calibration parameters 25 described above, data of the shape and dimensions of the calibration board 30, data of the 3D model 26, and the like.
  • the storage unit 13 stores arbitrary data necessary for the operation of the three-dimensional measurement system 100 .
  • the controller 20 controls the operation of each block that the three-dimensional measurement system 100 has.
  • the controller 20 has a hardware configuration necessary for a computer, such as a CPU and memory (RAM, ROM). Various processes are executed by the CPU loading the control program stored in the storage unit 13 into the RAM and executing it.
  • the controller 20 corresponds to an information processing device.
  • a device such as a PLD (Programmable Logic Device) such as an FPGA (Field Programmable Gate Array) or other ASIC (Application Specific Integrated Circuit) may be used.
  • a processor such as a GPU (Graphics Processing Unit) may be used as the controller 20 .
  • the CPU of the controller 20 executes the program according to this embodiment, thereby implementing the calibration processing unit 21 and the model generation unit 22 as functional blocks. These functional blocks execute the information processing method according to the present embodiment.
  • dedicated hardware such as an IC (integrated circuit) may be used as appropriate.
  • the calibration processing unit 21 executes calibration processing to calibrate the positional relationship (relative position and orientation between the sensors) between the 3D sensor 11 and the 2D sensor 12 . Specifically, a calibration parameter 25 representing the arrangement relationship of each sensor is calculated. As described above, the calibration parameters 25 are parameters used for alignment of each data output by the 3D sensor 11 and the 2D sensor 12 . For example, the calibration parameters 25 are the parameters used in the transformation matrix for transforming the data of the measurement target measured by each sensor into the common coordinate system.
  • the calibration parameters 25 include internal parameters and external parameters.
  • the internal parameters are parameters determined according to the characteristics of the 3D sensor 11 and 2D sensor 12 .
  • External parameters are parameters determined according to the positions and orientations of the 3D sensor 11 and the 2D sensor 12 .
  • an external parameter is calculated as a calibration parameter 25 representing the positional relationship between the 3D sensor 11 and the 2D sensor 12 .
  • the internal parameter for example, a value preset according to the characteristics of each sensor is used. Note that a process of calculating the internal parameters, a process of correcting the internal parameters, and the like may be executed.
  • the calibration processing unit 21 uses the 3D sensor 11 to measure the calibration board 30 and the 2D sensor 12 to measure the calibration board 30 based on the 3D sensor 11 and the 2D sensor.
  • a calibration parameter 25 (external parameter) representing the arrangement relationship with 12 is calculated.
  • the common calibration board 30 is measured by the 3D sensor 11 and the 2D sensor 12 .
  • the 3D sensor 11 outputs distance data representing the distance to each point on the calibration board 30 .
  • the 3D sensor 11 also outputs reflection intensity data representing the reflection intensity of the measurement light 2 at each point on the calibration board 30 .
  • the 2D sensor 12 also outputs visible image data obtained by capturing the calibration board 30 with the visible light 4 .
  • the calibration processing unit 21 calculates external parameters based on the distance data and reflection intensity data of the calibration board 30 measured by the 3D sensor 11 and the visible image data of the calibration board 30 measured by the 2D sensor 12. do.
  • the distance data of the calibration board 30 output from the 3D sensor 11 corresponds to first distance data.
  • the model generator 22 generates a 3D model 26 of the measurement object 1 from the data of the measurement object 1 measured by the 3D sensor 11 and the 2D sensor 12 .
  • a 3D model 26 representing the three-dimensional shape of the measurement object 1 is generated based on the distance data of the measurement object 1 measured by the 3D sensor 11 .
  • the color of each part of the 3D model 26 is set.
  • FIG. 3 is a schematic diagram showing a configuration example of the calibration board 30. As shown in FIG. FIG. 3A is a perspective view showing an example of the appearance of the calibration board 30. FIG. 3B and 3C are perspective views showing an example of the concave pattern 32 provided on the calibration board 30. FIG. The calibration board 30 has a board body 31 and a plurality of concave patterns 32 provided on the board body 31 .
  • the board main body 31 is a flat plate-like member that constitutes the calibration board 30 .
  • One main surface of the board body 31 serves as a placement surface 33 on which a plurality of concave patterns 32 are formed.
  • the calibration board 30 has a planar arrangement surface 33 on which the plurality of concave patterns 32 are arranged.
  • the calibration board 30 is arranged and used so that the arrangement surface 33 (the plurality of concave patterns 32 ) side of the board body 31 faces the 3D sensor 11 and the 2D sensor 12 .
  • the plurality of recessed patterns 32 each have recesses 34 .
  • the recess 34 is a depression provided in the placement surface 33 and has a bottom portion 35 and side portions 36 .
  • the bottom surface portion 35 forms the bottom surface of the recess 34
  • the side surface portion 36 forms side surfaces that connect the bottom surface portion 35 and the placement surface 33 .
  • each concave pattern 32 is provided with an edge surface portion 37 surrounding each concave portion 34 .
  • the edge surface portion 37 is a region formed on the placement surface 33 so as to surround the edge of the recess 34 .
  • each concave pattern 32 is arranged, for example, in a triangular lattice.
  • the number, arrangement, etc. of the recessed patterns 32 are not limited.
  • each recessed pattern 32 may be arranged in a square grid pattern or a hexagonal grid pattern.
  • each concave portion 34 that is, the distance between the bottom surface portion 35 and the edge surface portion 37 is set larger than the distance resolution of the 3D sensor 11, for example.
  • may be set according to the planar size of the recess 34 (the diameter of the bottom surface portion 35, etc.).
  • the depth ⁇ of the recess 34 is set to be half or less of the planar size of the recess 34 .
  • the depth ⁇ of each recess 34 may be constant, or a different depth ⁇ may be set for each recess 34 .
  • the depth ⁇ of the recess 34 may be appropriately set according to the characteristics of the 3D sensor 11, the planar size of the recess 34, and the like.
  • the bottom surface portion 35 and the edge surface portion 37 are configured such that the reflectance with respect to the measurement light 2 is higher than a predetermined threshold.
  • the reflectance with respect to the measurement light 2 is, for example, the ratio of the intensity of the reflected light 3 to the intensity of the measurement light 2 when the measurement light 2 is vertically incident on the placement surface 33 .
  • the color and material of the bottom surface portion 35 and the edge surface portion 37 are selected so that the reflectance of the measurement light 2 is higher than a predetermined threshold.
  • the side surface portion 36 is typically configured to have the same color and material as the bottom surface portion 35 and the edge surface portion 37 . Other colors and materials may be used.
  • the 3D sensor 11 measures the distance to the measurement target 1 by detecting the reflected light 3 .
  • the distance to the measurement target 1 may not be measured properly (see FIG. 5), as will be described later.
  • the reflectance of the target is sufficiently high and the intensity of the reflected light 3 is sufficiently high, it is possible to accurately measure the distance to the measurement target 1 .
  • the predetermined threshold value is set so that the distance to each point of the bottom surface portion 35 and the edge surface portion 37 can be properly calculated using the 3D sensor 11 when the calibration board 30 is measured in the calibration process, for example.
  • the minimum reflectance at which the reflected light 3 having the intensity necessary for calculating the distance is generated at the bottom surface portion 35 and the edge surface portion 37 is set as the predetermined threshold value.
  • the reflectances of the bottom surface portion 35 and the edge surface portion 37 are set higher than the above-described minimum reflectance, the distance to each point of the bottom surface portion 35 and the edge surface portion 37 is properly measured in the calibration process.
  • the method for setting the predetermined threshold is not limited, and the predetermined threshold may be set as appropriate within a range in which the distance to each point on the bottom surface portion 35 and the edge surface portion 37 can be properly measured.
  • the calibration board 30 each has a recess 34, and is configured such that the reflectance of the bottom surface 35 of the recess 34 and the edge surface 37 surrounding the recess 34 with respect to the measurement light 2 is higher than a predetermined threshold. It has a plurality of recessed patterns 32 . This makes it possible to properly calculate the distance to each point on the bottom surface portion 35 and the edge surface portion 37 from the measurement result (distance data) of the 3D sensor 11 . Furthermore, by using the distance between the bottom surface portion 35 and the edge surface portion 37, that is, the depth ⁇ of the concave portion 34 as a reference, the distance (depth value) measured by the 3D sensor 11 can be accurately calibrated. Thus, the calibration board 30 provided with a plurality of recessed patterns 32 becomes a recessed chart having recesses (recesses 34 ) for calibrating the distance measured by the 3D sensor 11 .
  • the plurality of concave patterns 32 are configured such that the bottom surface portion 35 and the edge surface portion 37 are flat.
  • the bottom surface portion 35 is configured to be a plane parallel to the placement surface 33 .
  • the edge surface portion 37 is configured as a flat surface on the placement surface 33 . Therefore, the bottom surface portion 35 and the edge surface portion 37 (placement surface) are planes parallel to each other.
  • the 3D sensor 11 measures the distance of the flat surface. In this case, since the bottom surface portion 35 and the edge surface portion 37 do not include an extra three-dimensional structure, for example, the distance between the bottom surface portion 35 and the edge surface portion 37 (the depth ⁇ of the recess 34) can be easily calculated. .
  • the plurality of recessed patterns 32 are configured such that the bottom surface portion 35 has a circular shape, and the edge surface portion 37 has an annular shape whose center coincides with the bottom surface portion 35 in a plan view. That is, each concave pattern 32 becomes a circle chart with a circular depression in the center, and functions as a distance measuring circle. By forming each recessed pattern 32 into a circle chart in this way, it is possible to easily detect the characteristic points of each recessed pattern 32 by image analysis for detecting circles or the like.
  • the characteristic point of the concave pattern 32 is, for example, the center position of the annular edge surface portion 37 . Further, when calculating the distance (depth value) to the feature point of the concave pattern 32, it is possible to use the distance information of the flat bottom surface portion 35 and the edge surface portion 37.
  • the plurality of concave patterns 32 are configured such that the color of the bottom surface portion 35 and the edge surface portion 37 is the first color.
  • the first color is, for example, a color set such that the reflectance with respect to the measurement light 2 is higher than a predetermined threshold.
  • the 3D sensor 11 can improve the distance measurement accuracy for each recessed pattern 32 .
  • the placement surface 33 is configured to include a region that becomes a second color different from the first color when photographed with the visible light 4 .
  • the second color is typically a color set to have a high contrast with the first color.
  • each recessed pattern 32 bottom portion 35 and edge surface portion 37 of the first color and other regions of the second color are color-coded, It becomes possible to easily detect each recessed pattern 32 .
  • the placement surface 33 is colored with the second color in the area excluding the plurality of concave patterns 32 .
  • a region of the arrangement surface 33 excluding each recessed pattern 32 (a region surrounding each recessed pattern 32) is referred to as a base region 38.
  • all the recessed patterns 32 are surrounded by the base region 38 colored with the second color.
  • the process of detecting each recessed pattern 32 from the visible image data is performed by extracting the circular region (recessed pattern 32) colored in the first color from the region (base region 38) colored in the second color. It becomes a process to extract.
  • the first color is set to white and the second color is set to black. Therefore, the calibration board 30 becomes a circle chart in which white circles are arranged on a black background.
  • This white and black combination is, for example, the combination that provides the highest contrast in the visible image data. This makes it possible to sufficiently improve the detection accuracy of each recessed pattern 32 .
  • the first color and second color may be set to other colors.
  • the first color when the first color is white, the reflectance of the measurement light 2 is high, so the intensity (reflection intensity data) of the reflected light 3 detected by the 3D sensor 11 (image sensor 15) is greater than the measurement range. can be exceeded and saturate. For this reason, the brightness of the first color may be lowered to make it gray.
  • the contrast with the second color here, black
  • the first color may be set such that the contrast with respect to the second color is maximized within a range in which the intensity of the reflected light 3 of the measurement light 2 is within the measurement range of the 3D sensor 11 .
  • This makes it possible to maintain high contrast in the visible image data captured by the 2D sensor 12 without saturating the reflection intensity data measured by the 3D sensor 11 .
  • the method of setting the first color and the second color is not limited.
  • FIG. 4 is a schematic diagram showing an example of data obtained by measuring the calibration board 30.
  • FIG. FIG. 4A shows visible image data 40 obtained by measuring the calibration board 30 with the 2D sensor 12.
  • FIG. 4B shows reflection intensity data 41 obtained by measuring the calibration board 30 with the 3D sensor 11.
  • FIG. 4C is distance data 42 (depth image) obtained by measuring the calibration board 30 with the 3D sensor 11.
  • both the reflection intensity data 41 and the distance data 42 are data acquired using the 3D sensor 11.
  • FIG. Therefore, the posture of the calibration board 30 on the data is the same.
  • the visible image data 40 shown in FIG. 4A is data acquired using the 2D sensor 12
  • the orientation of the calibration board 30 differs from that in FIGS. 4B and 4C. In each data, the data of the background of the calibration board 30 is omitted by the shaded area.
  • each concave pattern 32 is of a first color (white) and the base regions 38 are of a second color (black).
  • the calibration board 30 becomes a substantially black and white image with high contrast.
  • the contrast between each recessed pattern 32 and the base region 38 is increased, and the recessed pattern 32 can be identified with high accuracy.
  • the reflected intensity of the measurement light 2 (intensity of the reflected light 3) at each point on the calibration board 30 is schematically illustrated using a gray scale.
  • the concave pattern 32 is set to white and the base region 38 is set to black.
  • the reflection intensity at the concave pattern 32 is higher than the reflection intensity at the base region 38 .
  • the contrast between the reflection intensity of each concave pattern 32 and the reflection intensity of the base region 38 is increased, and the concave pattern 32 can be accurately identified.
  • the distance (depth value) to each point on the calibration board 30 is schematically illustrated using a grayscale.
  • the darker the grayscale color the closer the distance.
  • the edge surface portion 37 (an annular area surrounded by dotted lines in the drawing) and the base area 38 are areas on the same placement surface 33 .
  • the distance of each point is properly calculated over the entire surface of the calibration board 30, as shown in FIG. (depth value) does not change discontinuously.
  • the bottom surface portion 35 of each concave pattern 32 is recessed inwardly with respect to the placement surface 33, the distance is greater than the placement surface 33 (the edge surface portion 37 and the base region 38).
  • the reflectance for the measurement light 2 is set on the edge surface portion 37 and the bottom surface portion 35 so that the distance to each point can be properly measured. Therefore, even if the base region 38 has a low reflectance with respect to the measurement light 2 and the accuracy of distance measurement is lowered, the distances to the points on the edge surface portion 37 and the bottom surface portion 35 can be accurately determined in each concave pattern 32 . detectable. Furthermore, the depth difference between the edge surface portion 37 and the bottom surface portion 35 can be calibrated by referring to the depth ⁇ of the concave portion 34 set on the calibration board 30 . This makes it possible to calculate highly accurate distance information for each concave pattern 32 .
  • FIG. 5 is an example of data for explaining the characteristics of the 3D sensor 11. As shown in FIG. 5A and 5B are a reflection intensity image 45 (reflection intensity data) and a depth image 46 (distance data) obtained by measuring the person 28 using the 3D sensor 11, respectively. Here, the characteristics of the 3D sensor 11 will be described with reference to FIGS. 5A and 5B.
  • the iToF method which indirectly obtains the time difference from the measurement light 2 and the reflected light 3 through the phase difference
  • the dToF method which obtains the time difference from the arrival time of the reflected light 3 have low sensitivity for low-reflection objects such as black objects. has the following characteristics.
  • an object 29 is placed behind a person 28 and part of the object 29 is partially occluded by the person's 28 head.
  • the reflection intensity image 45 the reflection intensity is low in the hair portion of the person 28 . That is, it can be said that the hair is a low-reflection object for the measurement light 2 .
  • the depth value of the hair portion of the person 28 is significantly higher.
  • the depth value of the hair portion is higher than the depth value of the object 29 behind the hair. In this case, the hair portion that is actually in the foreground will be on the back side of the object 29 .
  • an object with a low reflection intensity is measured by the 3D sensor 11, there is a possibility that its depth value cannot be captured correctly.
  • FIG. 6 is a schematic diagram showing an example of a calibration pattern given as a comparative example.
  • 6A and 6B are schematic diagrams showing calibration patterns 47a and 47b generally used for calibrating the position and orientation of a visible camera.
  • the calibration pattern 47a is a chessboard-shaped black-and-white chart in which white and black squares are alternately arranged. When calibrating the position/orientation of a visible camera using such a pattern, corners (edges) of each square are detected as feature points.
  • the calibration pattern 47b is a circle-grid-type black-and-white chart in which black circles are arranged in a triangular grid on a white background area. In such a pattern, the center of a black circle is detected as a feature point.
  • the 3D sensor 11 has low sensitivity to low-reflection objects, and there is a possibility that sensor sensitivity will decrease in black areas.
  • the distance measurement by the 3D sensor 11 is typically performed in a flat area. For example, in the black-and-white charts shown in FIGS. 6A and 6B, distance measurement at the corner (edge) of a square or the center of a black circle is flat, but is not suitable for calibration because black distance measurement accuracy is low. do not have.
  • the calibration board 30 is provided with a plurality of recessed patterns 32 .
  • Each concave pattern 32 is configured such that the reflectance of the bottom surface portion 35 and the edge surface portion 37 with respect to the measurement light 2 is higher than a predetermined threshold.
  • each concave pattern 32 (bottom portion 35 and edge surface portion 37) becomes a highly reflective object capable of sufficiently reflecting the measurement light 2 emitted from the 3D sensor 11.
  • FIG. Therefore, the 3D sensor 11 can accurately measure the distance of each concave pattern 32 .
  • the distance data 42 measured by the 3D sensor 11 can be calibrated based on the depth ⁇ of the concave portion 34 of each concave pattern 32 . That is, by using the calibration board 30, it is possible to calculate highly accurate distance information calibrated with a known depth value ⁇ .
  • the concave pattern 32 (the bottom surface portion 35 and the edge surface portion 37) is colored in a first color (such as white) having a high reflectance with respect to the measurement light 2, and the base region 38 is colored in the first color.
  • a second color eg, black
  • the contrast between the concave pattern 32 and the base region 38 is sufficiently high.
  • the region of the white circle (edge surface portion 37) that constitutes the recessed pattern 32 is sufficiently high.
  • the contrast between the reflection intensity of the concave pattern 32 and the reflection intensity of the base region 38 is sufficiently high. This makes it possible to accurately separate the region of the recessed pattern 32 (edge surface portion 37) from the reflection intensity data 41 in the same manner as the visible image data 40, and to accurately detect its characteristic points.
  • the calibration board 30 is a target that can be used by both the 3D sensor 11, which is an active sensor, and the 2D sensor 12, which is a visible camera.
  • the data obtained by measuring the calibration board 30 includes data representing a two-dimensional position (visible image data 40 and reflection intensity data 41) as well as data representing a depth value (distance data 42). .
  • the depth value can be calibrated based on the depth ⁇ of the concave portion 34, the data is extremely accurate.
  • FIGS. 7 and 8 are schematic diagrams showing other configuration examples of the calibration board.
  • a grid pattern 51 is provided on the arrangement surface 33 of the calibration boards 50a and 50b shown in FIGS.
  • the lattice pattern 51 is a pattern divided into a lattice pattern by a plurality of rectangular areas 52 alternately colored with a first color and a second color.
  • the first color is white and the second color is black. Therefore, the grid pattern 51 is a chessboard pattern in which black and white rectangular areas 52 are alternately arranged in a grid pattern.
  • the rectangular area 52 is typically a square area, but may be, for example, a rectangular area.
  • At least one concave pattern 32 is arranged in each of the rectangular regions 52 . That is, each rectangular area 52 is provided with one or more recessed patterns 32 respectively.
  • one concave pattern 32 is arranged in each rectangular area 52 .
  • the center of the concave pattern 32 (the edge surface portion 37) provided in the black rectangular area 52 is detected as the feature point. Corners (edges) of the black rectangular area 52 can also be detected as feature points.
  • feature points can be detected in portions other than the recessed pattern 32, and for example, matching accuracy between the visible image data 40 and the reflection intensity data 41 can be improved.
  • each concave pattern 32 is arranged in each rectangular area 52 .
  • 2 ⁇ 2 recessed patterns 32 arranged in a grid are provided in each rectangular region 52 .
  • a plurality of concave patterns 32 may be arranged in the rectangular area 52 .
  • FIG. 9 is a schematic diagram for explaining calibration parameters.
  • the following description assumes that the 3D sensor 11 and the 2D sensor can each be regarded as a single camera sensor (pinhole camera).
  • World coordinates 6, camera coordinates 7, and screen coordinates 8 are schematically illustrated in FIG.
  • the world coordinates 6 are three-dimensional coordinates representing the position of an object existing in real space.
  • the camera coordinates 7 are three-dimensional coordinates set with reference to the camera sensor, and change according to the position/orientation of the camera sensor.
  • Screen coordinates 8 are two-dimensional coordinates representing a position within an image (screen plane) captured by the camera sensor.
  • the 3 ⁇ 3 matrix on the left side of equation (1) is the internal matrix K of the camera sensor, and is a conversion matrix for converting a point on camera coordinates 7 to screen coordinates 8 .
  • f is a parameter representing the focal length of the camera sensor.
  • a is a parameter representing the aspect ratio of the camera sensor.
  • s is a parameter representing the skew distortion of the camera sensor.
  • c x and c y are parameters representing the coordinates of the image center of the camera sensor.
  • These parameters included in the internal matrix K are internal parameters determined according to the characteristics of the camera sensors (3D sensor 11 and 2D sensor). The internal parameters have five degrees of freedom.
  • the 3 ⁇ 4 matrix on the left side of equation (1) is the extrinsic matrix M of the camera sensor, which is a transformation matrix for transforming a point on world coordinates 6 to camera coordinates 7 .
  • R 11 , R 21 , R 31 , R 12 , R 22 , R 32 , R 13 , R 23 , and R 33 are parameters representing the orientation of the camera sensor on the world coordinates 6, and the 3 ⁇ 3 rotation matrix R configure.
  • R 11 to R 33 can be represented, for example, by using the amount of rotation around each axis of three-dimensional coordinates, with three degrees of freedom.
  • t x , t y , and t z are parameters representing the relative position of the camera sensor on the world coordinates 6, and constitute the translation vector T.
  • These parameters included in the extrinsic matrix M are extrinsic parameters determined according to the positions and orientations of the camera sensors (3D sensor 11 and 2D sensor 12). The extrinsic parameters have six degrees of freedom.
  • FIG. 10 is a schematic diagram illustrating processing for calibrating the arrangement relationship between camera sensors.
  • FIG. 10 schematically illustrates how a point P on the real space is photographed by two camera sensors C 0 and C 1 .
  • One of the camera sensors C 0 and C 1 corresponds to the 3D sensor 11 and the other to the 2D sensor 12 .
  • the positions of the points P on the image data 48a and 48b captured by the camera sensors C0 and C1 are described as P0 ( u0 , v0 ) and P1 ( u1 , v1 ), respectively .
  • the transformation matrix E corresponds to a basic matrix used, for example, in epipolar geometry.
  • This is the process of calculating the matrix M 1 [R 1 T 1 ].
  • R 0 and T 0 are the rotation matrix and translation vector of camera sensor C 0 , respectively
  • R 1 and T 1 are the rotation matrix and translation vector of camera sensor C 1 , respectively.
  • the transformation matrix E is represented by the rotation matrix R 1 and the translation vector T 1 of the camera sensor C 1 based on the position/orientation of the camera sensor C 0 .
  • R 1 and T 1 are extrinsic parameters representing the amount of relative rotation and translation of the camera sensor C 1 with respect to the camera sensor C 0 , that is, the positional relationship between the camera sensors C 0 and C 1 (relative position and orientation).
  • the calibration process executed in this embodiment expresses the relative position and orientation between the 3D sensor 11 and the 2D sensor 12 based on the data of the 3D sensor 11 and the 2D sensor 12 that measured the calibration board 30.
  • This is a process of calculating a rotation matrix and a translation vector (transformation matrix E).
  • transformation matrix E transformation matrix
  • a process of individually calculating the extrinsic matrix of the 3D sensor 11 and the extrinsic matrix of the 2D sensor 12 may be executed. In this case, it is possible to calculate a rotation matrix and a translation vector representing the relative position and orientation from the extrinsic matrix of each sensor.
  • a plurality of feature points are detected from the visible image data 40 and the reflection intensity data 41, and a corresponding point search is performed to search for pairs of physically identical feature points.
  • a plurality of simultaneous equations including each parameter are generated based on the coordinate of each feature point that has been associated.
  • Each extrinsic parameter is calculated by solving the simultaneous equations by a technique such as the least squares method or the nonlinear optimization method (Newton method or Marquardt method).
  • the visible image data 40 and the reflection intensity data 41 are projected images projected onto the screen surface. Such projection images contain only two-dimensional position information. For this reason, the calibration using only the projected image may result in low accuracy in calculating the extrinsic parameters.
  • a method of calculating external parameters using distance information measured by the 3D sensor 11 is also conceivable.
  • the calibration pattern for the visible camera as shown in FIG. 6 and the like, it is difficult to use an accurate depth value due to the characteristic that the measurement accuracy for the black area of the 3D sensor 11 decreases. .
  • the calibration process is executed using the distance data 42 (distance information) for each point on the calibration board 30 .
  • the calibration board 30 is provided with a plurality of recessed patterns 32 having known depth steps (recesses 34). This makes it possible to calibrate the distance to each feature point using the depth ⁇ of the concave portion 34 as an absolute value (absolute depth value). As a result, calibration processing using highly accurate distance information becomes possible.
  • a highly accurate depth value it is possible to calculate in advance an extrinsic parameter related to changes in the depth direction of the camera coordinates 7, for example. This reduces the number of extrinsic parameters that need to be calculated using corresponding points of the visible image data 40 and the reflection intensity data 41, for example. This makes it possible to stabilize the optimization process and the like and improve the accuracy of calculating the external parameters as a whole.
  • FIG. 11 is a schematic diagram showing the relationship between depth value and parallax in stereo imaging.
  • FIG. 11 schematically shows how stereo imaging is performed by the camera sensors C 0 and C 1 .
  • the optical axes of camera sensors C 0 and C 1 are parallel.
  • the principle of triangulation is applied to the image data measured by each camera sensor C0 and C1 to calculate the distance (depth value) to the point P on the real space appearing in the image data.
  • the depth value of point P is proportional to baseline/disparity.
  • baseline is the distance between each camera sensor C 0 and C 1
  • disparity is the disparity in each image data with respect to point P.
  • the depth value and parallax are inversely proportional to each other. It can also be said that if the depth value of the point P is known, the parallax of the point P in the image data captured by each of the camera sensors C 0 and C 1 (difference in the position of the point P within the stereo-captured image) can be calculated.
  • the parallax between the reflection intensity data 41 measured by the 3D sensor 11 and the visible image data 40 measured by the 2D sensor 12 is corrected based on the relationship between the depth value measured as the distance data 42 and the parallax. Processing is performed. As a result, it becomes possible to calculate the extrinsic parameters using the parallax-corrected data, and it is possible to greatly improve the calculation accuracy of each parameter.
  • FIG. 12 is a flowchart illustrating an example of calibration processing.
  • the calibration board 30 is measured by the 3D sensor 11 and the 2D sensor 12 (step 101).
  • the calibration board 30 is arranged in the measurement range of the 3D sensor 11 and the 2D sensor 12.
  • FIG. The 3D sensor 11 irradiates the calibration board 30 with the measurement light 2 and measures the reflected light 3 .
  • the visible light 4 is detected by the 2D sensor 12 and the calibration board 30 is photographed.
  • the data output from the 3D sensor 11 and the 2D sensor 12 are acquired by the calibration processing unit 21 (step 102). Specifically, the reflection intensity data 41 and the distance data 42 output from the 3D sensor 11 and the visible image data 40 output from the 2D sensor 12 are appropriately read. Note that the measurement by each sensor is typically performed multiple times while changing the position and orientation of the calibration board 30 .
  • the calibration processing unit 21 calibrates the distance data 42 (step 103).
  • the calibration processing unit 21 calculates the calibrated distance information Z by calibrating the distance represented by the distance data 42 with the depth ⁇ of the recess 34 as a reference for each of the plurality of recessed patterns 32 .
  • the calibrated distance information Z calculated by calibrating the distance data 42 measured by the 3D sensor 11 corresponds to the first calibrated distance information.
  • the calibration board 30 is tilted with respect to the depth direction of the 3D sensor 11 (the Z direction of camera coordinates). By correcting this inclination, it is possible to calculate the depth value when the concave pattern 32 is viewed from the orthogonal direction.
  • the difference (z 0 ⁇ z 1 ) between the depth value z 0 for the bottom surface portion 35 and the depth value z 1 for the edge surface portion 37 corresponds to the depth ⁇ of the recess 34 .
  • a depth value calibrated with ⁇ as a reference is calculated for each feature point of the concave pattern 32 .
  • the characteristic point of the concave pattern 32 for example, the center point of the edge surface portion 37 is used.
  • the center point of the edge surface portion 37 is a hollow point on the same plane as the placement surface 33 .
  • the depth values of the feature points are calculated from the calibrated depth values of the bottom surface portion 35 and the edge surface portion 37 .
  • the center point of the bottom surface portion 35 or the like may be used as the characteristic point of the concave pattern 32 .
  • the calibration processing unit 21 calculates the calibration parameters 25 (step 104).
  • the calibration processing unit 21 calculates a calibration parameter 25 (external parameter) representing the arrangement relationship based on the calibration distance information described above.
  • the parallax between the reflection intensity data 41 and the visible image data 40 can be corrected based on the relationship between the depth value and the parallax described with reference to FIG.
  • the calibration processing unit 21 calculates the extrinsic parameters by combining such parallax correction processing. Details of the calibration process will be described below in more detail.
  • FIG. 13 is a block diagram illustrating an example of a processing flow of calibration processing;
  • the calibration processing unit 21 calculates external parameters based on the visible image data 40 and the reflection intensity data 41, and corrects the calculation results based on the calibrated distance information Z.
  • This process is a recursive process in which the once calculated external parameters are corrected again with reference to the calibrated distance information Z.
  • the calibration processing unit 21 reads the distance data 42 from the 3D sensor 11 and smoothes the depth value in each concave pattern 32 (distance measurement circle) (step 201). For example, a smoothing filter is applied to the distance data 42 . As a result, noise data is removed, and the bottom surface portion 35 and the edge surface portion 37 of the concave pattern 32 can be treated as a flat area in which the depth values are smoothly connected.
  • the smoothed distance data 42 (distance information) is read (step 202).
  • the processing of steps 201 and 202 corresponds to the processing of acquiring the distance data 42 in step 102 shown in FIG. 12, for example.
  • Distance data 42 is calibrated for each concave pattern 32 (distance measuring circle), and calibrated distance information Z is calculated (step 203). Calibration of the distance data 42 is the process described in step 103 of FIG. For example, as the calibrated distance information Z, a depth value calibrated based on the depth ⁇ of the concave portion 34 is calculated for each feature point of the plurality of concave patterns 32 . Any image analysis processing (for example, Hough transform processing, etc.) for detecting circles, for example, is used to detect feature points. Note that the position of the feature point may be referred to from the result of the corresponding point search, which will be described later.
  • image analysis processing for example, Hough transform processing, etc.
  • the calibration processing unit 21 smoothes the distance data 42 and calculates the calibrated distance information Z based on the smoothed distance data 42 .
  • the calibration processing unit 21 smoothes the distance data 42 and calculates the calibrated distance information Z based on the smoothed distance data 42 .
  • calibration by the absolute depth ⁇ is possible for each of the plurality of concave patterns 32 (distance measuring circles). Therefore, it is possible to sufficiently improve the distance measurement accuracy for each point.
  • the calibration processing unit 21 reads the visible image data 40 from the 2D sensor 12 (step 204) and reads the reflection intensity data 41 from the 3D sensor 11 (step 205).
  • the processing of steps 204 and 205 corresponds to the processing of acquiring the visible image data 40 and the reflection intensity data 41 in step 102 shown in FIG. 12, for example.
  • the processing of steps 206 to 210 described below corresponds to the processing of step 104 shown in FIG. 12, for example.
  • Corresponding point search processing is executed for the visible image data 40 and the reflection intensity data 41 (step 206).
  • the corresponding point search process is a process of detecting physically identical locations (corresponding points) from the visible image data 40 and the reflection intensity data 41 .
  • feature points of the calibration board 30, that is, feature points of the plurality of concave patterns 32 are detected from each data. Then, feature points that are the same as each other are specified.
  • the calibration boards 50a and 50b having the lattice pattern 51 as shown in FIGS. 7 and 8 are used, the corners and edges of the rectangular area 52 are detected as characteristic points, and the corresponding points are searched from them. good too.
  • a specific method of the corresponding point search processing is not limited, and any image analysis processing for detecting and matching feature points may be used.
  • a calibration parameter 25 is calculated based on the detection result of the corresponding points (step 207).
  • extrinsic parameters representing the relative positions and orientations of the sensors that perform stereo imaging are calculated (see FIGS. 9 and 10).
  • the coordinates of each corresponding point are used to generate simultaneous equations for the rotation matrix R and the translation vector T that transform the coordinates on the reflection intensity data 41 to the coordinates on the visible image data 40 .
  • the extrinsic parameters included in R and T are calculated using the method of least squares or the like.
  • Parallelization processing is performed on the visible image data 40 and the reflection intensity data 41 using the calibration parameters 25 (step 208).
  • the parallelization process is, for example, a process of correcting the visible image data 40 and the reflection intensity data 41 so as to become data obtained by parallel stereo imaging (see FIG. 11).
  • Each of the parallelized data is regarded as data measured in a state in which the 3D sensor 11 and the 2D sensor 12, for example, have their optical axes parallel and are translated in a direction perpendicular to the optical axis.
  • a matrix for parallelizing the visible image data 40 and the reflection intensity data 41 is calculated, and the parallelization processing of each data is executed using the matrix. be done.
  • the parallelization process is performed, for example, on the corresponding points detected in step 206, that is, feature points of the concave pattern 32 in each data. This makes it possible to reduce the amount of calculation.
  • parallelization processing may be performed on all pixels of the visible image data 40 and the reflection intensity data 41 .
  • Parallax correction processing is executed based on the calibrated distance information Z (step 209).
  • the parallax is calculated based on the calibrated distance information Z for corresponding points of the parallelized visible image data 40 and the reflection intensity data 41 .
  • the position of each corresponding point is moved according to the parallax value.
  • the parallax correction process for example, parallax is calculated for corresponding points of the parallelized reflection intensity data 41, and each corresponding point is moved.
  • parallax may be corrected for the visible image data 40 , or parallax may be corrected for both the reflection intensity data 41 and the visible image data 40 .
  • highly accurate parallax correction is possible using calibrated depth values.
  • the accuracy of parallax correction is high, it is possible to stably execute subsequent processing, and robustness is improved.
  • a registration error is calculated from the result of the parallax correction process (step 210).
  • the error between the corresponding points of the visible image data 40 after the parallax correction process and the corresponding points of the reflection intensity data 41 (the amount of deviation of each corresponding point) is calculated.
  • the alignment error is used as a reference value for correcting the calibration parameters 25 (extrinsic parameters) calculated in step 207 .
  • the rotation matrix R and the translation vector are corrected such that registration errors are minimized.
  • an external parameter is calculated that can convert the visible image data 40 and the reflection intensity data 41 so as to substantially match each other.
  • the aligned reflection intensity data 41 (intensity image) and the aligned visible image data 40 (visible image) are calculated using the calibration parameters 25 corrected by the alignment error.
  • the feedback process for correcting the calibration parameter 25 may be performed multiple times. This makes it possible to calculate the calibration parameters 25 with sufficiently high accuracy.
  • FIG. 14 is a block diagram showing another example of the processing flow of calibration processing.
  • the calibration processing unit 21 performs parallax correction between the visible image data 40 and the reflection intensity data 41 based on the calibrated distance information Z, and the external parameters are calculated based on the result of the parallax correction. be done.
  • This process is a collective process of calculating external parameters from data that has undergone parallax correction processing in advance using the calibrated distance information Z.
  • steps 301 to 305 shown in FIG. 14 is executed in the same manner as the processing from steps 201 to 205 shown in FIG. 13, for example. That is, visible image data 40, reflection intensity data 41, and distance data 42 obtained by measuring the calibration board 30 are read. Further, the distance data 42 is calibrated for each concave pattern 32, and calibrated distance information Z is calculated.
  • Parallax correction processing is executed to correct the parallax between the visible image data 40 and the reflection intensity data 41 (step 306).
  • parallax is calculated based on the calibrated distance information Z for all pixels of the reflection intensity data 41 . Then, the position of the point corresponding to each pixel is moved according to the parallax value. Further, for example, feature points may be detected from the reflection intensity data 41 and the parallax of each feature point may be corrected. Further, the parallax may be corrected for the visible image data 40, or both the reflection intensity data 41 and the visible image data 40 may be corrected for parallax. In this way, highly accurate parallax correction is possible even for non-parallelized data by using the calibrated depth value (calibrated distance information Z).
  • step 306 using the depth step (recessed portion 34) of the recessed pattern 32 provided on the calibration board 30, the distance direction (depth direction) of the external parameters representing the relative positions and orientations of the sensors. is calculated.
  • each parameter R 13 , R 23 , and R 33 acting on p z is calculated based on the depth ⁇ (absolute depth value) of the concave portion 34 . be.
  • the number of unknown calibration parameters 25 is reduced, the calculation processing of other parameters can be stably executed, and robustness can be improved.
  • Corresponding point search processing is performed on the visible image data 40 and the reflection intensity data 41 corrected by the parallax correction processing (step 307).
  • This process is executed, for example, in the same manner as the process of step 206 shown in FIG.
  • the same feature points (corresponding points) are specified from the feature points of each concave pattern 32 included in the visible image data 40 and the reflection intensity data 41 . Since data after parallax correction is used here, it is possible to easily search for corresponding points.
  • External parameters other than the parameters related to movement in the distance direction are calculated based on the detection result of the corresponding points (step 308).
  • other parameters are calculated from the simultaneous equations for the rotation matrix R and the translation vector T, using the parameters related to the movement in the distance direction as known parameters.
  • the number of unknown parameters is smaller than in the external parameter calculation process performed in step 207 of FIG. 13, for example. This makes it possible to stably calculate other parameters.
  • Alignment processing is performed on the visible image data 40 and the reflection intensity data 41 using the calibration parameters 25 (step 309).
  • the alignment process is, for example, a process of transforming one of the visible image data 40 and the reflection intensity data 41 based on the rotation matrix R and the translation vector T calculated in step 308 .
  • the result of parallax correction is reflected in the extrinsic parameters (R and T) calculated from the data after parallax correction. Therefore, the data converted using such external parameters are data in which the positions of the corresponding points are substantially the same. This makes it possible to calculate the aligned reflection intensity data 41 (intensity image) and the aligned visible image data 40 (visible image).
  • the 3D sensor 11 and the 2D sensor 12 measure the calibration board 30 on which the plurality of concave patterns 32 are provided. (external parameter) is calculated.
  • the bottom surface portion 35 and the edge surface portion 37 of each concave pattern 32 have a high reflectance with respect to the measurement light of the 3D sensor 11 .
  • the 3D sensor 11 can accurately measure the shape of the concave pattern 32, and the calculation accuracy of the calibration parameter 25 representing the positional relationship of each sensor is improved. As a result, it is possible to accurately calibrate the positional relationship between the sensors.
  • FIG. 15 is a block diagram showing a processing flow of calibration processing given as a comparative example.
  • the arrangement relationship between the 2D sensor 12 and the 3D sensor 11 is calibrated using the calibration pattern for the visible camera described with reference to FIG. 6, for example.
  • the distance measurement accuracy of the 3D sensor 11 with respect to the black and white calibration pattern may deteriorate due to the low reflectance of the measurement light 2, so distance data is not used in this process.
  • parallax information and Z information calculated only from corresponding points of image data are less accurate than distance data measured by, for example, a distance measuring sensor. Therefore, the calculation accuracy of the external parameters is lowered, and the alignment accuracy between the sensors is lowered.
  • a method using an IMU (Inertial Measurement Unit) equipped with a gyro or other sensors such as GPS is also conceivable.
  • a calibration board 30 is used that includes a plurality of concave patterns 32 having a bottom surface portion 35 and an edge surface portion 37 with high reflectance with respect to the measurement light 2 .
  • a sufficient amount of reflected light 3 is generated in the concave pattern 32, which is the object of distance measurement, so that sufficient distance measurement accuracy can be ensured.
  • the process of calculating the extrinsic parameters can be performed by 2D-3D using the three-dimensional distance data 42 in addition to the two-dimensional image data (the visible image data 40 and the reflection intensity data 41). It becomes a calibration process. As a result, for example, parallax correction can be performed on image data, and the number of parameters can be reduced. This makes it possible to calculate highly accurate extrinsic parameters and improve the accuracy and robustness of alignment. As a result, it is possible to sufficiently improve the accuracy of the 3D model 26 generated by 2D-3D stereo imaging.
  • the technique of generating the 3D model 26 using the distance data 42 (shape information) measured by the 3D sensor 11 and the visible image data 40 (visible information) measured by the 2D sensor 12 is widely used in entertainment, medical and other fields.
  • Augmented Reality (AR), etc. are expected to be applied in various fields.
  • AR Augmented Reality
  • the 3D model 26 is also effective when realizing interaction between objects in the real space and virtual objects. It is also possible to implement a user interface using the 3D model 26 of the user's hand.
  • the 3D model 26 of the subject it is possible to perform lens emulation that imitates lens effects, lighting processing that adjusts lighting after photographing, and the like.
  • the present technology By applying the present technology to an application that uses such a 3D model 26, it is possible to sufficiently improve the operation accuracy and the like of the application.
  • the arrangement relationship between the active ranging sensor (3D sensor) and the passive sensor (2D sensor) was calibrated.
  • the technique can also be applied to calibrate alignment relationships between active ranging sensors.
  • FIG. 16 is a block diagram showing a configuration example of a three-dimensional measurement system according to the second embodiment.
  • FIG. 17 is a schematic diagram showing an overview of the operation of the three-dimensional measurement system 200.
  • the three-dimensional measurement system 200 has a 3D sensor 211 a , a 3D sensor 211 b , a storage section 213 and a controller 220 .
  • the three-dimensional measurement system 200 is a system that performs 3D-3D imaging that images a measurement target 1 in a three-dimensional space using two 3D sensors 211a and 211b.
  • the data measured by the 3D sensors 211a and 211b are integrated to reconstruct the three-dimensional shape of the object 1 to be measured.
  • This configuration can be applied to an omnidirectional multi-camera system or the like that measures the measurement target 1 using a plurality of 3D sensors.
  • the 3D sensors 211a and 211b are arranged so that they can measure the common measurement object 1 from different directions. Each sensor may be a sensor unit that can be arranged individually, or may be housed in a common housing.
  • the three-dimensional measurement system 200 executes calibration processing and model generation processing. The left and right sides of FIG. 17 schematically show how the measurement is performed when performing the calibration process and the model generation process, respectively.
  • the calibration process is a process of measuring the calibration marker 60 with the 3D sensors 211a and 211b and aligning the data measured by each sensor.
  • calibration parameters 25 are mainly calculated for calibrating the arrangement relationship (relative position and orientation) of the 3D sensors 211a and 211b.
  • the calibration marker 60 corresponds to a calibration target.
  • the model generation process is a process of generating the 3D model 26 of the measurement object 1 using the three-dimensional information of the measurement object 1 measured by the 3D sensors 211a and 211b.
  • the calibration parameters 25 calculated by the calibration process are used to align the data of each sensor.
  • the configuration of the three-dimensional measurement system 200 will be specifically described below.
  • the 3D sensors 211a and 211b are active distance measuring sensors that measure the distance to each point of the measurement object 1 by irradiating the measurement object 1 with the measurement light 2 and measuring the reflected light 3 reflected by the measurement object 1. is.
  • the 3D sensors 211a and 211b respectively output distance data (depth images) representing the distance to each point on the object 1 to be measured.
  • the 3D sensors 211a and 211b also output reflection intensity data (reflection intensity images) representing the reflection intensity of the measurement light 2 at each point on the object 1 to be measured.
  • the 3D sensors 211a and 211b are configured in the same manner as the 3D sensor 211 described with reference to, for example, FIG. It should be noted that the 3D sensors 211a and 211b do not have to be exactly the same, and the sensors may have different configurations.
  • the 3D sensor 211a corresponds to a ranging sensor that emits measurement light.
  • the 3D sensor 211b is an example of another sensor different from the distance measuring sensor, and corresponds to another distance measuring sensor that emits measurement light.
  • Storage unit 213 is a non-volatile storage device. Storage unit 213 stores a control program for controlling the overall operation of three-dimensional measurement system 200 . The storage unit 213 also stores data of the calibration parameters 25, data of the shape and dimensions of the calibration marker 60, data of the 3D model 26, and the like. Controller 220 controls the operation of each block of three-dimensional measurement system 200 . In this embodiment, a calibration processing unit 221 and a model generation unit 222 are realized as functional blocks by the CPU of the controller 220 executing the program according to this embodiment.
  • the calibration processing unit 221 executes calibration processing to calibrate the positional relationship between the 3D sensor 211a and the 3D sensor 211b. Specifically, based on the data obtained by measuring the calibration marker 60 with the 3D sensor 211a and the data obtained by measuring the calibration marker 60 with the 3D sensor 211b, the calibration processing unit 221 performs the 3D sensor 211a and the 3D sensor. 211b to calculate a calibration parameter 25 (external parameter).
  • a common calibration marker 60 is measured by the 3D sensor 211a and the 3D sensor 211b.
  • the 3D sensor 211a outputs distance data representing the distance to each point of the calibration marker 60.
  • FIG. The 3D sensor 211 a also outputs reflection intensity data representing the reflection intensity of the measurement light 2 at each point on the calibration marker 60 .
  • the 3D sensor 211b outputs distance data representing the distance to each point of the calibration marker 60.
  • FIG. The 3D sensor 211 a also outputs reflection intensity data representing the reflection intensity of the measurement light 2 at each point on the calibration marker 60 .
  • the calibration processing unit 221 calculates external parameters based on the distance data and reflection intensity data of the calibration marker 60 output from each of the 3D sensors 211a and 211b.
  • the distance data and reflection intensity data of the calibration marker 60 output from the 3D sensor 211a are described as first distance data and first reflection intensity data.
  • the distance data and reflection intensity data of the calibration marker 60 output from the 3D sensor 211b are referred to as second distance data and second reflection intensity data.
  • the model generator 222 generates a 3D model 26 of the measurement object 1 from the data of the measurement object 1 measured by the 3D sensors 211a and 211b. For example, the distance data of the measurement object 1 measured by the 3D sensors 211a and 211b are integrated to generate the 3D model 26 representing the three-dimensional shape of the measurement object 1.
  • FIG. This is a process of connecting the three-dimensional shape measured by the 3D sensor 211a and the three-dimensional shape measured by the 3D sensor 211b so as to connect them smoothly.
  • 3D shape data (distance data) is processed, for example, as a 3D point cloud.
  • the calibration parameters 25 calculated in the calibration process are used for alignment of the point clouds measured by the 3D sensors 211a and 211b. This makes it possible to generate a 3D model 26 or the like that accurately reproduces the three-dimensional shape of the measurement target 1 over a wide range.
  • FIG. 18 is a schematic diagram showing a configuration example of the calibration marker 60. As shown in FIG.
  • the calibration marker 60 has a marker body 61 and a plurality of concave patterns 62 provided on the marker body 61 .
  • the marker main body 61 is a spherical member that constitutes the calibration marker 60 . Therefore, the marker body 61 itself functions as a marker because it is photographed as a circle regardless of which direction it is photographed. For example, the center of the marker body 61 is used as the feature point of the calibration marker 60 .
  • the surface of the marker body 61 serves as a placement surface 63 on which a plurality of concave patterns 62 are formed.
  • the calibration marker 60 has a spherical arrangement surface 63 on which the plurality of concave patterns 62 are arranged.
  • FIG. 18 schematically shows the appearance of the marker body 61 viewed from one direction.
  • the plurality of concave patterns 62 are arranged over the entire spherical arrangement surface 63, and for example, the plurality of concave patterns 62 are also formed on the side opposite to the side shown in FIG.
  • the plurality of recessed patterns 62 each have recesses 64 .
  • the concave portion 64 is a recess provided on the spherical arrangement surface 63 and has a bottom portion 65 and a side portion 66 .
  • the depth direction of the concave portion 64 is typically the direction toward the center of the spherical marker body 61 (the normal direction of the placement surface 63).
  • the area surrounding each concave portion 64 is an edge surface portion 67 . In FIG. 18, the region corresponding to the edge surface portion 67 is schematically illustrated using dotted lines.
  • the bottom surface portion 65 and the edge surface portion 67 are configured such that the reflectance with respect to the measurement light 2 is higher than a predetermined threshold.
  • the predetermined threshold is set, for example, by the method described with reference to FIG. 3 and the like. That is, each of the calibration markers 60 has a concave portion 64, and is configured such that the reflectance of the bottom surface portion 65 of the concave portion 64 and the edge surface portion 67 surrounding the concave portion 64 with respect to the measurement light 2 is higher than a predetermined threshold. It has a plurality of concave patterns 62 .
  • the calibration marker 60 shown in FIG. 18 is configured so that the reflectance with respect to the measurement light 2 as a whole is higher than a predetermined threshold. That is, the same reflectance is set not only for the bottom surface portion 65 and the edge surface portion 67 of the concave pattern 62, but also for other portions. As a result, each of the 3D sensors 211a and 211b can accurately measure the three-dimensional shape of the entire calibration marker 60.
  • FIG. 18 is configured so that the reflectance with respect to the measurement light 2 as a whole is higher than a predetermined threshold. That is, the same reflectance is set not only for the bottom surface portion 65 and the edge surface portion 67 of the concave pattern 62, but also for other portions. As a result, each of the 3D sensors 211a and 211b can accurately measure the three-dimensional shape of the entire calibration marker 60.
  • the plurality of concave patterns 62 are configured such that, for example, the bottom surface portion 65 and the edge surface portion 67 are flat.
  • the concave pattern 62 shown in FIGS. 3B and 3C has a shape as if it were embedded in the spherical marker main body 61 .
  • the accuracy of distance measurement for each concave pattern 62 is improved.
  • only the bottom surface portion 65 may be configured to be flat.
  • the edge surface portion 67 is a curved surface that coincides with the spherical arrangement surface 63 . Even with such a configuration, it is possible to calibrate the depth value by setting the depth of the bottom surface portion 65 to the edge of the recessed portion 64 as ⁇ .
  • each recessed pattern 62 becomes a circle chart with a circular depression in the central portion and functions as a distance measuring circle. This makes it possible to easily detect the feature points of each recessed pattern 62 .
  • a single calibration marker 60 is used to perform the calibration process.
  • the positional relationship of the 3D sensors 211a and 211b is calibrated based on the shape of the calibration marker 60 itself (center position of each concave pattern 62).
  • the position and size of each concave pattern 62 are set so that each arrangement position can be identified.
  • a plurality of calibration markers 60 fixed to a predetermined holder may be used. This constitutes one calibration target as a whole.
  • the positional relationship of the 3D sensors 211a and 211b is calibrated based on the position of each calibration marker 60 (center position of the marker body 61).
  • FIG. 19 is a flowchart illustrating an example of calibration processing.
  • the calibration marker 60 is measured by the 3D sensor 211a and the 3D sensor 211b (step 401).
  • the calibration processing unit 221 acquires data output from the 3D sensors 211a and 211b (step 402).
  • the first reflection intensity data and first distance data output from the 3D sensor 211a and the second reflection intensity data and second distance data output from the 3D sensor 211b are read as appropriate. .
  • This measurement is performed multiple times while changing the position and orientation of the calibration marker 60, for example.
  • the calibration processor 221 calibrates the distance data (step 403).
  • the first and second distance data measured by the 3D sensors 211a and 211b are calibrated, respectively.
  • the calibration processing unit 221 calculates the first calibrated distance information Z1 by calibrating the distance represented by the first distance data based on the depth ⁇ of the recesses 64 for each of the plurality of recessed patterns 62.
  • the calibration processing unit 221 calculates the second calibrated distance information Z2 by calibrating the distance represented by the second distance data based on the depth ⁇ of the recesses 64 for each of the plurality of recessed patterns 62 .
  • the process of calibrating the first and second distance data is basically the same as the method explained in step 103 of FIG.
  • the inclination is corrected so that the depth value when the bottom surface portion 65 is viewed from the orthogonal direction is obtained, and the difference in the depth value between the bottom surface portion 65 and the edge surface portion 67 is adjusted to match the depth ⁇ of the concave portion 64.
  • the depth value is corrected.
  • Calibrated distance information obtained by calibrating the distance data is calculated by correcting the depth value to return the inclination.
  • Such depth value calibration processing is performed for each concave pattern 62 .
  • a depth value calibrated with ⁇ as a reference is calculated for each feature point of the concave pattern 62 .
  • the characteristic point of the concave pattern 62 for example, the center point of the edge surface portion 67, the center point of the bottom surface portion 65, or the like is used.
  • the calibration processing unit 221 calculates the calibration parameters 25 (step 404).
  • a calibration parameter 25 (external parameter) representing the positional relationship between the 3D sensor 211a and the 3D sensor 211b is calculated.
  • the above-described first calibrated distance information Z1 and second calibrated distance information Z2 are used in the process of calculating this external parameter. Details of the calibration process will be described below in more detail.
  • FIG. 20 is a block diagram illustrating an example of a processing flow of calibration processing;
  • the calibration processing unit 221 calculates external parameters based on the first calibrated distance information Z1 and the second calibrated distance information Z2, and the 3D sensor 211a and the 3D sensor 211b based on the calculation result. are corrected for each internal parameter.
  • This process is a cascade process that uses highly accurate extrinsic parameters generated using each of the calibrated distance information Z1 and Z2 to increase the accuracy of the intrinsic parameters of each sensor.
  • the calibration processing unit 221 reads the first distance data from the 3D sensor 211a and smoothes them (step 501). Then, the smoothed first distance data is read (step 502). The first distance data is calibrated for each concave pattern 62 (ranging circle) to calculate first calibrated distance information Z1 (step 503).
  • This process is the process described in step 403 of FIG.
  • a depth value calibrated with reference to the depth ⁇ of the recesses 64 is calculated for each feature point of the plurality of recessed patterns 62 .
  • steps 501' to 503' are executed to calculate second calibrated distance information Z2 from the second distance data.
  • External parameters are calculated based on the first calibrated distance information Z1 and the second calibrated distance information Z2 (step 504).
  • the first calibrated distance information Z1 and the second calibrated distance information Z2 are, for example, three-dimensional point cloud data in camera coordinates of the 3D sensor 211a and the 3D sensor 211b.
  • two point cloud data Z1 and Z2 are aligned (point cloud matching).
  • Z1 and Z2 are calibrated by the absolute depth value ⁇ , there is no distortion according to internal parameters such as focal length, no relative distance deviation between corresponding points, and the like. Therefore, by rotating and translating each data point (characteristic point, etc.) included in Z1 and Z2, both data can be superimposed. In the matching process, a rotation matrix R and a translation vector T for realizing such rotation/translation are calculated as external parameters.
  • a specific method of matching processing is not limited, and matching methods such as robust estimation and ICP (Iterative Closest Point) may be used as appropriate.
  • the first reflection intensity data is read from the 3D sensor 211a by the calibration processing unit 221 (step 505).
  • the first reflected intensity data is then corrected using the internal parameters of the 3D sensor 211a (step 506).
  • This correction is, for example, a process of correcting distortion according to the characteristics (focal length, etc.) of the 3D sensor 211a.
  • steps 505' and 506' are performed to correct the second reflected intensity data using the internal parameters of the 3D sensor 211b.
  • a three-dimensional reconstruction process is performed using the extrinsic parameters (step 507).
  • the three-dimensional reconstruction process restores the three-dimensional shape of the calibration marker 60 .
  • the first and second reflection intensity data corrected by the internal parameters and the point cloud data (first and second calibration distance information Z1 and Z2) converted by the external parameters are integrated 3 Dimensional shape data is calculated.
  • the first and second reflection intensity data corrected by the intrinsic parameters are further transformed using the extrinsic parameters. That is, the first and second reflection intensity data become image data reconstructed so as to overlap each other.
  • the three-dimensional shape data and the reconstructed first and second reflection intensity data are output as a three-dimensional signal.
  • a registration error is calculated for the three-dimensional signal (step 508).
  • an error a deviation amount of each data point
  • the error of the corresponding points in the reconstructed first and second reflection intensity data is calculated.
  • the extrinsic parameters calculated in step 504 are calculated from the point cloud data calibrated with reference to the absolute depth value ⁇ . Since the 3D reconstruction process is performed using the extrinsic parameters estimated using the high-precision depth representing the absolute value in this way, the remaining error on the 3D point cloud (registration error) is approximately the intrinsic parameter This is thought to be due to the correction by The registration error is then fed back into the process of steps 506 and 506' as a reference value for correcting the internal parameters of each 3D sensor 211a and 211b. For example, each intrinsic parameter is corrected such that registration errors are minimized.
  • the first and second reflection intensity data are corrected again using the internal parameters corrected by the alignment error. Based on this correction result, the three-dimensional reconstruction processing is executed again. As a result, three-dimensional shape data that reconstructs the three-dimensional shape of the calibration marker 60 with high accuracy is calculated. Aligned first and second reflection intensity data transformed so as to substantially match each other are also calculated.
  • the accuracy of the extrinsic parameters is improved by calculating the extrinsic parameters from distance data calibrated with absolute values.
  • the internal parameters are corrected based on such external parameters. This can be said to be a process of improving the calibration performance by the internal parameters by increasing the depth accuracy of the distance data. This makes it possible to calculate very highly accurate calibration parameters 25 (intrinsic parameters and extrinsic parameters).
  • FIG. 21 is a block diagram showing another example of the processing flow of calibration processing.
  • the calibration processing unit 221 performs viewpoint conversion on each reflection intensity data output from the 3D sensor 211a and the 3D sensor 211b based on the first calibrated distance information Z1 and the second calibrated distance information Z2. , and the extrinsic parameters are calculated based on the results of the viewpoint transformation.
  • This process is a collective process of calculating external parameters from data that has undergone viewpoint conversion processing in advance using first and second calibrated distance information Z1 and Z2.
  • steps 601 to 603 steps 601′ to 603′ shown in FIG. 21 is executed in the same manner as the processing of steps 501 to 503 (steps 501′ to 503′) shown in FIG. 20, for example.
  • the process of step 604 (step 604') is executed in the same manner as the process of step 605 (step 605') shown in FIG.
  • Data and first and second distance data are read. Also, the first and second distance data are calibrated for each concave pattern 62 to calculate first and second calibrated distance information Z1 and Z2.
  • Viewpoint conversion processing is performed on the first reflection intensity data and the second reflection intensity data (step 605).
  • the first and second calibrated distance information Z1 and Z2 are calibrated point cloud data.
  • step 605 using the depth step (recess 64) of the recessed pattern 62 provided in the calibration marker 60, the distance direction (depth direction) of the extrinsic parameters representing the relative position and orientation of each sensor is parameters (for example, R 13 , R 23 , R 33 ) related to the movement of are calculated.
  • the number of unknown calibration parameters 25 is reduced, the calculation processing of other parameters can be stably executed, and robustness can be improved.
  • a three-dimensional corresponding point search process is executed (step 606).
  • This process is, for example, a process of detecting physically identical points (corresponding points) from the first reflection intensity data and the second reflection intensity data after viewpoint conversion.
  • the first and second calibrated distance information Z1 and Z2 may be used to search for corresponding points. That is, the image data and the point cloud data are used to three-dimensionally search for corresponding points. Since data after viewpoint conversion is used here, it is possible to easily search for corresponding points.
  • External parameters other than the parameters related to movement in the distance direction are calculated based on the detection result of the corresponding points (step 606).
  • other parameters are calculated from the simultaneous equations for the rotation matrix R and the translation vector T, using the parameters related to the movement in the distance direction as known parameters. Since the number of unknown parameters is small, it is possible to stably calculate other parameters.
  • a three-dimensional reconstruction process is performed using the calibration parameters 25 (step 608).
  • the three-dimensional reconstruction processing is, for example, the same processing as the processing described in step 507 of FIG.
  • external parameters are used to calculate the three-dimensional shape data of the calibration marker 60 and the aligned first and second reflection intensity data transformed so as to substantially match each other.
  • FIG. 22 is a block diagram showing a processing flow of calibration processing given as a comparative example.
  • the positional relationship between the 3D sensors 211a and 211b is calibrated.
  • the distance data output from the 3D sensors 211a and 211b are directly used for the external parameter calculation process.
  • the reflection intensity data measured by each of the 3D sensors 211a and 211b is corrected with the internal parameters and used for the calculation process of the external parameters.
  • the extrinsic parameters are calculated by combining, for example, the matching process of distance data, which is point cloud data, and the corresponding point search process with each reflection intensity data, which is image data.
  • each distance data is not calibrated and represents relative distance. Further, the distance data includes distortion inherent to the sensor. Moreover, the parallax information and Z information calculated only from corresponding points of each reflection intensity data are not highly accurate. Therefore, there is a possibility that the calculation accuracy of the extrinsic parameters is lowered, and the accuracy of the finally constructed three-dimensional shape data and the like is lowered.
  • a calibration marker 60 is used that includes a plurality of concave patterns 62 having a bottom surface portion 65 and an edge surface portion 67 with high reflectance with respect to the measurement light 2 . This makes it possible to measure each recessed pattern 62 with high accuracy. Further, it is possible to calibrate the first and second distance data measured by the 3D sensors 211a and 211b on the basis of the depth ⁇ of the concave pattern 62 (the concave portion 64). This greatly improves the accuracy of each distance data.
  • the calibrated marker 60 By using the calibrated marker 60 with a recess, it is possible to use highly accurate depth information (first and second calibrated distance information Z1 and Z2). This makes it possible to perform highly accurate viewpoint conversion and reduce the number of parameters, thereby improving the calculation accuracy of external parameters. As a result, it is possible to accurately calibrate the positional relationship between the 3D sensors 211a and 211b. In addition, it is possible to correct the internal parameters of each of the 3D sensors 211a and 211b using highly accurate external parameters. As a result, it is possible to properly correct the distortion and the like in each sensor.
  • the concave pattern is a circular chart. It is not limited to this, and for example, a polygonal concave pattern such as a triangular or quadrangular concave pattern may be used. Further, the planar shapes of the bottom surface portion and the edge surface portion do not necessarily have to be similar. For example, a recessed pattern combining a circular bottom surface and a square edge surface may be used. In addition, the design of the recessed pattern is not limited, and any design that enables detection of at least one characteristic point may be used, for example.
  • the calibration markers used in 3D-3D stereo photography do not have to be spherical.
  • a cubic or rectangular parallelepiped marker may be used.
  • markers having a prism shape, pyramid shape, cone shape, or the like may be used.
  • the outer shape of the marker is not limited. In any case, a plurality of concave patterns are appropriately arranged on the surface of the marker so as to enable imaging from various directions.
  • the ToF 3D sensor was mainly described. It is not limited to this, and for example, a structured light or the like that measures a shape by projecting a predetermined pattern of an object may be used.
  • the projection light of a predetermined pattern becomes the measurement light
  • the bottom surface and the edge surface of the concave pattern are configured to appropriately reflect the projection light.
  • Even when structured light is used it is possible to calibrate the distance data by the depth ⁇ of the concave pattern, and it is possible to calibrate the positional relationship with other sensors with high accuracy.
  • a target with a convex pattern may be used instead of the concave pattern.
  • a pattern may be used in which the portion that will be the bottom portion protrudes from the placement surface to form a protruding surface. Even in such a case, it is possible to calibrate the distance data using the depth difference between the edge surface portion and the projecting surface as an absolute depth value.
  • a distance measuring sensor that irradiates measurement light, each having a recess, and configured so that the reflectance of the bottom surface of the recess and the edge surface surrounding the recess with respect to the measurement light is higher than a predetermined threshold.
  • the distance measuring sensor and the other An information processing device comprising: a calibration processing unit that calculates a calibration parameter representing an arrangement relationship with a sensor.
  • the information processing device according to (1) or (2), The information processing apparatus, wherein the plurality of concave patterns are configured such that the bottom surface portion has a circular shape, and the edge surface portion has an annular shape whose center coincides with the bottom surface portion in a plan view.
  • the ranging sensor outputs first distance data representing a distance to each point of the calibration target;
  • the calibration processing unit calculates first calibrated distance information obtained by calibrating the distance represented by the first distance data with reference to the depth of the recess for each of the plurality of concave patterns, and calculates the first calibrated distance.
  • An information processing device that calculates a calibration parameter representing the arrangement relationship based on the information.
  • the information processing device (4), The information processing apparatus, wherein the calibration processing unit smoothes the first distance data and calculates the first calibrated distance information based on the smoothed first distance data.
  • the other sensor is a visible camera that captures an image of the target using visible light, and outputs visible image data of the calibration target captured using the visible light.
  • the plurality of concave patterns are configured such that the bottom surface portion and the edge surface portion have a first color;
  • the calibration target has a planar arrangement surface including a region on which the plurality of concave patterns are arranged and which becomes a second color different from the first color when photographed with the visible light.
  • the information processing device according to (7) The information processing apparatus, wherein a region of the arrangement surface excluding the plurality of concave patterns is colored with the second color.
  • the information processing device has a grid pattern divided into a grid pattern by a plurality of rectangular regions alternately colored with the first color and the second color, The information processing apparatus, wherein at least one of the plurality of concave patterns is arranged in each of the plurality of rectangular regions.
  • the first color is white
  • the information processing device wherein the second color is black.
  • the first color is set such that the contrast with respect to the second color is maximized within a range in which the intensity of the reflected light of the measurement light falls within the measurement range of the distance measuring sensor.
  • the information processing device according to any one of (6) to (11), The ranging sensor outputs reflection intensity data representing the reflection intensity of the measurement light at each point on the calibration target, The information processing device, wherein the calibration processing unit calculates a calibration parameter representing the arrangement relationship based on the visible image data and the reflection intensity data, and corrects the calculation result based on the first calibrated distance information.
  • the information processing device according to any one of (6) to (11), The ranging sensor outputs reflection intensity data representing the reflection intensity of the measurement light at each point on the calibration target, The calibration processing unit performs parallax correction between the visible image data and the reflection intensity data based on the first calibrated distance information, and a calibration parameter representing the arrangement relationship based on the result of the parallax correction.
  • An information processing device that calculates (14) The information processing device according to (4) or (5),
  • the other sensor is another distance measuring sensor that emits the measurement light, and outputs second distance data representing a distance to each point of the calibration target.
  • the calibration processing unit calculates second calibrated distance information obtained by calibrating the distance represented by the second distance data with reference to the depth of the recess for each of the plurality of recessed patterns.
  • the information processing device calculates a calibration parameter representing the arrangement relationship based on the first calibrated distance information and the second calibrated distance information, and calculates the distance measurement sensor and the other measurement based on the calculation result.
  • the information processing device The distance measurement sensor and the other distance measurement sensor respectively output reflection intensity data representing the reflection intensity of the measurement light at each point on the calibration target, and the calibration processing unit outputs the first calibration distance information and performing viewpoint conversion on each reflection intensity data output from the distance measuring sensor and the other distance measuring sensors based on the second calibrated distance information, and performing calibration representing the arrangement relationship based on the result of the viewpoint conversion Information processing device that calculates parameters.
  • a distance measuring sensor that emits measurement light, each having a recess, and configured such that the reflectance of the bottom surface of the recess and the edge surface surrounding the recess with respect to the measurement light is higher than a predetermined threshold. Based on data obtained by measuring a calibration target having a plurality of concave patterns formed thereon and data obtained by measuring the calibration target by another sensor different from the distance measuring sensor, the distance measuring sensor and the other An information processing method in which a computer system performs calculation of a calibration parameter representing a positional relationship with a sensor.
  • a calibration target used to calibrate the positional relationship between a plurality of sensors including a ranging sensor that emits measurement light,
  • a calibration target comprising a plurality of recessed patterns each having a recess and configured such that the reflectance of the bottom surface of the recess and the edge surface surrounding the recess with respect to the measuring light is higher than a predetermined threshold.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Measurement Of Optical Distance (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

本技術の一形態に係る情報処理装置は、較正処理部を具備する。前記較正処理部は、測定光を照射する測距センサにより、各々が凹部を有し、前記凹部の底面部及び前記凹部を囲む縁面部の前記測定光に対する反射率が所定の閾値よりも高くなるように構成された複数の凹状パターンを有する較正用ターゲットを測定したデータと、前記測距センサとは異なる他のセンサにより、前記較正用ターゲットを測定したデータとに基づいて、前記測距センサと前記他のセンサとの配置関係を表す較正パラメータを算出する。

Description

情報処理装置、情報処理方法、及び較正用ターゲット
 本技術は、立体形状の測定等に用いられる複数のセンサ間の配置を較正する処理に適用可能な情報処理装置、情報処理方法、及び較正用ターゲットに関する。
 特許文献1には、3次元情報及び全方位画像を取得可能なアクティブセンサの位置及び姿勢を推定する方法について記載されている。この方法では、アクティブセンサが取得した全方位画像から、アクティブセンサの現在位置における全方位エッジヒストグラムが算出される。この結果を参照地点での全方位エッジヒストグラムと比較することで、参照地点に対する移動方向と回転角度が算出される。これにより、アクティブセンサの位置及び姿勢を推定することが可能となっている(特許文献1の明細書段落[0025][0038][0053][0108]図3等)。
特開2004-132933号公報
 近年では、測距センサや画像センサ等を組み合わせて立体形状等を測定する技術が開発されている。このように、複数のセンサを用いる場合には、各センサ間の相対的な位置や姿勢を適正に較正することが重要となる。このため、センサ間の配置関係を精度よく較正する技術が求められている。
 以上のような事情に鑑み、本技術の目的は、センサ間の配置関係を精度よく較正することが可能な情報処理装置、情報処理方法、及び較正用ターゲットを提供することにある。
 上記目的を達成するため、本技術の一形態に係る情報処理装置は、較正処理部を具備する。
 前記較正処理部は、測定光を照射する測距センサにより、各々が凹部を有し、前記凹部の底面部及び前記凹部を囲む縁面部の前記測定光に対する反射率が所定の閾値よりも高くなるように構成された複数の凹状パターンを有する較正用ターゲットを測定したデータと、前記測距センサとは異なる他のセンサにより、前記較正用ターゲットを測定したデータとに基づいて、前記測距センサと前記他のセンサとの配置関係を表す較正パラメータを算出する。
 この情報処理装置では、測距センサ及び他のセンサにより、複数の凹状パターンが設けられた較正用ターゲットを測定したデータから、各センサの配置関係を表す較正パラメータが算出される。各凹状パターンの底面部及び縁面部は、測距センサの測定光に対する反射率が高い。これにより、測距センサは凹状パターンの形状を精度よく測定することが可能となり、各センサの配置関係を表す較正パラメータの算出精度が向上する。この結果、センサ間の配置関係を精度よく較正することが可能となる。
 前記複数の凹状パターンは、前記底面部及び前記縁面部が平面となるように構成されてもよい。
 前記複数の凹状パターンは、前記底面部が円形状となるように、かつ前記縁面部が平面視で前記底面部と中心が一致する円環形状となるように構成されてもよい。
 前記測距センサは、前記較正用ターゲットの各点に対する距離を表す第1の距離データを出力してもよい。この場合、前記較正処理部は、前記複数の凹状パターンごとに、前記凹部の深さを基準として前記第1の距離データが表す距離を較正した第1の較正距離情報を算出し、前記第1の較正距離情報に基づいて、前記配置関係を表す較正パラメータを算出してもよい。
 前記較正処理部は、前記第1の距離データを平滑化し、前記平滑化された前記第1の距離データに基づいて前記第1の較正距離情報を算出してもよい。
 前記他のセンサは、対象を可視光により撮影する可視カメラであり、前記較正用ターゲットを前記可視光により撮影した可視画像データを出力してもよい。
 前記複数の凹状パターンは、前記底面部及び前記縁面部の色が、第1の色となるように構成されてもよい。この場合、前記較正用ターゲットは、前記複数の凹状パターンが配置され、前記可視光による撮影において前記第1の色とは異なる第2の色となる領域を含む平面状の配置面を有してもよい。
 前記配置面は、前記複数の凹状パターンを除く領域が前記第2の色に着色されてもよい。
 前記配置面は、前記第1の色及び前記第2の色で交互に着色された複数の矩形領域により格子状に分割された格子模様を有してもよい。この場合、前記複数の凹状パターンは、前記複数の矩形領域の各々に少なくとも1つ配置されてもよい。
 前記第1の色は、白色であってもよい。この場合、前記第2の色は、黒色であってもよい。
 前記第1の色は、前記測定光の反射光の強度が前記測距センサの測定レンジに収まる範囲で、前記第2の色に対するコントラストが最大となるように設定されてもよい。
 前記測距センサは、前記較正用ターゲットの各点における前記測定光の反射強度を表す反射強度データを出力してもよい。この場合、前記較正処理部は、前記可視画像データと前記反射強度データとに基づいて前記配置関係を表す較正パラメータを算出し、当該算出結果を前記第1の較正距離情報に基づいて補正してもよい。
 前記測距センサは、前記較正用ターゲットの各点における前記測定光の反射強度を表す反射強度データを出力してもよい。この場合、前記較正処理部は、前記第1の較正距離情報に基づいて前記可視画像データと前記反射強度データとの間の視差補正を実行し、前記視差補正の結果に基づいて前記配置関係を表す較正パラメータを算出してもよい。
 前記他のセンサは、前記測定光を照射する他の測距センサであり、前記較正用ターゲットの各点に対する距離を表す第2の距離データを出力してもよい。
 前記較正用ターゲットは、前記複数の凹状パターンが配置される球面状の配置面を有してもよい。
 前記較正処理部は、前記複数の凹状パターンごとに、前記凹部の深さを基準として前記第2の距離データが表す距離を較正した第2の較正距離情報を算出してもよい。
 前記較正処理部は、前記第1の較正距離情報及び前記第2の較正距離情報に基づいて前記配置関係を表す較正パラメータを算出し、当該算出結果に基づいて前記測距センサ及び前記他の測距センサの各内部パラメータを補正してもよい。
 前記測距センサ及び前記他の測距センサは、前記較正用ターゲットの各点における前記測定光の反射強度を表す反射強度データをそれぞれ出力してもよい。この場合、前記較正処理部は、前記第1の較正距離情報及び前記第2の較正距離情報に基づいて前記測距センサ及び前記他の測距センサから出力された各反射強度データに関する視点変換を実行し、前記視点変換の結果に基づいて前記配置関係を表す較正パラメータを算出してもよい。
 本技術の一形態に係る情報処理方法は、コンピュータシステムにより実行される情報処理方法であって、測定光を照射する測距センサにより、各々が凹部を有し、前記凹部の底面部及び前記凹部を囲む縁面部の前記測定光に対する反射率が所定の閾値よりも高くなるように構成された複数の凹状パターンを有する較正用ターゲットを測定したデータと、前記測距センサとは異なる他のセンサにより、前記較正用ターゲットを測定したデータとに基づいて、前記測距センサと前記他のセンサとの配置関係を表す較正パラメータを算出することを含む。
 本技術の一形態に係る較正用ターゲットは、測定光を照射する測距センサを含む複数のセンサ間の配置関係を較正するために用いられる較正用ターゲットであって、複数の凹状パターンを具備する。
 前記複数の凹状パターンは、各々が凹部を有し、前記凹部の底面部及び前記凹部を囲む縁面部の測定光に対する反射率が所定の閾値よりも高くなるように構成される。
本技術の第1の実施形態に係る3次元測定システムの構成例を示すブロック図である。 3次元測定システムの概要を示す模式図である。 キャリブレーションボードの構成例を示す模式図である。 キャリブレーションボードを測定したデータの一例を示す模式図である。 3Dセンサの特性を説明するためのデータの一例である。 比較例として挙げるキャリブレーションパターンの一例を示す模式図である。 キャリブレーションボードの他の構成例を示す模式図である。 キャリブレーションボードの他の構成例を示す模式図である。 キャリブレーションパラメータについて説明するための模式図である。 カメラセンサ間の配置関係を較正する処理について説明する模式図である。 ステレオ撮影におけるデプス値と視差との関係を示す模式図である。 キャリブレーション処理の一例を示すフローチャートである。 キャリブレーション処理の処理フローの一例を示すブロック図である。 キャリブレーション処理の処理フローの他の一例を示すブロック図である。 比較例として挙げるキャリブレーション処理の処理フローを示すブロック図である。 第2の実施形態に係る3次元測定システムの構成例を示すブロック図である。 3次元測定システムの動作の概要を示す模式図である。 キャリブレーションマーカーの構成例を示す模式図である。 キャリブレーション処理の一例を示すフローチャートである。 キャリブレーション処理の処理フローの一例を示すブロック図である。 キャリブレーション処理の処理フローの他の一例を示すブロック図である。 比較例として挙げるキャリブレーション処理の処理フローを示すブロック図である。
 以下、本技術に係る実施形態を、図面を参照しながら説明する。
 <第1の実施形態>
 [3次元測定システムの構成]
 図1は、本技術の第1の実施形態に係る3次元測定システムの構成例を示すブロック図である。図2は、3次元測定システム100の概要を示す模式図である。
 3次元測定システム100は、3Dセンサ11と、2Dセンサ12と、記憶部13と、コントローラ20とを有する。3次元測定システム100は、3Dセンサ11及び2Dセンサ12を用いて3次元空間にある測定対象1を撮影する2D-3Dステレオ撮影を行うシステムである。本実施形態では、測定対象1の立体形状及び外観等を含む3次元情報が測定される。
 3Dセンサ11及び2Dセンサ12は、互いに異なる方向から共通の測定対象1を測定することができるように配置される。
 3Dセンサ11及び2Dセンサ12は、例えば個別の筐体に収められた独立したセンサユニットとして構成されてもよい。この場合、各センサはそれぞれ自由に配置可能である。あるいは、3Dセンサ11及び2Dセンサ12が一つの筐体に収められてもよい。この場合、例えばスマートフォン等の端末装置や、据え置き型の測定装置に各センサが設けられる。
 3次元測定システム100では、キャリブレーション処理と、モデル生成処理とが実行される。図2の左側及び右側には、キャリブレーション処理及びモデル生成処理を行う際の測定の様子がそれぞれ模式的に図示されている。
 キャリブレーション処理は、3Dセンサ11及び2Dセンサ12によりキャリブレーションボード30を測定して、各センサにより測定されるデータの位置合わせを行う処理である。この処理では、主に3Dセンサ11及び2Dセンサ12の配置関係(相対的な位置及び姿勢)を較正するキャリブレーションパラメータ25が算出される。本実施形態では、キャリブレーションボード30は、較正用ターゲットに相当する。
 モデル生成処理は、3Dセンサ11及び2Dセンサ12により測定された測定対象1の3次元情報を用いて、測定対象1の3Dモデル26を生成する処理である。この処理では、キャリブレーション処理により算出されたキャリブレーションパラメータ25を用いて、各センサのデータの位置合わせが行われる。
 以下では、3次元測定システム100の構成について具体的に説明する。
 3Dセンサ11は、測定対象1に測定光2を照射して、測定対象1で反射された反射光3を測定することで、測定対象1の各点に対する距離を測定するアクティブ測距センサである。本実施形態では、3Dセンサ11は、測定光を照射する測距センサに相当する。
 測定光2としては、典型的には赤外光(IR:Infrared)が用いられる。図2に示すように、3Dセンサ11は、赤外光を照射する光源14(赤外線LED等)と、測定対象1で反射した赤外光を検出するイメージセンサ15(IRイメージセンサ等)とを用いて構成される。
 3Dセンサ11としては、例えばToF(Time of Flight)方式のデプスカメラが用いられる。ToF方式とは、測定対象1に照射された測定光2が反射光3となってセンサに返ってくるまでの時間差を計測することで、測定対象1の各点に対する距離(デプス値)を測定する検出方式である。
 本実施形態では、測定光2と反射光3との位相差に基づいてデプス値を測定するiToF(indirect Time of Flight)方式の3Dセンサ11が用いられる。また例えば、測定光2を照射してから反射光3が返ってくるまでの時間を直接検出するdToF(direct Time of Flight)方式の3Dセンサ11が用いられてもよい。この他、3Dセンサ11の具体的な構成は限定されず、光(測定光2)を照射して距離を測定する任意のセンサが3Dセンサ11として用いられてよい。
 3Dセンサ11は、測定対象1の各点に対する距離を表す距離データを出力する。ここで距離データとは、例えば3Dセンサ11を基準とするカメラ座標における、測定点までの奥行き(デプス値)を表すデータである。例えば、3Dセンサ11では、イメージセンサ15の画素ごとにデプス値が検出される。このデプス値のデータが、距離データ(デプス画像)となる。
 また3Dセンサ11は、測定対象1の各点における測定光2の反射強度を表す反射強度データを出力する。例えば、3Dセンサ11では、イメージセンサ15の画素ごとに反射光3の強度が検出される。この反射光3の強度を表すデータが、反射強度データ(反射強度画像)となる。
 2Dセンサ12は、測定対象1を可視光4により撮影する可視カメラであり、測定対象1を可視光4により撮影した可視画像データを出力する。可視画像データは、カラーの動画像や静止画像のデータであり、測定対象1の外観を表す可視情報となる。本実施形態では、2Dセンサ12は、測距センサとは異なる他のセンサの一例であり、対象を可視光により撮影する可視カメラに相当する。
 2Dセンサ12としては、CMOS(Complementary Metal-Oxide Semiconductor)センサやCCD(Charge Coupled Device)センサ等のイメージセンサを備えるデジタルカメラを用いることが可能である。また2Dセンサ12として、ズーム機能や各種の光学フィルタ等を備えるデジタルカメラが用いられてもよい。この他、測定対象1を可視光4により撮影可能な任意の構成が採用されてよい。
 記憶部13は、不揮発性の記憶デバイスである。記憶部13としては、例えばSSD(Solid State Drive)等の固体素子を用いた記録媒体や、HDD(Hard Disk Drive)等の磁気記録媒体が用いられる。この他、記憶部13として用いられる記録媒体の種類等は限定されず、例えば非一時的にデータを記録する任意の記録媒体が用いられてよい。
 記憶部13には、3次元測定システム100の全体の動作を制御するための制御プログラムが記憶される。制御プログラムは、本実施形態に係るプログラムであり、記憶部13は、プログラムが記録されているコンピュータが読み取り可能な記録媒体に相当する。
 また記憶部13には、上記したキャリブレーションパラメータ25のデータや、キャリブレーションボード30の形状や寸法等のデータ、3Dモデル26のデータ等が記憶される。この他、記憶部13には、3次元測定システム100の動作に必要な任意のデータが記憶される。
 コントローラ20は、3次元測定システム100が有する各ブロックの動作を制御する。コントローラ20は、例えばCPUやメモリ(RAM、ROM)等のコンピュータに必要なハードウェア構成を有する。CPUが記憶部13に記憶されている制御プログラムをRAMにロードして実行することにより、種々の処理が実行される。本実施形態では、コントローラ20は、情報処理装置に相当する。
 コントローラ20として、例えばFPGA(Field Programmable Gate Array)等のPLD(Programmable Logic Device)、その他ASIC(Application Specific Integrated Circuit)等のデバイスが用いられてもよい。また例えばGPU(Graphics Processing Unit)等のプロセッサがコントローラ20として用いられてもよい。
 本実施形態では、コントローラ20のCPUが本実施形態に係るプログラムを実行することで、機能ブロックとして、較正処理部21、及びモデル生成部22が実現される。そしてこれらの機能ブロックにより、本実施形態に係る情報処理方法が実行される。なお各機能ブロックを実現するために、IC(集積回路)等の専用のハードウェアが適宜用いられてもよい。
 較正処理部21は、キャリブレーション処理を実行して、3Dセンサ11と2Dセンサ12との配置関係(センサ間の相対的な位置及び姿勢)を較正する。具体的には、各センサの配置関係を表すキャリブレーションパラメータ25が算出される。
 上記したように、キャリブレーションパラメータ25は、3Dセンサ11及び2Dセンサ12が出力する各データの位置合わせに用いるパラメータである。例えば、各センサにより測定された測定対象のデータを共通の座標系に変換する変換行列に用いられるパラメータがキャリブレーションパラメータ25となる。
 図9等を参照して説明するように、キャリブレーションパラメータ25には、内部パラメータと、外部パラメータとが含まれる。内部パラメータは、3Dセンサ11及び2Dセンサ12の特性に応じて定まるパラメータである。外部パラメータは、3Dセンサ11及び2Dセンサ12の位置・姿勢に応じて定まるパラメータである。
 キャリブレーション処理では、3Dセンサ11と2Dセンサ12との配置関係を表すキャリブレーションパラメータ25として、外部パラメータが算出される。
 また、内部パラメータとしては、例えば各センサの特性に応じて予め設定された値が用いられる。なお、内部パラメータを算出する処理や内部パラメータを補正する処理等が実行されてもよい。
 本実施形態では、較正処理部21は、3Dセンサ11により、キャリブレーションボード30を測定したデータと、2Dセンサ12により、キャリブレーションボード30を測定したデータとに基づいて、3Dセンサ11と2Dセンサ12との配置関係を表すキャリブレーションパラメータ25(外部パラメータ)を算出する。
 図2の左側に示すように、キャリブレーション処理では、3Dセンサ11及び2Dセンサ12により、共通のキャリブレーションボード30が測定される。
 この測定では、3Dセンサ11は、キャリブレーションボード30の各点に対する距離を表す距離データを出力する。また、3Dセンサ11は、キャリブレーションボード30の各点における測定光2の反射強度を表す反射強度データを出力する。
 また、2Dセンサ12は、キャリブレーションボード30を可視光4により撮影した可視画像データを出力する。
 これらのデータは、較正処理部21により読み込まれ、キャリブレーション処理が実行される。すなわち、較正処理部21は、3Dセンサ11が測定したキャリブレーションボード30の距離データ及び反射強度データと、2Dセンサ12が測定したキャリブレーションボード30の可視画像データとに基づいて、外部パラメータを算出する。
 本実施形態において、3Dセンサ11から出力されるキャリブレーションボード30の距離データは、第1の距離データに相当する。
 モデル生成部22は、3Dセンサ11及び2Dセンサ12が測定した測定対象1のデータから、測定対象1の3Dモデル26を生成する。
 例えば、3Dセンサ11により測定された測定対象1の距離データに基づいて、測定対象1の立体形状を表す3Dモデル26が生成される。また2Dセンサ12により測定された測定対象1の可視画像データに基づいて、3Dモデル26の各部の色が設定される。
 これらの処理では、例えば可視画像データの各画素の色を、距離データ(3Dモデル26)上の適正な位置に配色する必要がある。このようなデータの位置合わせに、キャリブレーション処理で算出されたキャリブレーションパラメータ25が用いられる。これにより、精度よくカラーリングされた測定対象1の3Dモデル26等を生成することが可能となる。
 [キャリブレーションボードの構成]
 図3は、キャリブレーションボード30の構成例を示す模式図である。図3Aは、キャリブレーションボード30の外観の一例を示す斜視図である。図3B及び図3Cは、キャリブレーションボード30に設けられる凹状パターン32の一例を示す斜視図である。
 キャリブレーションボード30は、ボード本体31と、ボード本体31に設けられた複数の凹状パターン32とを有する。
 ボード本体31は、キャリブレーションボード30を構成する平板状の部材である。ボード本体31の一方の主面は、複数の凹状パターン32が形成される配置面33となる。このようにキャリブレーションボード30は、複数の凹状パターン32が配置される平面状の配置面33を有する。
 キャリブレーションボード30は、ボード本体31の配置面33(複数の凹状パターン32)側が3Dセンサ11及び2Dセンサ12に向くように配置して用いられる。
 複数の凹状パターン32は、それぞれ凹部34を有する。凹部34は、配置面33に設けられたくぼみであり、底面部35と、側面部36とを有する。底面部35は、凹部34の底面を形成し、側面部36は、底面部35と配置面33とをつなぐ側面を形成する。
 また、各凹状パターン32には、各々の凹部34を囲む縁面部37が設けられる。縁面部37は、凹部34の縁を囲むように配置面33上に形成された領域である。
 これらの凹状パターン32を複数配置することで、配置面33には苗床スタイルのキャリブレーションチャートが形成される。
 図3Aに示す例では、キャリブレーションボード30の上段及び下段にそれぞれ4つの凹状パターン32が配置され、その間の中段には3つの凹状パターン32が配置される。各凹状パターン32は、例えば三角格子状に配置される。
 凹状パターン32の数や、配置等は限定されない。例えば各凹状パターン32が正方格子状、あるいは六方格子状に配置されてもよい。
 また、各凹部34の深さΔ、すなわち底面部35と縁面部37との距離は、例えば3Dセンサ11の距離分解能よりも大きく設定される。またΔは、凹部34の平面サイズ(底面部35の直径等)に合わせて設定されてもよい。例えば凹部34の深さΔは、凹部34の平面サイズの半分以下となるように設定される。また各凹部34の深さΔは、一定であってもよいし、凹部34ごとに異なる深さΔが設定されてもよい。この他、3Dセンサ11の特性や凹部34の平面サイズ等に応じて凹部34の深さΔが適宜設定されてよい。
 底面部35及び縁面部37は、測定光2に対する反射率が所定の閾値よりも高くなるように構成される。ここで測定光2に対する反射率とは、例えば配置面33に対して測定光2を垂直に入射した場合に、測定光2の強度に対する反射光3の強度の割合である。
 具体的には、底面部35及び縁面部37の色や材質が、測定光2に対して所定の閾値よりも高い反射率となるように選択される。なお側面部36は、典型的には底面部35及び縁面部37と同様の色や材質となるように構成される。他の色や材質が用いられてもよい。
 上記したように、3Dセンサ11では、反射光3を検出することで測定対象1に対する距離が測定される。このとき、対象の反射率が低く、反射光3の強度が低い場合には、後述するように、測定対象1に対する距離を適正に測定できない場合がある(図5参照)。一方で、対象の反射率が十分に高く、反射光3の強度が十分に高い場合には、測定対象1に対する距離を精度よく測定することが可能である。
 所定の閾値は、例えばキャリブレーション処理において、キャリブレーションボード30を測定した場合に、3Dセンサ11を用いて底面部35及び縁面部37の各点に対する距離が適正に算出できるように設定される。例えば、底面部35及び縁面部37において距離を算出するために必要な強度の反射光3を発生させる最小の反射率が、所定の閾値として設定される。この場合、底面部35及び縁面部37の反射率は、上記した最小の反射率よりも高く設定されるため、キャリブレーション処理では、底面部35及び縁面部37の各点に対する距離を適正に測定することが可能となる。
 この他、所定の閾値を設定する方法は限定されず、例えば底面部35及び縁面部37の各点に対する距離が適正に測定可能となる範囲で、所定の閾値が適宜設定されてよい。
 このようにキャリブレーションボード30は、各々が凹部34を有し、凹部34の底面部35及び凹部34を囲む縁面部37の測定光2に対する反射率が所定の閾値よりも高くなるように構成された複数の凹状パターン32を有する。
 これにより、3Dセンサ11の測定結果(距離データ)から、底面部35及び縁面部37の各点に対する距離を適正に算出することが可能となる。さらに、底面部35と縁面部37との距離、すなわち凹部34の深さΔを基準にすることで、3Dセンサ11で測定した距離(デプス値)を精度よく較正することが可能となる。このように、複数の凹状パターン32が設けられたキャリブレーションボード30は、3Dセンサ11により測定される距離を較正するためのくぼみ(凹部34)を有するくぼみチャートとなる。
 図3B及び図3Cに示すように、複数の凹状パターン32は、底面部35及び縁面部37が平面となるように構成される。具体的には、底面部35は、配置面33と平行な平面となるように構成される。また縁面部37は、配置面33上の平面として構成される。従って、底面部35及び縁面部37(配置面)は、互いに平行な平面となる。
 このように、底面部35及び縁面部37を平面とすることで、3Dセンサ11は平面を測距することになる。この場合、底面部35及び縁面部37に余分な立体構造が含まれないため、例えば底面部35と縁面部37との距離(凹部34の深さΔ)を容易に算出することが可能となる。
 また、複数の凹状パターン32は、底面部35が円形状となるように、かつ縁面部37が平面視で底面部35と中心が一致する円環形状となるように構成される。すなわち、各凹状パターン32は、中央部分に円形のくぼみがある円チャートとなり、測距円として機能する。
 このように各凹状パターン32を円チャートとすることで、円を検出する画像解析等により、各凹状パターン32の特徴点を容易に検出することが可能となる。ここで、凹状パターン32の特徴点とは、例えば円環形状の縁面部37の中心の位置である。
 また凹状パターン32の特徴点に対する距離(デプス値)を算出する場合には、フラットな底面部35及び縁面部37の距離情報を用いることが可能である。
 本実施形態では、複数の凹状パターン32は、底面部35及び縁面部37の色が、第1の色となるように構成される。第1の色は、例えば測定光2に対する反射率が所定の閾値よりも高くなるように設定された色である。これにより、例えば3Dセンサ11による各凹状パターン32に対する測距精度が向上する。
 また配置面33は、可視光4による撮影において第1の色とは異なる第2の色となる領域を含むように構成される。第2の色は、典型的には、第1の色とのコントラストが高くなるように設定された色である。これにより、例えば2Dセンサ12が撮影した可視画像データでは、第1の色となる各凹状パターン32(底面部35及び縁面部37)と、第2の色となる他の領域とが色分けされ、各凹状パターン32を容易に検出することが可能となる。
 図3に示す例では、配置面33は、複数の凹状パターン32を除く領域が第2の色に着色される。以下では、配置面33において各凹状パターン32を除く領域(各凹状パターン32を囲む領域)を、ベース領域38と記載する。
 この場合、全ての凹状パターン32が第2の色に着色されたベース領域38で囲まれることになる。これにより、例えば可視画像データから各凹状パターン32を検出する処理は、第2の色に着色された領域(ベース領域38)から第1の色に着色された円形の領域(凹状パターン32)を抽出する処理となる。
 また、図3に示す例では、第1の色は、白色に設定され、第2の色は、黒色に設定される。従ってキャリブレーションボード30は、黒地に白い円が配列された円チャートとなる。この白色及び黒色の組み合わせは、例えば可視画像データにおけるコントラストが最も高くなる組み合わせである。これにより、各凹状パターン32の検出精度を十分に高めることが可能となる。
 第1の色及び第2の色は、他の色に設定されてもよい。例えば、第1の色を白色とした場合、測定光2の反射率が高いために、3Dセンサ11(イメージセンサ15)で検出される反射光3の強度(反射強度データ)が、測定レンジを超えて飽和する可能性がある。このため、第1の色の輝度を下げて灰色(グレー)にしてもよい。
 なお、第1の色の輝度を下げた場合、第2の色(ここでは黒色)とのコントラストが低下する可能性がある。すなわち、第1の色の反射率と、第1の色及び第2の色のコントラストとは、トレードオフの関係となっている。
 このため、第1の色は、測定光2の反射光3の強度が3Dセンサ11の測定レンジに収まる範囲で、第2の色に対するコントラストが最大となるように設定されてもよい。これにより、3Dセンサ11が測定する反射強度データを飽和させることなく、2Dセンサ12により撮影される可視画像データにおいて高いコントラストを維持することが可能となる。
 この他、第1の色及び第2の色を設定する方法は限定されない。
 図4は、キャリブレーションボード30を測定したデータの一例を示す模式図である。図4Aは、2Dセンサ12によりキャリブレーションボード30を測定した可視画像データ40である。図4Bは、3Dセンサ11によりキャリブレーションボード30を測定した反射強度データ41である。また図4Cは、3Dセンサ11によりキャリブレーションボード30を測定した距離データ42(デプス画像)である。
 図4B及び図4Cに示すように、反射強度データ41及び距離データ42は、ともに3Dセンサ11を用いて取得されるデータである。このため、データ上のキャリブレーションボード30の姿勢は同じである。一方で、図4Aに示す可視画像データ40は、2Dセンサ12を用いて取得されるデータであるため、キャリブレーションボード30の姿勢は図4B及び図4Cとは異なる。
 なお各データにおいて、キャリブレーションボード30の背景となる部分のデータは、斜線の領域により省略して図示されている。
 図4Aに示すように、キャリブレーションボード30の可視画像データ40では、各凹状パターン32は第1の色(白色)となり、ベース領域38は第2の色(黒色)となる。このように可視画像データ40において、キャリブレーションボード30は、略白黒のコントラストの高い画像となる。
 これにより、各凹状パターン32と、ベース領域38とのコントラストが高くなり、凹状パターン32を精度よく識別することが可能となる。
 図4Bでは、キャリブレーションボード30の各点における測定光2の反射強度(反射光3の強度)がグレースケールを用いて模式的に図示されている。ここでは、グレースケールの色が明るいほど、反射強度が高くなるように図示されている。
 本実施形態では、凹状パターン32が白色に設定され、ベース領域38が黒色に設定される。この場合、凹状パターン32における反射強度は、ベース領域38における反射強度よりも高くなる。これにより、各凹状パターン32の反射強度と、ベース領域38の反射強度とのコントラストが高くなり、凹状パターン32を精度よく識別することが可能となる。
 図4Cでは、キャリブレーションボード30の各点に対する距離(デプス値)がグレースケールを用いて模式的に図示されている。ここでは、グレースケールの色が明るいほど、距離が近くなるように図示されている。
 例えば縁面部37(図中の点線で囲まれた円環状の領域)とベース領域38とは、同じ配置面33上の領域である。このため、キャリブレーションボード30の全面にわたって各点の距離が適正に算出された場合、図4Cに示すように、距離データ42では各凹状パターン32の縁面部37とベース領域38との境界で距離の値(デプス値)が不連続に変化することはない。
 一方で、各凹状パターン32の底面部35は、配置面33に対して内側に凹んでいるため、配置面33(縁面部37及びベース領域38)よりも距離が遠くなる。
 図3を参照して説明したように、縁面部37及び底面部35では、各点に対する距離が適正に測定可能となるように測定光2に対する反射率が設定される。従って、仮にベース領域38において測定光2に対する反射率が低く測距精度が低下するような場合であっても、各凹状パターン32では、縁面部37及び底面部35の各点に対する距離を精度よく検出可能である。
 さらに、縁面部37と底面部35とのデプス差は、キャリブレーションボード30に設定された凹部34の深さΔを参照して較正することが可能である。これにより、高精度な距離情報を各凹状パターン32ごとに算出することが可能となる。
 図5は、3Dセンサ11の特性を説明するためのデータの一例である。図5A及び図5Bは、それぞれ3Dセンサ11を用いて人物28を測定した反射強度画像45(反射強度データ)及びデプス画像46(距離データ)である。
 ここでは、図5A及び図5Bを参照して、3Dセンサ11の特性について説明する。
 測定光2が照射された物体からの反射光3を信号としてとらえる3Dセンサ11では、被写体が低反射物体である場合、反射光3の光量が小さく、感度が低下する可能性がある。そのため、低反射物体を測定した場合には、そのデプス値が正しく測定できないといった場合があり得る。
 例えば測定光2と反射光3から位相差を介して間接的に時間差を求めるiToF方式や反射光3の到達時間から時間差を求めるdToF方式では、黒色の物体のような低反射物体の感度が低くなる特性がある。
 例えば図5Aでは、人物28の奥にオブジェクト29が置かれており、オブジェクト29の一部は人物28の頭部により部分的に遮られている。この反射強度画像45では、人物28の髪の毛の部分において、反射強度が低くなっている。すなわち、髪の毛は測定光2にとって低反射物体であると言える。
 さらに図5Bでは、人物28の髪の毛の部分のデプス値が大幅に高くなっている。例えば、髪の毛の部分のデプス値は、髪の毛よりも奥にあるオブジェクト29のデプス値よりも高い。この場合、実際には手前にある髪の毛の部分が、オブジェクト29よりも奥側にあることになってしまう。
 このように、3Dセンサ11で反射強度の低い物体を測定した場合、そのデプス値が正しく捉えられなくなる可能性がある。
 図6は、比較例として挙げるキャリブレーションパターンの一例を示す模式図である。図6A及び図6Bは、一般に可視カメラの位置・姿勢の較正に用いられるキャリブレーションパターン47a及び47bを示す模式図である。
 キャリブレーションパターン47aは、白色及び黒色の正方形が交互に配列されたチェスボード型の白黒チャートである。このようなパターンを用いて可視カメラの位置・姿勢を較正する場合、特徴点として各正方形のコーナー(エッジ)が検出される。
 キャリブレーションパターン47bは、白地の領域に黒色の円が三角格子状に配列されたサークルグリッド型の白黒チャートである。このようなパターンでは、特徴点として黒色の円の中心が検出される。
 このように、可視光により対象を撮影する可視カメラを較正する場合、可視光で撮影可能なパターンから精度よく特徴点を検出する必要があり、コントラストの高いチャートが用いられる。
 一方で、3Dセンサ11は、低反射物体の感度が低く、黒色の部分ではセンサ感度が低下する可能性がある。また3Dセンサ11による測距は、典型的にはフラットな領域で行われる。例えば図6A及び図6Bに示す白黒チャートにおいて、正方形のコーナー(エッジ)や黒色の円の中心での測距は、フラットな領域ではあるものの、黒色の測距精度が低いため較正には適していない。
 これに対し、図3及び図4を参照して説明したように、本実施形態に係るキャリブレーションボード30には、複数の凹状パターン32が設けられる。各凹状パターン32は、底面部35及び縁面部37の測定光2に対する反射率は、所定の閾値よりも高くなるように構成される。
 従って、各凹状パターン32(底面部35及び縁面部37)は、3Dセンサ11から照射される測定光2を十分に反射可能な高反射物体となる。このため、3Dセンサ11は、各凹状パターン32を精度よく測距することが可能となる。
 また、3Dセンサ11により測定される距離データ42については、各凹状パターン32の凹部34の深さΔを基準にした較正が可能である。すなわちキャリブレーションボード30を用いることで、既知のデプス値Δで較正された高精度な距離情報を算出することが可能となる。
 さらに、キャリブレーションボード30では、凹状パターン32(底面部35及び縁面部37)は測定光2に対する反射率が高い第1の色(白色等)に着色され、ベース領域38は第1の色に対してコントラストの高い第2の色(黒色等)に着色される。
 従って、図4Aに示すように、2Dセンサ12によりキャリブレーションボード30を撮影した可視画像データ40では、凹状パターン32とベース領域38とのコントラストが十分に高くなる。これにより、可視画像データ40から凹状パターン32を構成する白い円(縁面部37)の領域を精度よく分離することが可能となり、凹状パターン32の特徴点(縁面部37の中心の位置等)を精度よく検出することが可能となる。
 また、図4Bに示すように、3Dセンサ11によりキャリブレーションボード30を測定した反射強度データ41では、凹状パターン32の反射強度とベース領域38の反射強度とのコントラストが十分に高くなる。これにより、可視画像データ40と同様に、反射強度データ41から凹状パターン32(縁面部37)の領域を精度よく分離することが可能となり、その特徴点を精度よく検出することが可能となる。
 このようにキャリブレーションボード30は、アクティブセンサである3Dセンサ11と、可視カメラである2Dセンサ12の双方で使用可能なターゲットとなっている。またキャリブレーションボード30を測定して得られるデータには、2次元的な位置を表すデータ(可視画像データ40及び反射強度データ41)に加え、デプス値を表すデータ(距離データ42)が含まれる。とくに、デプス値は、凹部34の深さΔを基準に較正できるため、非常に精度が高いデータとなる。
 これにより、例えば可視画像データ40と反射強度データ41との位置合わせに、高精度なデプス値を用いることが可能となり、2Dセンサ12及び3Dセンサ11の配置関係を精度よく較正することが可能となる。
 [キャリブレーションボードの他の構成]
 図7及び図8は、キャリブレーションボードの他の構成例を示す模式図である。図7及び図8に示すキャリブレーションボード50a及び50bの配置面33には、格子模様51が設けられる。
 格子模様51は、第1の色及び第2の色で交互に着色された複数の矩形領域52により格子状に分割された模様である。図7及び図8では、第1の色は、白色であり、第2の色は、黒色である。従って、格子模様51は、白黒の矩形領域52が格子状に交互に配置されたチェスボード型のパターンとなる。なお、矩形領域52は、典型的には正方形の領域であるが、例えば長方形の領域であってもよい。
 また、複数の凹状パターン32は、複数の矩形領域52の各々に少なくとも1つ配置される。すなわち、各矩形領域52には、1つ以上の凹状パターン32がそれぞれ設けられる。
 図7に示す例では、各矩形領域52に、凹状パターン32が1つ配置される。この場合、例えば黒色の矩形領域52に設けられた凹状パターン32(縁面部37)の中心が特徴点として検出される。また黒色の矩形領域52のコーナー(エッジ)も特徴点として検出可能である。
 これにより、凹状パターン32以外の部分でも特徴点を検出することが可能であり、例えば可視画像データ40と反射強度データ41とのマッチング精度を高めることが可能となる。
 図8に示す例では、各矩形領域52に、凹状パターン32が4つ配置される。ここでは、各矩形領域52内に格子状に並んだ2×2の凹状パターン32が設けられる。このように、矩形領域52に複数の凹状パターン32が配置されてもよい。
 凹状パターン32を増やすことで、デプス値を計測・較正可能なポイントが増加する。これにより、距離情報のデータ点が増えるため、2Dセンサ12及び3Dセンサ11の位置合わせ精度を高めることが可能となる。
 [キャリブレーション処理]
 以下では、3Dセンサ11と2Dセンサ12との配置関係を較正するキャリブレーション処理について説明する。
 図9は、キャリブレーションパラメータについて説明するための模式図である。
 以下では、3Dセンサ11及び2Dセンサがそれぞれ単一のカメラセンサ(ピンホールカメラ)と見做せるものとして説明する。
 図9には、ワールド座標6と、カメラ座標7と、スクリーン座標8とが模式的に図示されている。ワールド座標6は、実空間に存在する物体の位置を表す3次元座標である。カメラ座標7は、カメラセンサを基準に設定される3次元座標であり、カメラセンサの位置・姿勢に応じて変化する。スクリーン座標8は、カメラセンサにより撮影される画像(スクリーン平面)内での位置を表す2次元座標である。
 ここで、ワールド座標6上の点P(px、py、pz)がカメラセンサにより撮影され、スクリーン座標8上の点Ps(u、v)になったとする。この場合、点Pと点Psとの関係は、以下に示す(1)式を用いて表される。
Figure JPOXMLDOC01-appb-M000001
                         (1)
 (1)式の左辺の3×3の行列は、カメラセンサの内部行列Kであり、カメラ座標7上の点をスクリーン座標8へ変換する変換行列である。
 fは、カメラセンサの焦点距離を表すパラメータである。
 aは、カメラセンサのアスペクト比を表すパラメータである。
 sは、カメラセンサのスキュー歪みを表すパラメータである。
 cx及びcyは、カメラセンサの画像中心の座標を表すパラメータである。
 内部行列Kに含まれるこれらのパラメータは、カメラセンサ(3Dセンサ11及び2Dセンサ)の特性に応じて定まる内部パラメータである。内部パラメータの自由度は5である。
 (1)式の左辺の3×4の行列は、カメラセンサの外部行列Mであり、ワールド座標6上の点をカメラ座標7へ変換する変換行列である。
 R11、R21、R31、R12、R22、R32、R13、R23、R33は、カメラセンサのワールド座標6上の姿勢を表すパラメータであり、3×3の回転行列Rを構成する。R11~R33は、例えば3次元座標の各軸周りの回転量を用いて表すことが可能であり、自由度は3となる。
 tx、ty、tzは、カメラセンサのワールド座標6上の相対的な位置を表すパラメータであり、並進ベクトルTを構成する。tx、ty、tzは、例えば3次元座標の各軸方向の並進量をあらわし、自由度は3となる。
 このように、外部行列Mは、回転行列Rと並進ベクトルTとを組み合わせた行列であり、M=[RT]と表される。また外部行列Mに含まれるこれらのパラメータは、カメラセンサ(3Dセンサ11及び2Dセンサ12)の位置・姿勢に応じて定まる外部パラメータである。外部パラメータの自由度は6である。
 図10は、カメラセンサ間の配置関係を較正する処理について説明する模式図である。
 図10には、2つのカメラセンサC0及びC1により実空間上の点Pが撮影される様子が模式的に図示されている。カメラセンサC0及びC1の一方は3Dセンサ11に対応し、他方は2Dセンサ12に対応する。ここでは、カメラセンサC0及びC1により撮影される画像データ48a及び48b上の点Pの位置をそれぞれP0(u0、v0)及びP1(u1、v1)と記載する。
 例えば、(1)式から、P0(u0、v0)及びP1(u1、v1)は、カメラセンサC0の変換行列(内部行列K0及び外部行列M0)及びカメラセンサC1の変換行列(内部行列K1及び外部行列M1)を用いて対応付けることが可能である。すなわち、P0(u0、v0)=E・P1(u1、v1)を満たす変換行列EをK0、M0、K1、及びM1から算出できる。変換行列Eは、例えばエピポーラ幾何等で用いられる基本行列に対応する。
 ここで、内部行列K0及びK1が既知のパラメータである場合、行列Eを算出する処理は、カメラセンサC0の外部行列M0=[R00]と、カメラセンサC1の外部行列M1=[R11]を算出する処理となる。なお、R0及びT0は、それぞれカメラセンサC0の回転行列及び並進ベクトルであり、R1及びT1は、それぞれカメラセンサC1の回転行列及び並進ベクトルである。
 例えば、図10に示すように、カメラセンサC0のカメラ座標7をワールド座標6として扱った場合、回転量及び並進量は0となり、R0=I及びT0=0と見做すことができる。従って、変換行列Eは、カメラセンサC0の位置・姿勢を基準としたカメラセンサC1の回転行列R1及び並進ベクトルT1により表される。
 この場合、R1及びT1は、カメラセンサC0に対するカメラセンサC1の相対的な回転量及び並進量を表す外部パラメータ、すなわちカメラセンサC0とカメラセンサC1との配置関係(相対的な位置及び姿勢)を表す外部パラメータとなる。
 本実施形態で実行されるキャリブレーション処理は、キャリブレーションボード30を測定した3Dセンサ11及び2Dセンサ12のデータをもとに、3Dセンサ11及び2Dセンサ12間の相対的な位置及び姿勢を表す回転行列及び並進ベクトル(変換行列E)を算出する処理となる。
 なお、キャリブレーション処理として、例えば3Dセンサ11の外部行列と、2Dセンサ12の外部行列とをそれぞれ個別に算出する処理が実行されてもよい。この場合、各センサの外部行列から相対的な位置及び姿勢を表す回転行列及び並進ベクトルを算出可能である。
 またキャリブレーション処理では、例えば可視画像データ40及び反射強度データ41から複数の特徴点が検出され、物理的に同一の特徴点のペアを探索する対応点探索が実行される。そして対応付けができた各特徴点の座標をもとに、各パラメータを含む連立方程式が複数生成される。この連立方程式を最小二乗法や非線形最適化法(ニュートン法やマーカート法)等の手法により解くことで、各外部パラメータが算出される。
 なお、可視画像データ40及び反射強度データ41は、スクリーン面に投影された投影画像である。このような投影画像には、2次元の位置情報しか含まれていない。このため、投影画像だけを使用したキャリブレーションでは、外部パラメータの算出精度が低くなる可能性がる。
 また3Dセンサ11により測定された距離情報を用いて、外部パラメータを算出する方法も考えられる。しかしながら、仮に図6等に示すような可視カメラ用のキャリブレーションパターンでは、3Dセンサ11の黒色の領域に対する測定精度が低下するという特性のために、精度のよいデプス値を用いることが困難である。
 そこで、本実施形態では、キャリブレーションボード30の各点に対する距離データ42(距離情報)を利用して、キャリブレーション処理が実行される。上記したように、キャリブレーションボード30には、既知のデプス段差(凹部34)を持つ複数の凹状パターン32が設けられる。これにより、凹部34の深さΔを絶対値(絶対デプス値)として、各特徴点に対する距離を較正することが可能となる。この結果、高精度な距離情報を使ったキャリブレーション処理が可能となる。
 また、精度の高いデプス値を用いることで、例えばカメラ座標7の奥行き方向の変化に係る外部パラメータを予め算出することが可能となる。これにより、例えば可視画像データ40及び反射強度データ41の対応点を用いて算出する必要がある外部パラメータの数が減少する。これにより、最適化処理等が安定し、外部パラメータ全体の算出精度を向上することが可能となる。
 以下では、3Dセンサ11により測定される距離データ42を、キャリブレーション処理に適用する方法について説明する。
 図11は、ステレオ撮影におけるデプス値と視差との関係を示す模式図である。図11には、カメラセンサC0及びC1によるステレオ撮影の様子が模式的に図示されている。ここでは、カメラセンサC0及びC1の光軸が平行となっている。
 ステレオ撮影では、各カメラセンサC0及びC1により測定された画像データに三角測量の原理を適用することで、画像データに映る実空間上の点Pに対する距離(デプス値)が算出される。この場合、点Pのデプス値(depth)は、baseline/disparityに比例する。ここで、baselineは、各カメラセンサC0及びC1の間隔であり、disparityは、点Pに対する各画像データにおける視差である。
 このように、デプス値及び視差は互いに反比例の関係にある。また点Pのデプス値がわかれば、各カメラセンサC0及びC1が撮影する画像データにおける点Pの視差(ステレオ撮影された画像内での点Pの位置の違い)が算出できるともいえる。
 本実施形態では、距離データ42として測定されたデプス値と視差との関係から、3Dセンサ11が測定する反射強度データ41と2Dセンサ12が測定する可視画像データ40との間の視差を補正する処理が実行される。これにより、視差が補正されたデータを使って外部パラメータを算出することが可能となり、各パラメータの算出精度を大幅に向上することが可能となる。
 図12は、キャリブレーション処理の一例を示すフローチャートである。
 まず、3Dセンサ11及び2Dセンサ12により、キャリブレーションボード30が測定される(ステップ101)。
 例えば、3Dセンサ11及び2Dセンサ12の測定範囲にキャリブレーションボード30が配置される。3Dセンサ11により、キャリブレーションボード30に測定光2が照射され、その反射光3が測定される。また2Dセンサ12により、可視光4が検出されキャリブレーションボード30が撮影される。
 次に、較正処理部21により、3Dセンサ11及び2Dセンサ12から出力されたデータが取得される(ステップ102)。具体的には、3Dセンサ11から出力された反射強度データ41及び距離データ42と、2Dセンサ12から出力された可視画像データ40とが適宜読み込まれる。
 なお、各センサによる測定は、典型的には、キャリブレーションボード30の位置や姿勢を変えて複数回行われる。
 次に、較正処理部21により、距離データ42が較正される(ステップ103)。本実施形態では、較正処理部21により、複数の凹状パターン32ごとに、凹部34の深さΔを基準として距離データ42が表す距離を較正した較正距離情報Zが算出される。
 本実施形態では、3Dセンサ11により測定された距離データ42を較正して算出される較正距離情報Zは、第1の較正距離情報に相当する。
 例えば、3Dセンサ11による測定では、3Dセンサ11のデプス方向(カメラ座標のZ方向)に対してキャリブレーションボード30が傾斜している。この傾斜を補正することで、凹状パターン32を直交方向から見たデプス値が算出可能である。この場合、底面部35に対するデプス値z0と縁面部37に対するデプス値z1との差(z0-z1)が、凹部34の深さΔに対応する。従って、例えばΔ=α(z0-z1)を満たす較正係数αを算出することで、Δを基準に較正された直交方向から見たデプス値(αz0及びαz1)が得られる。このデプス値に傾斜を戻す補正を行うことで、距離データ42を較正した較正距離情報が算出される。
 このようなデプス値の較正処理が、各凹状パターン32ごとに実行される。
 この他、距離データ42を較正可能な任意の処理が実行されてよい。
 また本実施形態では、凹状パターン32の特徴点ごとに、Δを基準に較正されたデプス値が算出される。
 凹状パターン32の特徴点としては、例えば縁面部37の中心点が用いられる。縁面部37の中心点は、配置面33と同一面にある中空上の点である。この場合、特徴点のデプス値は、較正された底面部35及び縁面部37のデプス値から算出される。
 なお凹状パターン32の特徴点として、底面部35の中心点等が用いられてもよい。
 次に、較正処理部21により、キャリブレーションパラメータ25が算出される(ステップ104)。本実施形態では、較正処理部21により、上記した較正距離情報に基づいて、配置関係を表すキャリブレーションパラメータ25(外部パラメータ)が算出される。
 例えば、図11を参照して説明したデプス値と視差との関係から、反射強度データ41と可視画像データ40との間の視差が補正可能である。較正処理部21では、このような視差を補正する処理を組み合わせて、外部パラメータが算出される。
 以下では、キャリブレーション処理の内容についてより具体的に説明する。
 図13は、キャリブレーション処理の処理フローの一例を示すブロック図である。
 図13に示す例では、較正処理部21により、可視画像データ40と反射強度データ41とに基づいて外部パラメータが算出され、当該算出結果が較正距離情報Zに基づいて補正される。この処理は、一度算出した外部パラメータを、較正距離情報Zを参照して再度補正する再帰型の処理となっている。
 まず、距離データ42を処理するフローについて説明する。
 較正処理部21により、3Dセンサ11から距離データ42が読み込まれ、各凹状パターン32(測距円)内のデプス値が平滑化される(ステップ201)。例えば、距離データ42に対して、平滑化フィルタが適用される。これにより、ノイズとなるデータが除去され、凹状パターン32の底面部35や縁面部37をデプス値がスムーズにつながったフラットな領域として扱うことが可能となる。
 平滑化された距離データ42(距離情報)が読み込まれる(ステップ202)。
 ステップ201及びステップ202の処理は、例えば図12に示すステップ102において、距離データ42を取得する処理に対応する。
 距離データ42が凹状パターン32(測距円)ごとに較正され、較正距離情報Zが算出される(ステップ203)。距離データ42の較正は、図12のステップ103で説明した処理である。例えば較正距離情報Zとして、複数の凹状パターン32の特徴点ごとに、凹部34の深さΔを基準に較正されたデプス値が算出される。
 特徴点の検出には、例えば円を検出する任意の画像解析処理(例えばハフ変換処理等)が用いられる。なお後述する対応点探索の結果から特徴点の位置が参照されてもよい。
 このように、本実施形態では、較正処理部21により、距離データ42を平滑化し、平滑化された距離データ42に基づいて較正距離情報Zが算出される。これにより、ノイズによる影響等を抑制し、フラットな領域での測距精度が向上し、高精度な較正距離情報Zを算出することが可能となる。
 また、複数の凹状パターン32(測距円)ごとに、絶対デプスΔによる較正が可能である。このため、各点に対する測距精度を十分に向上することが可能となる。
 次に、可視画像データ40及び反射強度データ41を処理するフローについて説明する。
 較正処理部21により、2Dセンサ12から可視画像データ40が読み込まれ(ステップ204)、3Dセンサ11から反射強度データ41が読み込まれる(ステップ205)。
 ステップ204及びステップ205の処理は、例えば図12に示すステップ102において、可視画像データ40及び反射強度データ41を取得する処理に対応する。
 また以下で説明するステップ206~ステップ210の処理は、例えば図12に示すステップ104の処理に対応する。
 可視画像データ40及び反射強度データ41に対して、対応点探索処理が実行される(ステップ206)。対応点探索処理は、可視画像データ40及び反射強度データ41から物理的に同一の箇所(対応点)を検出する処理である。例えば、それぞれのデータからキャリブレーションボード30の特徴点、すなわち複数の凹状パターン32の特徴点が検出される。そして、互いに同一となる特徴点がそれぞれ特定される。
 なお図7及び図8に示すように格子模様51を備えるキャリブレーションボード50a及び50bが用いられる場合には、矩形領域52のコーナーやエッジを特徴点として検出し、そこから対応点が探索されてもよい。対応点探索処理の具体的な方法は限定されず、特徴点を検出・マッチングする任意の画像解析処理が用いられてよい。
 対応点の検出結果に基づいて、キャリブレーションパラメータ25が算出される(ステップ207)。ここでは、ステレオ撮影を行う各センサの相対的な位置及び姿勢を表す外部パラメータが算出される(図9及び図10参照)。例えば、各対応点の座標を用いて、反射強度データ41上の座標を可視画像データ40上の座標に変換する回転行列R及び並進ベクトルTについての連立方程式が生成される。そして最小二乗法等を用いて、R及びTに含まれる外部パラメータが算出される。
 キャリブレーションパラメータ25を用いて、可視画像データ40及び反射強度データ41に対して平行化処理が実行される(ステップ208)。ここで平行化処理とは、例えば可視画像データ40及び反射強度データ41を平行なステレオ撮影(図11参照)により得られたデータとなるように補正する処理である。平行化された各データは、例えば3Dセンサ11と2Dセンサ12とが、各々の光軸を平行にして光軸に垂直な方向に平行移動した配置関係となる状態で測定されたデータと見做すことができる。
 例えばステップ207で算出された回転行列R及び並進ベクトルTに基づいて、可視画像データ40及び反射強度データ41を平行化する行列が算出され、当該行列を使って、各データの平行化処理が実行される。
 平行化処理は、例えばステップ206で検出された対応点、すなわち各データにおける凹状パターン32の特徴点に対して実行される。これにより、演算量を削減することが可能となる。もちろん、可視画像データ40及び反射強度データ41の全画素に対して平行化処理が実行されてもよい。
 較正距離情報Zに基づいて視差補正処理が実行される(ステップ209)。ここでは、例えば平行化された可視画像データ40及び反射強度データ41の対応点に対して、較正距離情報Zに基づいて視差が算出される。そして各対応点の位置が視差の値に応じて移動される。各対応点の視差の算出には、例えば図11等を参照して説明したデプス値と視差との関係が用いられる。
 視差補正処理では、例えば平行化された反射強度データ41の対応点について視差が算出され、各対応点が移動される。この結果、反射強度データ41の対応点と、可視画像データ40の対応点との視差による不一致が低減される。なお、可視画像データ40について視差が補正されてもよいし、反射強度データ41及び可視画像データ40の両者について視差が補正されてもよい。
 このように、視差補正処理では、較正されたデプス値を使って高精度な視差補正が可能である。また視差補正の精度が高いため、以降の処理を安定して実行することが可能となりロバスト性が向上する。
 視差補正処理の結果から、位置合わせ誤差が算出される(ステップ210)。ここでは、例えば視差補正処理後の可視画像データ40の対応点と反射強度データ41の対応点との誤差(各対応点のずれ量)が算出される。
 位置合わせ誤差は、ステップ207で算出されたキャリブレーションパラメータ25(外部パラメータ)を補正するための参照値として用いられる。例えば、回転行列R及び並進ベクトルが、位置合わせ誤差が最小化されるように補正される。これにより、可視画像データ40と反射強度データ41とを略一致するように変換させることが可能な外部パラメータが算出される。
 このように、位置合わせ誤差によって補正されたキャリブレーションパラメータ25を用いて、位置合わせ済みの反射強度データ41(強度画像)と位置合わせ済みの可視画像データ40(可視画像)が算出される。
 なお、キャリブレーションパラメータ25を補正するためのフィードバック処理は、複数回実行されてもよい。これにより、十分に高精度なキャリブレーションパラメータ25を算出することが可能となる。
 図14は、キャリブレーション処理の処理フローの他の一例を示すブロック図である。
 図14に示す例では、較正処理部21により、較正距離情報Zに基づいて可視画像データ40と反射強度データ41との間の視差補正が実行され、視差補正の結果に基づいて外部パラメータが算出される。この処理は、予め較正距離情報Zを用いて視差補正処理をしたデータから外部パラメータを算出する一括型の処理となっている。
 図14に示すステップ301~305までの処理は、例えば図13に示すステップ201~205までの処理と同様に実行される。
 すなわち、キャリブレーションボード30を測定した可視画像データ40、反射強度データ41、及び距離データ42が読み込まれる。また距離データ42は凹状パターン32ごとに較正され、較正距離情報Zが算出される。
 可視画像データ40と反射強度データ41との間の視差を補正する視差補正処理が実行される(ステップ306)。
 例えば反射強度データ41の全ての画素について、較正距離情報Zに基づいて視差が算出される。そして、各画素に対応する点の位置が視差の値に応じて移動される。また例えば、反射強度データ41から特徴点が検出され、各特徴点の視差が補正されてもよい。また、可視画像データ40について視差が補正されてもよいし、反射強度データ41及び可視画像データ40の両者について視差が補正されてもよい。
 このように、平行化されていないデータについても、較正されたデプス値(較正距離情報Z)を用いることで高精度な視差補正が可能である。
 またステップ306では、キャリブレーションボード30に設けられた凹状パターン32のデプス段差(凹部34)を利用して、各センサの相対的な位置及び姿勢を表す外部パラメータのうち、距離方向(奥行き方向)の移動に係るパラメータが算出される。例えば(1)式に示す回転行列Rの成分で表すと、pzに作用するR13、R23、R33の各パラメータが、凹部34の深さΔ(絶対デプス値)を基準に算出される。
 これにより、未知のキャリブレーションパラメータ25が減少し、他のパラメータの算出処理を安定して実行することが可能となり、ロバスト性を向上することが可能となる。
 視差補正処理により補正された可視画像データ40及び反射強度データ41に対して、対応点探索処理が実行される(ステップ307)。この処理は、例えば図13に示すステップ206の処理と同様に実行される。
 例えば可視画像データ40及び反射強度データ41に含まれる各凹状パターン32の特徴点から、同一となる特徴点(対応点)が特定される。ここでは視差補正後のデータが用いられるため、対応点の探索を容易に行うことが可能である。
 対応点の検出結果に基づいて、距離方向の移動に係るパラメータ以外の外部パラメータが算出される(ステップ308)。ここでは、上記した距離方向の移動に係るパラメータを既知のパラメータとして、回転行列R及び並進ベクトルTについての連立方程式から、他のパラメータが算出される。この処理では、例えば図13のステップ207で行われる外部パラメータの算出処理と比べて、未知のパラメータの数が少ない。これにより、安定して他のパラメータを算出することが可能となる。
 キャリブレーションパラメータ25を用いて、可視画像データ40及び反射強度データ41に対して位置合わせ処理が実行される(ステップ309)。位置合わせ処理は、例えば可視画像データ40及び反射強度データ41のうち一方のデータをステップ308で算出された回転行列R及び並進ベクトルTに基づいて変換する処理である。
 視差補正後のデータから算出された外部パラメータ(R及びT)には、視差補正の結果が反映されている。従ってこのような外部パラメータを用いて変換されたデータは、対応点の位置が略一致するデータとなる。これにより、位置合わせ済みの反射強度データ41(強度画像)と位置合わせ済みの可視画像データ40(可視画像)を算出することが可能となる。
 以上、本実施形態に係るコントローラ20では、3Dセンサ11及び2Dセンサ12により、複数の凹状パターン32が設けられたキャリブレーションボード30を測定したデータから、各センサの配置関係を表すキャリブレーションパラメータ25(外部パラメータ)が算出される。各凹状パターン32の底面部35及び縁面部37は、3Dセンサ11の測定光に対する反射率が高い。これにより、3Dセンサ11は凹状パターン32の形状を精度よく測定することが可能となり、各センサの配置関係を表すキャリブレーションパラメータ25の算出精度が向上する。この結果、センサ間の配置関係を精度よく較正することが可能となる。
 図15は、比較例として挙げるキャリブレーション処理の処理フローを示すブロック図である。ここでは、例えば図6等を参照して説明した可視カメラ用のキャリブレーションパターンを用いて、2Dセンサ12及び3Dセンサ11の配置関係が較正される。
 上記したように、白黒のキャリブレーションパターンに対する3Dセンサ11による測距精度は、測定光2の反射率が低いために低下する可能性があるため、この処理では距離データは用いられない。
 例えば可視画像データと反射強度データとが取得されると、各データの対応点が探索され、その結果に基づいて2Dセンサ12及び3Dセンサ11の配置関係を表す外部パラメータが算出される。また外部パラメータを用いて可視画像データと反射強度データとが平行化される。これは、例えば2台の可視カメラを用いた2D-2Dステレオ撮影で用いられるキャリブレーション処理となっている。
 このように、アクティブ測距センサ(3Dセンサ11)と可視カメラ(2Dセンサ12)等のパッシブセンサとの3次元空間上の相対的な位置キャリブレーションを行う際に、パッシブセンサで一般的に使用される白黒のキャリブレーションパターン用いる方法が考えられる。この場合、iToFセンサのようなアクティブ測距センサでは黒色でのデプス精度が低いため距離データを用いることができない。従って、2D-3Dステレオ撮影であるにも関わらず、上記のように2D-2Dステレオ撮影のキャリブレーション手法を用いることになる。
 一般に、画像データの対応点のみから算出される視差情報やZ情報は、例えば測距センサにより測定される距離データと比べて精度が低い。このため、外部パラメータの算出精度が低下し、各センサ間の位置合わせ精度が低くなる。
 また、ジャイロ等を搭載したIMU(Inertial Measurement Unit)やGPS等の他のセンサを用いる方法も考えられるが、位置合わせに必要な精度を得るには、測定精度が粗いという欠点がある。
 本実施形態では、底面部35及び縁面部37の測定光2に対する反射率が高い複数の凹状パターン32を備えるキャリブレーションボード30が用いられる。これにより、測距対象となる凹状パターン32において、十分な反射光3が発生するため、測距精度を十分に確保することが可能となる。
 また凹状パターン32(凹部34)の深さΔを基準に、距離データ42を較正することが可能となる。これにより、距離データ42の精度が大幅に向上し、距離データ42をキャリブレーション処理に用いることが可能となる。
 3Dセンサ11の距離データ42を用いることで、外部パラメータを算出する処理は、2次元の画像データ(可視画像データ40及び反射強度データ41)に加え3次元の距離データ42を用いた2D-3Dキャリブレーション処理となる。この結果、例えば画像データに対して視差補正を行うことや、パラメータの数を減らすといったことが可能となる。これにより、高精度な外部パラメータを算出することが可能となり、位置合わせの精度やロバスト性を向上することが可能となる。この結果、2D-3Dステレオ撮影により生成される3Dモデル26の精度を十分に向上することが可能となる。
 このように、3Dセンサ11が測定する距離データ42(形状情報)と、2Dセンサ12が測定する可視画像データ40(可視情報)とを用いて3Dモデル26を生成する技術は、例えばエンタテイメント、医療、拡張現実(AR)等の様々な分野での応用が期待される。一例として、対象物の認識や形状モデリングが可能であり、自動運転やロボットの環境認識等に応用可能である。また実空間の物体と仮想オブジェクトとのインタラクションを実現する際にも3Dモデル26が有効である。またユーザの手の3Dモデル26を利用したユーザインターフェースを実現することも可能である。また被写体の3Dモデル26を構成することで、レンズ効果を模倣するレンズエミュレーションや、撮影後に照明を調整するライティング処理等が可能となる。
 このような3Dモデル26を用いるアプリケーションに本技術を適用することで、アプリケーションの動作精度等を十分に向上することが可能となる。
 <第2の実施形態>
 本技術に係る第2の実施形態の3次元測定システムについて説明する。これ以降の説明では、上記の実施形態で説明した3次元測定システム100における構成及び作用と同様な部分については、その説明を省略又は簡略化する。
 上記の実施形態では、アクティブ測距センサ(3Dセンサ)とパッシブセンサ(2Dセンサ)との間の配置関係が較正された。本技術は、アクティブ測距センサ間の配置関係の較正にも適用可能である。
 [3次元測定システムの構成]
 図16は、第2の実施形態に係る3次元測定システムの構成例を示すブロック図である。図17は、3次元測定システム200の動作の概要を示す模式図である。
 3次元測定システム200は、3Dセンサ211aと、3Dセンサ211bと、記憶部213と、コントローラ220とを有する。3次元測定システム200は、2つの3Dセンサ211a及び211bを用いて3次元空間にある測定対象1を撮影する3D-3D撮影を行うシステムである。本実施形態では、3Dセンサ211a及び211bにより測定されたデータを統合して、測定対象1の立体形状が再構成される。
 本構成は、複数の3Dセンサを用いて測定対象1を測定する全方位マルチカメラシステム等に適用可能である。
 3Dセンサ211a及び211bは、互いに異なる方向から共通の測定対象1を測定することができるように配置される。各センサは個別に配置可能なセンサユニットでもよいし、共通の筐体に収められてもよい。
 3次元測定システム200では、キャリブレーション処理と、モデル生成処理とが実行される。図17の左側及び右側には、キャリブレーション処理及びモデル生成処理を行う際の測定の様子がそれぞれ模式的に図示されている。
 キャリブレーション処理は、3Dセンサ211a及び211bによりキャリブレーションマーカー60を測定して、各センサにより測定されるデータの位置合わせを行う処理である。この処理では、主に3Dセンサ211a及び3Dセンサ211bの配置関係(相対的な位置及び姿勢)を較正するキャリブレーションパラメータ25が算出される。本実施形態では、キャリブレーションマーカー60は、較正用ターゲットに相当する。
 モデル生成処理は、3Dセンサ211a及び211bにより測定された測定対象1の3次元情報を用いて、測定対象1の3Dモデル26を生成する処理である。この処理では、キャリブレーション処理により算出されたキャリブレーションパラメータ25を用いて、各センサのデータの位置合わせが行われる。
 以下では、3次元測定システム200の構成について具体的に説明する。
 3Dセンサ211a及び211bは、測定対象1に測定光2を照射して、測定対象1で反射された反射光3を測定することで、測定対象1の各点に対する距離を測定するアクティブ測距センサである。
 3Dセンサ211a及び211bは、測定対象1の各点に対する距離を表す距離データ(デプス画像)をそれぞれ出力する。また3Dセンサ211a及び211bは、測定対象1の各点における測定光2の反射強度を表す反射強度データ(反射強度画像)をそれぞれ出力する。
 3Dセンサ211a及び211bは、例えば図1等を参照して説明した3Dセンサ211と同様に構成される。なお3Dセンサ211a及び211bとして完全に同じセンサを用いる必要はなく、各センサの構成が異なっていてもよい。
 本実施形態では、3Dセンサ211aは、測定光を照射する測距センサに相当する。また、3Dセンサ211bは、測距センサとは異なる他のセンサの一例であり、測定光を照射する他の測距センサに相当する。
 記憶部213は、不揮発性の記憶デバイスである。記憶部213には、3次元測定システム200の全体の動作を制御するための制御プログラムが記憶される。また記憶部213には、キャリブレーションパラメータ25のデータや、キャリブレーションマーカー60の形状や寸法等のデータ、3Dモデル26のデータ等が記憶される。
 コントローラ220は、3次元測定システム200が有する各ブロックの動作を制御する。本実施形態では、コントローラ220のCPUが本実施形態に係るプログラムを実行することで、機能ブロックとして、較正処理部221、及びモデル生成部222が実現される。
 較正処理部221は、キャリブレーション処理を実行して、3Dセンサ211aと3Dセンサ211bとの配置関係を較正する。
 具体的には、較正処理部221は、3Dセンサ211aにより、キャリブレーションマーカー60を測定したデータと、3Dセンサ211bにより、キャリブレーションマーカー60を測定したデータとに基づいて、3Dセンサ211aと3Dセンサ211bとの配置関係を表すキャリブレーションパラメータ25(外部パラメータ)を算出する。
 図17の左側に示すように、キャリブレーション処理では、3Dセンサ211a及び3Dセンサ211bにより、共通のキャリブレーションマーカー60が測定される。
 この測定では、3Dセンサ211aは、キャリブレーションマーカー60の各点に対する距離を表す距離データを出力する。また、3Dセンサ211aは、キャリブレーションマーカー60の各点における測定光2の反射強度を表す反射強度データを出力する。
 同様に、3Dセンサ211bは、キャリブレーションマーカー60の各点に対する距離を表す距離データを出力する。また、3Dセンサ211aは、キャリブレーションマーカー60の各点における測定光2の反射強度を表す反射強度データを出力する。
 較正処理部221は、3Dセンサ211a及び211bの各々から出力されるキャリブレーションマーカー60の距離データ及び反射強度データに基づいて、外部パラメータを算出する。
 以下では、3Dセンサ211aから出力されるキャリブレーションマーカー60の距離データ及び反射強度データを、第1の距離データ及び第1の反射強度データと記載する。また3Dセンサ211bから出力されるキャリブレーションマーカー60の距離データ及び反射強度データを、第2の距離データ及び第2の反射強度データと記載する。
 モデル生成部222は、3Dセンサ211a及び211bが測定した測定対象1のデータから、測定対象1の3Dモデル26を生成する。
 例えば、3Dセンサ211a及び211bにより測定された測定対象1の距離データが統合され測定対象1の立体形状を表す3Dモデル26が生成される。これは、3Dセンサ211aが測定した立体形状と、3Dセンサ211bが測定した立体形状とをスムーズにつながるように結合させる処理である。
 立体形状のデータ(距離データ)は、例えば3次元の点群として処理される。各3Dセンサ211a及び211bが測定した点群の位置合わせには、キャリブレーション処理で算出されたキャリブレーションパラメータ25が用いられる。これにより、測定対象1の立体形状を広範囲にわたって精度よく再現する3Dモデル26等を生成することが可能となる。
 [キャリブレーションマーカー60の構成]
 図18は、キャリブレーションマーカー60の構成例を示す模式図である。
 キャリブレーションマーカー60は、マーカー本体61と、マーカー本体61に設けられた複数の凹状パターン62とを有する。
 マーカー本体61は、キャリブレーションマーカー60を構成する球体状の部材である。従って、マーカー本体61は、どの方向から撮影しても円として撮影されるため、それ自体がマーカーとして機能する。例えばマーカー本体61の中心は、キャリブレーションマーカー60の特徴点として用いられる。
 マーカー本体61の表面は、複数の凹状パターン62が形成される配置面63となる。このようにキャリブレーションマーカー60は、複数の凹状パターン62が配置される球面状の配置面63を有する。
 図18には、マーカー本体61を1つの方向から見た外観が模式的に図示されている。複数の凹状パターン62は、球面上の配置面63の全体にわたって配置され、例えば図18に示す側とは反対側にも複数の凹状パターン62が形成される。
 複数の凹状パターン62は、それぞれ凹部64を有する。凹部64は、球面上の配置面63に設けられたくぼみであり、底面部65と、側面部66とを有する。凹部64の深さ方向は、典型的には球体状のマーカー本体61の中心に向かう方向(配置面63の法線方向)である。
 また、各凹状パターン62において、各々の凹部64を囲む領域は、縁面部67となる。図18では、縁面部67に対応する領域が点線を用いて模式的に図示されている。
 本実施形態では、底面部65及び縁面部67は、測定光2に対する反射率が所定の閾値よりも高くなるように構成される。所定の閾値は、例えば図3等を参照して説明した方法により設定される。
 すなわち、キャリブレーションマーカー60は、各々が凹部64を有し、凹部64の底面部65及び凹部64を囲む縁面部67の測定光2に対する反射率が所定の閾値よりも高くなるように構成された複数の凹状パターン62を有する。
 これにより、各3Dセンサ211a及び211bの測定結果(第1の距離データ及び第2の距離データ)から、底面部65及び縁面部67の各点に対する距離を適正に算出することが可能となる。さらに、凹部64の深さΔを基準にすることで、各3Dセンサ211a及び211bで測定した距離(デプス値)を精度よく較正することが可能となる。
 図18に示すキャリブレーションマーカー60は、全体として測定光2に対する反射率が所定の閾値よりも高くなるように構成される。すなわち、凹状パターン62の底面部65及び縁面部67のみならず、他の部分についても同様の反射率が設定される。これにより、各3Dセンサ211a及び211bは、キャリブレーションマーカー60全体の立体形状を精度よく測定することが可能となる。
 また複数の凹状パターン62は、例えば底面部65及び縁面部67が平面となるように構成される。この場合、例えば図3B及び図3Cに示す凹状パターン62が、球体状のマーカー本体61に埋め込まれたような形状となる。底面部65及び縁面部67を平面とすることで、凹状パターン62ごとの測距精度が向上する。
 なお、底面部65のみが平面となるように構成されてもよい。この場合、縁面部67は、球面上の配置面63と一致する曲面となる。このような構成であっても、凹部64の縁に対する底面部65の深さをΔとして、デプス値を較正することが可能となる
 また、複数の凹状パターン62は、底面部65が円形状となるように、かつ縁面部67が平面視で底面部65と中心が一致する円環形状となるように構成される。すなわち、各凹状パターン62は、中央部分に円形のくぼみがある円チャートとなり、測距円として機能する。これにより、各凹状パターン62の特徴点を容易に検出することが可能となる。
 キャリブレーション処理では、例えば単体のキャリブレーションマーカー60を用いてキャリブレーション処理が実行される。この場合、キャリブレーションマーカー60自身の形状(各凹状パターン62の中心位置)を基準にして、3Dセンサ211a及び211bの配置関係が較正される。また、複数の凹状パターン62を個別に識別する必要があるため、各々の配置位置を識別することが可能なように、各凹状パターン62の位置やサイズが設定される。
 また例えば、所定の保持具に固定された複数のキャリブレーションマーカー60が用いられてもよい。これにより、全体で1つの較正用ターゲットが構成される。この場合、各キャリブレーションマーカー60の位置(マーカー本体61の中心位置)を基準にして、3Dセンサ211a及び211bの配置関係が較正される。
 以下では、主に単体のキャリブレーションマーカー60を用いてキャリブレーション処理を行う場合について説明する。
 [キャリブレーション処理]
 図19は、キャリブレーション処理の一例を示すフローチャートである。
 まず、3Dセンサ211a及び3Dセンサ211bにより、キャリブレーションマーカー60が測定される(ステップ401)。次に、較正処理部221により、3Dセンサ211a及び3Dセンサ211bから出力されたデータが取得される(ステップ402)。
 具体的には、3Dセンサ211aから出力された第1の反射強度データ及び第1の距離データと、3Dセンサ211bから出力された第2の反射強度データ及び第2の距離データとが適宜読み込まれる。この測定は、例えばキャリブレーションマーカー60の位置や姿勢を変えて複数回行われる。
 次に、較正処理部221により、距離データが較正される(ステップ403)。本実施形態では、3Dセンサ211a及び211bが測定した第1及び第2の距離データがそれぞれ較正される。
 具体的には、較正処理部221により、複数の凹状パターン62ごとに、凹部64の深さΔを基準として第1の距離データが表す距離を較正した第1の較正距離情報Z1が算出される。また、較正処理部221により、複数の凹状パターン62ごとに、凹部64の深さΔを基準として第2の距離データが表す距離を較正した第2の較正距離情報Z2が算出される。
 第1及び第2の距離データを較正する処理は、基本的には図12のステップ103で説明した方法と同様である。ここでは、例えば底面部65を直交方向から見たデプス値となるように傾斜が補正され、底面部65と縁面部67とのデプス値の差が、凹部64の深さΔと一致するように、デプス値が補正される。このデプス値に傾斜を戻す補正を行うことで、距離データを較正した較正距離情報が算出される。
 このようなデプス値の較正処理が、各凹状パターン62ごとに実行される。
 また本実施形態では、凹状パターン62の特徴点ごとに、Δを基準に較正されたデプス値が算出される。凹状パターン62の特徴点としては、例えば縁面部67の中心点や底面部65の中心点等が用いられる。
 次に、較正処理部221により、キャリブレーションパラメータ25が算出される(ステップ404)。ここでは、3Dセンサ211aと3Dセンサ211bとの配置関係を表すキャリブレーションパラメータ25(外部パラメータ)が算出される。この外部パラメータを算出する処理に、上記した第1の較正距離情報Z1と第2の較正距離情報Z2とが用いられる。
 以下では、キャリブレーション処理の内容についてより具体的に説明する。
 図20は、キャリブレーション処理の処理フローの一例を示すブロック図である。
 図13に示す例では、較正処理部221により、第1の較正距離情報Z1及び第2の較正距離情報Z2に基づいて外部パラメータが算出され、当該算出結果に基づいて3Dセンサ211a及び3Dセンサ211bの各内部パラメータが補正される。
 この処理は、各較正距離情報Z1及びZ2を用いて生成された高精度な外部パラメータを用いて、各センサの内部パラメータの精度を高めるカスケード型の処理となっている。
 まず、第1の距離データと第2の距離データを用いた処理について説明する。
 較正処理部221により、3Dセンサ211aから第1の距離データが読み込まれ、それぞれ平滑化される(ステップ501)。そして平滑化された第1の距離データが読み込まれる(ステップ502)。
 第1の距離データが凹状パターン62(測距円)ごとに較正され、第1の較正距離情報Z1が算出される(ステップ503)。この処理は、図19のステップ403で説明した処理である。例えば第1の較正距離情報Z1として、複数の凹状パターン62の特徴点ごとに、凹部64の深さΔを基準に較正されたデプス値が算出される。
 またステップ501~503と同様に、ステップ501'~503'が実行され、第2の距離データから、第2の較正距離情報Z2が算出される。
 第1の較正距離情報Z1及び第2の較正距離情報Z2に基づいて、外部パラメータ(カメラ姿勢パラメータ)が算出される(ステップ504)。
 第1の較正距離情報Z1及び第2の較正距離情報Z2は、例えば3Dセンサ211a及び3Dセンサ211bのカメラ座標における3次元点群データである。ここでは、例えば2つの点群データZ1及びZ2についての位置合わせ(点群マッチング)が行われる。
 Z1及びZ2は、絶対デプス値Δにより較正されているため、焦点距離等の内部パラメータに応じた歪みや、対応点間の相対的な距離のずれ等は存在しない。従ってZ1及びZ2に含まれる各データ点(特徴点等)を回転・並進させることで、両データを重ね合わせることが可能である。マッチング処理では、このような回転・並進を実現する回転行列R及び並進ベクトルTが外部パラメータとして算出される。
 マッチング処理の具体的な方法は限定されず、例えばロバスト推定やICP(Iterative Closest Point)等のマッチング手法が適宜用いられてよい。
 このように較正された点群データZ1及びZ2に対して、3次元空間での位置合わせを行うことで外部パラメータの算出精度を大幅に向上することが可能となる。
 次に、第1の反射強度データと第2の反射強度データとを用いた処理について説明する。
 較正処理部221により、3Dセンサ211aから第1の反射強度データが読み込まれる(ステップ505)。そして第1の反射強度データが、3Dセンサ211aの内部パラメータを用いて補正される(ステップ506)。この補正は、例えば3Dセンサ211aの特性(焦点距離等)に応じた歪みを補正する処理である。
 またステップ505及び506と同様に、ステップ505'及び506'が実行され、3Dセンサ211bの内部パラメータを用いて、第2の反射強度データが補正される。
 外部パラメータを用いて、3次元再構成処理が実行される(ステップ507)。3次元再構成処理では、キャリブレーションマーカー60の三次元形状が復元される。具体的には、内部パラメータにより補正された第1及び第2の反射強度データと外部パラメータによって変換された点群データ(第1及び第2の較正距離情報Z1及びZ2)とが統合された3次元形状データが算出される。
 また、3次元再構成処理では、内部パラメータにより補正された第1及び第2の反射強度データが、さらに外部パラメータを用いて変換される。すなわち第1及び第2の反射強度データは、互いに重なるように再構成された画像データとなる。
 3次元形状データ及び再構成された第1及び第2の反射強度データは、3次元信号として出力される。
 3次元信号に対して、位置合わせ誤差が算出される(ステップ508)。ここでは、例えば3次元形状データにおける3Dセンサ211a及び3Dセンサ211bにより測定されたデータ点の間の誤差(各データ点のずれ量)が算出される。また例えば、再構成された第1及び第2の反射強度データにおける対応点の誤差(各対応点のずれ量)が算出される。
 上記したように、ステップ504で算出される外部パラメータは、絶対デプス値Δを基準に較正された点群データから算出される。このように絶対値を表す高精度デプスを用いて推定した外部パラメータにより3次元再構成処理を行っていることから、残っている3次元点群上の誤差(位置合わせ誤差)は、略内部パラメータによる補正が原因であると考えられる。そこで、位置合わせ誤差は、各3Dセンサ211a及び211bの内部パラメータを補正するための参照値としてステップ506及び506'の処理にフィードバックされる。
 例えば、各内部パラメータは、位置合わせ誤差が最小化されるように補正される。
 このように、位置合わせ誤差によって補正された内部パラメータを用いて、第1及び第2の反射強度データが再度補正される。またこの補正結果をもとに、3次元再構成処理が再度実行される。この結果、キャリブレーションマーカー60の3次元形状を高精度に再構成した3次元形状データが算出される。また、互いに略一致するように変換された位置合わせ済みの第1及び第2の反射強度データが算出される。
 このように3Dセンサ211a及び211bによる3D-3D撮影では、距離データの3次元点群上での位置合わせが可能である。特に、絶対値で較正された距離データから外部パラメータを算出することで、外部パラメータの精度が向上する。図20に示す例では、このような外部パラメータを基準に内部パラメータが補正される。これは、距離データのデプス精度を高める事で内部パラメータによるキャリブ性能を上げる処理であると言える。
 これにより、非常に高精度なキャリブレーションパラメータ25(内部パラメータ及び外部パラメータ)を算出することが可能となる。
 図21は、キャリブレーション処理の処理フローの他の一例を示すブロック図である。
 図21に示す例では、較正処理部221により、第1の較正距離情報Z1及び第2の較正距離情報Z2に基づいて3Dセンサ211a及び3Dセンサ211bから出力された各反射強度データに関する視点変換を実行し、視点変換の結果に基づいて外部パラメータが算出される。この処理は、予め第1及び第2の較正距離情報Z1及びZ2を用いて視点変換処理をしたデータから外部パラメータを算出する一括型の処理となっている。
 図21に示すステップ601~603(ステップ601'~603')までの処理は、例えば図20に示すステップ501~503(ステップ501'~503')までの処理と同様に実行される。また、ステップ604(ステップ604')の処理は、例えば図20に示すステップ605(ステップ605')の処理と同様に実行される
 すなわち、キャリブレーションマーカー60を測定した第1及び第2の反射強度データ、及び第1及び第2の距離データが読み込まれる。また第1及び第2の距離データは凹状パターン62ごとに較正され、第1及び第2の較正距離情報Z1及びZ2が算出される。
 第1の反射強度データ及び第2の反射強度データに関する視点変換処理が実行される(ステップ605)。
 上記したように、第1及び第2の較正距離情報Z1及びZ2は、較正された点群データである。この点群データZ1及びZ2に対する回転処理や並進処理を、第1及び第2の反射強度データに反映させることで、各反射強度データの視点を変換することが可能である。
 ここでは、第1及び第2の反射強度データの対応点が探索しやすくなるように、各データの視点が適宜変換される。
 またステップ605では、キャリブレーションマーカー60に設けられた凹状パターン62のデプス段差(凹部64)を利用して、各センサの相対的な位置及び姿勢を表す外部パラメータのうち、距離方向(奥行き方向)の移動に係るパラメータ(例えばR13、R23、R33)が算出される。
 これにより、未知のキャリブレーションパラメータ25が減少し、他のパラメータの算出処理を安定して実行することが可能となり、ロバスト性を向上することが可能となる。
 3次元対応点探索処理が実行される(ステップ606)。この処理は、例えば視点変換された第1の反射強度データ及び第2の反射強度データから物理的に同一の箇所(対応点)を検出する処理である。なお対応点の探索には、第1及び第2の較正距離情報Z1及びZ2が用いられてもよい。すなわち、画像データと点群データとを用いて、3次元的に対応点が探索される。ここでは視点変換後のデータが用いられるため、対応点の探索を容易に行うことが可能である。
 対応点の検出結果に基づいて、距離方向の移動に係るパラメータ以外の外部パラメータが算出される(ステップ606)。ここでは、上記した距離方向の移動に係るパラメータを既知のパラメータとして、回転行列R及び並進ベクトルTについての連立方程式から、他のパラメータが算出される。未知のパラメータの数が少ないため、安定して他のパラメータを算出することが可能となる。
 キャリブレーションパラメータ25を用いて、3次元再構成処理が実行される(ステップ608)。3次元再構成処理は、例えば図20のステップ507で説明した処理と同様の処理である。ここでは、外部パラメータを用いて、キャリブレーションマーカー60の3次元形状データと、互いに略一致するように変換された位置合わせ済みの第1及び第2の反射強度データとが算出される。
 図22は、比較例として挙げるキャリブレーション処理の処理フローを示すブロック図である。ここでは、例えば凹状パターン62を持たない立体的なキャリブレーションマーカー等を用いて、3Dセンサ211a及び211bの配置関係が較正される。3Dセンサ211a及び211bから出力される距離データがそのまま外部パラメータの算出処理に用いられる。また、各3Dセンサ211a及び211bが測定した反射強度データが内部パラメータで補正され、外部パラメータの算出処理に用いられる。この算出処理では、例えば点群データである距離データのマッチング処理と、画像データである各反射強度データとの対応点探索処理とを組み合わせて、外部パラメータが算出される。
 図22に示す例では、各距離データは較正されておらず、相対距離を表すデータである。また距離データにはセンサ固有の歪み等が含まれている。また各反射強度データの対応点のみから算出される視差情報やZ情報は精度が高くない。このため、外部パラメータの算出精度が低下し、最終的に構成される3次元形状データ等の精度が低下する恐れがある。
 本実施形態では、底面部65及び縁面部67の測定光2に対する反射率が高い複数の凹状パターン62を備えるキャリブレーションマーカー60が用いられる。これにより、各凹状パターン62を高精度に測定することが可能となる。また凹状パターン62(凹部64)の深さΔを基準に、3Dセンサ211a及び211bが測定する第1及び第2の距離データを較正することが可能となる。これにより、各距離データの精度が大幅に向上する。
 凹みのあるキャリブレーションマーカー60を用いることで、精度の高いデプス情報(第1及び第2の較正距離情報Z1及びZ2)を利用することが可能となる。これにより、高精度な視点変換を行うことや、パラメータの数を減らすといったことが可能となり、外部パラメータの算出精度を向上させることが可能となる。この結果、3Dセンサ211a及び211bの配置関係を精度よく較正することが可能となる。
 また精度の高い外部パラメータを利用して、各3Dセンサ211a及び211bの内部パラメータを補正することが可能となる。これにより、各センサにおける歪み等も適正に補正することが可能となる。
 このように、本実施形態では、絶対デプス値Δで較正された高精度な距離情報を利用することで、位置合わせ、カメラポジションの較正、及び歪補正等の性能を向上させるキャリブレーション処理を実現することが可能となる。
 <その他の実施形態>
 本技術は、以上説明した実施形態に限定されず、他の種々の実施形態を実現することができる。
 上記では、主に凹状パターンが円チャートとなる場合について説明した。これに限定されず、例えば三角形型や四角形型等の多角形型の凹状パターンが用いられてもよい。また、底面部と縁面部との平面形状は必ずしも相似とならなくてもよい。例えば円形の底面部と四角形型の縁面部とを組み合わせた凹状パターン等が用いられてもよい。
 この他、凹状パターンのデザインは限定されず、例えば少なくとも1つの特徴点を検出可能となるような任意のデザインが用いられてよい。
 また3D-3Dステレオ撮影で用いられるキャリブレーションマーカーは、球体形状でなくてもよい。例えば、立方体形状や、直方体形状のマーカーが用いられてもよい。この他角柱形状、角錐形状、円錐形状等のマーカーが用いられてもよい。この他マーカーの外形は限定されない。いずれにしろ、マーカーの表面には、様々な方位から撮影可能となるように、複数の凹状パターンが適宜配置される。
 上記の実施形態では、主にToF方式の3Dセンサについて説明した。これに限定されず、例えば対象の所定のパターンを投影して形状を測定するストラクチャードライト等が用いられもよい。この場合、所定のパターンの投影光が測定光となり、凹状パターンの底面部及び縁面部は投影光を適正に反射可能なように構成される。ストラクチャードライトを用いた場合であっても、凹状パターンの深さΔにより距離データを較正することが可能であり、他のセンサとの配置関係を精度よく較正することが可能となる。
 また、較正用ターゲットとして、凹状パターンに代えて凸状のパターンを備えるターゲットが用いられてもよい。例えば図3に示すキャリブレーションボード30において、底面部となる部分が配置面から突出して突出面を形成するようなパターンが用いられてもよい。このような場合であっても、縁面部と突出面とのデプス差を絶対デプス値として、距離データを較正することが可能である。
 以上説明した本技術に係る特徴部分のうち、少なくとも2つの特徴部分を組み合わせることも可能である。すなわち各実施形態で説明した種々の特徴部分は、各実施形態の区別なく、任意に組み合わされてもよい。また上記で記載した種々の効果は、あくまで例示であって限定されるものではなく、また他の効果が発揮されてもよい。
 本開示において、「同じ」「等しい」「直交」等は、「実質的に同じ」「実質的に等しい」「実質的に直交」等を含む概念とする。例えば「完全に同じ」「完全に等しい」「完全に直交」等を基準とした所定の範囲(例えば±10%の範囲)に含まれる状態も含まれる。
 なお、本技術は以下のような構成も採ることができる。
(1)測定光を照射する測距センサにより、各々が凹部を有し、前記凹部の底面部及び前記凹部を囲む縁面部の前記測定光に対する反射率が所定の閾値よりも高くなるように構成された複数の凹状パターンを有する較正用ターゲットを測定したデータと、前記測距センサとは異なる他のセンサにより、前記較正用ターゲットを測定したデータとに基づいて、前記測距センサと前記他のセンサとの配置関係を表す較正パラメータを算出する較正処理部
 を具備する情報処理装置。
(2)(1)に記載の情報処理装置であって、
 前記複数の凹状パターンは、前記底面部及び前記縁面部が平面となるように構成される
 情報処理装置。
(3)(1)又は(2)に記載の情報処理装置であって、
 前記複数の凹状パターンは、前記底面部が円形状となるように、かつ前記縁面部が平面視で前記底面部と中心が一致する円環形状となるように構成される
 情報処理装置。
(4)(1)から(3)のうちいずれか1つに記載の情報処理装置であって、
 前記測距センサは、前記較正用ターゲットの各点に対する距離を表す第1の距離データを出力し、
 前記較正処理部は、前記複数の凹状パターンごとに、前記凹部の深さを基準として前記第1の距離データが表す距離を較正した第1の較正距離情報を算出し、前記第1の較正距離情報に基づいて、前記配置関係を表す較正パラメータを算出する
 情報処理装置。
(5)(4)に記載の情報処理装置であって、
 前記較正処理部は、前記第1の距離データを平滑化し、前記平滑化された前記第1の距離データに基づいて前記第1の較正距離情報を算出する
 情報処理装置。
(6)(4)又は(5)のうちいずれか1つに記載の情報処理装置であって、
 前記他のセンサは、対象を可視光により撮影する可視カメラであり、前記較正用ターゲットを前記可視光により撮影した可視画像データを出力する
 情報処理装置。
(7)(6)に記載の情報処理装置であって、
 前記複数の凹状パターンは、前記底面部及び前記縁面部の色が、第1の色となるように構成され、
 前記較正用ターゲットは、前記複数の凹状パターンが配置され、前記可視光による撮影において前記第1の色とは異なる第2の色となる領域を含む平面状の配置面を有する
 情報処理装置。
(8)(7)に記載の情報処理装置であって、
 前記配置面は、前記複数の凹状パターンを除く領域が前記第2の色に着色される
 情報処理装置。
(9)(7)に記載の情報処理装置であって、
 前記配置面は、前記第1の色及び前記第2の色で交互に着色された複数の矩形領域により格子状に分割された格子模様を有し、
 前記複数の凹状パターンは、前記複数の矩形領域の各々に少なくとも1つ配置される
 情報処理装置。
(10)(7)から(9)のうちいずれか1つに記載の情報処理装置であって、
 前記第1の色は、白色であり、
 前記第2の色は、黒色である
 情報処理装置。
(11)(7)から(10)のうちいずれか1つに記載の情報処理装置であって、
 前記第1の色は、前記測定光の反射光の強度が前記測距センサの測定レンジに収まる範囲で、前記第2の色に対するコントラストが最大となるように設定される
 情報処理装置。
(12)(6)から(11)のうちいずれか1つに記載の情報処理装置であって、
 前記測距センサは、前記較正用ターゲットの各点における前記測定光の反射強度を表す反射強度データを出力し、
 前記較正処理部は、前記可視画像データと前記反射強度データとに基づいて前記配置関係を表す較正パラメータを算出し、当該算出結果を前記第1の較正距離情報に基づいて補正する
 情報処理装置。
(13)(6)から(11)のうちいずれか1つに記載の情報処理装置であって、
 前記測距センサは、前記較正用ターゲットの各点における前記測定光の反射強度を表す反射強度データを出力し、
 前記較正処理部は、前記第1の較正距離情報に基づいて前記可視画像データと前記反射強度データとの間の視差補正を実行し、前記視差補正の結果に基づいて前記配置関係を表す較正パラメータを算出する
 情報処理装置。
(14)(4)又は(5)に記載の情報処理装置であって、
 前記他のセンサは、前記測定光を照射する他の測距センサであり、前記較正用ターゲットの各点に対する距離を表す第2の距離データを出力する
 情報処理装置。
(15)(14)に記載の情報処理装置であって、
 前記較正用ターゲットは、前記複数の凹状パターンが配置される球面状の配置面を有する
 情報処理装置。
(16)(14)又は(15)に記載の情報処理装置であって、
 前記較正処理部は、前記複数の凹状パターンごとに、前記凹部の深さを基準として前記第2の距離データが表す距離を較正した第2の較正距離情報を算出する
 情報処理装置。
(17)(16)に記載の情報処理装置であって、
 前記較正処理部は、前記第1の較正距離情報及び前記第2の較正距離情報に基づいて前記配置関係を表す較正パラメータを算出し、当該算出結果に基づいて前記測距センサ及び前記他の測距センサの各内部パラメータを補正する
 情報処理装置。
(18)(16)に記載の情報処理装置であって、
 前記測距センサ及び前記他の測距センサは、前記較正用ターゲットの各点における前記測定光の反射強度を表す反射強度データをそれぞれ出力し
 前記較正処理部は、前記第1の較正距離情報及び前記第2の較正距離情報に基づいて前記測距センサ及び前記他の測距センサから出力された各反射強度データに関する視点変換を実行し、前記視点変換の結果に基づいて前記配置関係を表す較正パラメータを算出する
 情報処理装置。
(19)測定光を照射する測距センサにより、各々が凹部を有し、前記凹部の底面部及び前記凹部を囲む縁面部の前記測定光に対する反射率が所定の閾値よりも高くなるように構成された複数の凹状パターンを有する較正用ターゲットを測定したデータと、前記測距センサとは異なる他のセンサにより、前記較正用ターゲットを測定したデータとに基づいて、前記測距センサと前記他のセンサとの配置関係を表す較正パラメータを算出する
 ことをコンピュータシステムが実行する情報処理方法。
(20)測定光を照射する測距センサを含む複数のセンサ間の配置関係を較正するために用いられる較正用ターゲットであって、
 各々が凹部を有し、前記凹部の底面部及び前記凹部を囲む縁面部の測定光に対する反射率が所定の閾値よりも高くなるように構成された複数の凹状パターン
 を具備する較正用ターゲット。
 1…測定対象
 2…測定光
 3…反射光
 4…可視光
 11、211a、211b…3Dセンサ
 12…2Dセンサ
 13、213…記憶部
 20、220…コントローラ
 21、221…較正処理部
 30、50a、50b…キャリブレーションボード
 32、62…凹状パターン
 35、65…底面部
 37、67…縁面部
 38…ベース領域
 40…可視画像データ
 41…反射強度データ
 42…距離データ
 51…格子模様
 52…矩形領域
 60…キャリブレーションマーカー
 100、200…3次元測定システム

Claims (20)

  1.  測定光を照射する測距センサにより、各々が凹部を有し、前記凹部の底面部及び前記凹部を囲む縁面部の前記測定光に対する反射率が所定の閾値よりも高くなるように構成された複数の凹状パターンを有する較正用ターゲットを測定したデータと、前記測距センサとは異なる他のセンサにより、前記較正用ターゲットを測定したデータとに基づいて、前記測距センサと前記他のセンサとの配置関係を表す較正パラメータを算出する較正処理部
     を具備する情報処理装置。
  2.  請求項1に記載の情報処理装置であって、
     前記複数の凹状パターンは、前記底面部及び前記縁面部が平面となるように構成される
     情報処理装置。
  3.  請求項1に記載の情報処理装置であって、
     前記複数の凹状パターンは、前記底面部が円形状となるように、かつ前記縁面部が平面視で前記底面部と中心が一致する円環形状となるように構成される
     情報処理装置。
  4.  請求項1に記載の情報処理装置であって、
     前記測距センサは、前記較正用ターゲットの各点に対する距離を表す第1の距離データを出力し、
     前記較正処理部は、前記複数の凹状パターンごとに、前記凹部の深さを基準として前記第1の距離データが表す距離を較正した第1の較正距離情報を算出し、前記第1の較正距離情報に基づいて、前記配置関係を表す較正パラメータを算出する
     情報処理装置。
  5.  請求項4に記載の情報処理装置であって、
     前記較正処理部は、前記第1の距離データを平滑化し、前記平滑化された前記第1の距離データに基づいて前記第1の較正距離情報を算出する
     情報処理装置。
  6.  請求項4に記載の情報処理装置であって、
     前記他のセンサは、対象を可視光により撮影する可視カメラであり、前記較正用ターゲットを前記可視光により撮影した可視画像データを出力する
     情報処理装置。
  7.  請求項6に記載の情報処理装置であって、
     前記複数の凹状パターンは、前記底面部及び前記縁面部の色が、第1の色となるように構成され、
     前記較正用ターゲットは、前記複数の凹状パターンが配置され、前記可視光による撮影において前記第1の色とは異なる第2の色となる領域を含む平面状の配置面を有する
     情報処理装置。
  8.  請求項7に記載の情報処理装置であって、
     前記配置面は、前記複数の凹状パターンを除く領域が前記第2の色に着色される
     情報処理装置。
  9.  請求項7に記載の情報処理装置であって、
     前記配置面は、前記第1の色及び前記第2の色で交互に着色された複数の矩形領域により格子状に分割された格子模様を有し、
     前記複数の凹状パターンは、前記複数の矩形領域の各々に少なくとも1つ配置される
     情報処理装置。
  10.  請求項7に記載の情報処理装置であって、
     前記第1の色は、白色であり、
     前記第2の色は、黒色である
     情報処理装置。
  11.  請求項7に記載の情報処理装置であって、
     前記第1の色は、前記測定光の反射光の強度が前記測距センサの測定レンジに収まる範囲で、前記第2の色に対するコントラストが最大となるように設定される
     情報処理装置。
  12.  請求項6に記載の情報処理装置であって、
     前記測距センサは、前記較正用ターゲットの各点における前記測定光の反射強度を表す反射強度データを出力し、
     前記較正処理部は、前記可視画像データと前記反射強度データとに基づいて前記配置関係を表す較正パラメータを算出し、当該算出結果を前記第1の較正距離情報に基づいて補正する
     情報処理装置。
  13.  請求項6に記載の情報処理装置であって、
     前記測距センサは、前記較正用ターゲットの各点における前記測定光の反射強度を表す反射強度データを出力し、
     前記較正処理部は、前記第1の較正距離情報に基づいて前記可視画像データと前記反射強度データとの間の視差補正を実行し、前記視差補正の結果に基づいて前記配置関係を表す較正パラメータを算出する
     情報処理装置。
  14.  請求項4に記載の情報処理装置であって、
     前記他のセンサは、前記測定光を照射する他の測距センサであり、前記較正用ターゲットの各点に対する距離を表す第2の距離データを出力する
     情報処理装置。
  15.  請求項14に記載の情報処理装置であって、
     前記較正用ターゲットは、前記複数の凹状パターンが配置される球面状の配置面を有する
     情報処理装置。
  16.  請求項14に記載の情報処理装置であって、
     前記較正処理部は、前記複数の凹状パターンごとに、前記凹部の深さを基準として前記第2の距離データが表す距離を較正した第2の較正距離情報を算出する
     情報処理装置。
  17.  請求項16に記載の情報処理装置であって、
     前記較正処理部は、前記第1の較正距離情報及び前記第2の較正距離情報に基づいて前記配置関係を表す較正パラメータを算出し、当該算出結果に基づいて前記測距センサ及び前記他の測距センサの各内部パラメータを補正する
     情報処理装置。
  18.  請求項16に記載の情報処理装置であって、
     前記測距センサ及び前記他の測距センサは、前記較正用ターゲットの各点における前記測定光の反射強度を表す反射強度データをそれぞれ出力し、
     前記較正処理部は、前記第1の較正距離情報及び前記第2の較正距離情報に基づいて前記測距センサ及び前記他の測距センサから出力された各反射強度データに関する視点変換を実行し、前記視点変換の結果に基づいて前記配置関係を表す較正パラメータを算出する
     情報処理装置。
  19.  測定光を照射する測距センサにより、各々が凹部を有し、前記凹部の底面部及び前記凹部を囲む縁面部の前記測定光に対する反射率が所定の閾値よりも高くなるように構成された複数の凹状パターンを有する較正用ターゲットを測定したデータと、前記測距センサとは異なる他のセンサにより、前記較正用ターゲットを測定したデータとに基づいて、前記測距センサと前記他のセンサとの配置関係を表す較正パラメータを算出する
     ことをコンピュータシステムが実行する情報処理方法。
  20.  測定光を照射する測距センサを含む複数のセンサ間の配置関係を較正するために用いられる較正用ターゲットであって、
     各々が凹部を有し、前記凹部の底面部及び前記凹部を囲む縁面部の測定光に対する反射率が所定の閾値よりも高くなるように構成された複数の凹状パターン
     を具備する較正用ターゲット。
PCT/JP2022/001613 2021-03-31 2022-01-18 情報処理装置、情報処理方法、及び較正用ターゲット WO2022209166A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021060257A JP2024075525A (ja) 2021-03-31 2021-03-31 情報処理装置、情報処理方法、及び較正用ターゲット
JP2021-060257 2021-03-31

Publications (1)

Publication Number Publication Date
WO2022209166A1 true WO2022209166A1 (ja) 2022-10-06

Family

ID=83458620

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/001613 WO2022209166A1 (ja) 2021-03-31 2022-01-18 情報処理装置、情報処理方法、及び較正用ターゲット

Country Status (2)

Country Link
JP (1) JP2024075525A (ja)
WO (1) WO2022209166A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7527532B1 (ja) 2023-01-30 2024-08-02 三菱電機株式会社 画像点群データ処理装置、画像点群データ処理方法、及び画像点群データ処理プログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002202122A (ja) * 2001-01-05 2002-07-19 Olympus Optical Co Ltd 2次元距離画像センサのキャリブレーション方法
JP2009025225A (ja) * 2007-07-23 2009-02-05 Fujifilm Corp 立体撮像装置および立体撮像装置の制御方法並びにプログラム
JP2017015455A (ja) * 2015-06-29 2017-01-19 富士フイルム株式会社 配筋測定装置
JP2020201921A (ja) * 2019-06-11 2020-12-17 株式会社Mujin 第1のカメラによって生成された第1の画像を第2のカメラによって生成された第2の画像に基づいて更新する方法及び処理システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002202122A (ja) * 2001-01-05 2002-07-19 Olympus Optical Co Ltd 2次元距離画像センサのキャリブレーション方法
JP2009025225A (ja) * 2007-07-23 2009-02-05 Fujifilm Corp 立体撮像装置および立体撮像装置の制御方法並びにプログラム
JP2017015455A (ja) * 2015-06-29 2017-01-19 富士フイルム株式会社 配筋測定装置
JP2020201921A (ja) * 2019-06-11 2020-12-17 株式会社Mujin 第1のカメラによって生成された第1の画像を第2のカメラによって生成された第2の画像に基づいて更新する方法及び処理システム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7527532B1 (ja) 2023-01-30 2024-08-02 三菱電機株式会社 画像点群データ処理装置、画像点群データ処理方法、及び画像点群データ処理プログラム
WO2024161453A1 (ja) * 2023-01-30 2024-08-08 三菱電機株式会社 画像点群データ処理装置、画像点群データ処理方法、及び画像点群データ処理プログラム

Also Published As

Publication number Publication date
JP2024075525A (ja) 2024-06-04

Similar Documents

Publication Publication Date Title
US11003897B2 (en) Three-dimensional real face modeling method and three-dimensional real face camera system
CN106548489B (zh) 一种深度图像与彩色图像的配准方法、三维图像采集装置
CN111566437B (zh) 三维测量系统以及三维测量方法
CN108474658B (zh) 地面形态检测方法及系统、无人机降落方法和无人机
WO2021140886A1 (ja) 三次元モデル生成方法、情報処理装置およびプログラム
Khoshelham Accuracy analysis of kinect depth data
CN106127745B (zh) 结构光3d视觉系统与线阵相机的联合标定方法及装置
US8446492B2 (en) Image capturing device, method of searching for occlusion region, and program
Takimoto et al. 3D reconstruction and multiple point cloud registration using a low precision RGB-D sensor
Ahmadabadian et al. An automatic 3D reconstruction system for texture-less objects
JP2015021862A (ja) 3次元計測装置及び3次元計測方法
KR102546346B1 (ko) 전방위 카메라의 캘리브레이션을 위한 장치 및 방법
Wan et al. A study in 3d-reconstruction using kinect sensor
WO2022209166A1 (ja) 情報処理装置、情報処理方法、及び較正用ターゲット
CN110021035B (zh) Kinect深度相机的标记物及基于该标记物的虚拟标记物跟踪方法
Furferi et al. A RGB-D based instant body-scanning solution for compact box installation
Harvent et al. Multi-view dense 3D modelling of untextured objects from a moving projector-cameras system
JP6486083B2 (ja) 情報処理装置、情報処理方法及びプログラム
KR20200049958A (ko) 3차원 깊이 측정 장치 및 방법
JP6237032B2 (ja) 色と三次元形状の計測方法及び装置
JP6890422B2 (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
TWI480507B (zh) 三維模型重建方法及其系統
Botterill et al. Design and calibration of a hybrid computer vision and structured light 3D imaging system
JP7251631B2 (ja) テンプレート作成装置、物体認識処理装置、テンプレート作成方法、物体認識処理方法及びプログラム
KR101748674B1 (ko) 3차원 영상 생성 방법 및 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22779398

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22779398

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP