WO2017134880A1 - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
WO2017134880A1
WO2017134880A1 PCT/JP2016/082145 JP2016082145W WO2017134880A1 WO 2017134880 A1 WO2017134880 A1 WO 2017134880A1 JP 2016082145 W JP2016082145 W JP 2016082145W WO 2017134880 A1 WO2017134880 A1 WO 2017134880A1
Authority
WO
WIPO (PCT)
Prior art keywords
imaging
pixel
captured image
distance
coordinates
Prior art date
Application number
PCT/JP2016/082145
Other languages
English (en)
French (fr)
Inventor
智紀 増田
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2017565400A priority Critical patent/JP6534455B2/ja
Priority to CN201680080876.9A priority patent/CN108603745B/zh
Publication of WO2017134880A1 publication Critical patent/WO2017134880A1/ja
Priority to US16/044,524 priority patent/US10401146B2/en
Priority to US16/510,941 priority patent/US20190339059A1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/026Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring distance between sensor and object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • H04N5/2226Determination of depth image, e.g. for foreground/background separation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/671Focus control based on electronic image sensor signals in combination with active ranging signals, e.g. using light or sound signals emitted toward objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof

Definitions

  • the technology of the present disclosure relates to an information processing apparatus, an information processing method, and a program.
  • Japanese Patent Application Laid-Open No. 2012-27000 discloses an image measurement processing device that derives the three-dimensional position coordinates of feature points on a measurement target with a single camera.
  • three-dimensional position coordinates are derived by the following steps 1 to 5.
  • the image measurement processing device stores in advance the internal orientation elements of the camera and the actual coordinates of at least four feature points of the measurement target.
  • the image measurement processing device captures an image obtained by being imaged by the camera and including four feature points in the camera field of view.
  • the image measurement processing device corrects distortion on the image based on the internal orientation element with respect to the camera view coordinates of the feature points on the captured image.
  • the image measurement processing device derives a camera position and a camera angle in a coordinate system based on the measurement target at the time of image capturing from the camera view coordinates and real coordinates of the feature points.
  • the image measurement processing device derives the three-dimensional coordinates of the feature points in the camera reference coordinate system by executing coordinate transformation that makes the derived camera position and camera angle the reference position and reference angle.
  • Japanese Patent Application Laid-Open No. 2013-122434 discloses a three-dimensional position measuring apparatus including a monocular imaging apparatus to which an irradiation unit having an irradiation light source for irradiating laser light is fixed.
  • the three-dimensional position measuring apparatus described in Japanese Patent Application Laid-Open No. 2013-122434 moves the calibration plate while irradiating the calibration plate with laser light, and images the calibration plate as a subject, or moves the imaging apparatus.
  • the calibration plate is imaged as an object from two imaging positions.
  • the three-dimensional position measurement apparatus described in Japanese Patent Application Laid-Open No. 2013-122434 calculates the three-dimensional coordinates of the irradiation position of the laser beam in each image from each image obtained by imaging, and calculates the direction vector of the laser beam. Alternatively, a plane equation is calculated.
  • the three-dimensional position measurement apparatus described in Japanese Patent Application Laid-Open No. 2013-122434 calculates the three-dimensional coordinates of the object to be irradiated with the laser beam using the calculated direction vector or plane equation.
  • International Publication No. WO 97/06406 discloses a distance measuring device that measures a distance from a reference surface to an irradiation position of a laser beam.
  • the distance measuring device described in International Publication No. 97/06406 generates an edge image of a captured image by paying attention to an error in measurement according to the characteristics of the object surface to be measured, and the generated edge image. Based on the above, the coordinate position indicating the contour of the object is specified from the coordinate positions of the elements in the space.
  • JP2012-27000A, JP2013-122434A, and WO97 / 06406 can be specified in the captured image obtained by imaging.
  • 3 is a technique based on the premise that the three-dimensional coordinates cannot be derived when an image of a subject having no identifiable feature point is captured.
  • the “three-dimensional coordinates” referred to here indicate three-dimensional coordinates that specify a designated position in the subject.
  • a method of deriving the three-dimensional coordinates based on the first captured image, the second captured image, and the imaging position distance by a distance measuring device having a function of performing ranging and imaging can be considered.
  • ranging means measuring the distance to the subject based on the round trip time of the laser light emitted toward the subject to be measured.
  • the first captured image refers to an image obtained by capturing the subject from the first imaging position
  • the second captured image refers to the subject including the subject that is the imaging target from the first imaging position.
  • the imaging position distance refers to the distance between the first imaging position and the second imaging position.
  • the imaging position distance it is necessary to accurately derive the imaging position distance. If the subject includes identifiable feature points, the distance measurement is performed using the identifiable feature points as the measurement target, and if the subject including the identifiable feature points can be imaged from each of the different imaging positions, imaging is performed. It is possible to derive the position distance.
  • feature points that can be specified for a subject do not necessarily exist.
  • the actual irradiation position of the laser beam can be specified for the subject by replacing parts in the distance measuring device or changing the angle of view. It is possible that the points do not match.
  • the actual irradiation position of the laser light coincides with a identifiable feature point on the subject.
  • the imaging position distance is derived without considering the irradiation position of the laser beam, the imaging position distance lacking accuracy is derived as a three-dimensional coordinate. There is a risk of being served.
  • One embodiment of the present invention provides an information processing apparatus, an information processing method, and a program capable of deriving an imaging position distance with high accuracy compared to a case where an irradiation position of directional light is not considered.
  • a first captured image obtained by imaging a subject from a first imaging position and a subject is captured from a second imaging position different from the first imaging position.
  • An acquisition unit that acquires the distance to the irradiation position, an irradiation position real space coordinate that specifies an irradiation position on the subject with the directional light on the real space based on the distance acquired by the acquisition unit, and the first imaging In each of the image and the second captured image, a derivation unit for deriving an irradiation position pixel coordinate that specifies a position of a pixel corresponding to the irradiation position specified by the irradiation position real space coordinate, and a pixel specified by the irradiation position pixel coordinate
  • a plurality of pixel coordinates that are a plurality of coordinates that specify a plurality of pixels of three or more pixels that exist in the same planar area as the irradiation position irradiated with directional light in space and that can be specified at positions corresponding to each other;
  • the first imaging position and the second imaging position based on the irradiation position real space coordinates, the focal length of the imaging lens used for imaging the subject, and the dimensions of the imaging pixels included in the imaging pixel group for imaging the subject.
  • an execution unit that executes a derivation process for deriving an imaging position distance that is a distance from
  • the information processing apparatus can derive the imaging position distance with higher accuracy than when the irradiation position of the directional light is not taken into consideration.
  • the execution unit when the execution unit is in a position unidentifiable state, the execution unit is in a position unidentifiable state. Further, it is assumed that the position identification impossible state notification process to be notified is further executed.
  • the information processing apparatus includes a pixel that can be specified at positions corresponding to each other in each of the first captured image and the second captured image. The user can recognize that the position is a different pixel.
  • the information processing apparatus is the information processing apparatus according to the first aspect or the second aspect of the present invention, wherein the execution unit is implemented in each of the first captured image and the second captured image. Executing a process of deriving designated pixel real space coordinates, which are coordinates of a position in the real space corresponding to the position of the designated pixel designated as a corresponding pixel in the position on the space, based on the imaging position distance; Has been.
  • the information processing apparatus can derive the designated pixel real space coordinates with higher accuracy than in the case of deriving the imaging position distance without considering the irradiation position of the directional light. it can.
  • the information processing apparatus is the information processing apparatus according to the third aspect of the present invention, wherein the designated pixel real space coordinates are the imaging position distance, the first captured image, and the second captured image. In each of them, it is defined based on designated pixel coordinates for specifying pixels that can be specified at positions corresponding to each other as designated pixels, a focal length, and dimensions.
  • the designated pixel real space coordinates can be derived with high accuracy.
  • the derivation process is based on a plurality of pixel coordinates, a focal length, and a size. , Deriving the orientation of the plane defined by the plane equation indicating the plane including the coordinates on the real space corresponding to the plurality of pixel coordinates, and determining the plane equation based on the derived direction and the irradiation position real space coordinates, This is a process for deriving the imaging position distance based on the determined plane equation, the plurality of pixel coordinates, the focal length, and the dimensions.
  • the information processing apparatus can derive the imaging position distance by the derivation process with higher accuracy than when the imaging position distance is derived without using the plane equation in the derivation process. .
  • the first captured image obtained by imaging the subject from the first imaging position and the second imaging position different from the first imaging position are captured by the subject.
  • An acquisition unit that acquires the distance to the irradiation position, an irradiation position real space coordinate that specifies an irradiation position on the subject with the directional light on the real space based on the distance acquired by the acquisition unit, and the first imaging In each of the image and the second captured image, a derivation unit for deriving an irradiation position pixel coordinate that specifies a position of a pixel corresponding to the irradiation position specified by the irradiation position real space coordinate, and a pixel specified by the irradiation position pixel coordinate
  • the position of In the case of a position identifiable state that is a position of a pixel that can be specified at a position corresponding to each other in each of the first captured image and the second captured image, the irradiation position real space coordinates, the irradiation position pixel coordinates, and the subject are used for imaging.
  • an execution unit that executes a derivation process for deriving the imaging position distance based on the
  • the information processing apparatus can derive the imaging position distance with higher accuracy than when the imaging position distance is derived without considering the irradiation position of the directional light.
  • the execution unit determines that the position of the pixel specified by the irradiation position pixel coordinates is the first captured image and the first image. Directivity in real space in each of the first captured image and the second captured image in the case where the position of the two captured images is different from the pixels that can be identified at positions corresponding to each other and the positions of the pixels are different.
  • a plurality of pixel coordinates that are a plurality of coordinates that specify a plurality of pixels of three or more pixels that are present in the same planar region as the irradiation position irradiated with light and that can be specified at positions corresponding to each other, and an irradiation position real space
  • a multi-pixel use derivation process for deriving the imaging position distance based on the coordinates, the focal length, and the dimensions is executed, and the derivation process is the number of parameters used in deriving the imaging position distance by the multi-pixel use derivation process. Is a process of deriving the imaging position distance based on remote small plurality of parameters, there is a.
  • the information processing apparatus can always derive the imaging position distance with a low load compared to the case where the imaging position distance is always derived by the multi-pixel use derivation process.
  • An information processing device is the information processing device according to the sixth aspect or the seventh aspect of the present invention, wherein the execution unit is in a position identifiable state when the position identifiable state is present. It is further assumed that the position-identifiable state notification process for notifying that there is a further execution.
  • the position of the pixel specified by the irradiation position pixel coordinate is a pixel that can be specified at a position corresponding to each other in each of the first captured image and the second captured image. The user can be made aware of the position.
  • An information processing apparatus is the information processing apparatus according to any one of the first to eighth aspects of the present invention, which emits directional light and receives reflected light. It further includes a measurement unit that measures the distance by doing so, and the acquisition unit acquires the distance measured by the measurement unit.
  • the information processing apparatus can use the distance measured by the measurement unit to derive the shooting position coordinates and the irradiation position pixel coordinates.
  • An information processing apparatus is the information processing apparatus according to any one of the first to ninth aspects of the present invention, further including an imaging unit that images a subject.
  • the unit obtains a first captured image obtained by imaging the subject from the first imaging position by the imaging unit, and a second captured image obtained by imaging the subject from the second imaging position by the imaging unit. Has been.
  • the information processing apparatus can use the first captured image and the second captured image obtained by imaging by the imaging unit for deriving the imaging position distance.
  • An information processing device is the information processing device according to any one of the first to tenth aspects of the present invention, wherein the derivation result by the execution unit is displayed on the display unit. It further includes a control unit that performs display control.
  • the information processing apparatus allows the user to easily recognize the derivation result by the execution unit as compared with the case where the derivation result by the execution unit is not displayed by the display unit.
  • An information processing method includes a first captured image obtained by imaging a subject from a first imaging position, and a subject captured from a second imaging position different from the first imaging position. Subject obtained by measuring the obtained second captured image and directional light, which is directional light, emitted from the position corresponding to the first imaging position and receiving reflected light of the directional light.
  • the irradiation position pixel coordinate which specifies the position of the pixel corresponding to the irradiation position specified by the irradiation position real space coordinate is derived, and the position of the pixel specified by the irradiation position pixel coordinate is the first captured image and the second position.
  • An imaging position distance that is the distance between the first imaging position and the second imaging position is derived based on the focal length of the imaging lens used for imaging and the dimensions of the imaging pixels included in the imaging pixel group that images the subject. Performing a derivation process.
  • the information processing method can derive the imaging position distance with higher accuracy than when the directional light irradiation position is not taken into consideration.
  • a first captured image obtained by imaging a subject from a first imaging position and a subject is imaged from a second imaging position different from the first imaging position.
  • the irradiation position pixel coordinate which specifies the position of the pixel corresponding to the irradiation position specified by the irradiation position real space coordinate is derived, and the position of the pixel specified by the irradiation position pixel coordinate is the first captured image and the second position.
  • Each captured image In the position identifiable state, which is the position of pixels that can be specified at positions corresponding to each other, the irradiation position real space coordinates, the irradiation position pixel coordinates, the focal length of the imaging lens used for imaging the subject, and the subject And performing a derivation process for deriving the imaging position distance based on the dimensions of the imaging pixels included in the imaging pixel group that captures the image.
  • the information processing method can derive the imaging position distance with higher accuracy than when the directional light irradiation position is not taken into consideration.
  • a program according to a fourteenth aspect of the present invention is a program in which a computer captures a first captured image obtained by capturing an object from the first image capturing position and a second image capturing position different from the first image capturing position. Measured by emitting the directional light, which is directional light, from the position corresponding to the first captured position and the reflected light of the directional light emitted from the position corresponding to the first captured position.
  • the distance to the subject is acquired, and based on the acquired distance, the irradiation position real space coordinates for specifying the irradiation position on the subject with the directional light in the real space, and the first captured image and the second captured image
  • an irradiation position pixel coordinate that specifies the position of the pixel corresponding to the irradiation position specified by the irradiation position real space coordinates is derived, and the position of the pixel specified by the irradiation position pixel coordinate is the first captured image and the first position.
  • Directional light in real space in each of the first captured image and the second captured image in a case where the position cannot be specified which is a position of a pixel different from a pixel that can be specified at a position corresponding to each other in each of the captured images.
  • a plurality of pixel coordinates that are a plurality of coordinates that specify a plurality of pixels of three or more pixels that can be specified at positions corresponding to each other, and the irradiation position real space coordinates.
  • an imaging lens that is a distance between the first imaging position and the second imaging position based on the focal length of the imaging lens used for imaging the subject and the dimensions of the imaging pixels included in the imaging pixel group that images the subject.
  • a program for executing a process including executing a derivation process for deriving a position distance.
  • the program according to the fourteenth aspect of the present invention can derive the imaging position distance with higher accuracy than when the directional light irradiation position is not taken into consideration.
  • a program according to a fifteenth aspect of the present invention is a program in which a computer captures a first captured image obtained by capturing an image of a subject from the first image capturing position and a second image capturing position different from the first image capturing position. Measured by emitting the directional light, which is directional light, from the position corresponding to the first captured position and the reflected light of the directional light emitted from the position corresponding to the first captured position.
  • the distance to the subject is acquired, and based on the acquired distance, the irradiation position real space coordinates for specifying the irradiation position on the subject with the directional light in the real space, and the first captured image and the second captured image
  • an irradiation position pixel coordinate that specifies the position of the pixel corresponding to the irradiation position specified by the irradiation position real space coordinates is derived, and the position of the pixel specified by the irradiation position pixel coordinate is the first captured image and the first position.
  • a position specifiable state that is a position of a pixel that can be specified at a position corresponding to each other in each of the captured images
  • the irradiation position real space coordinates, the irradiation position pixel coordinates, and the focus of the imaging lens used for imaging the subject A program for executing a process including executing a derivation process for deriving the imaging position distance based on the distance and the size of the imaging pixel included in the imaging pixel group that images the subject.
  • the program according to the fifteenth aspect of the present invention can derive the imaging position distance with higher accuracy than when the irradiation position of directional light is not taken into consideration.
  • the imaging position distance can be derived with higher accuracy than in the case where the irradiation position of the directional light is not considered.
  • FIG. 6 is a front view showing an example of an appearance of a distance measuring device according to the first to fifth embodiments. It is a block diagram which shows an example of the hardware constitutions of the ranging apparatus which concerns on 1st-4th embodiment.
  • 10 is a time chart showing an example of a measurement sequence by the distance measuring apparatus according to the first to sixth embodiments. 10 is a time chart showing an example of a laser trigger, a light emission signal, a light reception signal, and a count signal required for performing one measurement by the distance measuring apparatus according to the first to sixth embodiments.
  • FIG. 6 is a block diagram showing an example of a hardware configuration of a main control unit included in a distance measuring device according to the first to sixth embodiments. It is a schematic plan view showing an example of the positional relationship between the distance measuring apparatus according to the first to fourth embodiments and the sixth embodiment and a subject.
  • FIG. 6 is a block diagram showing an example of a hardware configuration of a main control unit included in a distance measuring device according to the first to sixth embodiments. It is a schematic plan view showing an example of the positional relationship between the distance measuring apparatus according to the first to fourth embodiments and the sixth embodiment and a subject.
  • FIG. 6 is a conceptual diagram illustrating an example of a positional relationship among a part of a subject, a first captured image, a second captured image, a principal point of an imaging lens at a first imaging position, and a principal point of the imaging lens at a second imaging position.
  • FIG. 6 is a block diagram showing an example of main functions of a CPU according to the first to sixth embodiments. It is a figure for demonstrating the derivation
  • FIG. 6 is a diagram for explaining a method for deriving irradiation position pixel coordinates according to the first to sixth embodiments.
  • FIG. 10 is a conceptual diagram illustrating an example of a subject included in a shooting range of the imaging device according to the first to sixth embodiments.
  • FIG. 3 is a schematic image diagram illustrating an example of a first captured image obtained by capturing an image with the imaging apparatus according to the first embodiment, in which an irradiation position mark and a distance to a subject are superimposed and displayed. It is a schematic image figure showing an example of the 1st picked-up image which was the 1st picked-up image obtained by picking up with the image pick-up device concerning a 1st embodiment, and the coincidence message was superimposed and displayed.
  • FIG. 3 is a schematic image diagram illustrating an example of a first captured image obtained by capturing an image with the imaging apparatus according to the first embodiment and in a state in which a target pixel is designated.
  • FIG. 2 is a schematic image diagram showing an example of a first captured image obtained by capturing an image with the imaging apparatus according to the first embodiment and in which a target pixel and first to third pixels are specified. is there.
  • FIG. 3 is a schematic image diagram illustrating an example of a first captured image obtained by capturing an image with the imaging apparatus according to the first embodiment and in a state in which a target pixel is designated.
  • FIG. 2 is a schematic image diagram showing an example of a first captured image obtained by capturing an image with the imaging apparatus according to the first embodiment and in which a target pixel and first to third pixels are specified. is there.
  • FIG. 6 is a schematic image diagram illustrating an example of a second captured image obtained by capturing an image with the imaging apparatus according to the first embodiment and on which an imaging position distance is superimposed and displayed. It is a flowchart which shows an example of the flow of the three-dimensional coordinate derivation process which concerns on 1st Embodiment. It is a schematic image figure which shows the example of the 2nd picked-up image obtained by picking up with the image pick-up device concerning a 1st embodiment, and the image pick-up position distance and specified pixel three-dimensional coordinates were superimposed and displayed. .
  • FIG. 3 is a schematic image diagram illustrating an example of a first captured image obtained by capturing an image with the imaging apparatus according to the first embodiment and having first to third pixels identified.
  • FIG. 10 is a front view showing a modified example of the appearance of the distance measuring apparatus according to the first to sixth embodiments.
  • the distance from the distance measuring device 10A to the subject to be measured is also simply referred to as “distance” or “distance to the subject”.
  • the angle of view with respect to the subject is also simply referred to as “angle of view”.
  • a distance measuring device 10 ⁇ / b> A that is an example of an information processing device according to the technology of the present disclosure includes a distance measuring unit 12 and an imaging device 14.
  • the distance measurement unit 12 and a distance measurement control unit 68 (see FIG. 2) described later are examples of a measurement unit according to the technique of the present disclosure
  • the imaging device 14 is an imaging unit according to the technique of the present disclosure. It is an example.
  • the imaging device 14 includes a lens unit 16 and an imaging device body 18, and the lens unit 16 is detachably attached to the imaging device body 18.
  • a hot shoe 20 is provided on the left side of the image pickup apparatus main body 18 when viewed from the front, and the distance measuring unit 12 is detachably attached to the hot shoe 20.
  • the distance measuring device 10A includes a distance measuring function for performing distance measurement by emitting a distance measuring laser beam to the distance measuring unit 12, and an image capturing function for obtaining a captured image by causing the image capturing device 14 to capture an image of a subject. ing.
  • the captured image is also simply referred to as “image”.
  • the optical axis L1 (see FIG. 2) of the laser light emitted from the distance measuring unit 12 is the same height as the optical axis L2 (see FIG. 2) of the lens unit 16. It is assumed that this is the case.
  • the distance measuring device 10A operates the distance measuring system function to perform one measurement sequence (see FIG. 3) in response to one instruction, and finally, one measurement sequence is performed. The distance is output.
  • the ranging device 10A has a still image capturing mode and a moving image capturing mode as operation modes of the image capturing system function.
  • the still image capturing mode is an operation mode for capturing a still image
  • the moving image capturing mode is an operation mode for capturing a moving image.
  • the still image capturing mode and the moving image capturing mode are selectively set according to a user instruction.
  • the distance measuring unit 12 includes an emitting unit 22, a light receiving unit 24, and a connector 26.
  • the connector 26 can be connected to the hot shoe 20, and the distance measuring unit 12 operates under the control of the imaging apparatus main body 18 with the connector 26 connected to the hot shoe 20.
  • the emission unit 22 includes an LD (Laser Diode) 30, a condenser lens (not shown), an objective lens 32, and an LD driver 34.
  • LD Laser Diode
  • condenser lens not shown
  • objective lens 32 an objective lens
  • LD driver 34 an LD driver
  • the condenser lens and objective lens 32 are provided along the optical axis L1 of the laser light emitted from the LD 30, and are arranged in the order of the condenser lens and objective lens 32 along the optical axis L1 from the LD 30 side. .
  • the LD 30 emits laser light for distance measurement, which is an example of directional light according to the technology of the present disclosure.
  • the laser beam emitted by the LD 30 is a colored laser beam. For example, if the laser beam is within a range of about several meters from the emission unit 22, the irradiation position of the laser beam is visually recognized in real space and imaged. It is also visually recognized from a captured image obtained by imaging by the device 14.
  • the condensing lens condenses the laser light emitted by the LD 30 and passes the condensed laser light.
  • the objective lens 32 faces the subject and emits laser light that has passed through the condenser lens to the subject.
  • the LD driver 34 is connected to the connector 26 and the LD 30 and drives the LD 30 in accordance with an instruction from the imaging apparatus main body 18 to emit laser light.
  • the light receiving unit 24 includes a PD (photodiode: Photo Diode) 36, an objective lens 38, and a light reception signal processing circuit 40.
  • the objective lens 38 is disposed on the light receiving surface side of the PD 36, and reflected laser light, which is laser light reflected by the laser light emitted by the emission unit 22 when hitting the subject, is incident on the objective lens 38.
  • the objective lens 38 passes the reflected laser light and guides it to the light receiving surface of the PD 36.
  • the PD 36 receives the reflected laser light that has passed through the objective lens 38, and outputs an analog signal corresponding to the amount of received light as a light reception signal.
  • the light reception signal processing circuit 40 is connected to the connector 26 and the PD 36, amplifies the light reception signal input from the PD 36 by an amplifier (not shown), and performs A / D (Analog / Digital) conversion on the amplified light reception signal. I do. Then, the light reception signal processing circuit 40 outputs the light reception signal digitized by A / D conversion to the imaging apparatus body 18.
  • the imaging device 14 includes mounts 42 and 44.
  • the mount 42 is provided in the imaging apparatus main body 18, and the mount 44 is provided in the lens unit 16.
  • the lens unit 16 is attached to the imaging apparatus main body 18 in a replaceable manner by coupling the mount 44 to the mount 42.
  • the lens unit 16 includes an imaging lens 50, a zoom lens 52, a zoom lens moving mechanism 54, and a motor 56.
  • Subject light that is reflected light from the subject enters the imaging lens 50.
  • the imaging lens 50 passes the subject light and guides it to the zoom lens 52.
  • a zoom lens 52 is attached to the zoom lens moving mechanism 54 so as to be slidable with respect to the optical axis L2. Further, a motor 56 is connected to the zoom lens moving mechanism 54, and the zoom lens moving mechanism 54 slides the zoom lens 52 along the optical axis L2 direction by receiving the power of the motor 56.
  • the motor 56 is connected to the imaging apparatus main body 18 via mounts 42 and 44, and the drive is controlled in accordance with a command from the imaging apparatus main body 18.
  • a stepping motor is applied as an example of the motor 56. Accordingly, the motor 56 operates in synchronization with the pulse power in accordance with a command from the imaging apparatus main body 18.
  • the imaging device main body 18 includes an imaging device 60, a main control unit 62, an image memory 64, an image processing unit 66, a distance measurement control unit 68, a motor driver 72, an imaging device driver 74, an image signal processing circuit 76, and a display control unit 78. It has.
  • the imaging device main body 18 includes a touch panel I / F (Interface) 79, a reception I / F 80, and a media I / F 82.
  • the main control unit 62, the image memory 64, the image processing unit 66, the distance measurement control unit 68, the motor driver 72, the image sensor driver 74, the image signal processing circuit 76, and the display control unit 78 are connected to the bus line 84.
  • a touch panel I / F 79, a reception I / F 80, and a media I / F 82 are also connected to the bus line 84.
  • the imaging element 60 is a CMOS (Complementary Metal Oxide Semiconductor) type image sensor, and includes a color filter (not shown).
  • the color filter includes a G filter corresponding to G (Green: green) that contributes most to obtain a luminance signal, an R filter corresponding to R (Red: red), and a B filter corresponding to B (Blue: blue).
  • the imaging element 60 includes an imaging pixel group 60A including a plurality of imaging pixels 60A1 arranged in a matrix. Each of the imaging pixels 60A1 is assigned with any one of an R filter, a G filter, and a B filter included in the color filter, and the imaging pixel group 60A captures the subject by receiving the subject light.
  • the subject light that has passed through the zoom lens 52 forms an image on the imaging surface, which is the light receiving surface of the imaging device 60, and charges corresponding to the amount of light received by the subject light are accumulated in the imaging pixel 60A1.
  • the imaging element 60 outputs the electric charge accumulated in each imaging pixel 60A1 as an image signal indicating an image corresponding to a subject image obtained by imaging subject light on the imaging surface.
  • the main control unit 62 controls the entire distance measuring device 10 ⁇ / b> A via the bus line 84.
  • the motor driver 72 is connected to the motor 56 via the mounts 42 and 44, and controls the motor 56 in accordance with instructions from the main control unit 62.
  • the imaging device 14 has a view angle changing function.
  • the angle of view changing function is a function of changing the angle of view by moving the zoom lens 52.
  • the angle of view changing function includes the zoom lens 52, the zoom lens moving mechanism 54, the motor 56, and the motor driver 72. , And the main control unit 62.
  • the optical angle-of-view changing function by the zoom lens 52 is illustrated, but the technology of the present disclosure is not limited to this, and an electronic angle of view that does not use the zoom lens 52. It may be a change function.
  • the image sensor driver 74 is connected to the image sensor 60 and supplies drive pulses to the image sensor 60 under the control of the main control unit 62.
  • Each imaging pixel 60A1 included in the imaging pixel group 60A is driven according to a driving pulse supplied to the imaging element 60 by the imaging element driver 74.
  • the image signal processing circuit 76 is connected to the image sensor 60, and reads an image signal for one frame from the image sensor 60 for each imaging pixel 60A1 under the control of the main control unit 62.
  • the image signal processing circuit 76 performs various processes such as correlated double sampling processing, automatic gain adjustment, and A / D conversion on the read image signal.
  • the image signal processing circuit 76 converts the image signal digitized by performing various processes on the image signal into a specific frame rate (for example, several tens frames / s) defined by the clock signal supplied from the main control unit 62. Second) for every frame.
  • the image memory 64 temporarily holds the image signal input from the image signal processing circuit 76.
  • the imaging apparatus body 18 includes a display unit 86, a touch panel 88, a receiving device 90, and a memory card 92.
  • the display unit 86 is connected to the display control unit 78 and displays various information under the control of the display control unit 78.
  • the display unit 86 is realized by, for example, an LCD (Liquid Crystal Display).
  • the touch panel 88 which is an example of a reception unit according to the technology of the present disclosure, is superimposed on the display screen of the display unit 86, and receives contact with a user's finger or an indicator such as a touch pen.
  • the touch panel 88 is connected to the touch panel I / F 79 and outputs position information indicating the position touched by the indicator to the touch panel I / F 79.
  • the touch panel I / F 79 operates the touch panel 88 according to an instruction from the main control unit 62 and outputs position information input from the touch panel 88 to the main control unit 62.
  • the touch panel 88 is illustrated as an example of a reception unit according to the technology of the present disclosure.
  • the present invention is not limited thereto, and a mouse used by being connected to the distance measuring device 10A instead of the touch panel 88. (Not shown) may be applied, and the touch panel 88 and a mouse may be used in combination.
  • the receiving device 90 includes a measurement imaging button 90A, an imaging button 90B, an imaging system operation mode switching button 90C, a wide-angle instruction button 90D, and a telephoto instruction button 90E.
  • the reception device 90 also includes an imaging position distance derivation button 90F, a three-dimensional coordinate derivation button 90G, and the like, and receives various instructions from the user.
  • the reception device 90 is connected to the reception I / F 80, and the reception I / F 80 outputs an instruction content signal indicating the content of the instruction received by the reception device 90 to the main control unit 62.
  • the measurement imaging button 90A is a press-type button that receives an instruction to start measurement and imaging.
  • the imaging button 90B is a push button that receives an instruction to start imaging.
  • the imaging system operation mode switching button 90C is a push-type button that receives an instruction to switch between the still image capturing mode and the moving image capturing mode.
  • the wide-angle instruction button 90D is a push-type button that accepts an instruction to change the angle of view.
  • the amount of change of the angle of view to the wide-angle side is within an allowable range, and the pressing on the wide-angle instruction button 90D is continued. It depends on the pressing time.
  • the telephoto instruction button 90E is a push-type button that accepts an instruction to change the angle of view.
  • the amount of change in the angle of view to the telephoto side is within an allowable range, and the pressure on the telephoto instruction button 90E continues. It depends on the pressing time.
  • the imaging position distance deriving button 90F is a press-type button that receives an instruction to start an imaging position distance deriving process described later.
  • the three-dimensional coordinate derivation button 90G is a push button that receives an instruction to start an imaging position distance derivation process described later and a three-dimensional coordinate derivation process described later.
  • the manual focus mode and the autofocus mode are selectively set according to a user instruction via the reception device 90.
  • the release button receives a two-stage pressing operation of an imaging preparation instruction state and an imaging instruction state.
  • the imaging preparation instruction state refers to, for example, a state where the release button is pressed from the standby position to the intermediate position (half-pressed position), and the imaging instruction state refers to the final pressed position (full-pressed when the release button exceeds the intermediate position). The position is pressed down to (position).
  • half-pressed state the state where the release button is pressed from the standby position to the half-pressed position
  • full-pressed state the state where the release button is pressed from the standby position to the full-pressed position”. Is referred to as a “fully pressed state”.
  • the imaging condition is adjusted by pressing the release button halfway, and then the main exposure is performed when the release button is fully pressed.
  • the release button is pressed halfway, the exposure adjustment is performed by the AE (Automatic Exposure) function, and then the focus adjustment is performed by the AF (Auto-Focus) function.
  • the main exposure is performed.
  • the main exposure refers to exposure performed to obtain a still image file described later.
  • exposure means exposure performed for obtaining a live view image described later and exposure performed for obtaining a moving image file described later in addition to the main exposure.
  • exposure means exposure performed for obtaining a live view image described later and exposure performed for obtaining a moving image file described later in addition to the main exposure.
  • the main control unit 62 performs exposure adjustment by the AE function and focus adjustment by the AF function. Moreover, although the case where exposure adjustment and focus adjustment are performed is illustrated in the present embodiment, the technology of the present disclosure is not limited to this, and exposure adjustment or focus adjustment may be performed. .
  • the image processing unit 66 acquires an image signal for each frame from the image memory 64 at a specific frame rate, and performs various processes such as gamma correction, luminance color difference conversion, and compression processing on the acquired image signal.
  • the image processing unit 66 outputs an image signal obtained by performing various processes to the display control unit 78 frame by frame at a specific frame rate. Further, the image processing unit 66 outputs an image signal obtained by performing various processes to the main control unit 62 in response to a request from the main control unit 62.
  • the display control unit 78 outputs the image signal input from the image processing unit 66 to the display unit 86 at a specific frame rate for each frame under the control of the main control unit 62.
  • the display unit 86 displays images, character information, and the like.
  • the display unit 86 displays the image indicated by the image signal input at a specific frame rate from the display control unit 78 as a live view image.
  • the live view image is a continuous frame image obtained by continuously capturing images, and is also referred to as a through image.
  • the display unit 86 also displays a still image that is a single frame image obtained by imaging in a single frame. Further, the display unit 86 displays a playback image, a menu screen, and the like in addition to the live view image.
  • the image processing unit 66 and the display control unit 78 are realized by ASIC (Application Specific Integrated Circuit), but the technology of the present disclosure is not limited to this.
  • each of the image processing unit 66 and the display control unit 78 may be realized by an FPGA (Field-Programmable Gate Array).
  • the image processing unit 66 may be realized by a computer including a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory).
  • the display control unit 78 may also be realized by a computer including a CPU, a ROM, and a RAM.
  • each of the image processing unit 66 and the display control unit 78 may be realized by a combination of a hardware configuration and a software configuration.
  • the main control unit 62 controls the image sensor driver 74 to cause the image sensor 60 to perform exposure for one frame when an instruction to capture a still image is received by the release button in the still image capturing mode.
  • the main control unit 62 acquires an image signal obtained by performing exposure for one frame from the image processing unit 66, performs a compression process on the acquired image signal, and performs still image processing in a specific still image format. Generate an image file.
  • the specific still image format refers to, for example, JPEG (Joint Photographic Experts Group).
  • the main control unit 62 When an instruction to capture a moving image is received by the release button in the moving image capturing mode, the main control unit 62 outputs an image signal output from the image processing unit 66 to the display control unit 78 as a live view image for a specific frame. Get every frame at the rate. Then, the main control unit 62 performs a compression process on the image signal acquired from the image processing unit 66 to generate a moving image file in a specific moving image format.
  • the specific moving image format refers to, for example, MPEG (Moving Picture Experts Group).
  • MPEG Motion Picture Experts Group
  • the media I / F 82 is connected to the memory card 92, and records and reads image files from and to the memory card 92 under the control of the main control unit 62. Note that the image file read from the memory card 92 by the media I / F 82 is decompressed by the main control unit 62 and displayed on the display unit 86 as a reproduced image.
  • the main control unit 62 associates the distance information input from the distance measurement control unit 68 with the image file, and stores it in the memory card 92 via the media I / F 82.
  • the distance information is read from the memory card 92 through the media I / F 82 by the main control unit 62 together with the image file, and the distance indicated by the read distance information is displayed together with the reproduced image by the related image file. Displayed on the part 86.
  • the distance measurement control unit 68 controls the distance measurement unit 12 under the control of the main control unit 62.
  • the ranging control unit 68 is realized by an ASIC, but the technology of the present disclosure is not limited to this.
  • the distance measurement control unit 68 may be realized by an FPGA.
  • the distance measurement control unit 68 may be realized by a computer including a CPU, a ROM, and a RAM. Further, the distance measurement control unit 68 may be realized by a combination of a hardware configuration and a software configuration.
  • the hot shoe 20 is connected to the bus line 84, and the distance measurement control unit 68 controls the LD driver 34 under the control of the main control unit 62 to control the light emission of the laser beam by the LD 30.
  • a light reception signal is acquired from the signal processing circuit 40.
  • the distance measurement control unit 68 derives the distance to the subject based on the timing at which the laser light is emitted and the timing at which the light reception signal is acquired, and outputs distance information indicating the derived distance to the main control unit 62.
  • the measurement of the distance to the subject by the distance measurement control unit 68 will be described in more detail.
  • one measurement sequence by the distance measuring device 10A is defined by a voltage adjustment period, an actual measurement period, and a pause period.
  • the voltage adjustment period is a period for adjusting the drive voltage of the LD 30 and the PD 36.
  • the actual measurement period is a period during which the distance to the subject is actually measured. In the actual measurement period, the operation of causing the LD 30 to emit laser light and causing the PD 36 to receive reflected laser light is repeated several hundred times. Based on the timing at which the laser light is emitted and the timing at which the received light signal is obtained, Is derived.
  • the pause period is a period for stopping the driving of the LD 30 and the PD 36. Therefore, in one measurement sequence, the distance to the subject is measured several hundred times.
  • each of the voltage adjustment period, the actual measurement period, and the rest period is set to several hundred milliseconds.
  • the distance measurement control unit 68 is supplied with a count signal that defines the timing at which the distance measurement control unit 68 gives an instruction to emit laser light and the timing at which the light reception signal is acquired.
  • the count signal is generated by the main control unit 62 and supplied to the distance measurement control unit 68, but is not limited thereto, and is generated by a dedicated circuit such as a time counter connected to the bus line 84. You may make it supply to the ranging control part 68.
  • the ranging control unit 68 outputs a laser trigger for emitting laser light to the LD driver 34 in accordance with the count signal.
  • the LD driver 34 drives the LD 30 to emit laser light according to the laser trigger.
  • the laser light emission time is set to several tens of nanoseconds.
  • the time until the laser light emitted toward the subject several kilometers ahead by the emitting unit 22 is received by the PD 36 as reflected laser light is “several kilometers ⁇ 2 / light speed” ⁇ several microseconds. Therefore, in order to measure the distance to the subject several kilometers away, as shown in FIG. 3 as an example, a minimum required time of several microseconds is required.
  • the measurement time of one time is set to several milliseconds.
  • the round trip time of the laser beam depends on the distance to the subject. Since they are different, the measurement time per time may be varied according to the assumed distance.
  • the distance measurement control unit 68 derives the distance to the subject based on the measurement values obtained from several hundred measurements in one measurement sequence, for example, a histogram of the measurement values obtained from several hundred measurements To derive the distance to the subject.
  • the horizontal axis is the distance to the subject
  • the vertical axis is the number of measurements
  • the number of measurements is derived by the distance measurement control unit 68 as a distance measurement result.
  • the histogram shown in FIG. 5 is merely an example, based on the round trip time of the laser beam (elapsed time from light emission to light reception) or 1/2 of the round trip time of the laser beam instead of the distance to the subject. A histogram may be generated.
  • the main control unit 62 includes a CPU 100, a primary storage unit 102, and a secondary storage unit 104, which are examples of an acquisition unit, a derivation unit, and an execution unit according to the technology of the present disclosure.
  • the CPU 100 controls the entire distance measuring device 10A.
  • the primary storage unit 102 is a volatile memory used as a work area or the like when executing various programs.
  • An example of the primary storage unit 102 is a RAM.
  • the secondary storage unit 104 is a non-volatile memory that stores in advance a control program for controlling the operation of the distance measuring apparatus 10A, various parameters, and the like. Examples of the secondary storage unit 104 include an EEPROM (Electrically Erasable Programmable Read Only Memory) or a flash memory.
  • the CPU 100, the primary storage unit 102, and the secondary storage unit 104 are connected to each other via the bus line 84.
  • the distance measuring device 10A has a three-dimensional coordinate derivation function.
  • the three-dimensional coordinate derivation function is based on Equation (1) based on the first designated pixel coordinates described later, the second designated pixel coordinates described later, the imaging position distance described later, the focal length of the imaging lens 50, and the dimensions of the imaging pixel 60A1. This refers to the function of deriving the designated pixel three-dimensional coordinates, which will be described later.
  • Equation (1) “u L ” indicates the X coordinate of the first designated pixel coordinate. In the formula (1), “v L ” indicates the Y coordinate of the first designated pixel coordinate. In Equation (1), “u R ” refers to the X coordinate of the second designated pixel coordinate. In Formula (1), “B” refers to the imaging position distance (see FIGS. 7 and 8). In Formula (1), “f” indicates (focal length of the imaging lens 50) / (dimension of the imaging pixel 60A1). Further, in the formula (1), (X, Y, Z) indicates designated pixel three-dimensional coordinates.
  • the first designated pixel coordinates specify a first designated pixel (corresponding to a “designated pixel” according to the technology of the present disclosure) designated as a pixel corresponding to a position in real space in a first captured image described later.
  • the second designated pixel coordinate specifies a second designated pixel (corresponding to a “designated pixel” according to the technology of the present disclosure) designated as a pixel corresponding to a position in real space in a second captured image described later.
  • the first designated pixel coordinates are two-dimensional coordinates on the first captured image
  • the second designated pixel coordinates are two-dimensional coordinates on the second captured image.
  • the designated pixel three-dimensional coordinate refers to a three-dimensional coordinate that is a coordinate in the real space corresponding to the first designated pixel coordinate and the second designated pixel coordinate.
  • the designated pixel three-dimensional coordinates are an example of designated pixel real space coordinates according to the technique of the present disclosure.
  • the first captured image refers to a captured image obtained by imaging the subject from the first imaging position by the imaging device 14.
  • the second captured image is an image of a subject including a subject that is an imaging target from the first imaging position from a second imaging position different from the first imaging position.
  • the captured image obtained by being imaged by the device 14 is indicated.
  • not only the first captured image and the second captured image but also a captured image obtained by being captured by the imaging device 14 including a still image and a moving image will be described separately. When it is not necessary, it is simply referred to as “captured image”.
  • the first measurement position and the second measurement position are shown as the positions of the ranging unit 12.
  • the first measurement position is an example of a “position corresponding to the first imaging position” according to the technology of the present disclosure.
  • the first measurement position refers to the position of the distance measurement unit 12 when the subject is imaged by the image pickup device 14 from the first image pickup position with the distance measurement unit 12 correctly attached to the image pickup device 14.
  • the second measurement position refers to the position of the distance measurement unit 12 when the subject is imaged by the imaging device 14 from the second imaging position in a state where the distance measurement unit 12 is correctly attached to the imaging device 14.
  • the imaging position distance refers to the distance between the first imaging position and the second imaging position.
  • an imaging position distance as shown in FIG. 8, the main point of the imaging lens 50 of the imaging device 14 at the principal point O L and a second imaging position of the imaging lens 50 of the imaging apparatus 14 in the first imaging position O R
  • the technology of the present disclosure is not limited to this.
  • the distance between the imaging pixel 60A1 positioned at the center of the imaging device 60 of the imaging device 14 at the first imaging position and the imaging pixel 60A1 positioned at the center of the imaging device 60 of the imaging device 14 at the second imaging position is the imaging position distance. It may be said.
  • the pixels P L included in the first image is a first designated pixel
  • the pixel P R included in the second image is a second designated pixel
  • the pixel P L, P R is , The pixel corresponding to the point P of the subject.
  • the first designated pixel coordinates are two-dimensional coordinates of the pixel P L (u L, v L )
  • the second designated pixel coordinates are two-dimensional coordinates of the pixel P R (u R, v R ) is This corresponds to the designated pixel three-dimensional coordinates (X, Y, Z) which is the three-dimensional coordinates of the point P.
  • Equation (1) “v R ” is not used.
  • designated pixels when it is not necessary to distinguish between the first designated pixel and the second designated pixel, they are referred to as “designated pixels”. In the following, for convenience of explanation, when there is no need to distinguish between the first designated pixel coordinates and the second designated pixel coordinates, they are referred to as “designated pixel coordinates”.
  • the ranging device 10A derives the designated pixel three-dimensional coordinates based on Equation (1) by using the three-dimensional coordinate derivation function, it is preferable to derive the imaging position distance with high accuracy. This is because “B”, which is the imaging position distance, is included in Equation (1).
  • the secondary storage unit 104 stores an imaging position distance deriving program 106 that is an example of a program according to the technique of the present disclosure.
  • the CPU 100 reads out the imaging position distance deriving program 106 from the secondary storage unit 104 and develops it in the primary storage unit 102 to execute the imaging position distance deriving program 106.
  • the secondary storage unit 104 stores a three-dimensional coordinate derivation program 108.
  • the CPU 100 reads the three-dimensional coordinate derivation program 108 from the secondary storage unit 104, expands it in the primary storage unit 102, and executes the three-dimensional coordinate derivation program 108.
  • the CPU 100 operates as the acquisition unit 110, the derivation unit 111, the execution unit 112, and the control unit 114 as illustrated in FIG. 9 by executing the imaging position distance derivation program 106 and the three-dimensional coordinate derivation program 108, for example. .
  • the acquisition unit 110 acquires the first captured image, the second captured image, and the distance to the subject.
  • the “distance to the subject” refers to the distance to the subject measured based on the laser light emitted by the distance measuring unit 12 at the first measurement position.
  • the deriving unit 111 Based on the distance acquired by the acquisition unit 110, the deriving unit 111 identifies the irradiation position of the laser light in the real space, that is, the irradiation position real space coordinates that specify the irradiation position of the laser light on the subject in the real space. Is derived.
  • the irradiation space real space coordinates are three-dimensional coordinates, and are derived from the distance L, the half angle of view ⁇ , the emission angle ⁇ , and the distance M between the reference points shown in FIG.
  • y Laser 0, which means that the optical axis L1 is at the same height as the optical axis L2 in the vertical direction.
  • y Laser is a positive value.
  • y Laser is a negative value.
  • the half angle of view ⁇ indicates half of the angle of view.
  • the emission angle ⁇ refers to an angle at which laser light is emitted from the emission unit 22.
  • the distance between reference points M refers to the distance between the first reference point P1 defined in the imaging device 14 and the second reference point P2 defined in the distance measuring unit 12.
  • An example of the first reference point P1 is the principal point of the imaging lens 50.
  • An example of the second reference point P2 is a point set in advance as the origin of coordinates that can specify the position of the three-dimensional space in the distance measuring unit 12.
  • one end of the left and right ends of the objective lens 38 when viewed from the front, or one corner of the casing when the casing (not shown) of the distance measuring unit 12 is a rectangular parallelepiped, that is, one apex. .
  • the deriving unit 111 Based on the distance acquired by the acquisition unit 110, the deriving unit 111 specifies the position of the pixel corresponding to the irradiation position specified by the irradiation position real space coordinates in each of the first captured image and the second captured image. An irradiation position pixel coordinate is derived.
  • the irradiation position pixel coordinates are roughly divided into first irradiation position pixel coordinates and second irradiation position pixel coordinates.
  • the first irradiation position pixel coordinates are two-dimensional coordinates that specify the position of a pixel corresponding to the irradiation position specified by the irradiation position real space coordinates in the first captured image.
  • the second irradiation position pixel coordinate is a two-dimensional coordinate that specifies the position of the pixel corresponding to the irradiation position specified by the irradiation position real space coordinates in the second captured image.
  • the derivation method of the X coordinate of the first irradiation position pixel coordinate and the derivation method of the Y coordinate of the first irradiation position pixel coordinate are the same in the principle of the derivation method except that the target coordinate axes are different.
  • the method of deriving the X coordinate of the first irradiation position pixel coordinate is a method of deriving the pixel in the row direction in the image sensor 60
  • the method of deriving the Y coordinate of the first irradiation position pixel coordinate is The difference is that this is a derivation method for pixels in the column direction in the image sensor 60. Therefore, in the following, for convenience of explanation, a method for deriving the X coordinate of the first irradiation position pixel coordinate is illustrated, and a description of the method of deriving the Y coordinate of the first irradiation position pixel coordinate is omitted.
  • the row direction means the left-right direction of the image pickup surface of the image pickup device 60
  • the column direction means the up-down direction of the image pickup surface of the image pickup device 60 when viewed from the front.
  • the X coordinates of the first irradiation position pixel coordinates are based on the following formulas (3) to (5) from the distance L, the half angle of view ⁇ , the emission angle ⁇ , and the distance between reference points M shown in FIG. 11 as an example. Derived.
  • row direction pixel at irradiation position refers to a pixel at a position corresponding to the irradiation position of the laser light in real space among the pixels in the row direction of the image sensor 60.
  • “Half the number of pixels in the row direction” refers to half of the number of pixels in the row direction in the image sensor 60.
  • the deriving unit 111 substitutes the distance M between the reference points and the injection angle ⁇ into the equation (3), substitutes the half angle of view ⁇ and the injection angle ⁇ into the equation (4), and sets the distance L as the equations (3) and ( Substitute in 4).
  • the derivation unit 111 specifies the position of “the pixel in the row direction of the irradiation position” by substituting ⁇ x and X obtained in this way and the above “half of the number of pixels in the row direction” into Expression (5).
  • the X coordinate which is the coordinate is derived.
  • the X coordinate that specifies the position of the “irradiation position row direction pixel” is the X coordinate of the first irradiation position pixel coordinate.
  • the deriving unit 111 derives, as the second irradiation position pixel coordinates, coordinates that specify the position of the pixel corresponding to the position of the pixel specified by the first irradiation position pixel coordinates among the pixels of the second captured image.
  • the execution unit 112 executes a first derivation process, which is an example of a multi-pixel use derivation process according to the technique of the present disclosure, when the position cannot be specified.
  • the position unidentifiable state is a position of a pixel that is different from a pixel that can be identified at a position corresponding to each other in each of the first captured image and the second captured image in the position of the pixel specified by the irradiation position pixel coordinates. It refers to a certain state.
  • the execution unit 112 executes the second derivation process that is an example of the derivation process according to the technique of the present disclosure in the case where the position can be specified.
  • the position identifiable state is a state in which the position of the pixel specified by the irradiation position pixel coordinate is a position of a pixel that can be specified at a position corresponding to each other in each of the first captured image and the second captured image. Point to.
  • the first derivation process refers to a process of deriving the imaging position distance based on a plurality of pixel coordinates, irradiation position real space coordinates, the focal length of the imaging lens 50, and the dimensions of the imaging pixel 60A1, which will be described later.
  • the multi-pixel coordinates are present in the same planar area as the laser light irradiation position in the real space in each of the first captured image and the second captured image acquired by the acquisition unit 110 and correspond to each other. This refers to a plurality of two-dimensional coordinates that specify a plurality of pixels of three or more pixels that can be specified at the position.
  • the parameters used for the first derivation process are not limited to the multi-pixel coordinates, the irradiation position real space coordinates, the focal length of the imaging lens 50, and the dimensions of the imaging pixel 60A1.
  • a plurality of parameters obtained by further adding one or more fine adjustment parameters to the plurality of pixel coordinates, the irradiation position real space coordinates, the focal length of the imaging lens 50, and the size of the imaging pixel 60A1 are used in the first derivation process. You may be made to do.
  • the second derivation process refers to a process for deriving the imaging position distance based on the irradiation position pixel coordinates, the irradiation position real space coordinates, the focal length of the imaging lens 50, and the dimensions of the imaging pixel 60A1.
  • the parameters used for the second derivation process are not limited to the irradiation position pixel coordinates, the irradiation position real space coordinates, the focal length of the imaging lens 50, and the dimensions of the imaging pixel 60A1.
  • a plurality of parameters obtained by further adding one or more fine adjustment parameters to the irradiation position pixel coordinates, the irradiation position real space coordinates, the focal length of the imaging lens 50, and the dimensions of the imaging pixel 60A1 are the second derivation process. It may be used.
  • the second derivation process is performed when the actual irradiation position of the laser light is a position in the real space corresponding to the position of a pixel that can be specified at a position corresponding to each other in each of the first captured image and the second captured image.
  • the imaging position distance can be derived with higher accuracy than the first derivation process.
  • the second derivation process is a process for deriving the imaging position distance based on a plurality of parameters smaller than the number of parameters used in the derivation of the imaging position distance by the first derivation process.
  • the “plurality of parameters” referred to here refers to, for example, irradiation position pixel coordinates, irradiation position real space coordinates, focal length of the imaging lens 50, and dimensions of the imaging pixel 60A1.
  • the control unit 114 which is an example of the control unit according to the technique of the present disclosure, performs control to display the derivation result by the execution unit 112 on the display unit 86.
  • the execution unit 112 calculates the three-dimensional coordinates in the real space corresponding to the plurality of pixel coordinates based on the plurality of pixel coordinates, the focal length of the imaging lens 50, and the size of the imaging pixel 60A1.
  • the orientation of the plane defined by the plane equation indicating the plane to be included is derived.
  • the execution unit 112 determines a plane equation based on the derived plane orientation and irradiation position real space coordinates, and determines the plane equation, the plurality of pixel coordinates, the focal length of the imaging lens 50, and the dimensions of the imaging pixel 60A1.
  • the imaging position distance is derived based on
  • deriving “the orientation of the plane” means deriving a, b, and c in the equation (6), and determinating the “plane equation” by deriving d in the equation (6). Means to determine a, b, c, d of the plane equation.
  • the imaging range 119 of the imaging device 14 of the distance measuring device 10A includes an area including the outer wall surface 121 of the office building 120 as a subject. This will be explained as a premise. Further, the outer wall surface 121 will be described on the assumption that it is a main subject and a laser light irradiation target.
  • the outer wall surface 121 is formed in a planar shape, and is an example of a planar region according to the technique of the present disclosure.
  • a plurality of rectangular windows 122 are provided on the outer wall surface 121.
  • a laterally long rectangular pattern 124 is drawn on the lower side of each window 122 on the outer wall surface 121, but not limited to this, the outer wall surface 121 is attached to the outer wall surface 121. It may be dirt or wrinkles.
  • the “planar shape” includes not only a flat surface but also a planar shape in a range that allows slight unevenness due to a window, a ventilation opening, etc., for example, by visual observation or an existing image. Any plane or plane shape recognized as “planar” by an analysis technique may be used.
  • the distance measurement apparatus 10A will be described on the assumption that the distance to the outer wall surface 121 is measured by irradiating the outer wall surface 121 with laser light.
  • first position the position of the distance measuring device 10A when the distance measuring unit 12 is located at the first measurement position and the image pickup device 14 is located at the first image pickup position.
  • second position the position of the distance measuring device 10A when the distance measuring unit 12 is located at the second measurement position and the imaging device 14 is located at the second imaging position.
  • the acquisition unit 110 determines whether distance measurement and imaging have been executed at the first position by the distance measuring device 10A.
  • the first position may be a position where the outer wall surface 121 can be irradiated with laser light and an area including the outer wall surface 121 can be imaged as a subject.
  • step 200 if distance measurement and imaging have not been executed at the first position by the distance measuring device 10A, the determination is negative and the routine proceeds to step 201.
  • step 200 when distance measurement and imaging are performed at the first position by the distance measuring device 10 ⁇ / b> A, the determination is affirmed and the process proceeds to step 202.
  • step 201 the acquisition unit 110 determines whether a condition for ending the imaging position distance deriving process is satisfied.
  • the condition for ending the imaging position distance derivation process is, for example, a condition that an instruction to end the imaging position distance derivation process is received from the touch panel 88, or a first determination without affirmative determination after the process of step 200 is started.
  • 1 Indicates a condition that a predetermined time has elapsed.
  • the first predetermined time refers to, for example, 1 minute.
  • step 201 If it is determined in step 201 that the conditions for ending the imaging position distance derivation process are not satisfied, the determination is negative and the process proceeds to step 200. In step 201, when the conditions for ending the imaging position distance derivation process are satisfied, the determination is affirmed and the imaging position distance derivation process ends.
  • step 202 the acquisition unit 110 acquires a first captured image signal indicating a distance measured at the first position and a first captured image obtained by performing imaging at the first position, and then The process proceeds to step 204.
  • the first captured image is a captured image obtained by capturing an image in a focused state at the first position.
  • step 204 the acquisition unit 110 displays the first captured image indicated by the acquired first captured image signal on the display unit 86 as shown in FIG. 16 as an example, and then proceeds to step 206. .
  • step 206 the deriving unit 111 derives the irradiation position real space coordinates from the distance L, the half angle of view ⁇ , the emission angle ⁇ , and the reference point distance M based on the mathematical formula (2).
  • the distance L used in the processing of this step 206 indicates the distance to the subject measured by the distance measuring device 10A at the first position.
  • step 207 the deriving unit 111 derives the first irradiation position pixel coordinates from the distance L, the half angle of view ⁇ , the emission angle ⁇ , and the reference point distance M based on the equations (3) to (5). Thereafter, the process proceeds to step 208.
  • the distance L used in the processing of this step 207 indicates the distance to the subject measured by the distance measuring device 10A at the first position.
  • step 208 as shown in FIG. 17 as an example, the control unit 114 causes the display unit 86 to display the distance and irradiation position mark 136 superimposed on the first captured image, and then proceeds to step 210. .
  • the distance displayed by executing the process of step 208 is the distance measured by the distance measuring device 10A at the first imaging position, that is, used to derive the first irradiation position pixel coordinates in the process of step 207.
  • a numerical value “133325.0” corresponds to the distance L measured by the distance measuring device 10 ⁇ / b> A at the first imaging position, and the unit is millimeters.
  • the irradiation position mark 136 is a mark indicating the position of the pixel specified by the first irradiation position pixel coordinates derived by executing the processing of step 207.
  • step 210 the execution unit 112 determines whether or not the position of the pixel specified by the first irradiation position pixel coordinates derived by executing the process of step 207 matches the identifiable pixel position.
  • the identifiable pixel position refers to the position of a pixel that can be identified at a position corresponding to each other in each of the first captured image and the second captured image.
  • step 210 when the position of the pixel specified by the first irradiation position pixel coordinates derived by executing the process of step 207 matches the identifiable pixel position, the determination is affirmed and the process proceeds to step 212. Transition. In step 210, when the position of the pixel specified by the first irradiation position pixel coordinates derived by executing the process of step 207 does not match the identifiable pixel position, the determination is negative and the process proceeds to step 226. Transition.
  • step 212 the execution unit 112 causes the display unit 86 to display a matching message 137A superimposed on the first captured image for a specific time (for example, 5 seconds), Thereafter, the process proceeds to step 214.
  • the coincidence message 137A is a message indicating that the position of the pixel specified by the first irradiation position pixel coordinates derived by executing the process of step 207 matches the identifiable pixel position. Therefore, when the process of step 212 is executed, the position of the pixel specified by the first irradiation position pixel coordinates derived by executing the process of step 207 may coincide with the identifiable pixel position. The user is notified.
  • step 221 is an example of a position-identifiable state notification process according to the technique of the present disclosure.
  • the position identifiable state notification process according to the technique of the present disclosure refers to a process for notifying that the position identifiable state is described above.
  • the pixel-of-interest designation guidance message (not shown) is displayed on the display unit 86 between the processing at step 212 and the processing at step 214 and between the processing at step 226 and the processing at step 228. ) Is superimposed on the first captured image.
  • the notice pixel designation guidance message refers to a message for guiding the designation of the notice pixel from the first captured image via the touch panel 88, for example.
  • the attention pixel designation guidance message there is a message “Please specify one pixel to be noticed (attention point)”.
  • the attention pixel designation guidance message is not displayed, for example, when the attention pixel is designated in the processing of step 214A described later or step 228A described later.
  • the match message 137A is “The laser light irradiation position matches the characteristic position of the subject, so the first derivation process or the second derivation process can be executed”.
  • the technology of the present disclosure is not limited to this.
  • only the message “the laser beam irradiation position matches the characteristic position of the subject” in the matching message 137A may be adopted and displayed.
  • any message can be used as long as it is a message notifying the coincidence between the pixel position specified by the first irradiation position pixel coordinates derived by executing the processing of step 207 and the identifiable pixel position. Also good.
  • the match message 137A is displayed in a visible manner.
  • an audible display such as an audio output by an audio reproduction device (not shown) or a permanent visual display such as an output of a printed matter by a printer. May be performed instead of visible display, or may be used in combination.
  • step 226 the execution unit 112 causes the display unit 86 to display a mismatch message 137B superimposed on the first captured image for a specific time (for example, 5 seconds), Thereafter, the process proceeds to step 228.
  • the mismatch message 137B is a message indicating that the position of the pixel specified by the first irradiation position pixel coordinates derived by executing the processing of step 207 does not match the identifiable pixel position.
  • “the position of the pixel specified by the first irradiation position pixel coordinates does not coincide with the identifiable pixel position”, in other words, the position of the pixel specified by the first irradiation position pixel coordinates can be specified. This means that the pixel position is different from the pixel position.
  • step 226 As described above, by executing the process of step 226, the position of the pixel specified by the first irradiation position pixel coordinates derived by executing the process of step 207 matches the identifiable pixel position. The user is notified that it has not.
  • the process of step 226 is an example of a position specification impossible state notification process according to the technique of the present disclosure.
  • the position unidentifiable state notification process according to the technique of the present disclosure refers to a process of notifying that the position is unidentifiable state described above.
  • a message “The first derivation process is executed because the laser light irradiation position did not match the characteristic position of the subject” is displayed as the mismatch message 137B.
  • the technology of the present disclosure is not limited to this. For example, only the message “The laser beam irradiation position did not match the characteristic position of the subject” in the mismatch message 137B may be adopted and displayed.
  • any message can be used as long as it is a message notifying the inconsistency between the position of the pixel specified by the first irradiation position pixel coordinates derived by executing the processing of step 207 and the identifiable pixel position. Also good. Further, the example shown in FIG. 19 shows a case where the discrepancy message 137B is displayed visually. However, an audible display such as an audio output by an audio reproduction device (not shown) or a permanent visual display such as an output of a printed matter by a printer. May be performed instead of visible display, or may be used in combination.
  • step 228A the acquisition unit 110 determines whether or not a pixel of interest has been designated from the first captured image by the user via the touch panel 88.
  • the target pixel corresponds to the first designated pixel described above.
  • the touch panel 88 receives pixel designation information for designating two-dimensional coordinates corresponding to pixels included in the first captured image among the two-dimensional coordinates assigned to the touch panel 88. Therefore, in step 228A, it is determined that the pixel of interest has been designated when pixel designation information is received by the touch panel 88. That is, the pixel corresponding to the two-dimensional coordinate designated by the pixel designation information is set as the target pixel.
  • step 228A if the target pixel is not designated from the first captured image by the user via the touch panel 88, the determination is negative and the process proceeds to step 228B.
  • step 228A when the target pixel is designated from the first captured image by the user via the touch panel 88, the determination is affirmed and the process proceeds to step 228C.
  • step 228B the acquisition unit 110 determines whether a condition for ending the first derivation process is satisfied.
  • the condition for ending the first derivation process refers to the same condition as the condition described in the description of step 201 above.
  • step 228B if the condition for ending the first derivation process is not satisfied, the determination is negative and the process proceeds to step 228A.
  • step 228B if the condition for ending the first derivation process is satisfied, the determination is affirmed and the first derivation process is ended. If the determination in step 228B is affirmed, the acquisition unit 110 causes the display unit 86 to end displaying the first captured image and the superimposed display information.
  • the superimposed display information refers to, for example, the distance and irradiation position mark 136 that are information displayed in a superimposed manner on the first captured image.
  • step 228C the acquiring unit 110 acquires the target pixel coordinates that specify the target pixel 126 (see FIG. 20) specified by the user via the touch panel 88 in the first captured image, and then proceeds to step 228D.
  • a pixel of interest 126 is given as shown in FIG.
  • the target pixel 126 is a pixel in the lower left corner of an image corresponding to the central window on the second floor of the outer wall surface in the first captured image.
  • the outer wall surface second floor central window refers to the window 122 at the center of the second floor of the office building 120 among the windows 122 provided on the outer wall surface 121.
  • the pixel-of-interest coordinates indicate two-dimensional coordinates that specify the pixel-of-interest 126 in the first captured image.
  • step 228D the acquisition unit 110 acquires three characteristic pixel coordinates that specify the positions of characteristic three pixels in the outer wall surface image 128 (the hatched area in the example illustrated in FIG. 21) of the first captured image, and then Then, the process proceeds to step 228E.
  • the “characteristic three pixels” referred to here is an example of “multiple pixels” according to the technology of the present disclosure.
  • the outer wall surface image 128 refers to an image showing the outer wall surface 121 (see FIG. 15) in the first captured image.
  • the characteristic three pixels are pixels that can be specified at positions corresponding to each other in each of the first captured image and the second captured image.
  • the characteristic three pixels in the first captured image are separated from each other by a predetermined number of pixels or more by image analysis based on the spatial frequency of the image corresponding to the pattern or building material in the outer wall surface image 128. Pixels present at each of the three points specified according to a predetermined rule. For example, three pixels that indicate different vertices having the maximum spatial frequency in a circular area that is defined by a predetermined radius centered on the pixel of interest 126 and that satisfy the predetermined condition are characteristic three pixels. Extracted.
  • the three characteristic pixel coordinates correspond to the above-described plural pixel coordinates.
  • the characteristic three pixels are the first pixel 130, the second pixel 132, and the third pixel 134.
  • the first pixel 130 is a pixel in the upper left corner of the image corresponding to the central window on the second floor of the outer wall surface in the outer wall image 128.
  • the second pixel 132 is a pixel at the upper right corner of the image corresponding to the central window on the second floor of the outer wall surface.
  • the third pixel 134 is a pixel at the lower left corner of the image corresponding to the pattern 124 close to the lower part of the central window on the third floor of the outer wall.
  • the outer wall surface third floor central window refers to the window 122 at the center of the third floor of the office building 120 among the windows 122 provided on the outer wall surface 121.
  • the acquisition unit 110 determines whether or not imaging has been executed at the second position by the distance measuring device 10A.
  • the second position is a position to which the distance measuring device 10 ⁇ / b> A is moved, and may be a position where the outer wall surface 121 can be irradiated with laser light and an area including the outer wall surface 121 can be imaged as a subject.
  • step 228E the acquisition unit 110 determines whether or not imaging is executed at the second position by the distance measuring device 10A. If it is determined in step 228E that the distance measuring device 10A has not performed imaging at the second position, the determination is negative, and the process proceeds to step 228F. In step 228E, when imaging at the second position is performed by the distance measuring device 10A, the determination is affirmed and the process proceeds to step 228G.
  • step 228F the acquisition unit 110 determines whether or not a condition for ending the first derivation process is satisfied.
  • the condition for ending the first derivation process refers to the same condition as that used in step 228B.
  • step 228F when the condition for ending the first derivation process is not satisfied, the determination is negative and the process proceeds to step 228E.
  • step 228F when the condition for ending the first derivation process is satisfied, the determination is affirmed and the first derivation process is ended. If the determination is affirmed in step 228F, the acquisition unit 110 causes the display unit 86 to end displaying the first captured image and the superimposed display information.
  • Step 228G the acquisition unit 110 acquires a second captured image signal indicating a second captured image obtained by performing imaging at the second position, and then proceeds to Step 228H.
  • the second captured image is a captured image obtained by capturing in the focused state at the second position.
  • step 228H the acquisition unit 110 causes the display unit 86 to display the second captured image indicated by the acquired second captured image signal, and then proceeds to step 228I.
  • step 228I the acquisition unit 110 specifies a corresponding target pixel that is a pixel corresponding to the target pixel 126 among the pixels included in the second captured image, and specifies the corresponding corresponding target pixel coordinate.
  • the corresponding target pixel coordinates refer to two-dimensional coordinates that specify the corresponding target pixels in the second captured image.
  • the corresponding target pixel is specified by performing existing image analysis such as pattern matching on the first and second captured images as analysis targets. Note that the corresponding target pixel corresponds to the above-described second designated pixel, and when the target pixel 126 is specified from the first captured image, the processing of this step 228I is executed to uniquely identify the second captured pixel. Identified.
  • step 228J the acquisition unit 110 identifies three characteristic pixels in the outer wall image corresponding to the outer wall image 128 (see FIG. 21) in the second captured image, and identifies the identified characteristic three pixels.
  • Corresponding feature pixel coordinates are acquired, and then the process proceeds to step 228K.
  • the corresponding characteristic pixel coordinates indicate two-dimensional coordinates that specify the characteristic three pixels specified in the second captured image.
  • the corresponding feature pixel coordinates are also two-dimensional coordinates corresponding to the three feature pixel coordinates acquired by the processing in step 228D in the second captured image, and correspond to the above-described plurality of pixel coordinates.
  • the characteristic three pixels of the second captured image are subjected to an existing image analysis such as pattern matching with the first and second captured images as analysis targets in the same manner as the above-described method of identifying the corresponding target pixel. It is specified by that.
  • step 228K the execution unit 112 derives a, b, and c of the plane equation shown in Expression (6) from the three feature pixel coordinates, the corresponding feature pixel coordinates, the focal length of the imaging lens 50, and the dimensions of the imaging pixel 60A1. By doing so, the orientation of the plane defined by the plane equation is derived.
  • the three feature pixel coordinates are (u L1 , v L1 ), (u L2 , v L2 ), (u L3 , v L3 ), and the corresponding feature pixel coordinates are (u R1 , v R1 ), (u R2 , Assuming v R2 ), (u R3 , v R3 ), the first to third feature pixel three-dimensional coordinates are defined by the following equations (7) to (9).
  • the first feature pixel three-dimensional coordinates refer to three-dimensional coordinates corresponding to (u L1 , v L1 ) and (u R1 , v R1 ).
  • the second feature pixel three-dimensional coordinates refer to three-dimensional coordinates corresponding to (u L2 , v L2 ) and (u R2 , v R2 ).
  • the third feature pixel three-dimensional coordinate refers to a three-dimensional coordinate corresponding to (u L3 , v L3 ) and (u R3 , v R3 ).
  • equations (7) to (9) “v R1 ”, “v R2 ”, and “v R3 ” are not used.
  • the execution unit 112 has three mathematical expressions in an equivalent relationship obtained by substituting each of the first to third feature pixel three-dimensional coordinates shown in the mathematical expressions (7) to (9) into the mathematical expression (6). From the above, a, b, and c in Expression (6) are optimized to derive a, b, and c in Expression (6). Thus, a, b, and c in Equation (6) being derived means that the orientation of the plane defined by the plane equation shown in Equation (6) is derived.
  • Step 228L the execution unit 112 determines the plane equation shown in Equation (6) based on the irradiation position real space coordinates derived in the processing in Step 206, and then proceeds to Step 228M.
  • the execution unit 112 substitutes the a, b, c derived in the processing in step 228K and the irradiation position real space coordinates derived in the processing in step 206 into the mathematical formula (6). 6) Confirm d. Since a, b, and c in Expression (6) are derived in Step 228K, if d in Expression (6) is determined in Step 228L, the plane equation shown in Expression (6) is determined. Is done.
  • step 228M the execution unit 112 derives the imaging position distance based on the feature pixel three-dimensional coordinates and the plane equation, and then proceeds to step 228N.
  • the feature pixel three-dimensional coordinates used in the processing of step 228M indicate the first feature pixel three-dimensional coordinates.
  • the feature pixel three-dimensional coordinates used in the processing of step 228M are not limited to the first feature pixel three-dimensional coordinates, and may be the second feature pixel three-dimensional coordinates or the third feature pixel three-dimensional coordinates.
  • the plane equation used in step 228M refers to the plane equation determined in step 228L.
  • the characteristic pixel three-dimensional coordinates are substituted into the plane equation to derive “B” that is the imaging position distance.
  • step 228N the control unit 114 causes the display unit 86 to display the imaging position distance derived in the process of step 228M in a superimposed manner on the second captured image.
  • the control unit 114 stores the imaging position distance derived in step 228M in a predetermined storage area, and then ends the first derivation process.
  • the default storage area include a storage area of the primary storage unit 102 or a storage area of the secondary storage unit 104.
  • the numerical value “144656.1” corresponds to the imaging position distance derived by the processing of step 228M, and the unit is millimeter.
  • step 214 the execution unit 112 executes the second derivation process shown in FIG. 14 as an example.
  • step 214 the acquisition unit 110 determines whether or not a pixel of interest has been designated from the first captured image via the touch panel 88 by the user.
  • step 214A if the target pixel is not designated from the first captured image by the user via the touch panel 88, the determination is negative and the process proceeds to step 214B.
  • step 214A when the target pixel is designated from the first captured image by the user via the touch panel 88, the determination is affirmed and the process proceeds to step 214C.
  • step 214B the acquisition unit 110 determines whether a condition for ending the second derivation process is satisfied.
  • the condition for ending the second derivation process refers to the same condition as the condition described in the description of step 201 above.
  • step 214B if the condition for ending the second derivation process is not satisfied, the determination is negative and the process proceeds to step 214A.
  • step 214B if the condition for ending the second derivation process is satisfied, the determination is affirmed and the second derivation process is ended. If the determination in step 214B is affirmative, the acquisition unit 110 causes the display unit 86 to end displaying the first captured image and the superimposed display information.
  • Step 214C the acquisition unit 110 acquires the target pixel coordinates that specify the target pixel 126 (see FIG. 20) specified by the user via the touch panel 88 in the first captured image, and then proceeds to Step 214D.
  • step 214D if imaging is not performed at the second position by the distance measuring device 10A, the determination is negative and the process proceeds to step 214E.
  • step 214D if the distance measuring device 10A has performed imaging at the second position, the determination is affirmed and the process proceeds to step 214F.
  • step 214E the acquisition unit 110 determines whether a condition for ending the second derivation process is satisfied.
  • the condition for ending the second derivation process refers to the same condition as that used in step 214B.
  • step 214E if the condition for ending the second derivation process is not satisfied, the determination is negative and the process proceeds to step 214D.
  • step 214E when the condition for ending the second derivation process is satisfied, the determination is affirmed and the second derivation process is ended. If the determination in step 214E is affirmative, the acquisition unit 110 causes the display unit 86 to end displaying the first captured image and the superimposed display information.
  • step 214F the acquisition unit 110 acquires a second captured image signal indicating a second captured image obtained by performing imaging at the second position, and then proceeds to step 214G.
  • the second captured image is a captured image obtained by capturing in the focused state at the second position.
  • step 214G the acquisition unit 110 causes the display unit 86 to display the second captured image indicated by the acquired second captured image signal, and then proceeds to step 214H1.
  • step 214H1 the acquisition unit 110 identifies a corresponding target pixel that is a pixel corresponding to the target pixel 126 among the pixels included in the second captured image, and specifies the corresponding corresponding target pixel coordinate. Then, the process proceeds to step 214H2.
  • step 214H2 the deriving unit 111 derives the second irradiation position pixel coordinates, and then proceeds to step 214I. That is, in step 214H2, the deriving unit 111 identifies the position of the pixel corresponding to the position of the pixel identified by the first irradiation position pixel coordinates derived in the process of step 207 among the pixels of the second captured image. The coordinates are derived as the second irradiation position pixel coordinates.
  • the pixels corresponding to the position of the pixel specified by the first irradiation position pixel coordinates are the first and second captured images as in the above-described corresponding target pixel specifying method.
  • the analysis target is specified by executing existing image analysis such as pattern matching.
  • step 214I the execution unit 112 derives the imaging position distance based on the irradiation position real space coordinates, the irradiation position pixel coordinates, the focal length of the imaging lens 50, the dimensions of the imaging pixel 60A1, and the formula (1), and then The process proceeds to step 214J.
  • the irradiation position real space coordinates used in the process of step 214I indicate the irradiation position real space coordinates derived in the process of step 206. Further, the irradiation position pixel coordinates used in the processing of step 214I indicate the first irradiation position pixel coordinates derived in step 207 and the second irradiation position pixel coordinates derived in step 214H2.
  • the irradiation position real space coordinates, the irradiation position pixel coordinates, the focal length of the imaging lens 50, and the dimensions of the imaging pixel 60A1 are substituted into the equation (1), thereby obtaining the imaging position distance “B”. "Is derived.
  • step 214J the control unit 114 causes the display unit 86 to superimpose and display the imaging position distance derived in the process of step 214I on the second captured image.
  • the control unit 114 stores the imaging position distance derived in step 214I in a predetermined storage area, and then ends the second derivation process.
  • the default storage area include a storage area of the primary storage unit 102 or a storage area of the secondary storage unit 104.
  • the number of parameters used for deriving the imaging position distance by the second derivation process is the imaging position distance by the first derivation process. Less than the number of parameters used to derive For this reason, the load for deriving the imaging position distance is smaller in the second derivation process than in the first derivation process.
  • the derivation accuracy of the imaging position distance by the second derivation process is equal to the imaging position distance by the first derivation process. It becomes higher than the derivation accuracy.
  • step 250 the execution unit 112 performs the imaging position distance by the process of step 228M included in the first derivation process or the process of step 214I included in the second derivation process. It is determined whether or not is already derived. In step 250, if the imaging position distance has not been derived in any of the processing of step 228M included in the first derivation processing and the processing of step 214I included in the second derivation processing, the determination is negative, and the step 258. In step 250, if the imaging position distance has already been derived in the process of step 228M included in the first derivation process or the process of step 214I included in the second derivation process, the determination is affirmed and the process proceeds to step 252. Transition.
  • the execution unit 112 determines whether or not a condition for starting the derivation of the designated pixel three-dimensional coordinates (hereinafter referred to as a “derivation start condition”) is satisfied.
  • the derivation start condition include a condition that an instruction to start derivation of the designated pixel three-dimensional coordinates is accepted by the touch panel 88, a condition that the imaging position distance is displayed on the display unit 86, and the like.
  • step 252 If it is determined in step 252 that the derivation start condition is not satisfied, the determination is denied and the process proceeds to step 258. In step 252, if the derivation start condition is satisfied, the determination is affirmed, and the routine proceeds to step 254.
  • step 254 the execution unit 112 calculates the designated pixel three-dimensional coordinates based on the target pixel coordinates, the corresponding target pixel coordinates, the imaging position distance, the focal length of the imaging lens 50, the dimensions of the imaging pixel 60A1, and the mathematical expression (1). Then, the process proceeds to step 256.
  • the pixel-of-interest coordinates used in the process of step 254 indicate the pixel-of-interest coordinates acquired by the process of step 228C included in the first derivation process or the process of step 214C included in the second derivation process.
  • the corresponding target pixel coordinates used in the process of step 254 are the corresponding target pixel coordinates acquired in the process of step 228I included in the first derivation process or the process of step 214H1 included in the second derivation process. Point to.
  • the imaging position distance used in the process of step 254 indicates the imaging position distance derived by the process of step 228M included in the first derivation process or the process of step 214I included in the second derivation process.
  • step 254 the target pixel coordinates, the corresponding target pixel coordinates, the imaging position distance, the focal length of the imaging lens 50, and the dimensions of the imaging pixel 60A1 are substituted into the mathematical formula (1), thereby specifying the designated pixel three-dimensional coordinates. Is derived.
  • step 256 the control unit 114 causes the display unit 86 to display the designated pixel three-dimensional coordinates derived in step 254 superimposed on the second captured image.
  • step 256 the control unit 114 stores the designated pixel three-dimensional coordinates derived in step 254 in a predetermined storage area, and then proceeds to step 258.
  • the default storage area include a storage area of the primary storage unit 102 or a storage area of the secondary storage unit 104.
  • (20161, 50134, 136892) corresponds to the designated pixel three-dimensional coordinates derived in the processing of step 254.
  • the designated pixel three-dimensional coordinates are displayed close to the target pixel 126. Note that the target pixel 126 may be highlighted so as to be distinguishable from other pixels.
  • step 258 the execution unit 112 determines whether or not a condition for ending the three-dimensional coordinate derivation process is satisfied.
  • a condition that an instruction for ending the three-dimensional coordinate derivation process is received from the touch panel 88 can be given.
  • Another example of the condition for ending the three-dimensional coordinate derivation process is a condition that the second predetermined time has passed without the determination being affirmed in Step 250 after the determination in Step 250 is denied.
  • the second predetermined time refers to, for example, 30 minutes.
  • step 258 if the condition for ending this three-dimensional coordinate derivation process is not satisfied, the determination is negative and the routine proceeds to step 250.
  • step 258 when the conditions for ending the three-dimensional coordinate derivation process are satisfied, the determination is affirmed and the three-dimensional coordinate derivation process is ended.
  • the first derivation process and the second derivation process are executed.
  • the actual irradiation position of the laser light is a position in real space corresponding to a position of a pixel different from a pixel that can be specified at a position corresponding to each other in each of the first captured image and the second captured image.
  • the imaging position distance is derived with higher accuracy than the second derivation process.
  • the second derivation process is the first when the actual irradiation position of the laser light is a position on the real space corresponding to the position of the pixel that can be specified at the position corresponding to each other in each of the first captured image and the second captured image.
  • the imaging position distance is derived with higher accuracy than the derivation process.
  • the first derivation process is executed when the pixel position specified by the irradiation position pixel coordinates derived by the deriving unit 111 is a pixel position different from the identifiable pixel position. Therefore, according to the distance measuring device 10A, it is possible to derive the imaging position distance with higher accuracy than in the case where the irradiation position of the laser beam is not taken into consideration.
  • the second derivation process is executed when the pixel position specified by the irradiation position pixel coordinates derived by the derivation unit 111 is the identifiable pixel position. Therefore, according to the distance measuring device 10A, it is possible to derive the imaging position distance with higher accuracy than in the case where the irradiation position of the laser beam is not taken into consideration.
  • the second derivation process is a process of deriving the imaging position distance based on a plurality of parameters smaller than the number of parameters used in the derivation of the imaging position distance by the first derivation process. . Therefore, according to the distance measuring device 10A, it is possible to derive the imaging position distance with a low load compared to the case where the imaging position distance is always derived in the first derivation process.
  • the coincidence message 137A is displayed on the display unit 86. Therefore, according to the distance measuring device 10A, the user can recognize that the position of the pixel specified by the first irradiation position pixel coordinates derived by the deriving unit 111 is the identifiable pixel position.
  • the mismatch message 137 ⁇ / b> B is displayed on the display unit 86. Is displayed. Therefore, according to the distance measuring device 10A, the user can recognize that the pixel position specified by the first irradiation position pixel coordinates derived by the deriving unit 111 is a pixel position different from the identifiable pixel position. it can.
  • the designated pixel three-dimensional coordinates are derived based on the imaging position distance derived by the imaging position distance deriving process (see FIG. 23). Therefore, according to the distance measuring device 10A, it is possible to derive the designated pixel three-dimensional coordinates with higher accuracy than when the imaging position distance is derived by only one type of derivation process.
  • the designated pixel three-dimensional coordinates are defined based on the target pixel coordinates, the corresponding target pixel coordinates, the imaging position distance, the focal length of the imaging lens 50, and the dimensions of the imaging pixel 60A1 (formulas). (See (1)). Therefore, according to the distance measuring device 10A, the designated pixel three-dimensional coordinates are not defined based on the target pixel coordinates, the corresponding target pixel coordinates, the imaging position distance, the focal length of the imaging lens 50, and the dimensions of the imaging pixel 60A1.
  • the designated pixel three-dimensional coordinates can be derived with high accuracy.
  • the execution unit 112 defines the three feature pixel coordinates, the corresponding feature pixel coordinates, the focal length of the imaging lens 50, and the size of the imaging pixel 60A1 by the plane equation shown in Equation (6).
  • the orientation of the plane to be performed is derived (step 228K).
  • the execution unit 112 determines the plane equation shown in Equation (6) based on the orientation of the plane and the irradiation position real space coordinates derived in Step 206 (Step 228L).
  • the imaging unit distance is derived by the execution unit 112 based on the determined plane equation and the feature pixel three-dimensional coordinates (for example, the first feature pixel three-dimensional coordinates) (step 228M).
  • the imaging position distance is not used without using the plane equation.
  • the imaging position distance can be derived with higher accuracy than when deriving.
  • the acquisition unit 110 acquires three feature pixel coordinates (step 228D), and the acquisition unit 110 acquires corresponding feature pixel coordinates (step 228J).
  • the execution unit 112 then derives the imaging position distance based on the three feature pixel coordinates, the corresponding feature pixel coordinates, the irradiation position real space coordinates, the focal length of the imaging lens 50, and the dimensions of the imaging pixel 60A1 (step 228M). . Therefore, according to the distance measuring device 10A, the three feature pixel coordinates and the corresponding feature pixels are reduced in the number of operations compared to the case where the user designates the three characteristic pixel coordinates when acquiring the three feature pixel coordinates and the corresponding feature pixel coordinates.
  • the imaging position distance can be derived based on the coordinates.
  • the pixel designation information is received by the touch panel 88, the pixel designated by the accepted pixel designation information is set as the target pixel 126, and the target pixel coordinates are acquired by the acquisition unit 110 (Step S1). 228C, 214C).
  • the acquisition unit 110 identifies a corresponding target pixel that is a pixel corresponding to the target pixel 126. Then, the acquisition unit 110 acquires the corresponding target pixel coordinates that specify the corresponding pixel target pixel (steps 228I and 214H1). Therefore, according to the distance measuring device 10A, the designated pixels related to both the first captured image and the second captured image are quickly compared with the case where the designated pixels related to both the first captured image and the second captured image are specified by the user. Can be decided.
  • the distance measuring device 10A includes a distance measuring unit 12 and a distance measurement control unit 68, and the distance to the subject measured by the distance measurement unit 12 and the distance measurement control unit 68 is acquired by the acquisition unit 110. Therefore, according to the distance measuring apparatus 10A, the distances acquired by the distance measuring unit 12 and the distance measurement control unit 68 can be used to derive the irradiation position real space coordinates and the irradiation position pixel coordinates.
  • the distance measuring device 10A includes the imaging device 14, and the acquisition unit 110 acquires the first captured image and the second captured image obtained by imaging the subject by the imaging device 14. Therefore, according to the distance measuring device 10A, the first captured image and the second captured image obtained by imaging the subject by the imaging device 14 can be used for deriving the imaging position distance.
  • the result derived by the execution unit 112 is displayed on the display unit 86 (see FIGS. 22 and 24). Therefore, according to the distance measuring device 10 ⁇ / b> A, the derivation result obtained by the execution unit 112 can be easily recognized by the user as compared with the case where the derivation result obtained by the execution unit 112 is not displayed by the display unit 86.
  • three feature pixel coordinates are exemplified, but the technology of the present disclosure is not limited to this.
  • two-dimensional coordinates that specify each of a predetermined number of characteristic four or more pixels may be adopted.
  • the case where the pixel-of-interest coordinates are acquired from the coordinates on the first captured image and the corresponding pixel-of-interest coordinates are acquired from the coordinates on the second captured image is exemplified.
  • the target pixel coordinates may be acquired from the coordinates on the second captured image
  • the corresponding target pixel coordinates may be acquired from the coordinates on the first captured image.
  • the case where the three feature pixel coordinates are acquired from the coordinates on the first captured image and the corresponding feature pixel coordinates are acquired from the coordinates on the second captured image is illustrated.
  • the technology is not limited to this.
  • three feature pixel coordinates may be acquired from coordinates on the second captured image, and corresponding feature pixel coordinates may be acquired from coordinates on the first captured image.
  • the acquisition unit 110 acquires two-dimensional coordinates specifying each of the first pixel 130, the second pixel 132, and the third pixel 134 as the three characteristic pixel coordinates.
  • the technology of the present disclosure is not limited to this.
  • two-dimensional coordinates that specify each of the first pixel 130A, the second pixel 132A, and the third pixel 134A may be acquired by the acquisition unit 110.
  • the first pixel 130 ⁇ / b> A, the second pixel 132 ⁇ / b> A, and the third pixel 134 ⁇ / b> A are three pixels that have the maximum area surrounded by the outer wall surface image 128.
  • the number of pixels is not limited to three pixels, but may be a predetermined number of pixels that is three or more pixels that maximizes the area surrounded by the outer wall surface image 128.
  • the three pixels having the maximum area surrounded by the outer wall surface image 128 are specified as characteristic three pixels, and the two-dimensional coordinates relating to the specified three pixels are set as the three characteristic pixel coordinates.
  • the acquisition unit 110 also acquires corresponding feature pixel coordinates corresponding to the three feature pixel coordinates. Therefore, according to the distance measuring device 10A, as compared with the case where three characteristic pixel coordinates and corresponding characteristic pixel coordinates that specify a plurality of pixels whose surrounding area is not the maximum are acquired as characteristic three pixels, the imaging position distance is set. It can be derived with high accuracy.
  • the imaging position distance deriving process is realized when the three-dimensional coordinate deriving button 90G is turned on has been described, but the technology of the present disclosure is not limited to this.
  • the imaging position distance derivation process may be executed when the imaging position distance derivation button 90F is turned on.
  • the imaging position distance deriving process described in the first embodiment is an example in the case where the ultimate purpose is to derive three-dimensional coordinates.
  • the target pixel coordinates and corresponding target pixel coordinates required for deriving the three-dimensional coordinates are acquired by the imaging position distance deriving process.
  • the target pixel in the imaging position distance deriving process is obtained. It is not necessary to acquire coordinates and corresponding target pixel coordinates. Therefore, when the imaging position distance derivation button 90F is turned on, the execution unit 112 derives the imaging position distance without acquiring the target pixel coordinates and the corresponding target pixel coordinates, and then the three-dimensional coordinate derivation button 90G is turned on. In this case, the target pixel coordinates and the corresponding target pixel coordinates may be acquired.
  • the execution unit 112 acquires the target pixel coordinates and the corresponding target pixel coordinates between the processing in step 252 and the processing in step 254 of the three-dimensional coordinate derivation processing illustrated in FIG. And the corresponding target pixel coordinates may be used in the processing of step 254.
  • the distance measuring device 10B has an imaging position distance deriving program 150 in the secondary storage unit 104 instead of the imaging position distance deriving program 106, as compared to the distance measuring apparatus 10A. Is different in that is stored.
  • the CPU 100 operates as the acquisition unit 154, the derivation unit 111, the execution unit 112, and the control unit 156 by executing the imaging position distance derivation program 150 and the three-dimensional coordinate derivation program 108 (see FIG. 9).
  • the acquisition unit 154 corresponds to the acquisition unit 110 described in the first embodiment
  • the control unit 156 corresponds to the control unit 114 described in the first embodiment.
  • the acquisition unit 154 and the control unit 156 will be described with respect to differences from the acquisition unit 110 and the control unit 114 described in the first embodiment.
  • the control unit 156 performs control to display the first captured image on the display unit 86 and to display the outer wall surface image 128 so as to be distinguishable from other regions in the display region.
  • the touch panel 88 receives region designation information for designating a coordinate acquisition target region in a state where the outer wall surface image 128 is displayed on the display unit 86.
  • the coordinate acquisition target area refers to a part of the closed area in the outer wall surface image 128.
  • the area designation information refers to information that designates a coordinate acquisition target area.
  • the acquisition unit 154 acquires the three characteristic pixel coordinates from the coordinate acquisition target area specified by the area specification information received by the touch panel 88.
  • FIG. a first derivation process included in the imaging position distance derivation process realized by the CPU 100 executing the imaging position distance derivation program 150 is illustrated in FIG. Will be described with reference to FIG. Note that the same steps as those in the flowchart shown in FIG. 13 are denoted by the same step numbers and description thereof is omitted.
  • the flowchart shown in FIG. 26 differs from the flowchart shown in FIG. 13 in that steps 300 to 312 are provided instead of step 228D.
  • step 300 shown in FIG. 26 the control unit 156 identifies the outer wall surface image 128 (see FIG. 21) from the first captured image, and then proceeds to step 302.
  • step 302 the control unit 156 causes the display unit 86 to display the outer wall surface image 128 identified in the process of step 300 in a highlighted manner so as to be distinguishable from other regions in the display region of the first captured image. Thereafter, the process proceeds to step 304.
  • step 304 the acquisition unit 154 determines whether or not the area designation information is received by the touch panel 88 and the coordinate acquisition target area is specified by the received area designation information.
  • step 304 when the coordinate acquisition target area is not designated by the area designation information, the determination is denied and the process proceeds to step 306. If the coordinate acquisition target area is designated by the area designation information in step 304, the determination is affirmed and the process proceeds to step 308. Although illustration is omitted, when the determination in step 304 is affirmative, the acquisition unit 154 performs a process in step 310 described later on the display unit 86 to be displayed on the display unit 86 again. Stop displaying the specified message.
  • step 306 the acquisition unit 154 determines whether a condition for ending the first derivation process is satisfied. If the condition for ending the first derivation process is not satisfied at step 306, the determination is negative and the routine proceeds to step 304. In step 306, when the condition for ending the first derivation process is satisfied, the determination is affirmed and the first derivation process is ended. If the determination in step 306 is affirmative, the acquisition unit 154 causes the display unit 86 to end displaying the first captured image and the superimposed display information.
  • the superimposed display information in this case refers to, for example, the distance and the irradiation position mark 136.
  • the acquisition unit 154 includes the characteristic three pixels described in the first embodiment in the coordinate acquisition target region 158 (see FIG. 27) specified by the region specification information received by the touch panel 88. It is determined whether or not.
  • the pattern acquisition image 160 indicating the pattern 124 is displayed in the coordinate acquisition target region 158. It is included.
  • the coordinate acquisition target area 158 includes a first pixel 162, a second pixel 164, and a third pixel 166 as characteristic three pixels.
  • the first pixel 162 is a pixel at the upper left corner of the pattern image 160 when viewed from the front
  • the second pixel 164 is a pixel at the lower left corner of the pattern image 160 when viewed from the front
  • the third pixel 166 is , The pixel at the lower right corner of the pattern image 160 when viewed from the front.
  • step 308 when there are no characteristic three pixels in the coordinate acquisition target area 158 specified by the area specifying information received by the touch panel 88, the determination is negative and the process proceeds to step 310.
  • step 308 if there are three characteristic pixels in the coordinate acquisition target area 158 specified by the area specifying information received by the touch panel 88, the determination is affirmed and the process proceeds to step 312. Note that the case where an affirmative determination is made in step 308 indicates a case where the coordinate acquisition target region 158 including the pattern image 160 is designated by the region designation information received by the touch panel 88, as shown in FIG. . Although illustration is omitted, when the determination in step 308 is affirmative, the acquisition unit 154 causes the display unit 86 to end the emphasized display of the outer wall surface image 128.
  • step 310 the control unit 156 causes the display unit 86 to start displaying the redesignated message superimposed on the predetermined area of the first captured image, and then proceeds to step 304.
  • the re-designation message indicates, for example, a message “Please specify a closed area including a characteristic pattern or building material”. Note that the redesignation message displayed by executing the processing of step 310 is not displayed when the determination in step 304 is affirmed.
  • the technology of the present disclosure is not limited to this, and an audible display such as audio output by an audio playback device (not shown)
  • the permanent visible display such as the output of the printed matter by the printer may be performed instead of the visible display, or may be used in combination.
  • step 312 the acquisition unit 154 acquires three characteristic pixel coordinates that specify three characteristic pixels in the coordinate acquisition target area 158 specified by the area specification information received by the touch panel 88, and then proceeds to step 214. To do.
  • the two-dimensional coordinates that specify each of the first pixel 162, the second pixel 164, and the third pixel 166 are set as the three characteristic pixel coordinates by executing the process of step 312. Obtained by the obtaining unit 154. Although illustration is omitted, when the process of step 312 is executed, the first captured image and the superimposed display information are not displayed.
  • the outer wall surface image 128 is displayed on the display unit 86 so as to be distinguishable from other regions in the first captured image.
  • area designation information is received by the touch panel 88, and a coordinate acquisition target area that is a part of the outer wall surface image 128 is designated by the received area designation information.
  • the acquisition unit 154 acquires three characteristic pixel coordinates that specify the characteristic three pixels (step 312), and corresponds to the three characteristic pixel coordinates. Corresponding feature pixel coordinates are also acquired (step 228).
  • the three feature pixel coordinates and the corresponding feature pixel coordinates are acquired with a small load compared to the case where the three feature pixel coordinates and the corresponding feature pixel coordinates are acquired for the entire outer wall image 128. be able to.
  • the distance measuring device 10C according to the third embodiment is different from the distance measuring device 10A in that an imaging position distance deriving program 168 is stored in the secondary storage unit 104 instead of the imaging position distance deriving program 106.
  • the CPU 100 operates as the acquisition unit 172, the derivation unit 111, the execution unit 174, and the control unit 176 by executing the imaging position distance derivation program 168 and the three-dimensional coordinate derivation program 108 as illustrated in FIG. 9 as an example. .
  • the acquisition unit 172 corresponds to the acquisition unit 110 (154) described in the above embodiments
  • the execution unit 174 corresponds to the execution unit 112 described in the first embodiment
  • the control unit 176 This corresponds to the control unit 114 (156) described in the embodiment.
  • the acquisition unit 172, the execution unit 174, and the control unit 176 are the acquisition unit 110 (154), the execution unit 112, and the control unit 114 described in the above embodiments. A different part from (156) is demonstrated.
  • the touch panel 88 receives the pixel designation information described in the first embodiment when each of the first captured image and the second captured image is displayed on the display unit 86.
  • the touch panel 88 also accepts the pixel designation information described in the first embodiment even when the second captured image is displayed on the display unit 86.
  • the acquisition unit 172 is a first two-dimensional coordinate that specifies each of the characteristic three pixels specified by the pixel specification information received by the touch panel 88. Get feature pixel coordinates.
  • the first feature pixel coordinates are two-dimensional coordinates corresponding to the three feature pixel coordinates described in the first embodiment.
  • the acquisition unit 172 is a second two-dimensional coordinate that specifies each of the characteristic three pixels specified by the pixel specification information received by the touch panel 88. Get feature pixel coordinates.
  • the second feature pixel coordinates are two-dimensional coordinates corresponding to the corresponding feature pixel coordinates described in the first embodiment.
  • the execution unit 174 performs imaging based on the target pixel coordinates, the corresponding target pixel coordinates, the first feature pixel coordinates, the second feature pixel coordinates, the irradiation position real space coordinates, the focal length of the imaging lens 50, and the dimensions of the imaging pixel 60A1.
  • the position distance is derived.
  • 29 differs from the flowchart shown in FIG. 26 in that step 349 is provided instead of step 304. 29 is different from the flowchart shown in FIG. 26 in that steps 350 and 352 are provided instead of step 308. 29 is different from the flowchart shown in FIG. 26 in that step 353 is provided instead of step 310. 29 is different from the flowchart shown in FIG. 26 in that step 354 is provided instead of step 312. Further, the flowchart shown in FIG. 30 differs from the flowchart shown in FIG. 13 in that steps 356 to 372 are provided instead of steps 228J and 228K.
  • step 349 the acquisition unit 172 determines whether or not the area designation information is received by the touch panel 88, and the first coordinate acquisition target area 178 (see FIG. 27) is specified by the received area designation information.
  • the first coordinate acquisition target area is an area corresponding to the coordinate acquisition target area 158 described in the second embodiment.
  • step 349 if the first coordinate acquisition target area 178 is not designated by the area designation information, the determination is denied and the process proceeds to step 306.
  • step 349 when the first coordinate acquisition target area 178 is designated by the area designation information, the determination is affirmed and the process proceeds to step 350.
  • illustration is omitted, when the determination in step 349 is affirmative, the acquisition unit 172 performs a process in step 353 described later on the display unit 86 so that the display unit 86 can display the display unit 86 again. Stop displaying the specified message.
  • step 350 the control unit 176 sets the first coordinate acquisition target region 178 designated by the region designation information received by the touch panel 88 to the display unit 86 as another region in the display region of the first captured image. It is highlighted so that it can be distinguished. Although illustration is omitted, in this embodiment, pixel designation information is received by the touch panel 88, and three pixels are designated by the received pixel designation information. When three pixels are designated, the highlighting of the first coordinate acquisition target area 178 is finished.
  • the acquisition unit 172 determines whether or not three characteristic pixels are designated by the pixel designation information received by the touch panel 88.
  • the first coordinate acquisition target area 178 when the first coordinate acquisition target area 178 is specified by the area specifying information received by the touch panel 88, the first coordinate acquisition target area 178 includes a pattern image 160.
  • the characteristic three pixels refer to the first pixel 162, the second pixel 164, and the third pixel 166, which are pixels existing at the three corners of the pattern image 160, as shown in FIG. 28 as an example.
  • step 352 if the characteristic three pixels are not designated by the pixel designation information received by the touch panel 88, the determination is denied and the process proceeds to step 353. In step 352, if three characteristic pixels are designated by the pixel designation information received by the touch panel 88, the determination is affirmed and the process proceeds to step 354. Although not shown, when the determination in step 352 is affirmative, the acquisition unit 172 causes the display unit 86 to end the emphasized display of the outer wall surface image 128.
  • step 353 the control unit 176 causes the display unit 86 to start displaying the redesignation message superimposed on the predetermined area of the first captured image, and then proceeds to step 349.
  • the re-designation message according to the third embodiment refers to, for example, a message “Please designate a characteristic 3 pixel after designating a closed area including a characteristic pattern or building material”. .
  • the re-designation message displayed by executing the processing in step 353 is not displayed when the determination in step 349 is affirmative.
  • step 354 the acquisition unit 172 acquires the first characteristic pixel coordinates that specify the characteristic three pixels designated by the pixel designation information received by the touch panel 88, and then proceeds to step 228E shown in FIG. .
  • the processing of this step 354 is executed, so that the two-dimensional coordinates specifying each of the first pixel 162, the second pixel 164, and the third pixel 166 are the first feature pixel coordinates. Is acquired by the acquisition unit 172. Although illustration is omitted, when the process of step 354 is executed, the first captured image and the superimposed display information are not displayed.
  • step 356 shown in FIG. 30 the control unit 176 identifies a corresponding outer wall surface image that is an outer wall surface image corresponding to the outer wall surface image 128 from the second captured image, and then proceeds to step 358.
  • step 358 the control unit 176 causes the display unit 86 to display the corresponding outer wall surface image identified in the process of step 356 in a highlighted manner so as to be distinguishable from other regions in the display region of the second captured image. Thereafter, the process proceeds to step 360.
  • step 360 the acquisition unit 172 determines whether or not the area designation information has been received by the touch panel 88 and the second coordinate acquisition target area has been specified by the received area designation information.
  • the second coordinate acquisition target area is an area specified by the user via the touch panel 88 as an area corresponding to the first coordinate acquisition target area 178 (see FIG. 28) in the second captured image.
  • step 360 if the second coordinate acquisition target area is not designated by the area designation information, the determination is denied and the routine proceeds to step 362.
  • step 360 when the second coordinate acquisition target area is specified by the area specifying information, the determination is affirmed and the process proceeds to step 364.
  • step 362 the acquisition unit 172 determines whether a condition for ending the first derivation process is satisfied. If the condition for ending the first derivation process is not satisfied in step 362, the determination is negative and the process proceeds to step 360. In step 362, if the condition for terminating the first derivation process is satisfied, the determination is affirmed and the first derivation process is terminated. If the determination in step 362 is affirmative, the acquisition unit 172 causes the display unit 86 to end displaying the second captured image.
  • step 364 the control unit 176 sets the second coordinate acquisition target area designated by the area designation information received by the touch panel 88 to the display unit 86 as another area in the display area of the second captured image. Highlight it so that it can be distinguished. Although illustration is omitted, in this embodiment, pixel designation information is received by the touch panel 88, and three pixels are designated by the received pixel designation information. When three pixels are designated, the highlight display of the second coordinate acquisition target area ends.
  • step 366 the acquisition unit 172 determines whether or not three characteristic pixels are designated by the pixel designation information received by the touch panel 88.
  • the second coordinate acquisition target area includes a pattern image corresponding to the pattern image 160.
  • the characteristic three pixels are pixels present at the three corners of the pattern image corresponding to the pattern image 160 in the second captured image.
  • the pixels existing at the three corners of the pattern image corresponding to the pattern image 160 are, for example, the pixel corresponding to the first pixel 162, the pixel corresponding to the second pixel 164, and the third pixel 166 in the second captured image. Refers to the corresponding pixel.
  • step 366 when the characteristic three pixels are not designated by the pixel designation information received by the touch panel 88, the determination is denied and the process proceeds to step 368.
  • step 366 when three characteristic pixels are designated by the pixel designation information received by the touch panel 88, the determination is affirmed and the process proceeds to step 370.
  • step 368 the control unit 176 causes the display unit 86 to start displaying the redesignation message according to the third embodiment superimposed on the predetermined area of the second captured image, and then proceeds to step 360. Note that the redesignation message displayed by executing the processing of step 368 is not displayed when the determination in step 360 is affirmed.
  • step 370 the acquisition unit 172 acquires the second characteristic pixel coordinates that specify the characteristic three pixels designated by the pixel designation information received by the touch panel 88, and then proceeds to step 372.
  • step 370 for example, in the second captured image, a two-dimensional coordinate specifying each of the pixel corresponding to the first pixel 162, the pixel corresponding to the second pixel 164, and the pixel corresponding to the third pixel 166. Is acquired by the acquisition unit 172 as the second feature pixel coordinates.
  • the execution unit 174 determines a, b, c of the plane equation shown in Formula (6) from the first feature pixel coordinates, the second feature pixel coordinates, the focal length of the imaging lens 50, and the dimensions of the imaging pixel 60A1.
  • the first feature pixel coordinates used in the process of step 372 are the first feature pixel coordinates acquired in the process of step 354, and correspond to the three feature pixel coordinates described in the first embodiment.
  • the second feature pixel coordinates used in the process of step 372 are the second feature pixel coordinates acquired in the process of step 370 and correspond to the corresponding feature pixel coordinates described in the first embodiment.
  • the characteristic three pixels are designated via the touch panel 88 in the first captured image, and the first characteristic pixel coordinates that specify the designated characteristic three pixels are obtained by the acquisition unit. 172 (step 354). Further, characteristic three pixels corresponding to the characteristic three pixels of the first captured image are designated in the second captured image via the touch panel 88 (step 366: Y). In addition, the acquisition unit 172 acquires the second feature pixel coordinates that specify the characteristic three pixels designated via the touch panel 88 in the second captured image (step 370).
  • the execution unit 174 performs imaging based on the target pixel coordinates, the corresponding target pixel coordinates, the first feature pixel coordinates, the second feature pixel coordinates, the focal position coordinates, the focal length of the imaging lens 50, and the dimensions of the imaging pixel 60A1.
  • a position distance is derived. Therefore, according to the distance measuring device 10C, the imaging position distance can be derived based on the first feature pixel coordinates and the second feature pixel coordinates acquired according to the user's intention.
  • the distance measuring device 10D according to the fourth embodiment is different from the distance measuring device 10A in that an imaging position distance deriving program 180 is stored in the secondary storage unit 104 instead of the imaging position distance deriving program 106.
  • the distance measuring device 10D is different from the distance measuring device 10A in that a three-dimensional coordinate derivation program 181 is stored in the secondary storage unit 104 instead of the three-dimensional coordinate derivation program 108.
  • the CPU 100 operates as an acquisition unit 182, a derivation unit 111, an execution unit 184, and a control unit 185 by executing the imaging position distance derivation program 180 and the three-dimensional coordinate derivation program 181 as illustrated in FIG. 9 as an example. .
  • the acquisition unit 182 corresponds to the acquisition unit 154 described in the second embodiment
  • the execution unit 184 corresponds to the execution unit 112 described in the first embodiment
  • the control unit 185 corresponds to the second embodiment. This corresponds to the control unit 156 described above.
  • the acquisition unit 182 will be described with respect to a part different from the acquisition unit 154 described in the second embodiment.
  • the execution unit 184 will be described with respect to portions different from the execution unit 112 described in the first embodiment.
  • the control unit 185 will be described with respect to parts different from the control unit 156 described in the second embodiment.
  • the acquisition unit 182 further acquires a reference distance as compared to the acquisition unit 154.
  • the “reference distance” here refers to a distance measured based on the laser light emitted by the distance measuring unit 12 at the second measurement position.
  • the execution unit 184 determines whether the first imaging position and the second imaging position are based on the target pixel coordinates, the three feature pixel coordinates, the reference irradiation position real space coordinates, the focal length of the imaging lens 50, and the dimensions of the imaging pixel 60A1.
  • a reference imaging position distance which is a distance, is derived. Then, the execution unit 184 adjusts the imaging position distance with reference to the derived reference imaging position distance, thereby finally adopting the final imaging position distance as the distance between the first imaging position and the second imaging position. Is derived.
  • the execution unit 184 derives the designated pixel three-dimensional coordinates based on the derived final imaging position distance.
  • the final designated pixel real space coordinate refers to a three-dimensional coordinate that is finally adopted as a three-dimensional coordinate that is a coordinate on the real space of the target pixel 126 that is an example of the designated pixel according to the technology of the present disclosure.
  • FIG. a first derivation process included in the imaging position distance derivation process realized by the CPU 100 executing the imaging position distance derivation program 180 is illustrated in FIG. Will be described with reference to FIG. Note that the same steps as those in the flowchart shown in FIG. 13 are denoted by the same step numbers and description thereof is omitted.
  • steps 400 and 402 are provided instead of steps 228E and 228G.
  • steps 404 to 416 are provided instead of steps 228L to 228N.
  • step 400 shown in FIG. 31 the acquisition unit 182 determines whether distance measurement and imaging have been performed at the second position by the distance measuring device 10D. In step 400, if distance measurement and imaging have not been performed at the second position by the distance measuring device 10D, the determination is negative and the routine proceeds to step 228F. In step 400, when distance measurement and imaging are performed at the second position by the distance measuring device 10D, the determination is affirmed and the process proceeds to step 402.
  • step 402 the acquisition unit 182 includes a reference distance that is a distance measured at the second position, and a second captured image signal that indicates the second captured image obtained by performing the imaging at the second position. Then, the process proceeds to step 218H.
  • step 404 the execution unit 184 determines the first plane equation, which is the plane equation shown in equation (6), based on the irradiation position real space coordinates derived in step 206, and then proceeds to step 406. .
  • step 406 the execution unit 184 derives the imaging position distance based on the feature pixel three-dimensional coordinates and the first plane equation, and then proceeds to step 408.
  • step 408 the execution unit 184 calculates the reference distance, the half angle of view ⁇ , the emission angle ⁇ , and the reference point distance M acquired by the acquisition unit 182 in the process of step 402, based on Equation (2).
  • the reference irradiation position real space coordinates are derived, and then the process proceeds to step 410.
  • the reference distance used in the processing of this step 408 is a distance corresponding to the distance L described in the first embodiment.
  • step 410 the execution unit 184 determines the second plane equation, which is the plane equation shown in the equation (6), based on the reference irradiation position real space coordinates derived in the process of step 408, and then proceeds to step 412. To do. That is, in step 410, the execution unit 184 substitutes the reference irradiation position real space coordinates derived in step 228K a, b, c and step 408 into the formula (6). Determine d in equation (6). Since a, b, and c in Expression (6) are derived in the process of Step 228K, when d in Expression (6) is determined in the process of Step 410, the second plane equation is determined.
  • step 412 the execution unit 184 derives the reference imaging position distance based on the feature pixel three-dimensional coordinates and the second plane equation, and then proceeds to step 414.
  • the reference imaging position distance corresponds to, for example, “B” shown in Equation (7), and is derived by substituting the first feature pixel three-dimensional coordinates into the second plane equation.
  • step 414 the execution unit 184 refers to the reference imaging position distance derived in step 412 and adjusts the imaging position distance derived in step 406 to derive the final imaging position distance. Thereafter, the process proceeds to step 416.
  • adjusting the imaging position distance means, for example, obtaining an average value of the imaging position distance and the reference imaging position distance, and multiplying the average value of the imaging position distance and the reference imaging position distance by the first adjustment coefficient. Or, it means multiplying the imaging position distance by the second adjustment coefficient.
  • the first adjustment coefficient and the second adjustment coefficient are both coefficients that are uniquely determined according to, for example, the reference imaging position distance.
  • the first adjustment coefficient is, for example, a correspondence table in which the reference imaging position distance and the first adjustment coefficient are associated in advance, or the reference imaging position distance is an independent variable, and the first adjustment coefficient is dependent. It is derived from an arithmetic expression that is a variable.
  • the second adjustment coefficient is similarly derived.
  • the correspondence table and the calculation formula are used for derivation derived from the result of a test by the actual device of the distance measuring device 10D or a computer simulation based on the design specification of the distance measuring device 10D at the stage before the shipment of the distance measuring device 10D. Derived from a table or arithmetic expression.
  • an average value of the imaging position distance and the reference imaging position distance a value obtained by multiplying the average value of the imaging position distance and the reference imaging position distance by the first adjustment coefficient, or A value obtained by multiplying the imaging position distance by the second adjustment coefficient can be given.
  • step 416 the control unit 185 causes the display unit 86 to display the final imaging position distance derived in the process of step 414 superimposed on the second captured image, as shown in FIG. 32 as an example.
  • the control unit 185 stores the final imaging position distance derived in step 414 in a predetermined storage area, and then ends the main imaging position distance derivation process.
  • step 450 the execution unit 184 determines whether or not the final imaging position distance has already been derived in the process of step 414 included in the first derivation process.
  • step 450 when the final imaging position distance is not derived in the process of step 414 included in the first derivation process, the determination is negative and the process proceeds to step 458.
  • step 450 when the final imaging position distance has already been derived in the process of step 414 included in the first derivation process, the determination is affirmed and the process proceeds to step 452.
  • step 452 the execution unit 184 determines whether the derivation start condition is satisfied. If it is determined in step 452 that the derivation start condition is not satisfied, the determination is negative and the process proceeds to step 458. If the derivation start condition is satisfied in step 452, the determination is affirmed and the routine proceeds to step 454.
  • step 454 the execution unit 184 determines the designated pixel three-dimensional coordinates based on the target pixel coordinates, the corresponding target pixel coordinates, the final imaging position distance, the focal length of the imaging lens 50, the dimensions of the imaging pixel 60A1, and the mathematical expression (1). Then, the process proceeds to step 456.
  • step 454 the target pixel coordinates, the corresponding target pixel coordinates, the final imaging position distance, the focal length of the imaging lens 50, and the dimensions of the imaging pixel 60A1 are substituted into the mathematical formula (1), thereby specifying the designated pixel three-dimensional. Coordinates are derived.
  • step 456 as shown in FIG. 34 as an example, the control unit 185 causes the display unit 86 to display the designated pixel three-dimensional coordinates derived in the process of step 454 superimposed on the second captured image.
  • the control unit 185 stores the designated pixel three-dimensional coordinates derived in step 454 in a predetermined storage area, and then proceeds to step 458.
  • (20160, 50132, 137810) corresponds to the designated pixel three-dimensional coordinates derived in the process of step 454.
  • the designated pixel three-dimensional coordinates are displayed close to the target pixel 126.
  • step 458 the execution unit 184 determines whether a condition for ending the three-dimensional coordinate derivation process is satisfied. If the conditions for ending the three-dimensional coordinate derivation process are not satisfied at step 458, the determination is negative and the routine proceeds to step 450. In step 458, when the conditions for ending the three-dimensional coordinate derivation process are satisfied, the determination is affirmed and the three-dimensional coordinate derivation process is ended.
  • the distance from the second position to the subject is measured, and the reference distance that is the measured distance is acquired by the acquisition unit 182 (step 402).
  • the execution unit 184 derives the reference irradiation position real space coordinates based on the reference distance (step 408).
  • the execution unit 184 determines the target pixel coordinates, the corresponding target pixel coordinates, the three feature pixel coordinates, the corresponding feature pixel coordinates, the reference irradiation position real space coordinates, the focal length of the imaging lens 50, and the dimensions of the imaging pixel 60A1.
  • the reference imaging position distance is derived (step 406).
  • the execution position 184 refers to the reference imaging position distance and adjusts the imaging position distance to derive the final imaging position distance (step 414). Therefore, according to the distance measuring device 10D, it is possible to derive the distance between the first imaging position and the second imaging position with higher accuracy than when the reference imaging position distance is not used.
  • the designated pixel three-dimensional coordinates are derived based on the final imaging position distance derived by the imaging position distance deriving process (see FIG. 33). Therefore, according to the distance measuring device 10 ⁇ / b> D, the designated pixel three-dimensional coordinates can be derived with higher accuracy than when the final imaging position distance is not used.
  • the designated pixel three-dimensional coordinates are defined based on the target pixel coordinates, the corresponding target pixel coordinates, the final imaging position distance, the focal length of the imaging lens 50, and the dimensions of the imaging pixel 60A1 ( Formula (1) reference). Therefore, according to the distance measuring device 10D, when the designated pixel three-dimensional coordinates are not defined based on the final imaging position distance, the target pixel coordinates, the corresponding target pixel coordinates, the focal length of the imaging lens 50, and the dimensions of the imaging pixel 60A1. In comparison, the designated pixel three-dimensional coordinates can be derived with high accuracy.
  • the distance measured based on the laser beam emitted from the second position is the reference distance, but the technology of the present disclosure is not limited to this.
  • the distance measured based on the laser light emitted from the first position may be used as the reference distance.
  • an information processing system 500 includes distance measuring devices 10E1 and 10E2 and a PC 502.
  • the PC 502 can communicate with the distance measuring devices 10E1 and 10E2.
  • the PC 502 is an example of an information processing apparatus according to the technology of the present disclosure.
  • the distance measuring device 10E1 is disposed at the first position, and the distance measuring device 10E2 is disposed at a second position different from the first position.
  • the distance measuring devices 10E1 and 10E2 have the same configuration.
  • the distance measuring devices 10E1 and 10E2 are referred to as “the distance measuring device 10E” when it is not necessary to distinguish between them.
  • the distance measuring device 10E is different from the distance measuring device 10A in that it includes an imaging device 15 instead of the imaging device 14.
  • the imaging device 15 is different from the imaging device 14 in that an imaging device body 19 is provided instead of the imaging device body 18.
  • the imaging device main body 19 is different from the imaging device main body 18 in having a communication I / F 83.
  • the communication I / F 83 is connected to the bus line 84 and operates under the control of the main control unit 62.
  • the communication I / F 83 is connected to a communication network (not shown) such as the Internet, and controls transmission / reception of various information to / from the PC 502 connected to the communication network.
  • a communication network such as the Internet
  • the PC 502 includes a main control unit 503.
  • the main control unit 503 includes a CPU 504, a primary storage unit 506, and a secondary storage unit 508.
  • the CPU 504, the primary storage unit 506, and the secondary storage unit 508 are connected to each other via the bus line 510.
  • the PC 502 includes a communication I / F 512.
  • the communication I / F 512 is connected to the bus line 510 and operates under the control of the main control unit 503.
  • the communication I / F 512 is connected to a communication network and manages transmission / reception of various information to / from the distance measuring device 10E connected to the communication network.
  • the PC 502 includes a reception unit 513 and a display unit 514.
  • the reception unit 513 is connected to the bus line 510 via a reception I / F (not shown), and the reception I / F receives an instruction content signal indicating the content of the instruction received by the reception unit 513.
  • the data is output to 503.
  • the reception unit 513 is realized by, for example, a keyboard, a mouse, and a touch panel.
  • the display unit 514 is connected to the bus line 510 via a display control unit (not shown), and displays various information under the control of the display control unit.
  • the display unit 514 is realized by an LCD, for example.
  • the secondary storage unit 508 stores the imaging position distance deriving program 106 (150, 168, 180) and the three-dimensional coordinate deriving program 108 (181) described in the above embodiments.
  • imaging position distance derivation programs 106, 150, 168, and 180 they are referred to as “imaging position distance derivation programs” without reference numerals.
  • three-dimensional coordinate deriving programs 108 and 181 they are referred to as “three-dimensional coordinate deriving programs” without reference numerals.
  • the CPU 504 acquires the first captured image signal, the target pixel coordinate, the distance, and the like from the distance measuring device 10E1 via the communication I / F 512. In addition, the CPU 504 acquires the second captured image signal and the like from the distance measuring device 10E2 via the communication I / F 512.
  • the CPU 504 reads the imaging position distance derivation program and the three-dimensional coordinate derivation program from the secondary storage unit 508, develops them in the primary storage unit 506, and executes the imaging position distance derivation program and the three-dimensional coordinate derivation program.
  • the imaging position distance derivation program and the three-dimensional coordinate derivation program are collectively referred to as “derivation program”.
  • the CPU 504 operates as the acquisition unit 110 (154, 172, 182), the derivation unit 111, the execution unit 112 (174, 184), and the control unit 114 (156, 176, 185) by executing the derivation program.
  • the PC 502 acquires the first captured image signal, the two captured image signals, the pixel-of-interest coordinates, the distance, and the like from the distance measuring device 10E via the communication I / F 512, and executes the derivation program.
  • the same operations and effects as those of the above embodiments can be obtained.
  • the distance measuring device 10F according to the sixth embodiment is different from the distance measuring device 10A according to the first embodiment in that an imaging device 600 is provided instead of the imaging device 14. .
  • the distance measuring device 10F is different from the distance measuring device 10A in that it includes a smart device 602.
  • the imaging device 600 is different from the imaging device 14 in that an imaging device body 603 is provided instead of the imaging device body 18.
  • the imaging apparatus main body 603 is different from the imaging apparatus main body 18 in that it has a wireless communication unit 604 and a wireless communication antenna 606.
  • the wireless communication unit 604 is connected to the bus line 84 and the wireless communication antenna 606.
  • the main control unit 62 outputs transmission target information, which is information to be transmitted to the smart device 602, to the wireless communication unit 604.
  • the wireless communication unit 604 transmits the transmission target information input from the main control unit 62 to the smart device 602 via the wireless communication antenna 606 by radio waves.
  • the radio communication unit 604 acquires a signal corresponding to the received radio wave and outputs the acquired signal to the main control unit 62.
  • the smart device 602 includes a CPU 608, a primary storage unit 610, and a secondary storage unit 612.
  • the CPU 608, the primary storage unit 610, and the secondary storage unit 612 are connected to the bus line 614.
  • the CPU 608 controls the entire distance measuring device 10F including the smart device 602.
  • the primary storage unit 610 is a volatile memory used as a work area or the like when executing various programs.
  • An example of the primary storage unit 610 is a RAM.
  • the secondary storage unit 612 is a non-volatile memory that stores in advance a control program for controlling the overall operation of the distance measuring apparatus 10F including the smart device 602, various parameters, and the like.
  • An example of the secondary storage unit 612 is a flash memory or an EEPROM.
  • the smart device 602 includes a display unit 615, a touch panel 616, a wireless communication unit 618, and a wireless communication antenna 620.
  • the display unit 615 is connected to the bus line 614 via a display control unit (not shown), and displays various types of information under the control of the display control unit.
  • the display unit 615 is realized by an LCD, for example.
  • the touch panel 616 is overlaid on the display screen of the display unit 615, and accepts contact by an indicator.
  • the touch panel 616 is connected to the bus line 614 via a touch panel I / F (not shown), and outputs position information indicating the position touched by the indicator to the touch panel I / F.
  • the touch panel I / F operates the touch panel I / F in accordance with an instruction from the CPU 608 and outputs position information input from the touch panel 616 to the CPU 608.
  • the display unit 615 includes a measurement imaging button 90A, an imaging button 90B, an imaging system operation mode switching button 90C, a wide-angle instruction button 90D, a telephoto instruction button 90E, an imaging position distance derivation button 90F, a three-dimensional coordinate derivation button 90G, and the like. Corresponding soft keys are displayed (see FIG. 39).
  • the measurement imaging button 90A1 that functions as the measurement imaging button 90A is displayed as a soft key on the display unit 615, and is pressed by the user via the touch panel 616.
  • the imaging button 90B1 that functions as the imaging button 90B is displayed as a soft key on the display unit 615, and is pressed by the user via the touch panel 616.
  • an imaging system operation mode switching button 90C1 that functions as the imaging system operation mode switching button 90C is displayed as a soft key, and is pressed by the user via the touch panel 616.
  • the display unit 615 displays a wide-angle instruction button 90D1 that functions as the wide-angle instruction button 90D as a soft key, and is pressed by the user via the touch panel 616.
  • a telephoto instruction button 90E1 that functions as the telephoto instruction button 90E is displayed as a soft key on the display unit 615 and is pressed by the user via the touch panel 616.
  • an imaging position distance derivation button 90F1 that functions as the imaging position distance derivation button 90F is displayed as a soft key and is pressed by the user via the touch panel 616.
  • the display unit 615 displays a 3D coordinate derivation button 90G1 that functions as the 3D coordinate derivation button 90G as a soft key, and is pressed by the user via the touch panel 616.
  • the wireless communication unit 618 is connected to the bus line 614 and the wireless communication antenna 620.
  • the wireless communication unit 618 transmits a signal input from the CPU 608 to the imaging apparatus main body 603 via the wireless communication antenna 620 by radio waves.
  • the radio communication unit 618 acquires a signal corresponding to the received radio wave, and outputs the acquired signal to the CPU 608. Accordingly, the imaging apparatus main body 603 is controlled by the smart device 602 by performing wireless communication with the smart device 602.
  • the secondary storage unit 612 stores a derivation program.
  • the CPU 608 reads the derivation program from the secondary storage unit 612, develops it in the primary storage unit 610, and executes the derivation program.
  • the CPU 608 operates as the acquisition unit 110 (154, 172, 182), the derivation unit 111, the execution unit 112 (174, 184), and the control unit 114 (156, 176, 185) by executing the derivation program. For example, when the CPU 608 executes the imaging position distance deriving program 106, the imaging position distance deriving process described in the first embodiment is realized. Further, for example, when the CPU 608 executes the three-dimensional coordinate derivation program 108, the three-dimensional coordinate derivation process described in the first embodiment is realized.
  • the smart device 602 executes the derivation program, so that the same operations and effects as those of the above embodiments can be obtained. Further, according to the distance measuring device 10F, compared to the case where the imaging position distance derivation process and the three-dimensional derivation process are executed by the imaging apparatus 600, the load applied to the imaging apparatus 600 in obtaining the effects described in the above embodiments. Can be reduced.
  • the corresponding target pixel is specified by performing image analysis using the second captured image as an analysis target, and the corresponding target pixel coordinates specifying the specified corresponding target pixel are acquired ( Steps 228I and 214H1), and the technology of the present disclosure is not limited to this.
  • the user may designate a pixel corresponding to the target pixel from the second captured image via the touch panel 88 as the corresponding target pixel.
  • the execution unit 112 exemplifies a case where the irradiation position real space coordinates, the plane orientation, the imaging position distance, the designated pixel three-dimensional coordinates, and the like are derived using arithmetic expressions.
  • the technology of the present disclosure is not limited to this.
  • the execution unit 112 (174, 184) uses the table with the independent variable of the arithmetic expression as an input and the output of the dependent variable of the arithmetic expression as an output, the irradiation position real space coordinates, the plane orientation, the imaging position distance, and the designation Pixel three-dimensional coordinates and the like may be derived.
  • the derivation program may first be stored in an arbitrary portable storage medium 700 such as an SSD (Solid State Drive) or a USB (Universal Serial Bus) memory.
  • the derivation program of the storage medium 700 is installed in the distance measuring device 10A (10B, 10C, 10D, 10F) (hereinafter referred to as “ranging device 10A etc.”) or the PC 502, and the installed derivation program is the CPU 100 ( 504, 608).
  • the derived program is stored in a storage unit such as the distance measuring device 10A or the like or another computer or server device connected to the PC 502 via a communication network (not shown), and the derived program is stored in the distance measuring device 10A or the like. It may be downloaded on demand. In this case, the downloaded derivation program is executed by the CPU 100 (504, 608).
  • the case where various types of information such as the irradiation position mark 136, the imaging position distance, and the designated pixel three-dimensional coordinates are displayed on the display unit 86 is illustrated, but the technology of the present disclosure is limited to this. It is not something.
  • various types of information may be displayed on a display unit of an external device used by connecting to the distance measuring device 10A or the like or the PC 502.
  • the external device there is a PC or a glasses-type or watch-type wearable terminal device.
  • the irradiation position mark 136, the imaging position distance, the specified pixel three-dimensional coordinates, and the like are visually displayed on the display unit 86 , but the technology of the present disclosure is limited to this. is not.
  • an audible display such as sound output by a sound reproduction device or a permanent visual display such as output of a printed matter by a printer may be performed instead of the visible display, or may be used in combination.
  • the irradiation position mark 136, the imaging position distance, the specified pixel three-dimensional coordinates, and the like are displayed on the display unit 86 , but the technology of the present disclosure is not limited to this. Absent. For example, at least one of the irradiation position mark 136, the imaging position distance, the designated pixel three-dimensional coordinates, and the like is displayed on a display unit (not shown) different from the display unit 86, and the rest is displayed on the display unit 86. You may make it do. Each of the irradiation position mark 136, the imaging position distance, the designated pixel three-dimensional coordinates, and the like may be individually displayed on a plurality of display units including the display unit 86.
  • laser light is exemplified as distance measurement light.
  • the technology of the present disclosure is not limited to this, and any directional light that is directional light may be used. Good.
  • it may be directional light obtained by a light emitting diode (LED: Light Emitting Diode) or a super luminescent diode (SLD).
  • the directivity of the directional light is preferably the same as the directivity of the laser light.
  • the directivity can be used for ranging within a range of several meters to several kilometers. preferable.
  • each process included in the imaging position distance derivation process and the three-dimensional coordinate derivation process may be realized only by a hardware configuration such as an ASIC or a combination of a software configuration using a computer and a hardware configuration. May be.
  • the distance measuring unit 12 may be attached to the upper surface or the lower surface of the imaging apparatus main body 18.
  • a distance measuring device 10G may be applied instead of the distance measuring device 10A or the like.
  • the distance measuring device 10G has a distance measuring unit 12A instead of the distance measuring unit 12 as compared with the distance measuring device 10A and the like, and an image pickup device main body 18A instead of the image pickup device main body 18. Is different.
  • the distance measuring unit 12A is housed in the casing 18A1 of the image pickup apparatus body 18A, and the objective lenses 32 and 38 are the front side of the distance measuring apparatus 10G (the image pickup lens 50 is exposed). Side) is exposed from the housing 18A1.
  • the distance measuring unit 12A is preferably arranged so that the optical axes L1 and L2 are set at the same height in the vertical direction. Note that an opening (not shown) through which the distance measuring unit 12A can be inserted into and removed from the housing 18A1 may be formed in the housing 18A1.
  • the half angle of view ⁇ used in the processing is derived based on the following formula (10).
  • “f 0 ” refers to the focal length.
  • Distance to the subject measured by emitting directional light, which is directional light, from one of the corresponding position and the position corresponding to the second imaging position to the subject and receiving reflected light of the directional light
  • an acquisition unit for acquiring, Based on the distance acquired by the acquisition unit, the irradiation position in the real space coordinates for specifying the irradiation position in the real space with respect to the subject by the directional light, and the irradiation position in each of the first captured image and the second captured image
  • a derivation unit for deriving an irradiation position pixel coordinate for specifying a position of a pixel corresponding to the irradiation position specified by the real space coordinates; In the case where the position of the pixel specified by the irradiation position pixel coordinates is a position incapable of being a position
  • each of the first captured image and the second captured image three or more pixels that exist in the same planar area as the irradiation position irradiated with directional light in real space and can be specified at positions corresponding to each other
  • a plurality of pixel coordinates that specify a plurality of pixels, an irradiation position real space coordinate, a focal length of an imaging lens used for imaging the subject, and an imaging pixel included in an imaging pixel group that images the subject.
  • An execution unit that executes a derivation process for deriving an imaging position distance that is a distance between the first imaging position and the second imaging position based on the dimensions;
  • An information processing apparatus including:
  • the acquisition unit further acquires a plurality of pixel coordinates
  • the information processing apparatus according to appendix 1, wherein the derivation process is a process of deriving an imaging position distance based on a plurality of pixel coordinates acquired by the acquisition unit, an irradiation position real space coordinate, a focal length, and a dimension.
  • the plurality of pixels are designated by first pixel designation information received by a first reception unit that receives first pixel designation information that designates a pixel from each of the first captured image and the second captured image,
  • the information processing apparatus according to appendix 2, wherein the acquisition unit acquires a plurality of coordinates specifying a plurality of pixels designated by the first pixel designation information as a plurality of pixel coordinates.
  • the plurality of pixel coordinates is a predetermined number of three or more pixels that exist in the same planar area as the irradiation position in real space in each of the first captured image and the second captured image and can be specified at positions corresponding to each other.
  • the information processing apparatus according to attachment 2 wherein the information is a coordinate that specifies each of a plurality of pixels that have a maximum number of surrounding pixels.
  • At least one of the first captured image and the second captured image is displayed on the first display unit, and the corresponding area corresponding to the same planar area as the irradiation position in the display area can be distinguished from other areas.
  • a first control unit that performs display control; The acquisition unit receives a part of the corresponding area specified by the area specifying information received by the second receiving unit that receives the area specifying information for specifying a part of the corresponding area in a state where the corresponding area is displayed on the first display unit.
  • the information processing apparatus according to attachment 2 wherein a plurality of pixel coordinates are acquired from the information processing apparatus.
  • the acquisition unit is configured to detect the directional light from the other of the position corresponding to the first imaging position and the position corresponding to the second imaging position and to the subject measured by receiving the reflected light of the directional light.
  • the deriving unit further derives reference irradiation position real space coordinates for specifying the irradiation position on the subject by the directional light based on the reference distance acquired by the acquisition unit.
  • the execution unit derives a reference imaging position distance, which is a distance between the first imaging position and the second imaging position, based on the plurality of pixel coordinates, the reference irradiation position real space coordinates, the focal length, and the dimension.
  • the final designated pixel real space coordinates are a final imaging position distance, a designated pixel coordinate that identifies pixels that can be identified at positions corresponding to each other as a designated pixel in each of the first captured image and the second captured image, a focal length,

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Human Computer Interaction (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Studio Devices (AREA)

Abstract

実行部は、照射位置画素座標により特定される画素の位置が第1及び第2撮像画像の各々において互いに対応する位置で特定可能な画素と異なる画素の位置の場合に、第1及び第2撮像画像の各々において、実空間上で指向性光が照射された照射位置と同一の平面状領域に存在し、かつ、互いに対応する位置で特定可能な3画素以上の複数画素座標と、照射位置実空間座標と、焦点距離と、撮像画素の寸法と、に基づいて撮像位置距離を導出する導出処理を実行する。

Description

情報処理装置、情報処理方法、及びプログラム
 本開示の技術は、情報処理装置、情報処理方法、及びプログラムに関する。
 特開2012-27000号公報には、単一のカメラで被計測対象上の特徴点の3次元位置座標を導出する画像計測処理装置が開示されている。特開2012-27000号公報に記載の画像計測処理装置では、次のステップ1~5により、3次元位置座標を導出する。
 ステップ1で、画像計測処理装置は、カメラの内部標定要素と被計測対象物の少なくとも4つの特徴点の実座標とを予め記憶する。ステップ2で、画像計測処理装置は、カメラにより撮像されて得られた画像であって、4つの特徴点をカメラ視野内に含む画像を取り込む。ステップ3で、画像計測処理装置は、取り込んだ画像上の特徴点のカメラビュー座標について内部標定要素に基づき画像上の歪みを補正する。ステップ4で、画像計測処理装置は、特徴点のカメラビュー座標及び実座標から画像撮影時の被計測対象物を基準とした座標系におけるカメラ位置及びカメラ角度を導出する。ステップ5で、画像計測処理装置は、導出したカメラ位置及びカメラ角度を基準位置及び基準角度にする座標変換を実行することで、カメラ基準の座標系における特徴点の3次元座標を導出する。
 特開2013-122434号公報には、レーザ光を照射する照射光源を有する照射手段が固定された単眼の撮像装置を備えた3次元位置計測装置が開示されている。
 特開2013-122434号公報に記載の3次元位置計測装置は、校正プレートにレーザ光を照射しつつ、校正プレートを移動させて校正プレートを被写体として撮像するか、又は、撮像装置を移動させて2箇所の撮像位置から校正プレートを被写体として撮像する。また、特開2013-122434号公報に記載の3次元位置計測装置は、撮像して得た各画像から、各画像でのレーザ光の照射位置の3次元座標を算出し、レーザ光の方向ベクトル又は平面方程式を算出する。そして、特開2013-122434号公報に記載の3次元位置計測装置は、算出した方向ベクトル又は平面方程式を用いて、レーザ光の被照射物体の3次元座標を算出する。
 国際公開第97/06406号公報には、基準面からレーザ光の照射位置までの距離を計測する距離計測装置が開示されている。国際公開第97/06406号公報に記載の距離計測装置は、計測対象とする物体表面の特徴に応じて計測に誤差が生じることに着目し、撮像画像のエッジ画像を生成し、生成したエッジ画像に基づいて空間の各要素の座標位置の中から物体の輪郭を示す座標位置を特定する。
 しかしながら、特開2012-27000号公報、特開2013-122434号公報、及び国際公開第97/06406号公報に記載の技術は何れも、撮像されて得られた撮像画像内に特定可能な特徴点が存在していることが前提の技術であり、特定可能な特徴点が存在しない被写体に対して撮像が行われた場合には、3次元座標を導出することができない。なお、ここで言う「3次元座標」とは、被写体における指定された位置を特定する3次元座標を指す。
 3次元座標を導出する他の方法としては、測距及び撮像を行う機能を有する測距装置により、第1撮像画像、第2撮像画像、及び撮像位置距離に基づいて3次元座標を導出する方法が考えられる。なお、測距とは、計測対象となる被写体に向けて射出されたレーザ光の往復時間を基に被写体までの距離を計測することを指す。また、第1撮像画像とは、被写体が第1撮像位置から撮像されて得られた画像を指し、第2撮像画像とは、第1撮像位置からの撮像対象とされた被写体を含む被写体が第1撮像位置とは異なる第2撮像位置から撮像されて得られた画像を指す。また、撮像位置距離とは、第1撮像位置と第2撮像位置との距離を指す。
 ところで、第1撮像画像、第2撮像画像、及び撮像位置距離に基づいて3次元座標を導出する場合、撮像位置距離を精度良く導出する必要がある。被写体に特定可能な特徴点が含まれている場合、特定可能な特徴点を計測対象として測距を行い、特定可能な特徴点を含む被写体を異なる撮像位置の各々から撮像することができれば、撮像位置距離を導出することが可能となる。
 しかし、必ずしも被写体に特定可能な特徴点が存在しているわけではない。また、仮に、被写体に特定可能な特徴点が存在していたとしても、測距装置内の部品の交換又は画角の変更等により、レーザ光の実際の照射位置が被写体での特定可能な特徴点と一致しなくなることが考えられる。逆に、レーザ光の実際の照射位置が被写体での特定可能な特徴点と一致することも考えられる。このような異なる状態が起こる可能性があるにも拘わらず、レーザ光の照射位置を何ら考慮せずに撮像位置距離が導出されると、正確性を欠いた撮像位置距離が3次元座標の導出に供される虞がある。
 本発明の一つの実施形態は、指向性光の照射位置を考慮しない場合に比べ、撮像位置距離を高精度に導出することができる情報処理装置、情報処理方法、及びプログラムを提供する。
 本発明の第1の態様に係る情報処理装置は、被写体が第1撮像位置から撮像されて得られた第1撮像画像と、被写体が第1撮像位置とは異なる第2撮像位置から撮像されて得られた第2撮像画像と、第1撮像位置に対応する位置から指向性のある光である指向性光が被写体に射出されて指向性光の反射光が受光されることにより計測された被写体までの距離と、を取得する取得部と、取得部により取得された距離に基づいて、指向性光による被写体に対する実空間上での照射位置を特定する照射位置実空間座標、並びに、第1撮像画像及び第2撮像画像の各々において、照射位置実空間座標により特定される照射位置と対応する画素の位置を特定する照射位置画素座標を導出する導出部と、照射位置画素座標により特定される画素の位置が第1撮像画像及び第2撮像画像の各々において互いに対応する位置で特定可能な画素と異なる画素の位置である位置特定不可能状態の場合に、第1撮像画像及び第2撮像画像の各々において、実空間上で指向性光が照射された照射位置と同一の平面状領域に存在し、かつ、互いに対応する位置で特定可能な3画素以上の複数画素を特定する複数の座標である複数画素座標と、照射位置実空間座標と、被写体の撮像に用いられた撮像レンズの焦点距離と、被写体を撮像する撮像画素群に含まれる撮像画素の寸法と、に基づいて第1撮像位置と第2撮像位置との距離である撮像位置距離を導出する導出処理を実行する実行部と、を含む。
 従って、本発明の第1の態様に係る情報処理装置は、指向性光の照射位置を考慮しない場合に比べ、撮像位置距離を高精度に導出することができる。
 本発明の第2の態様に係る情報処理装置は、本発明の第1の態様に係る情報処理装置において、実行部は、位置特定不可能状態の場合に、位置特定不可能状態であることを通知する位置特定不可能状態通知処理を更に実行する、とされている。
 従って、本発明の第2の態様に係る情報処理装置は、照射位置画素座標により特定される画素の位置が第1撮像画像及び第2撮像画像の各々において互いに対応する位置で特定可能な画素と異なる画素の位置であることをユーザに認識させることができる。
 本発明の第3の態様に係る情報処理装置は、本発明の第1の態様又は第2の態様に係る情報処理装置において、実行部は、第1撮像画像及び第2撮像画像の各々において実空間上での位置が対応する画素として指定された指定画素の位置に対応する実空間上での位置の座標である指定画素実空間座標を撮像位置距離に基づいて導出する処理を実行する、とされている。
 従って、本発明の第3の態様に係る情報処理装置は、指向性光の照射位置を考慮せずに撮像位置距離を導出する場合に比べ、指定画素実空間座標を高精度に導出することができる。
 本発明の第4の態様に係る情報処理装置は、本発明の第3の態様に係る情報処理装置において、指定画素実空間座標は、撮像位置距離と、第1撮像画像及び第2撮像画像の各々において、指定画素として互いに対応する位置で特定可能な画素を特定する指定画素座標と、焦点距離と、寸法と、に基づいて規定された、とされている。
 従って、本発明の第4の態様に係る情報処理装置は、指定画素実空間座標が撮像位置距離、指定画素座標、撮像レンズの焦点距離、及び撮像素子の寸法に基づいて規定されない場合に比べ、指定画素実空間座標を高精度に導出することができる。
 本発明の第5の態様に係る情報処理装置は、本発明の第1の態様から第4の態様の何れか1つの態様において、導出処理は、複数画素座標、焦点距離、及び寸法に基づいて、複数画素座標に対応する実空間上での座標を含む平面を示す平面方程式により規定される平面の向きを導出し、導出した向きと照射位置実空間座標とに基づいて平面方程式を確定し、確定した平面方程式と、複数画素座標と、焦点距離と、寸法とに基づいて撮像位置距離を導出する処理である、とされている。
 従って、本発明の第5の態様に係る情報処理装置は、導出処理で平面方程式を用いずに撮像位置距離を導出する場合に比べ、導出処理で撮像位置距離を高精度に導出することができる。
 本発明の第6の態様に係る情報処理装置は、被写体が第1撮像位置から撮像されて得られた第1撮像画像と、被写体が第1撮像位置とは異なる第2撮像位置から撮像されて得られた第2撮像画像と、第1撮像位置に対応する位置から指向性のある光である指向性光が被写体に射出されて指向性光の反射光が受光されることにより計測された被写体までの距離と、を取得する取得部と、取得部により取得された距離に基づいて、指向性光による被写体に対する実空間上での照射位置を特定する照射位置実空間座標、並びに、第1撮像画像及び第2撮像画像の各々において、照射位置実空間座標により特定される照射位置と対応する画素の位置を特定する照射位置画素座標を導出する導出部と、照射位置画素座標により特定される画素の位置が第1撮像画像及び第2撮像画像の各々において互いに対応する位置で特定可能な画素の位置である位置特定可能状態の場合に、照射位置実空間座標と、照射位置画素座標と、被写体の撮像に用いられた撮像レンズの焦点距離と、被写体を撮像する撮像画素群に含まれる撮像画素の寸法と、に基づいて撮像位置距離を導出する導出処理を実行する実行部と、を含む。
 従って、本発明の第6の態様に係る情報処理装置は、指向性光の照射位置を考慮せずに撮像位置距離を導出する場合に比べ、撮像位置距離を高精度に導出することができる。
 本発明の第7の態様に係る情報処理装置は、本発明の第6の態様に係る情報処理装置において、実行部は、照射位置画素座標により特定される画素の位置が第1撮像画像及び第2撮像画像の各々において互いに対応する位置で特定可能な画素と異なる画素の位置である位置特定不可能状態の場合に、第1撮像画像及び第2撮像画像の各々において、実空間上で指向性光が照射された照射位置と同一の平面状領域に存在し、かつ、互いに対応する位置で特定可能な3画素以上の複数画素を特定する複数の座標である複数画素座標と、照射位置実空間座標と、焦点距離と、寸法と、に基づいて撮像位置距離を導出する複数画素使用導出処理を実行し、導出処理は、複数画素使用導出処理による撮像位置距離の導出で用いられるパラメータの個数よりも少ない複数のパラメータに基づいて撮像位置距離を導出する処理である、とされている。
 従って、本発明の第7の態様に係る情報処理装置は、常に複数画素使用導出処理で撮像位置距離を導出する場合に比べ、撮像位置距離を低負荷で導出することができる。
 本発明の第8の態様に係る情報処理装置は、本発明の第6の態様又は第7の態様に係る情報処理装置において、実行部は、位置特定可能状態の場合に、位置特定可能状態であることを通知する位置特定可能状態通知処理を更に実行する、とされている。
 従って、本発明の第8の態様に係る情報処理装置は、照射位置画素座標により特定される画素の位置が第1撮像画像及び第2撮像画像の各々において互いに対応する位置で特定可能な画素の位置であることをユーザに認識させることができる。
 本発明の第9の態様に係る情報処理装置は、本発明の第1の態様から第8の態様の何れか1つの態様に係る情報処理装置において、指向性光を射出し、反射光を受光することにより距離を計測する計測部を更に含み、取得部は、計測部により計測された距離を取得する、とされている。
 従って、本発明の第9の態様に係る情報処理装置は、計測部により計測された距離を射位置座標及び照射位置画素座標の導出に用いることができる。
 本発明の第10の態様に係る情報処理装置は、本発明の第1の態様から第9の態様の何れか1つの態様に係る情報処理装置において、被写体を撮像する撮像部を更に含み、取得部は、被写体が第1撮像位置から撮像部により撮像されて得られた第1撮像画像、及び被写体が第2撮像位置から撮像部により撮像されて得られた第2撮像画像を取得する、とされている。
 従って、本発明の第10の態様に係る情報処理装置は、撮像部により撮像されて得られた第1撮像画像及び第2撮像画像を撮像位置距離の導出に用いることができる。
 本発明の第11の態様に係る情報処理装置は、本発明の第1の態様から第10の態様の何れか1つの態様に係る情報処理装置において、表示部に対して実行部による導出結果を表示させる制御を行う制御部を更に含む。
 従って、本発明の第11の態様に係る情報処理装置は、実行部による導出結果が表示部によって表示されない場合に比べ、実行部による導出結果をユーザに容易に認識させることができる。
 本発明の第12の態様に係る情報処理方法は、被写体が第1撮像位置から撮像されて得られた第1撮像画像と、被写体が第1撮像位置とは異なる第2撮像位置から撮像されて得られた第2撮像画像と、第1撮像位置に対応する位置から指向性のある光である指向性光が被写体に射出されて指向性光の反射光が受光されることにより計測された被写体までの距離と、を取得し、取得した距離に基づいて、指向性光による被写体に対する実空間上での照射位置を特定する照射位置実空間座標、並びに、第1撮像画像及び第2撮像画像の各々において、照射位置実空間座標により特定される照射位置と対応する画素の位置を特定する照射位置画素座標を導出し、照射位置画素座標により特定される画素の位置が第1撮像画像及び第2撮像画像の各々において互いに対応する位置で特定可能な画素と異なる画素の位置である位置特定不可能状態の場合に、第1撮像画像及び第2撮像画像の各々において、実空間上で指向性光が照射された照射位置と同一の平面状領域に存在し、かつ、互いに対応する位置で特定可能な3画素以上の複数画素を特定する複数の座標である複数画素座標と、照射位置実空間座標と、被写体の撮像に用いられた撮像レンズの焦点距離と、被写体を撮像する撮像画素群に含まれる撮像画素の寸法と、に基づいて第1撮像位置と第2撮像位置との距離である撮像位置距離を導出する導出処理を実行することを含む。
 従って、本発明の第12の態様に係る情報処理方法は、指向性光の照射位置を考慮しない場合に比べ、撮像位置距離を高精度に導出することができる。
 本発明の第13の態様に係る情報処理方法は、被写体が第1撮像位置から撮像されて得られた第1撮像画像と、被写体が第1撮像位置とは異なる第2撮像位置から撮像されて得られた第2撮像画像と、第1撮像位置に対応する位置から指向性のある光である指向性光が被写体に射出されて指向性光の反射光が受光されることにより計測された被写体までの距離と、を取得し、取得した距離に基づいて、指向性光による被写体に対する実空間上での照射位置を特定する照射位置実空間座標、並びに、第1撮像画像及び第2撮像画像の各々において、照射位置実空間座標により特定される照射位置と対応する画素の位置を特定する照射位置画素座標を導出し、照射位置画素座標により特定される画素の位置が第1撮像画像及び第2撮像画像の各々において互いに対応する位置で特定可能な画素の位置である位置特定可能状態の場合に、照射位置実空間座標と、照射位置画素座標と、被写体の撮像に用いられた撮像レンズの焦点距離と、被写体を撮像する撮像画素群に含まれる撮像画素の寸法と、に基づいて撮像位置距離を導出する導出処理を実行することを含む。
 従って、本発明の第13の態様に係る情報処理方法は、指向性光の照射位置を考慮しない場合に比べ、撮像位置距離を高精度に導出することができる。
 本発明の第14の態様に係るプログラムは、コンピュータに、被写体が第1撮像位置から撮像されて得られた第1撮像画像と、被写体が第1撮像位置とは異なる第2撮像位置から撮像されて得られた第2撮像画像と、第1撮像位置に対応する位置から指向性のある光である指向性光が被写体に射出されて指向性光の反射光が受光されることにより計測された被写体までの距離と、を取得し、取得した距離に基づいて、指向性光による被写体に対する実空間上での照射位置を特定する照射位置実空間座標、並びに、第1撮像画像及び第2撮像画像の各々において、照射位置実空間座標により特定される照射位置と対応する画素の位置を特定する照射位置画素座標を導出し、照射位置画素座標により特定される画素の位置が第1撮像画像及び第2撮像画像の各々において互いに対応する位置で特定可能な画素と異なる画素の位置である位置特定不可能状態の場合に、第1撮像画像及び第2撮像画像の各々において、実空間上で指向性光が照射された照射位置と同一の平面状領域に存在し、かつ、互いに対応する位置で特定可能な3画素以上の複数画素を特定する複数の座標である複数画素座標と、照射位置実空間座標と、被写体の撮像に用いられた撮像レンズの焦点距離と、被写体を撮像する撮像画素群に含まれる撮像画素の寸法と、に基づいて第1撮像位置と第2撮像位置との距離である撮像位置距離を導出する導出処理を実行することを含む処理を実行させるためのプログラム、とされている。
 従って、本発明の第14の態様に係るプログラムは、指向性光の照射位置を考慮しない場合に比べ、撮像位置距離を高精度に導出することができる。
 本発明の第15の態様に係るプログラムは、コンピュータに、被写体が第1撮像位置から撮像されて得られた第1撮像画像と、被写体が第1撮像位置とは異なる第2撮像位置から撮像されて得られた第2撮像画像と、第1撮像位置に対応する位置から指向性のある光である指向性光が被写体に射出されて指向性光の反射光が受光されることにより計測された被写体までの距離と、を取得し、取得した距離に基づいて、指向性光による被写体に対する実空間上での照射位置を特定する照射位置実空間座標、並びに、第1撮像画像及び第2撮像画像の各々において、照射位置実空間座標により特定される照射位置と対応する画素の位置を特定する照射位置画素座標を導出し、照射位置画素座標により特定される画素の位置が第1撮像画像及び第2撮像画像の各々において互いに対応する位置で特定可能な画素の位置である位置特定可能状態の場合に、照射位置実空間座標と、照射位置画素座標と、被写体の撮像に用いられた撮像レンズの焦点距離と、被写体を撮像する撮像画素群に含まれる撮像画素の寸法と、に基づいて撮像位置距離を導出する導出処理を実行することを含む処理を実行させるためのプログラム、とされている。
 従って、本発明の第15の態様に係るプログラムは、指向性光の照射位置を考慮しない場合に比べ、撮像位置距離を高精度に導出することができる。
 本発明の一つの実施形態によれば、指向性光の照射位置を考慮しない場合に比べ、撮像位置距離を高精度に導出することができる、という効果が得られる。
第1~第5実施形態に係る測距装置の外観の一例を示す正面図である。 第1~第4実施形態に係る測距装置のハードウェア構成の一例を示すブロック図である。 第1~第6実施形態に係る測距装置による計測シーケンスの一例を示すタイムチャートである。 第1~第6実施形態に係る測距装置による1回の計測を行う場合に要するレーザトリガ、発光信号、受光信号、及びカウント信号の一例を示すタイムチャートである。 第1~第6実施形態に係る測距装置による計測シーケンスで得られた計測値のヒストグラム(被写体までの距離(計測値)を横軸とし、計測回数を縦軸とした場合のヒストグラム)の一例を示すグラフである。 第1~第6実施形態に係る測距装置に含まれる主制御部のハードウェア構成の一例を示すブロック図である。 第1~第4実施形態及び第6実施形態に係る測距装置と被写体との位置関係の一例を示す概略平面図である。 被写体の一部、第1撮像画像、第2撮像画像、第1撮像位置での撮像レンズの主点、及び第2撮像位置での撮像レンズの主点の位置関係の一例を示す概念図である。 第1~第6実施形態に係るCPUの要部機能の一例を示すブロック図である。 第1~第6実施形態に係る照射位置実空間座標の導出方法の説明に供する図である。 第1~第6実施形態に係る照射位置画素座標の導出方法の説明に供する図である。 第1実施形態に係る撮像位置距離導出処理の流れの一例を示すフローチャートである。 第1実施形態に係る撮像位置距離導出処理に含まれる第1導出処理の流れの一例を示すフローチャートである。 第1実施形態に係る撮像位置距離導出処理に含まれる第2導出処理の流れの一例を示すフローチャートである。 第1~第6実施形態に係る撮像装置の撮影範囲に含まれる被写体の一例を示す概念図である。 第1実施形態に係る撮像装置により撮像されて得られた第1撮像画像の一例を示す概略画像図である。 第1実施形態に係る撮像装置により撮像されて得られた第1撮像画像であって、照射位置目印及び被写体までの距離が重畳表示された第1撮像画像の一例を示す概略画像図である。 第1実施形態に係る撮像装置により撮像されて得られた第1撮像画像であって、一致メッセージが重畳表示された第1撮像画像の一例を示す概略画像図である。 第1実施形態に係る撮像装置により撮像されて得られた第1撮像画像であって、不一致メッセージが重畳表示された第1撮像画像の一例を示す概略画像図である。 第1実施形態に係る撮像装置により撮像されて得られた第1撮像画像であって、注目画素が指定された状態の第1撮像画像の一例を示す概略画像図である。 第1実施形態に係る撮像装置により撮像されて得られた第1撮像画像であって、注目画素及び第1~第3画素が特定された状態の第1撮像画像の一例を示す概略画像図である。 第1実施形態に係る撮像装置により撮像されて得られた第2撮像画像であって、撮像位置距離が重畳表示された第2撮像画像の一例を示す概略画像図である。 第1実施形態に係る3次元座標導出処理の流れの一例を示すフローチャートである。 第1実施形態に係る撮像装置により撮像されて得られた第2撮像画像であって、撮像位置距離及び指定画素3次元座標が重畳表示された第2撮像画像の一例を示す概略画像図である。 第1実施形態に係る撮像装置により撮像されて得られた第1撮像画像であって、第1~第3画素が特定された状態の第1撮像画像の一例を示す概略画像図である。 第2実施形態に係る第1導出処理の流れの一例を示すフローチャートである。 第2実施形態に係る撮像装置により撮像されて得られた第1撮像画像であって、座標取得対象領域が指定された状態の第1撮像画像の一例を示す概略画像図である。 第2実施形態に係る撮像装置により撮像されて得られた第1撮像画像であって、座標取得対象領域が指定され、かつ、第1~第3画素が特定された状態の第1撮像画像の一例を示す概略画像図である。 第3実施形態に係る第1導出処理の流れの一例を示すフローチャートである。 図29に示すフローチャートの続きである。 第4実施形態に係る第1導出処理の流れの一例を示すフローチャートである。 第4実施形態に係る撮像装置により撮像されて得られた第2撮像画像であって、最終撮像位置距離が重畳表示された第2撮像画像の一例を示す概略画像図である。 第4実施形態に係る3次元座標導出処理の流れの一例を示すフローチャートである。 第4実施形態に係る撮像装置により撮像されて得られた第2撮像画像であって、最終撮像位置距離及び指定画素3次元座標が重畳表示された第2撮像画像の一例を示す概略画像図である。 第5実施形態に係る情報処理システムに含まれる2台の測距装置、PC、及び被写体の位置関係の一例を示す概略平面図である。 第5実施形態に係る測距装置のハードウェア構成の一例を示すブロック図である。 第5実施形態に係るPCのハードウェア構成の一例を示すブロック図である。 第6実施形態に係る測距装置のハードウェア構成の一例を示すブロック図である。 第6実施形態に係る測距装置に含まれるスマートデバイスの表示部にソフトキーとして表示された各種ボタンを含む画面の一例を示す画面図である。 第1~第4実施形態に係る撮像位置距離導出プログラム及び3次元座標導出プログラムが記憶された記憶媒体から撮像位置距離導出プログラム及び3次元座標導出プログラムが測距装置又はPCにインストールされる態様の一例を示す概念図である。 第1~第6実施形態に係る測距装置の外観の変形例を示す正面図である。
 以下、添付図面に従って本開示の技術に係る実施形態の一例について説明する。なお、本実施形態では、説明の便宜上、測距装置10Aから計測対象となる被写体までの距離を単に「距離」又は「被写体までの距離」とも称する。また、本実施形態では、被写体に対する画角を単に「画角」とも称する。
 [第1実施形態]
 一例として図1に示すように、本開示の技術に係る情報処理装置の一例である測距装置10Aは、測距ユニット12及び撮像装置14を備えている。なお、本実施形態では、測距ユニット12及び後述の測距制御部68(図2参照)が本開示の技術に係る計測部の一例であり、撮像装置14が本開示の技術に係る撮像部の一例である。
 撮像装置14は、レンズユニット16及び撮像装置本体18を備えており、レンズユニット16は、撮像装置本体18に対して着脱自在に取り付けられる。
 撮像装置本体18の正面視左側面にはホットシュー(Hot Shoe)20が設けられており、測距ユニット12は、ホットシュー20に対して着脱自在に取り付けられる。
 測距装置10Aは、測距ユニット12に測距用のレーザ光を射出させて測距を行う測距系機能と、撮像装置14に被写体を撮像させて撮像画像を得る撮像系機能とを備えている。なお、以下では、撮像画像を単に「画像」とも称する。また、以下では、説明の便宜上、鉛直方向において、測距ユニット12から射出されるレーザ光の光軸L1(図2参照)が、レンズユニット16の光軸L2(図2参照)と同一の高さであることを前提として説明する。
 測距装置10Aは、測距系機能を働かせることで、1回の指示に応じて1回の計測シーケンス(図3参照)を行い、1回の計測シーケンスが行われることで最終的に1つの距離が出力される。
 測距装置10Aは、撮像系機能の動作モードとして、静止画撮像モードと動画撮像モードとを有する。静止画撮像モードは、静止画像を撮像する動作モードであり、動画撮像モードは、動画像を撮像する動作モードである。静止画撮像モード及び動画撮像モードは、ユーザの指示に応じて選択的に設定される。
 一例として図2に示すように、測距ユニット12は、射出部22、受光部24、及びコネクタ26を備えている。
 コネクタ26は、ホットシュー20に接続可能とされており、コネクタ26がホットシュー20に接続された状態で、測距ユニット12は、撮像装置本体18の制御下で動作する。
 射出部22は、LD(レーザダイオード:Laser Diode)30、集光レンズ(図示省略)、対物レンズ32、及びLDドライバ34を有する。
 集光レンズ及び対物レンズ32は、LD30により射出されるレーザ光の光軸L1に沿って設けられており、LD30側から光軸L1に沿って集光レンズ及び対物レンズ32の順に配置されている。
 LD30は、本開示の技術に係る指向性光の一例である測距用のレーザ光を発光する。LD30により発光されるレーザ光は、有色のレーザ光であり、例えば、射出部22から数メートル程度の範囲内であれば、レーザ光の照射位置は、実空間上で視覚的に認識され、撮像装置14によって撮像されて得られた撮像画像からも視覚的に認識される。
 集光レンズは、LD30により発光されたレーザ光を集光し、集光したレーザ光を通過させる。対物レンズ32は、被写体に対向しており、集光レンズを通過したレーザ光を被写体に対して射出する。
 LDドライバ34は、コネクタ26及びLD30に接続されており、撮像装置本体18の指示に従ってLD30を駆動させてレーザ光を発光させる。
 受光部24は、PD(フォトダイオード:Photo Diode)36、対物レンズ38、及び受光信号処理回路40を有する。対物レンズ38は、PD36の受光面側に配置されており、射出部22により射出されたレーザ光が被写体に当たって反射したレーザ光である反射レーザ光は対物レンズ38に入射される。対物レンズ38は、反射レーザ光を通過させ、PD36の受光面に導く。PD36は、対物レンズ38を通過した反射レーザ光を受光し、受光量に応じたアナログ信号を受光信号として出力する。
 受光信号処理回路40は、コネクタ26及びPD36に接続されており、PD36から入力された受光信号を増幅器(図示省略)で増幅し、増幅した受光信号に対してA/D(Analog/Digital)変換を行う。そして、受光信号処理回路40は、A/D変換によってデジタル化された受光信号を撮像装置本体18に出力する。
 撮像装置14は、マウント42,44を備えている。マウント42は、撮像装置本体18に設けられており、マウント44は、レンズユニット16に設けられている。レンズユニット16は、マウント42にマウント44が結合されることにより撮像装置本体18に交換可能に装着される。
 レンズユニット16は、撮像レンズ50、ズームレンズ52、ズームレンズ移動機構54、及びモータ56を備えている。
 被写体からの反射光である被写体光は、撮像レンズ50に入射される。撮像レンズ50は、被写体光を通過させ、ズームレンズ52に導く。
 ズームレンズ移動機構54には、光軸L2に対してスライド可能にズームレンズ52が取り付けられている。また、ズームレンズ移動機構54にはモータ56が接続されており、ズームレンズ移動機構54は、モータ56の動力を受けてズームレンズ52を光軸L2方向に沿ってスライドさせる。
 モータ56は、マウント42,44を介して撮像装置本体18に接続されており、撮像装置本体18からの命令に従って駆動が制御される。なお、本実施形態では、モータ56の一例としてステッピングモータを適用している。従って、モータ56は、撮像装置本体18からの命令によりパルス電力に同期して動作する。
 撮像装置本体18は、撮像素子60、主制御部62、画像メモリ64、画像処理部66、測距制御部68、モータドライバ72、撮像素子ドライバ74、画像信号処理回路76、及び表示制御部78を備えている。また、撮像装置本体18は、タッチパネルI/F(Interface:インタフェース)79、受付I/F80、及びメディアI/F82を備えている。
 主制御部62、画像メモリ64、画像処理部66、測距制御部68、モータドライバ72、撮像素子ドライバ74、画像信号処理回路76、及び表示制御部78は、バスライン84に接続されている。また、タッチパネルI/F79、受付I/F80、及びメディアI/F82も、バスライン84に接続されている。
 撮像素子60は、CMOS(Complementary Metal Oxide Semicondutor)型のイメージセンサであり、カラーフィルタ(図示省略)を備えている。カラーフィルタは、輝度信号を得るために最も寄与するG(Green:緑)に対応するGフィルタ、R(Red:赤)に対応するRフィルタ、及びB(Blue:青)に対応するBフィルタを含む。撮像素子60は、マトリクス状に配置された複数の撮像画素60A1を含む撮像画素群60Aを有する。各撮像画素60A1には、カラーフィルタに含まれるRフィルタ、Gフィルタ、及びBフィルタの何れかのフィルタが割り当てられており、撮像画素群60Aは、被写体光を受光することにより被写体を撮像する。
 すなわち、ズームレンズ52を通過した被写体光は、撮像素子60の受光面である撮像面に結像され、被写体光の受光量に応じた電荷が撮像画素60A1に蓄積される。撮像素子60は、各撮像画素60A1に蓄積された電荷を、被写体光が撮像面で結像されて得られた被写体像に相当する画像を示す画像信号として出力する。
 主制御部62は、バスライン84を介して測距装置10Aの全体を制御する。
 モータドライバ72は、マウント42,44を介してモータ56に接続されており、主制御部62の指示に従ってモータ56を制御する。
 撮像装置14は、画角変更機能を有する。画角変更機能は、ズームレンズ52を移動させることで画角を変更する機能であり、本実施形態において、画角変更機能は、ズームレンズ52、ズームレンズ移動機構54、モータ56、モータドライバ72、及び主制御部62によって実現される。なお、本実施形態では、ズームレンズ52による光学式の画角変更機能を例示しているが、本開示の技術はこれに限定されるものではなく、ズームレンズ52を利用しない電子式の画角変更機能であってもよい。
 撮像素子ドライバ74は、撮像素子60に接続されており、主制御部62の制御下で、撮像素子60に駆動パルスを供給する。撮像画素群60Aに含まれる各撮像画素60A1は、撮像素子ドライバ74によって撮像素子60に供給された駆動パルスに従って駆動する。
 画像信号処理回路76は、撮像素子60に接続されており、主制御部62の制御下で、撮像素子60から1フレーム分の画像信号を撮像画素60A1毎に読み出す。画像信号処理回路76は、読み出した画像信号に対して、相関二重サンプリング処理、自動利得調整、A/D変換等の各種処理を行う。画像信号処理回路76は、画像信号に対して各種処理を行うことでデジタル化した画像信号を、主制御部62から供給されるクロック信号で規定される特定のフレームレート(例えば、数十フレーム/秒)で1フレーム毎に画像メモリ64に出力する。画像メモリ64は、画像信号処理回路76から入力された画像信号を一時的に保持する。
 撮像装置本体18は、表示部86、タッチパネル88、受付デバイス90、及びメモリカード92を備えている。
 表示部86は、表示制御部78に接続されており、表示制御部78の制御下で各種情報を表示する。表示部86は、例えば、LCD(Liquid Crystal Display)により実現される。
 本開示の技術に係る受付部の一例であるタッチパネル88は、表示部86の表示画面に重ねられており、ユーザの指又はタッチペン等の指示体による接触を受け付ける。タッチパネル88は、タッチパネルI/F79に接続されており、指示体により接触された位置を示す位置情報をタッチパネルI/F79に出力する。タッチパネルI/F79は、主制御部62の指示に従ってタッチパネル88を作動させ、タッチパネル88から入力された位置情報を主制御部62に出力する。なお、本実施形態では、本開示の技術に係る受付部の一例としてタッチパネル88を例示しているが、これに限らず、タッチパネル88に代えて、測距装置10Aに接続して使用されるマウス(図示省略)を適用してもよいし、タッチパネル88及びマウスを併用してもよい。
 受付デバイス90は、計測撮像ボタン90A、撮像ボタン90B、撮像系動作モード切替ボタン90C、広角指示ボタン90D、及び望遠指示ボタン90Eを有する。また、受付デバイス90は、撮像位置距離導出ボタン90F及び3次元座標導出ボタン90G等も有しており、ユーザによる各種指示を受け付ける。受付デバイス90は、受付I/F80に接続されており、受付I/F80は、受付デバイス90によって受け付けられた指示の内容を示す指示内容信号を主制御部62に出力する。
 計測撮像ボタン90Aは、計測及び撮像の開始の指示を受け付ける押圧式のボタンである。撮像ボタン90Bは、撮像の開始の指示を受け付ける押圧式のボタンである。撮像系動作モード切替ボタン90Cは、静止画撮像モードと動画撮像モードとを切り替える指示を受け付ける押圧式のボタンである。
 広角指示ボタン90Dは、画角を広角にする指示を受け付ける押圧式のボタンであり、広角側への画角の変更量は、許容される範囲内で、広角指示ボタン90Dへの押圧が継続して行われる押圧時間に応じて定まる。
 望遠指示ボタン90Eは、画角を望遠にする指示を受け付ける押圧式のボタンであり、望遠側への画角の変更量は、許容される範囲内で、望遠指示ボタン90Eへの押圧が継続して行われる押圧時間に応じて定まる。
 撮像位置距離導出ボタン90Fは、後述の撮像位置距離導出処理の開始の指示を受け付ける押圧式のボタンである。3次元座標導出ボタン90Gは、後述の撮像位置距離導出処理及び後述の3次元座標導出処理の開始の指示を受け付ける押圧式のボタンである。
 なお、以下では、説明の便宜上、計測撮像ボタン90A及び撮像ボタン90Bを区別して説明する必要がない場合、「レリーズボタン」と称する。また、以下では、説明の便宜上、広角指示ボタン90D及び望遠指示ボタン90Eを区別して説明する必要がない場合、「画角指示ボタン」と称する。
 なお、本実施形態に係る測距装置10Aでは、マニュアルフォーカスモードとオートフォーカスモードとが受付デバイス90を介したユーザの指示に応じて選択的に設定される。レリーズボタンは、撮像準備指示状態と撮像指示状態との2段階の押圧操作を受け付ける。撮像準備指示状態とは、例えば、レリーズボタンが待機位置から中間位置(半押し位置)まで押下される状態を指し、撮像指示状態とは、レリーズボタンが中間位置を超えた最終押下位置(全押し位置)まで押下される状態を指す。なお、以下では、説明の便宜上、「レリーズボタンが待機位置から半押し位置まで押下された状態」を「半押し状態」と称し、「レリーズボタンが待機位置から全押し位置まで押下された状態」を「全押し状態」と称する。
 オートフォーカスモードでは、レリーズボタンが半押し状態にされることで撮像条件の調整が行われ、その後、引き続き全押し状態にすると本露光が行われる。つまり、本露光に先立ってレリーズボタンが半押し状態にされることでAE(Automatic Exposure)機能が働いて露出調整が行われた後、AF(Auto-Focus)機能が働いて焦点調整が行われ、レリーズボタンが全押し状態にされると本露光が行われる。
 ここで、本露光とは、後述の静止画像ファイルを得るために行われる露光を指す。また、本実施形態において、露光とは、本露光の他に、後述のライブビュー画像を得るために行われる露光、及び後述の動画像ファイルを得るために行われる露光も意味する。以下では、説明の便宜上、これらの露光を区別して説明する必要がない場合、単に「露光」と称する。
 なお、本実施形態では、主制御部62がAE機能による露出調整及びAF機能による焦点調整を行う。また、本実施形態では、露出調整及び焦点調整が行われる場合を例示しているが、本開示の技術はこれに限定されるものではなく、露出調整又は焦点調整が行われるようにしてもよい。
 画像処理部66は、画像メモリ64から特定のフレームレートで1フレーム毎に画像信号を取得し、取得した画像信号に対して、ガンマ補正、輝度色差変換、及び圧縮処理等の各種処理を行う。
 画像処理部66は、各種処理を行って得た画像信号を特定のフレームレートで1フレーム毎に表示制御部78に出力する。また、画像処理部66は、各種処理を行って得た画像信号を、主制御部62の要求に応じて、主制御部62に出力する。
 表示制御部78は、主制御部62の制御下で、画像処理部66から入力された画像信号を1フレーム毎に特定のフレームレートで表示部86に出力する。
 表示部86は、画像及び文字情報等を表示する。表示部86は、表示制御部78から特定のフレームレートで入力された画像信号により示される画像をライブビュー画像として表示する。ライブビュー画像は、連続的に撮像されて得られた連続フレーム画像であり、スルー画像とも称される。また、表示部86は、単一フレームで撮像されて得られた単一フレーム画像である静止画像も表示する。更に、表示部86は、ライブビュー画像の他に、再生画像及びメニュー画面等も表示する。
 なお、本実施形態では、画像処理部66及び表示制御部78は、ASIC(Application Specific Integrated Circuit)によって実現されているが、本開示の技術はこれに限定されるものではない。例えば、画像処理部66及び表示制御部78の各々は、FPGA(Field-Programmable Gate Array)によって実現されてもよい。また、画像処理部66は、CPU(中央処理装置:Central Processing Unit)、ROM(Read Only Memory)、及びRAM(Random Access Memory)を含むコンピュータによって実現されてもよい。また、表示制御部78も、CPU、ROM、及びRAMを含むコンピュータによって実現されてもよい。更に、画像処理部66及び表示制御部78の各々は、ハードウェア構成及びソフトウェア構成の組み合わせによって実現されてもよい。
 主制御部62は、静止画撮像モード下でレリーズボタンによって静止画像の撮像の指示が受け付けられた場合、撮像素子ドライバ74を制御することで、撮像素子60に1フレーム分の露光を行わせる。主制御部62は、1フレーム分の露光が行われることによって得られた画像信号を画像処理部66から取得し、取得した画像信号に対して圧縮処理を施して特定の静止画像用フォーマットの静止画像ファイルを生成する。なお、ここで、特定の静止画像用フォーマットとは、例えば、JPEG(Joint Photographic Experts Group)を指す。
 主制御部62は、動画撮像モード下でレリーズボタンによって動画像の撮像の指示が受け付けられた場合、画像処理部66によりライブビュー画像用として表示制御部78に出力される画像信号を特定のフレームレートで1フレーム毎に取得する。そして、主制御部62は、画像処理部66から取得した画像信号に対して圧縮処理を施して特定の動画像用フォーマットの動画像ファイルを生成する。なお、ここで、特定の動画像用フォーマットとは、例えば、MPEG(Moving Picture Experts Group)を指す。なお、以下では、説明の便宜上、静止画像ファイル及び動画像ファイルを区別して説明する必要がない場合、画像ファイルと称する。
 メディアI/F82は、メモリカード92に接続されており、主制御部62の制御下で、メモリカード92に対する画像ファイルの記録及び読み出しを行う。なお、メディアI/F82によってメモリカード92から読み出された画像ファイルは、主制御部62によって伸長処理が施されて表示部86に再生画像として表示される。
 なお、主制御部62は、測距制御部68から入力された距離情報を画像ファイルに関連付けて、メディアI/F82を介してメモリカード92に保存する。そして、距離情報は、メモリカード92からメディアI/F82を介して主制御部62によって画像ファイルと共に読み出され、読み出された距離情報により示される距離は、関連する画像ファイルによる再生画像と共に表示部86に表示される。
 測距制御部68は、主制御部62の制御下で、測距ユニット12を制御する。なお、本実施形態において、測距制御部68は、ASICによって実現されているが、本開示の技術はこれに限定されるものではない。例えば、測距制御部68は、FPGAによって実現されてもよい。また、測距制御部68は、CPU、ROM、及びRAMを含むコンピュータによって実現されてもよい。更に、測距制御部68は、ハードウェア構成及びソフトウェア構成の組み合わせによって実現されてもよい。
 ホットシュー20は、バスライン84に接続されており、測距制御部68は、主制御部62の制御下で、LDドライバ34を制御することで、LD30によるレーザ光の発光を制御し、受光信号処理回路40から受光信号を取得する。測距制御部68は、レーザ光を発光させたタイミングと受光信号を取得したタイミングとを基に、被写体までの距離を導出し、導出した距離を示す距離情報を主制御部62に出力する。
 ここで、測距制御部68による被写体までの距離の計測について更に詳細に説明する。
 一例として図3に示すように、測距装置10Aによる1回の計測シーケンスは、電圧調整期間、実計測期間、及び休止期間で規定される。
 電圧調整期間は、LD30及びPD36の駆動電圧を調整する期間である。実計測期間は、被写体までの距離を実際に計測する期間である。実計測期間では、LD30にレーザ光を発光させ、PD36に反射レーザ光を受光させる動作が数百回繰り返され、レーザ光を発光させたタイミングと受光信号を取得したタイミングとを基に、被写体までの距離が導出される。休止期間は、LD30及びPD36の駆動を休止させるための期間である。よって、1回の計測シーケンスでは、被写体までの距離の計測が数百回行われることになる。
 なお、本実施形態では、電圧調整期間、実計測期間、及び休止期間の各々を数百ミリ秒としている。
 一例として図4に示すように、測距制御部68には、測距制御部68がレーザ光の発光の指示を与えるタイミング、及び受光信号を取得するタイミングを規定するカウント信号が供給される。本実施形態では、カウント信号は、主制御部62によって生成されて測距制御部68に供給されるが、これに限らず、バスライン84に接続されたタイムカウンタ等の専用回路によって生成されて測距制御部68に供給されるようにしてもよい。
 測距制御部68は、カウント信号に応じて、レーザ光を発光させるためのレーザトリガをLDドライバ34に出力する。LDドライバ34は、レーザトリガに応じて、LD30を駆動してレーザ光を発光させる。
 図4に示す例では、レーザ光の発光時間が数十ナノ秒とされている。この場合、射出部22により数キロメートル先の被写体に向けて射出されたレーザ光が反射レーザ光としてPD36で受光されるまでの時間は、“数キロメートル×2/光速”≒数マイクロ秒となる。従って、数キロメートル先の被写体までの距離を計測するためには、一例として図3に示すように、最低必要時間として、数マイクロ秒の時間を要する。
 なお、本実施形態では、レーザ光の往復時間等を考慮して、一例として図3に示すように、1回の計測時間を数ミリ秒としているが、被写体までの距離によりレーザ光の往復時間は異なるので、想定する距離に応じて1回あたりの計測時間を異ならせてもよい。
 測距制御部68は、1回の計測シーケンスにおける数百回の計測から得た計測値を基に、被写体までの距離を導出する場合、例えば、数百回の計測から得た計測値のヒストグラムを解析して被写体までの距離を導出する。
 一例として図5に示すように、1回の計測シーケンスにおける数百回の計測から得られた計測値のヒストグラムでは、横軸が被写体までの距離であり、縦軸が計測回数であり、計測回数の最大値に対応する距離が測距結果として測距制御部68によって導出される。なお、図5に示すヒストグラムはあくまでも一例であり、被写体までの距離に代えて、レーザ光の往復時間(発光から受光までの経過時間)、又はレーザ光の往復時間の1/2等に基づいてヒストグラムが生成されてもよい。
 一例として図6に示すように、主制御部62は、本開示の技術に係る取得部、導出部、及び実行部の一例であるCPU100、一次記憶部102、及び二次記憶部104を備えている。CPU100は、測距装置10Aの全体を制御する。一次記憶部102は、各種プログラムの実行時のワークエリア等として用いられる揮発性のメモリである。一次記憶部102の一例としては、RAMが挙げられる。二次記憶部104は、測距装置10Aの作動を制御する制御プログラム及び各種パラメータ等を予め記憶する不揮発性のメモリである。二次記憶部104の一例としては、EEPROM(Electrically Erasable Programmable Read Only Memory)又はフラッシュメモリ等が挙げられる。CPU100、一次記憶部102、及び二次記憶部104は、バスライン84を介して相互に接続されている。
 測距装置10Aには、3次元座標導出機能が備えられている。3次元座標導出機能とは、後述の第1指定画素座標、後述の第2指定画素座標、後述の撮像位置距離、撮像レンズ50の焦点距離、及び撮像画素60A1の寸法から数式(1)に基づいて、後述の指定画素3次元座標を導出する機能を指す。
Figure JPOXMLDOC01-appb-M000001

 
 なお、数式(1)において、“u”とは、第1指定画素座標のX座標を指す。また、数式(1)において、“v”とは、第1指定画素座標のY座標を指す。また、数式(1)において、“u”とは、第2指定画素座標のX座標を指す。また、数式(1)において、“B”とは、撮像位置距離を指す(図7及び図8参照)。また、数式(1)において、“f”とは、(撮像レンズ50の焦点距離)/(撮像画素60A1の寸法)を指す。また、数式(1)において、(X,Y,Z)とは、指定画素3次元座標を指す。
 第1指定画素座標は、後述の第1撮像画像において、実空間上での位置が対応する画素として指定された第1指定画素(本開示の技術に係る「指定画素」に相当)を特定する2次元座標である。第2指定画素座標は、後述の第2撮像画像において、実空間上での位置が対応する画素として指定された第2指定画素(本開示の技術に係る「指定画素」に相当)を特定する2次元座標である。すなわち、第1指定画素及び第2指定画素は、実空間上での位置が互いに対応する画素として指定された画素であり、かつ、第1撮像画像及び第2撮像画像の各々において、互いに対応する位置で特定可能な画素である。そして、第1指定画素座標は、第1撮像画像上の2次元座標であり、第2指定画素座標は、第2撮像画像上の2次元座標である。
 指定画素3次元座標とは、第1指定画素座標及び第2指定画素座標に対応する実空間上での座標である3次元座標を指す。なお、指定画素3次元座標は、本開示の技術に係る指定画素実空間座標の一例である。
 ここで、一例として図7及び図8に示すように、第1撮像画像とは、被写体が第1撮像位置から撮像装置14により撮像されて得られた撮像画像を指す。また、一例として図7及び図8に示すように、第2撮像画像とは、第1撮像位置からの撮像対象とされた被写体を含む被写体が第1撮像位置とは異なる第2撮像位置から撮像装置14により撮像されて得られた撮像画像を指す。なお、本実施形態では、説明の便宜上、第1撮像画像及び第2撮像画像に限らず、静止画像及び動画像を含めて、撮像装置14によって撮像されて得られた撮像画像を区別して説明する必要がない場合は単に「撮像画像」と称する。
 なお、図7に示す例では、測距ユニット12の位置として第1計測位置及び第2計測位置が示されている。第1計測位置は、本開示の技術に係る「第1撮像位置に対応する位置」の一例である。第1計測位置とは、撮像装置14に対して測距ユニット12が正しく取り付けられている状態で被写体が第1撮像位置から撮像装置14により撮像される場合の測距ユニット12の位置を指す。第2計測位置とは、撮像装置14に対して測距ユニット12が正しく取り付けられている状態で被写体が第2撮像位置から撮像装置14により撮像される場合の測距ユニット12の位置を指す。
 撮像位置距離とは、第1撮像位置と第2撮像位置との距離を指す。撮像位置距離の一例としては、図8に示すように、第1撮像位置における撮像装置14の撮像レンズ50の主点Oと第2撮像位置における撮像装置14の撮像レンズ50の主点Oとの距離が挙げられるが、本開示の技術はこれに限定されるものではない。例えば、第1撮像位置における撮像装置14の撮像素子60の中央に位置する撮像画素60A1と第2撮像位置における撮像装置14の撮像素子60の中央に位置する撮像画素60A1との距離が撮像位置距離とされてもよい。
 図8に示す例では、第1撮像画像に含まれる画素Pが第1指定画素であり、第2撮像画像に含まれる画素Pが第2指定画素であり、画素P,Pは、被写体の点Pに対応する画素である。よって、画素Pの2次元座標である第1指定画素座標の(u,v)、及び画素Pの2次元座標である第2指定画素座標の(u,v)は、点Pの3次元座標である指定画素3次元座標の(X,Y,Z)に対応している。なお、数式(1)では、“v”は、使用されない。
 なお、以下では、説明の便宜上、第1指定画素及び第2指定画素を区別して説明する必要がない場合、「指定画素」と称する。また、以下では、説明の便宜上、第1指定画素座標及び第2指定画素座標を区別して説明する必要がない場合、「指定画素座標」と称する。
 ところで、測距装置10Aが3次元座標導出機能を働かせることで数式(1)に基づいて指定画素3次元座標を導出する場合、撮像位置距離を高精度に導出することが好ましい。なぜならば、数式(1)に撮像位置距離である“B”が含まれているからである。
 そこで、測距装置10Aでは、一例として図6に示すように、二次記憶部104が、本開示の技術に係るプログラムの一例である撮像位置距離導出プログラム106を記憶している。
 CPU100は、二次記憶部104から撮像位置距離導出プログラム106を読み出して一次記憶部102に展開し、撮像位置距離導出プログラム106を実行する。
 また、一例として図6に示すように、二次記憶部104は、3次元座標導出プログラム108を記憶している。CPU100は、二次記憶部104から3次元座標導出プログラム108を読み出して一次記憶部102に展開し、3次元座標導出プログラム108を実行する。
 CPU100は、撮像位置距離導出プログラム106及び3次元座標導出プログラム108を実行することで、一例として図9に示すように、取得部110、導出部111、実行部112、及び制御部114として動作する。
 取得部110は、第1撮像画像、第2撮像画像、及び被写体までの距離を取得する。ここで言う「被写体までの距離」とは、第1計測位置の測距ユニット12により射出されたレーザ光を基に計測された被写体までの距離を指す。
 導出部111は、取得部110により取得された距離に基づいて、実空間上でのレーザ光の照射位置、すなわち、レーザ光による被写体に対する実空間上での照射位置を特定する照射位置実空間座標を導出する。
 照射位置実空間座標は、3次元座標であり、一例として図10に示す距離L、半画角α、射出角度β、及び基準点間距離Mから、下記の数式(2)に基づいて導出される。数式(2)において、(xLaser,yLaser,zLaser)とは、照射位置実空間座標を指す。
Figure JPOXMLDOC01-appb-M000002

 
 数式(2)では、yLaser=0とされているが、これは、鉛直方向において光軸L1が光軸L2と同一の高さにあることを意味している。被写体に照射されたレーザ光の位置が被写体における光軸L2の位置よりも鉛直方向において高い位置の場合、yLaserは正値となる。被写体に照射されたレーザ光の位置が被写体における光軸L2の位置よりも鉛直方向において低い位置の場合、yLaserは負値となる。なお、以下では、説明の便宜上、“yLaser=0”であることを前提として説明する。
 ここで、一例として図10に示すように、半画角αとは、画角の半分を指す。射出角度βとは、射出部22からレーザ光が射出される角度を指す。基準点間距離Mとは、撮像装置14に規定された第1基準点P1と測距ユニット12に規定された第2基準点P2との距離を指す。第1基準点P1の一例としては、撮像レンズ50の主点が挙げられる。第2基準点P2の一例としては、測距ユニット12における3次元空間の位置を特定可能な座標の原点として予め設定された点が挙げられる。具体的には、対物レンズ38の正面視左右端の一端、又は測距ユニット12の筐体(図示省略)が直方体状である場合の筐体の1つの角、すなわち、1つの頂点が挙げられる。
 導出部111は、取得部110により取得された距離に基づいて、第1撮像画像及び第2撮像画像の各々において、照射位置実空間座標により特定される照射位置と対応する画素の位置を特定する照射位置画素座標を導出する。
 照射位置画素座標は、第1照射位置画素座標と第2照射位置画素座標とに大別される。第1照射位置画素座標は、第1撮像画像において照射位置実空間座標により特定される照射位置と対応する画素の位置を特定する2次元座標である。第2照射位置画素座標は、第2撮像画像において照射位置実空間座標により特定される照射位置と対応する画素の位置を特定する2次元座標である。
 なお、以下では、説明の便宜上、第1照射位置画素座標及び第2照射位置画素座標を区別して説明する必要がない場合、「照射位置画素座標」と称する。また、第1照射位置画素座標のX座標の導出方法及び第1照射位置画素座標のY座標の導出方法は、対象とする座標軸が異なるのみで導出方法の原理は同じである。すなわち、第1照射位置画素座標のX座標の導出方法は、撮像素子60における行方向の画素を対象とした導出方法であるのに対し、第1照射位置画素座標のY座標の導出方法は、撮像素子60における列方向の画素を対象とした導出方法である点で異なる。そのため、以下では、説明の便宜上、第1照射位置画素座標のX座標の導出方法を例示し、第1照射位置画素座標のY座標の導出方法の説明を省略する。なお、行方向とは、撮像素子60の撮像面の正面視左右方向を意味し、列方向とは、撮像素子60の撮像面の正面視上下方向を意味する。
 第1照射位置画素座標のX座標は、一例として図11に示す距離L、半画角α、射出角度β、及び基準点間距離Mから、下記の数式(3)~(5)に基づいて導出される。なお数式(5)において、「照射位置の行方向画素」とは、撮像素子60における行方向の画素のうちの実空間上でのレーザ光の照射位置に対応する位置の画素を指す。「行方向画素数の半分」とは、撮像素子60における行方向の画素数の半分を指す。
Figure JPOXMLDOC01-appb-M000003

 
Figure JPOXMLDOC01-appb-M000004

 
Figure JPOXMLDOC01-appb-M000005

 
 導出部111は、基準点間距離M及び射出角度βを数式(3)に代入し、半画角α及び射出角度βを数式(4)に代入し、距離Lを数式(3)及び数式(4)に代入する。導出部111は、このようにして得たΔx及びXと上記の「行方向画素数の半分」とを数式(5)に代入することで、「照射位置の行方向画素」の位置を特定する座標であるX座標を導出する。「照射位置の行方向画素」の位置を特定するX座標は、第1照射位置画素座標のX座標である。
 導出部111は、第2撮像画像の画素のうち、第1照射位置画素座標により特定される画素の位置と対応する画素の位置を特定する座標を第2照射位置画素座標として導出する。
 実行部112は、位置特定不可能状態の場合に、本開示の技術に係る複数画素使用導出処理の一例である第1導出処理を実行する。ここで、位置特定不可能状態とは、照射位置画素座標により特定される画素の位置が第1撮像画像及び第2撮像画像の各々において互いに対応する位置で特定可能な画素と異なる画素の位置である状態を指す。
 また、実行部112は、位置特定可能状態の場合に、本開示の技術に係る導出処理の一例である第2導出処理を実行する。ここで、位置特定可能状態とは、照射位置画素座標により特定される画素の位置が第1撮像画像と第2撮像画像との各々において互いに対応する位置で特定可能な画素の位置である状態を指す。
 ここで、第1導出処理とは、後述の複数画素座標、照射位置実空間座標、撮像レンズ50の焦点距離、及び撮像画素60A1の寸法に基づいて撮像位置距離を導出する処理を指す。複数画素座標とは、取得部110により取得された第1撮像画像及び第2撮像画像の各々において、実空間上でのレーザ光の照射位置と同一の平面状領域に存在し、かつ、互いに対応する位置で特定可能な3画素以上の複数画素を特定する複数の2次元座標を指す。なお、第1導出処理に用いられるパラメータは、複数画素座標、照射位置実空間座標、撮像レンズ50の焦点距離、及び撮像画素60A1の寸法に限定されるものではない。例えば、複数画素座標、照射位置実空間座標、撮像レンズ50の焦点距離、及び撮像画素60A1の寸法に、1つ以上の微調整用のパラメータを更に加えた複数のパラメータが第1導出処理で用いられるようにしてもよい。
 また、第2導出処理とは、照射位置画素座標と、照射位置実空間座標と、撮像レンズ50の焦点距離と、撮像画素60A1の寸法とに基づいて撮像位置距離を導出する処理を指す。なお、第2導出処理に用いられるパラメータは、照射位置画素座標、照射位置実空間座標、撮像レンズ50の焦点距離、及び撮像画素60A1の寸法に限定されるものではない。例えば、照射位置画素座標、照射位置実空間座標、撮像レンズ50の焦点距離、及び撮像画素60A1の寸法に、1つ以上の微調整用のパラメータを更に加えた複数のパラメータが第2導出処理で用いられるようにしてもよい。
 また、第2導出処理は、レーザ光の実際の照射位置が第1撮像画像及び第2撮像画像の各々において互いに対応する位置で特定可能な画素の位置に対応する実空間上の位置の場合に、第1導出処理よりも高精度に撮像位置距離を導出可能な処理である。また、第2導出処理は、第1導出処理による撮像位置距離の導出で用いられるパラメータの個数よりも少ない複数のパラメータに基づいて撮像位置距離を導出する処理である。なお、ここで言う「複数のパラメータ」とは、例えば、照射位置画素座標、照射位置実空間座標、撮像レンズ50の焦点距離、及び撮像画素60A1の寸法を指す。
 本開示の技術に係る制御部の一例である制御部114は、表示部86に対して実行部112による導出結果を表示させる制御を行う。
 実行部112は、第1導出処理を実行する場合、複数画素座標、撮像レンズ50の焦点距離、及び撮像画素60A1の寸法に基づいて、複数画素座標に対応する実空間上での3次元座標を含む平面を示す平面方程式により規定される平面の向きを導出する。そして、実行部112は、導出した平面の向きと照射位置実空間座標とに基づいて平面方程式を確定し、確定した平面方程式、複数画素座標、撮像レンズ50の焦点距離、及び撮像画素60A1の寸法に基づいて撮像位置距離を導出する。
 なお、撮像位置距離の導出に用いられる平面方程式は、下記の数式(6)によって規定される。従って、「平面の向き」を導出するとは、数式(6)におけるa,b,cを導出することを意味し、「平面方程式」を確定するとは、数式(6)におけるdを導出することで、平面方程式のa,b,c,dを確定することを意味する。
Figure JPOXMLDOC01-appb-M000006

 
 次に、測距装置10Aの本開示の技術に係る部分の作用について説明する。
 先ず、3次元座標導出ボタン90Gがオンされた場合にCPU100が撮像位置距離導出プログラム106を実行することで実現される撮像位置距離導出処理について図12を参照して説明する。
 なお、以下では、説明の便宜上、一例として図15に示すように、測距装置10Aの撮像装置14の撮像範囲119にオフィスビル120の外壁面121を含む領域が被写体として含まれていることを前提として説明する。また、外壁面121は、主要被写体であり、かつ、レーザ光の照射対象であることを前提として説明する。
 また、外壁面121は、平面状に形成されており、本開示の技術に係る平面状領域の一例である。また、一例として図15に示すように、外壁面121には、四角形状の複数の窓122が設けられている。また、一例として図15に示すように、外壁面121には、各窓122の下側に横長の長方形状の模様124が描かれているが、これに限らず、外壁面121に付された汚れ又は皹などであってもよい。
 なお、本実施形態において、「平面状」には、平面のみならず、窓や換気口等による若干の凹凸を許容する範囲での平面形状も含まれ、例えば、目視により、又は、既存の画像解析技術により、「平面状」と認識される平面又は平面形状であればよい。
 また、以下では、説明の便宜上、測距装置10Aにより、外壁面121にレーザ光が照射されることで外壁面121までの距離が計測されることを前提として説明する。また、以下では、説明の便宜上、第1計測位置に測距ユニット12が位置し、かつ、第1撮像位置に撮像装置14が位置している場合の測距装置10Aの位置を「第1位置」と称する。また、以下では、説明の便宜上、第2計測位置に測距ユニット12が位置し、かつ、第2撮像位置に撮像装置14が位置している場合の測距装置10Aの位置を「第2位置」と称する。
 図12に示す撮像位置距離導出処理では、先ず、ステップ200で、取得部110は、測距装置10Aにより第1位置で距離の計測及び撮像が実行されたか否かを判定する。第1位置は、外壁面121にレーザ光が照射可能であり、かつ、外壁面121を含む領域を被写体として撮像可能な位置であればよい。
 ステップ200において、測距装置10Aにより第1位置で距離の計測及び撮像が実行されていない場合は、判定が否定されて、ステップ201へ移行する。ステップ200において、測距装置10Aにより第1位置で距離の計測及び撮像が実行された場合は、判定が肯定されて、ステップ202へ移行する。
 ステップ201で、取得部110は、撮像位置距離導出処理を終了する条件を満足したか否かを判定する。撮像位置距離導出処理を終了する条件とは、例えば、タッチパネル88により撮像位置距離導出処理を終了する指示が受け付けられたとの条件、又はステップ200の処理が開始されてから肯定判定されることなく第1既定時間が経過したとの条件を指す。なお、第1既定時間とは、例えば、1分を指す。
 ステップ201において、撮像位置距離導出処理を終了する条件を満足していない場合は、判定が否定されて、ステップ200へ移行する。ステップ201において、撮像位置距離導出処理を終了する条件を満足した場合は、判定が肯定されて、撮像位置距離導出処理を終了する。
 ステップ202で、取得部110は、第1位置で計測された距離、及び、第1位置で撮像が実行されることによって得られた第1撮像画像を示す第1撮像画像信号を取得し、その後、ステップ204へ移行する。なお、第1撮像画像は、第1位置において合焦状態で撮像されて得られた撮像画像である。
 ステップ204で、取得部110は、一例として図16に示すように、表示部86に対して、取得した第1撮像画像信号により示される第1撮像画像を表示させ、その後、ステップ206へ移行する。
 ステップ206で、導出部111は、距離L、半画角α、射出角度β、及び基準点間距離Mから、数式(2)に基づいて、照射位置実空間座標を導出し、その後、ステップ207へ移行する。なお、本ステップ206の処理で用いられる距離Lとは、第1位置で測距装置10Aにより計測された被写体までの距離を指す。
 ステップ207で、導出部111は、距離L、半画角α、射出角度β、及び基準点間距離Mから、数式(3)~(5)に基づいて、第1照射位置画素座標を導出し、その後、ステップ208へ移行する。なお、本ステップ207の処理で用いられる距離Lとは、第1位置で測距装置10Aにより計測された被写体までの距離を指す。
 ステップ208で、制御部114は、一例として図17に示すように、表示部86に対して、距離及び照射位置目印136を第1撮像画像に重畳して表示させ、その後、ステップ210へ移行する。
 本ステップ208の処理が実行されることで表示される距離とは、第1撮像位置で測距装置10Aにより計測された距離、すなわち、ステップ207の処理において第1照射位置画素座標の導出に用いられた距離Lを指す。図17に示す例では、「133325.0」との数値が第1撮像位置で測距装置10Aにより計測された距離Lに該当し、単位はミリメートルである。また、図17に示す例において、照射位置目印136は、ステップ207の処理が実行されることで導出された第1照射位置画素座標により特定される画素の位置を示す目印である。
 ステップ210で、実行部112は、ステップ207の処理が実行されることで導出された第1照射位置画素座標により特定される画素の位置が特定可能画素位置と一致するか否かを判定する。ここで、特定可能画素位置とは、第1撮像画像及び第2撮像画像の各々において互いに対応する位置で特定可能な画素の位置を指す。
 ステップ210において、ステップ207の処理が実行されることで導出された第1照射位置画素座標により特定される画素の位置が特定可能画素位置と一致する場合は、判定が肯定されて、ステップ212へ移行する。ステップ210において、ステップ207の処理が実行されることで導出された第1照射位置画素座標により特定される画素の位置が特定可能画素位置と一致しない場合は、判定が否定されて、ステップ226へ移行する。
 ステップ212で、実行部112は、一例として図18に示すように、表示部86に対して、特定の時間(例えば、5秒間)、一致メッセージ137Aを第1撮像画像に重畳して表示させ、その後、ステップ214へ移行する。一致メッセージ137Aは、ステップ207の処理が実行されることで導出された第1照射位置画素座標により特定される画素の位置が特定可能画素位置と一致することを示すメッセージである。よって、本ステップ212の処理が実行されることにより、ステップ207の処理が実行されることで導出された第1照射位置画素座標により特定される画素の位置が特定可能画素位置と一致することがユーザに通知される。なお、本ステップ221の処理は、本開示の技術に係る位置特定可能状態通知処理の一例である。また、ここで、本開示の技術に係る位置特定可能状態通知処理とは、上述した位置特定可能状態であることを通知する処理を指す。
 なお、図示は省略するが、ステップ212の処理とステップ214の処理との間、及び、ステップ226の処理とステップ228の処理との間では、表示部86により、注目画素指定案内メッセージ(図示省略)を第1撮像画像に重畳した表示が開始される。注目画素指定案内メッセージとは、例えば、第1撮像画像から注目画素をタッチパネル88を介して指定することを案内するメッセージを指す。注目画素指定案内メッセージの一例としては、「注目すべき1画素(注目点)を指定して下さい。」とのメッセージが挙げられる。注目画素指定案内メッセージは、例えば、後述のステップ214A又は後述のステップ228Aの処理において、注目画素が指定された場合に、非表示される。
 図18に示す例では、一致メッセージ137Aとして、「レーザ光の照射位置が被写体の特徴的な位置と一致しましたので、第1導出処理又は第2導出処理を実行することができます。」とのメッセージが示されているが、本開示の技術はこれに限定されるものではない。例えば、一致メッセージ137Aのうちの「レーザ光の照射位置が被写体の特徴的な位置と一致しました。」とのメッセージのみを採用して表示してもよい。
 このように、ステップ207の処理が実行されることで導出された第1照射位置画素座標により特定される画素の位置と特定可能画素位置との一致を通知するメッセージであれば如何なるメッセージであってもよい。また、図18に示す例では、一致メッセージ137Aが可視表示される場合を示しているが、音声再生装置(図示省略)による音声の出力等の可聴表示又はプリンタによる印刷物の出力等の永久可視表示を可視表示に代えて行ってもよいし、併用してもよい。
 ステップ226で、実行部112は、一例として図19に示すように、表示部86に対して、特定の時間(例えば、5秒間)、不一致メッセージ137Bを第1撮像画像に重畳して表示させ、その後、ステップ228へ移行する。不一致メッセージ137Bは、ステップ207の処理が実行されることで導出された第1照射位置画素座標により特定される画素の位置が特定可能画素位置と一致していないことを示すメッセージである。ここで、「第1照射位置画素座標により特定される画素の位置が特定可能画素位置と一致していない」とは、換言すると、第1照射位置画素座標により特定される画素の位置が特定可能画素位置と異なる画素の位置であることを意味する。
 このように、本ステップ226の処理が実行されることにより、ステップ207の処理が実行されることで導出された第1照射位置画素座標により特定される画素の位置が特定可能画素位置と一致していないことがユーザに通知される。なお、本ステップ226の処理は、本開示の技術に係る位置特定不可能状態通知処理の一例である。本開示の技術に係る位置特定不可能状態通知処理とは、上述した位置特定不可能状態であることを通知する処理を指す。
 図19に示す例では、不一致メッセージ137Bとして、「レーザ光の照射位置が被写体の特徴的な位置と一致しませんでしたので、第1導出処理を実行します。」とのメッセージが示されているが、本開示の技術はこれに限定されるものではない。例えば、不一致メッセージ137Bのうちの「レーザ光の照射位置が被写体の特徴的な位置と一致しませんでした」とのメッセージのみを採用して表示してもよい。
 このように、ステップ207の処理が実行されることで導出された第1照射位置画素座標により特定される画素の位置と特定可能画素位置との不一致を通知するメッセージであれば如何なるメッセージであってもよい。また、図19に示す例では、不一致メッセージ137Bが可視表示される場合を示しているが、音声再生装置(図示省略)による音声の出力等の可聴表示又はプリンタによる印刷物の出力等の永久可視表示を可視表示に代えて行ってもよいし、併用してもよい。
 ステップ228で、実行部112は、一例として図13に示す第1導出処理を実行する。
 図13に示す第1導出処理では、先ず、ステップ228Aで、取得部110は、ユーザによりタッチパネル88を介して第1撮像画像から注目画素が指定されたか否かを判定する。ここで、注目画素は、上述した第1指定画素に相当する。なお、タッチパネル88は、タッチパネル88に付与されている2次元座標のうちの第1撮像画像に含まれる画素に対応する2次元座標を指定する画素指定情報を受け付ける。よって、本ステップ228Aでは、タッチパネル88により画素指定情報が受け付けられた場合に注目画素が指定されたと判定する。すなわち、画素指定情報により指定された2次元座標に対応する画素が注目画素とされる。
 ステップ228Aにおいて、ユーザによりタッチパネル88を介して第1撮像画像から注目画素が指定されていない場合は、判定が否定されて、ステップ228Bへ移行する。ステップ228Aにおいて、ユーザによりタッチパネル88を介して第1撮像画像から注目画素が指定された場合は、判定が肯定されて、ステップ228Cへ移行する。
 ステップ228Bで、取得部110は、第1導出処理を終了する条件を満足したか否かを判定する。なお、ステップ228Bにおいて、第1導出処理を終了する条件とは、上述のステップ201の説明で示した条件と同一の条件を指す。
 ステップ228Bにおいて、第1導出処理を終了する条件を満足していない場合は、判定が否定されて、ステップ228Aへ移行する。ステップ228Bにおいて、第1導出処理を終了する条件を満足した場合は、判定が肯定されて、第1導出処理を終了する。なお、ステップ228Bにおいて判定が肯定されると、取得部110は、表示部86に対して、第1撮像画像及び重畳表示情報の表示を終了させる。ここで、重畳表示情報とは、例えば、第1撮像画像に重畳して表示されている情報である距離及び照射位置目印136等を指す。
 ステップ228Cで、取得部110は、第1撮像画像においてユーザによりタッチパネル88を介して指定された注目画素126(図20参照)を特定する注目画素座標を取得し、その後、ステップ228Dへ移行する。なお、ここで、ユーザによりタッチパネル88を介して指定される画素としては、一例として図20に示すように、注目画素126が挙げられる。注目画素126は、一例として図20に示すように、第1撮像画像のうちの外壁面2階中央部窓に相当する画像の正面視左下隅の画素である。外壁面2階中央部窓とは、図15に示す例において、外壁面121に設けられている窓122のうちの、オフィスビル120の2階の中央部の窓122を指す。また、注目画素座標とは、第1撮像画像において注目画素126を特定する2次元座標を指す。
 ステップ228Dで、取得部110は、第1撮像画像のうちの外壁面画像128(図21に示す例のハッチング領域)において特徴的な3画素の位置を特定する3特徴画素座標を取得し、その後、ステップ228Eへ移行する。なお、ここで言う「特徴的な3画素」は、本開示の技術に係る「複数画素」の一例である。
 ここで、外壁面画像128とは、第1撮像画像のうちの外壁面121(図15参照)を示す画像を指す。特徴的な3画素は、第1撮像画像及び第2撮像画像の各々において互いに対応する位置で特定可能な画素である。第1撮像画像での特徴的な3画素は、互いに予め定められた画素数以上離れており、外壁面画像128のうちの模様又は建材等に相当する画像の空間周波数等を基に画像解析により既定の規則に従って特定された3点の各々に存在する画素である。例えば、注目画素126を中心とした予め定められた半径で既定される円領域内で最大の空間周波数を有する異なる頂点を示し、かつ、既定条件を満足する3つの画素が特徴的な3画素として抽出される。なお、3特徴画素座標は、上述した複数画素座標に相当する。
 図21に示す例において、特徴的な3画素は、第1画素130、第2画素132、及び第3画素134である。第1画素130は、外壁面画像128のうち、外壁面2階中央部窓に相当する画像の正面視左上隅の画素である。第2画素132は、外壁面2階中央部窓に相当する画像の正面視右上隅の画素である。第3画素134は、外壁面3階中央部窓の下部に近接する模様124に相当する画像の正面視左下隅の画素である。なお、外壁面3階中央窓とは、図15に示す例において、外壁面121に設けられている窓122のうちの、オフィスビル120の3階の中央部の窓122を指す。
 ステップ228Eで、取得部110は、測距装置10Aにより第2位置で撮像が実行されたか否かを判定する。第2位置は、測距装置10Aの移動先の位置であり、外壁面121にレーザ光が照射可能であり、かつ、外壁面121を含む領域を被写体として撮像可能な位置であればよい。
 ステップ228Eで、取得部110は、測距装置10Aにより第2位置で撮像が実行されるか否かを判定する。ステップ228Eにおいて、測距装置10Aにより第2位置で撮像が実行されていない場合は、判定が否定されて、ステップ228Fへ移行する。ステップ228Eにおいて、測距装置10Aにより第2位置で撮像が実行された場合は、判定が肯定されて、ステップ228Gへ移行する。
 ステップ228Fで、取得部110は、第1導出処理を終了する条件を満足したか否かを判定する。なお、ステップ228Fにおいて、第1導出処理を終了する条件とは、ステップ228Bで用いられる条件と同一の条件を指す。
 ステップ228Fにおいて、第1導出処理を終了する条件を満足していない場合は、判定が否定されて、ステップ228Eへ移行する。ステップ228Fにおいて、第1導出処理を終了する条件を満足した場合は、判定が肯定されて、第1導出処理を終了する。なお、ステップ228Fにおいて判定が肯定されると、取得部110は、表示部86に対して、第1撮像画像及び重畳表示情報の表示を終了させる。
 ステップ228Gで、取得部110は、第2位置で撮像が実行されることによって得られた第2撮像画像を示す第2撮像画像信号を取得し、その後、ステップ228Hへ移行する。なお、第2撮像画像は、第2位置において合焦状態で撮像されて得られた撮像画像である。
 ステップ228Hで、取得部110は、表示部86に対して、取得した第2撮像画像信号により示される第2撮像画像を表示させ、その後、ステップ228Iへ移行する。
 ステップ228Iで、取得部110は、第2撮像画像に含まれる画素のうち、上記の注目画素126に対応する画素である対応注目画素を特定し、特定した対応注目画素を特定する対応注目画素座標を取得し、その後、ステップ228Jへ移行する。なお、ここで、対応注目画素座標とは、第2撮像画像において対応注目画素を特定する2次元座標を指す。また、対応注目画素は、第1及び第2撮像画像を解析対象としてパターンマッチング等の既存の画像解析を実行することで特定される。なお、対応注目画素は、上述した第2指定画素に相当し、第1撮像画像から注目画素126が特定されると、本ステップ228Iの処理が実行されることで、第2撮像画像から一意に特定される。
 ステップ228Jで、取得部110は、第2撮像画像のうちの外壁面画像128(図21参照)に対応する外壁面画像において特徴的な3画素を特定し、特定した特徴的な3画素を特定する対応特徴画素座標を取得し、その後、ステップ228Kへ移行する。なお、対応特徴画素座標とは、第2撮像画像において特定した特徴的な3画素を特定する2次元座標を指す。また、対応特徴画素座標は、第2撮像画像において、上記ステップ228Dの処理で取得された3特徴画素座標に対応する2次元座標でもあり、上述した複数画素座標に相当する。また、第2撮像画像のうちの特徴的な3画素は、上述の対応注目画素の特定方法と同様に、第1及び第2撮像画像を解析対象としてパターンマッチング等の既存の画像解析を実行することで特定される。
 ステップ228Kで、実行部112は、3特徴画素座標、対応特徴画素座標、撮像レンズ50の焦点距離、及び撮像画素60A1の寸法から、数式(6)に示す平面方程式のa,b,cを導出することで、平面方程式により規定される平面の向きを導出する。
 ここで、3特徴画素座標を(uL1,vL1),(uL2,vL2),(uL3,vL3)とし、対応特徴画素座標を(uR1,vR1),(uR2,vR2),(uR3,vR3)とすると、下記の数式(7)~(9)により第1~第3特徴画素3次元座標が規定される。第1特徴画素3次元座標とは、(uL1,vL1)及び(uR1,vR1)に対応する3次元座標を指す。第2特徴画素3次元座標とは、(uL2,vL2)及び(uR2,vR2)に対応する3次元座標を指す。第3特徴画素3次元座標とは、(uL3,vL3)及び(uR3,vR3)に対応する3次元座標を指す。なお、数式(7)~(9)では、“vR1”、“vR2”、及び“vR3”は使用されない。
Figure JPOXMLDOC01-appb-M000007

 
Figure JPOXMLDOC01-appb-M000008

 
Figure JPOXMLDOC01-appb-M000009

 
 本ステップ228Kにおいて、実行部112は、数式(7)~(9)に示す第1~第3特徴画素3次元座標の各々を数式(6)に代入して得られる等価関係にある3つの数式から数式(6)のa,b,cを最適化することで、数式(6)のa,b,cを導出する。このように、数式(6)のa,b,cが導出されるということは、数式(6)に示す平面方程式により規定される平面の向きが導出されることを意味する。
 ステップ228Lで、実行部112は、ステップ206の処理で導出した照射位置実空間座標に基づいて数式(6)に示す平面方程式を確定し、その後、ステップ228Mへ移行する。すなわち、本ステップ228Lにおいて、実行部112は、ステップ228Kの処理で導出したa,b,c及びステップ206の処理で導出した照射位置実空間座標を数式(6)に代入することで、数式(6)のdを確定する。ステップ228Kの処理で数式(6)のa,b,cが導出されているので、本ステップ228Lの処理で数式(6)のdが確定されると、数式(6)に示す平面方程式が確定される。
 ステップ228Mで、実行部112は、特徴画素3次元座標及び平面方程式に基づいて、撮像位置距離を導出し、その後、ステップ228Nへ移行する。
 ここで、本ステップ228Mの処理で用いられる特徴画素3次元座標とは、第1特徴画素3次元座標を指す。なお、本ステップ228Mの処理で用いられる特徴画素3次元座標は、第1特徴画素3次元座標に限らず、第2特徴画素3次元座標又は第3特徴画素3次元座標であってもよい。また、本ステップ228Mで用いられる平面方程式とは、ステップ228Lで確定された平面方程式を指す。
 よって、本ステップ228Mでは、特徴画素3次元座標が平面方程式に代入されることで、撮像位置距離である“B”が導出される。
 ステップ228Nで、制御部114は、一例として図22に示すように、表示部86に対して、ステップ228Mの処理で導出された撮像位置距離を第2撮像画像に重畳して表示させる。また、ステップ228Nで、制御部114は、ステップ228Mの処理で導出された撮像位置距離を既定の記憶領域に記憶し、その後、本第1導出処理を終了する。なお、既定の記憶領域の一例としては、一次記憶部102の記憶領域又は二次記憶部104の記憶領域が挙げられる。
 なお、図22に示す例では、「144656.1」との数値が、ステップ228Mの処理で導出された撮像位置距離に該当し、単位はミリメートルである。
 一方、ステップ214で、実行部112は、一例として図14に示す第2導出処理を実行する。
 図14に示す第2導出処理では、先ず、ステップ214Aで、取得部110は、ユーザによりタッチパネル88を介して第1撮像画像から注目画素が指定されたか否かを判定する。
 ステップ214Aにおいて、ユーザによりタッチパネル88を介して第1撮像画像から注目画素が指定されていない場合は、判定が否定されて、ステップ214Bへ移行する。ステップ214Aにおいて、ユーザによりタッチパネル88を介して第1撮像画像から注目画素が指定された場合は、判定が肯定されて、ステップ214Cへ移行する。
 ステップ214Bで、取得部110は、第2導出処理を終了する条件を満足したか否かを判定する。なお、ステップ214Bにおいて、第2導出処理を終了する条件とは、上述のステップ201の説明で示した条件と同一の条件を指す。
 ステップ214Bにおいて、第2導出処理を終了する条件を満足していない場合は、判定が否定されて、ステップ214Aへ移行する。ステップ214Bにおいて、第2導出処理を終了する条件を満足した場合は、判定が肯定されて、第2導出処理を終了する。なお、ステップ214Bにおいて判定が肯定されると、取得部110は、表示部86に対して、第1撮像画像及び重畳表示情報の表示を終了させる。
 ステップ214Cで、取得部110は、第1撮像画像においてユーザによりタッチパネル88を介して指定された注目画素126(図20参照)を特定する注目画素座標を取得し、その後、ステップ214Dへ移行する。
 ステップ214Dにおいて、測距装置10Aにより第2位置で撮像が実行されていない場合は、判定が否定されて、ステップ214Eへ移行する。ステップ214Dにおいて、測距装置10Aにより第2位置で撮像が実行された場合は、判定が肯定されて、ステップ214Fへ移行する。
 ステップ214Eで、取得部110は、第2導出処理を終了する条件を満足したか否かを判定する。なお、ステップ214Eにおいて、第2導出処理を終了する条件とは、ステップ214Bで用いられる条件と同一の条件を指す。
 ステップ214Eにおいて、第2導出処理を終了する条件を満足していない場合は、判定が否定されて、ステップ214Dへ移行する。ステップ214Eにおいて、第2導出処理を終了する条件を満足した場合は、判定が肯定されて、第2導出処理を終了する。なお、ステップ214Eにおいて判定が肯定されると、取得部110は、表示部86に対して、第1撮像画像及び重畳表示情報の表示を終了させる。
 ステップ214Fで、取得部110は、第2位置で撮像が実行されることによって得られた第2撮像画像を示す第2撮像画像信号を取得し、その後、ステップ214Gへ移行する。なお、第2撮像画像は、第2位置において合焦状態で撮像されて得られた撮像画像である。
 ステップ214Gで、取得部110は、表示部86に対して、取得した第2撮像画像信号により示される第2撮像画像を表示させ、その後、ステップ214H1へ移行する。
 ステップ214H1で、取得部110は、第2撮像画像に含まれる画素のうち、上記の注目画素126に対応する画素である対応注目画素を特定し、特定した対応注目画素を特定する対応注目画素座標を取得し、その後、ステップ214H2へ移行する。
 ステップ214H2で、導出部111は、第2照射位置画素座標を導出し、その後、ステップ214Iへ移行する。すなわち、本ステップ214H2において、導出部111は、第2撮像画像の画素のうち、ステップ207の処理で導出した第1照射位置画素座標により特定される画素の位置と対応する画素の位置を特定する座標を第2照射位置画素座標として導出する。
 なお、第2撮像画像の画素のうち、第1照射位置画素座標により特定される画素の位置と対応する画素は、上述の対応注目画素の特定方法と同様に、第1及び第2撮像画像を解析対象としてパターンマッチング等の既存の画像解析を実行することで特定される。
 ステップ214Iで、実行部112は、照射位置実空間座標、照射位置画素座標、撮像レンズ50の焦点距離、撮像画素60A1の寸法、及び数式(1)に基づいて、撮像位置距離を導出し、その後、ステップ214Jへ移行する。
 ここで、本ステップ214Iの処理で用いられる照射位置実空間座標とは、ステップ206の処理で導出された照射位置実空間座標を指す。また、本ステップ214Iの処理で用いられる照射位置画素座標とは、ステップ207の処理で導出された第1照射位置画素座標、及びステップ214H2の処理で導出された第2照射位置画素座標を指す。
 よって、本ステップ214Iでは、照射位置実空間座標、照射位置画素座標、撮像レンズ50の焦点距離、及び撮像画素60A1の寸法が数式(1)に代入されることで、撮像位置距離である“B”が導出される。
 ステップ214Jで、制御部114は、一例として図22に示すように、表示部86に対して、ステップ214Iの処理で導出された撮像位置距離を第2撮像画像に重畳して表示させる。また、ステップ214Jで、制御部114は、ステップ214Iの処理で導出された撮像位置距離を既定の記憶領域に記憶し、その後、本第2導出処理を終了する。なお、既定の記憶領域の一例としては、一次記憶部102の記憶領域又は二次記憶部104の記憶領域が挙げられる。
 このように、第2導出処理では、第1導出処理のように平面方程式を用いる必要がなく、第2導出処理による撮像位置距離の導出に用いるパラメータの個数は、第1導出処理による撮像位置距離の導出に用いるパラメータの個数よりも少ない。そのため、第2導出処理は、第1導出処理に比べ、撮像位置距離の導出にかかる負荷が小さい。また、レーザ光の実際の照射位置が特定可能画素位置に対応する実空間上での位置と一致する場合、第2導出処理による撮像位置距離の導出精度は、第1導出処理による撮像位置距離の導出精度よりも高くなる。
 次に、3次元座標導出ボタン90Gがオンされた場合にCPU100が3次元座標導出プログラム108を実行することで実現される3次元座標導出処理について図23を参照して説明する。
 図23に示す3次元座標導出処理では、先ず、ステップ250で、実行部112は、第1導出処理に含まれるステップ228Mの処理、又は第2導出処理に含まれるステップ214Iの処理で撮像位置距離が既に導出されているか否かを判定する。ステップ250において、第1導出処理に含まれるステップ228Mの処理及び第2導出処理に含まれるステップ214Iの処理の何れの処理でも撮像位置距離が導出されていない場合は、判定が否定されて、ステップ258へ移行する。ステップ250において、第1導出処理に含まれるステップ228Mの処理、又は第2導出処理に含まれるステップ214Iの処理で撮像位置距離が既に導出されている場合は、判定が肯定されて、ステップ252へ移行する。
 ステップ252で、実行部112は、指定画素3次元座標の導出を開始する条件(以下、「導出開始条件」という)を満足したか否かを判定する。導出開始条件の一例としては、指定画素3次元座標の導出を開始する指示がタッチパネル88によって受け付けられたとの条件、又は撮像位置距離が表示部86に表示されたとの条件等が挙げられる。
 ステップ252において、導出開始条件を満足していない場合は、判定が否定されて、ステップ258へ移行する。ステップ252において、導出開始条件を満足した場合は、判定が肯定されて、ステップ254へ移行する。
 ステップ254で、実行部112は、注目画素座標、対応注目画素座標、撮像位置距離、撮像レンズ50の焦点距離、撮像画素60A1の寸法、及び数式(1)に基づいて、指定画素3次元座標を導出し、その後、ステップ256へ移行する。
 ここで、本ステップ254の処理で用いられる注目画素座標とは、第1導出処理に含まれるステップ228Cの処理、又は第2導出処理に含まれるステップ214Cの処理で取得された注目画素座標を指す。また、本ステップ254の処理で用いられる対応注目画素座標とは、第1導出処理に含まれるステップ228Iの処理、又は第2導出処理に含まれるステップ214H1の処理で取得された対応注目画素座標を指す。また、本ステップ254の処理で用いられる撮像位置距離とは、第1導出処理に含まれるステップ228Mの処理、又は第2導出処理に含まれるステップ214Iの処理で導出された撮像位置距離を指す。
 よって、本ステップ254では、注目画素座標、対応注目画素座標、撮像位置距離、撮像レンズ50の焦点距離、及び撮像画素60A1の寸法が数式(1)に代入されることで、指定画素3次元座標が導出される。
 ステップ256で、制御部114は、一例として図24に示すように、表示部86に対して、ステップ254の処理で導出された指定画素3次元座標を第2撮像画像に重畳して表示させる。また、ステップ256で、制御部114は、ステップ254の処理で導出された指定画素3次元座標を既定の記憶領域に記憶し、その後、ステップ258へ移行する。なお、既定の記憶領域の一例としては、一次記憶部102の記憶領域又は二次記憶部104の記憶領域が挙げられる。
 なお、図24に示す例では、(20161,50134,136892)が、ステップ254の処理で導出された指定画素3次元座標に該当する。また、図24に示す例では、指定画素3次元座標が注目画素126に近接して表示されている。なお、注目画素126は、他の画素と区別可能に強調表示されるようにしてもよい。
 ステップ258で、実行部112は、3次元座標導出処理を終了する条件を満足したか否かを判定する。3次元座標導出処理を終了する条件の一例としては、タッチパネル88により3次元座標導出処理を終了する指示が受け付けられたとの条件が挙げられる。3次元座標導出処理を終了する条件の他の例としては、ステップ250で判定が否定されてからステップ250で判定が肯定されることなく第2既定時間が経過したとの条件等が挙げられる。なお、第2既定時間とは、例えば、30分を指す。
 ステップ258において、本3次元座標導出処理を終了する条件を満足していない場合は、判定が否定されて、ステップ250へ移行する。ステップ258において、本3次元座標導出処理を終了する条件を満足した場合は、判定が肯定されて、本3次元座標導出処理を終了する。
 以上説明したように、測距装置10Aでは、第1導出処理及び第2導出処理が実行される。第1導出処理は、レーザ光の実際の照射位置が第1撮像画像及び第2撮像画像の各々において互いに対応する位置で特定可能な画素と異なる画素の位置に対応する実空間上の位置の場合に、第2導出処理よりも高精度に撮像位置距離を導出する処理とされている。第2導出処理は、レーザ光の実際の照射位置が第1撮像画像及び第2撮像画像の各々において互いに対応する位置で特定可能な画素の位置に対応する実空間上の位置の場合に第1導出処理よりも高精度に撮像位置距離を導出する処理とされている。そして、測距装置10Aでは、導出部111により導出された照射位置画素座標により特定される画素の位置が特定可能画素位置と異なる画素の位置の場合に、第1導出処理が実行される。従って、測距装置10Aによれば、レーザ光の照射位置を考慮しない場合に比べ、撮像位置距離を高精度に導出することができる。
 また、測距装置10Aでは、導出部111により導出された照射位置画素座標により特定される画素の位置が特定可能画素位置の場合に、第2導出処理が実行される。従って、測距装置10Aによれば、レーザ光の照射位置を考慮しない場合に比べ、撮像位置距離を高精度に導出することができる。
 また、測距装置10Aでは、第2導出処理は、第1導出処理による撮像位置距離の導出で用いられるパラメータの個数よりも少ない複数のパラメータに基づいて撮像位置距離を導出する処理とされている。従って、測距装置10Aによれば、常に第1導出処理で撮像位置距離を導出する場合に比べ、撮像位置距離を低負荷で導出することができる。
 また、測距装置10Aでは、導出部111により導出された第1照射位置画素座標により特定される画素の位置が特定可能画素位置の場合に、一致メッセージ137Aが表示部86に表示される。従って、測距装置10Aによれば、導出部111により導出された第1照射位置画素座標により特定される画素の位置が特定可能画素位置であることをユーザに認識させることができる。
 また、測距装置10Aでは、導出部111により導出された第1照射位置画素座標により特定される画素の位置が特定可能画素位置と異なる画素の位置の場合に、不一致メッセージ137Bが表示部86に表示される。従って、測距装置10Aによれば、導出部111により導出された第1照射位置画素座標により特定される画素の位置が特定可能画素位置と異なる画素の位置であることをユーザに認識させることができる。
 また、測距装置10Aでは、撮像位置距離導出処理で導出された撮像位置距離に基づいて、指定画素3次元座標が導出される(図23参照)。従って、測距装置10Aによれば、1種類の導出処理のみで撮像位置距離が導出される場合に比べ、指定画素3次元座標を高精度に導出することができる。
 また、測距装置10Aでは、指定画素3次元座標は、注目画素座標、対応注目画素座標、撮像位置距離、撮像レンズ50の焦点距離、及び撮像画素60A1の寸法に基づいて規定されている(数式(1)参照)。従って、測距装置10Aによれば、指定画素3次元座標が注目画素座標、対応注目画素座標、撮像位置距離、撮像レンズ50の焦点距離、及び撮像画素60A1の寸法に基づいて規定されない場合に比べ、指定画素3次元座標を高精度に導出することができる。
 また、測距装置10Aでは、実行部112により、3特徴画素座標、対応特徴画素座標、撮像レンズ50の焦点距離、及び撮像画素60A1の寸法に基づいて、数式(6)に示す平面方程式により規定される平面の向きが導出される(ステップ228K)。また、実行部112により、平面の向きとステップ206の処理で導出された照射位置実空間座標とに基づいて数式(6)に示す平面方程式が確定される(ステップ228L)。そして、実行部112により、確定された平面方程式、及び特徴画素3次元座標(例えば、第1特徴画素3次元座標)に基づいて撮像位置距離が導出される(ステップ228M)。従って、測距装置10Aによれば、導出部111により導出された照射位置画素座標により特定される画素の位置が特定可能画素位置と異なる画素の位置の場合に平面方程式を用いずに撮像位置距離を導出する場合に比べ、撮像位置距離を高精度に導出することができる。
 また、測距装置10Aでは、取得部110により3特徴画素座標が取得され(ステップ228D)、取得部110により対応特徴画素座標が取得される(ステップ228J)。そして、実行部112により、3特徴画素座標、対応特徴画素座標、照射位置実空間座標、撮像レンズ50の焦点距離、及び撮像画素60A1の寸法に基づいて撮像位置距離が導出される(ステップ228M)。従って、測距装置10Aによれば、3特徴画素座標及び対応特徴画素座標を取得するにあたって特徴的な3画素をユーザに指定させる場合に比べ、少ない操作数で、3特徴画素座標及び対応特徴画素座標を基に撮像位置距離を導出することができる。
 また、測距装置10Aでは、画素指定情報がタッチパネル88によって受け付けられ、受け付けられた画素指定情報により指定された画素が注目画素126とされ、取得部110により、注目画素座標が取得される(ステップ228C,214C)。また、取得部110により、注目画素126に対応する画素である対応注目画素が特定される。そして、取得部110により、対応画素注目画素を特定する対応注目画素座標が取得される(ステップ228I,214H1)。従って、測距装置10Aによれば、第1撮像画像及び第2撮像画像の両方に関する指定画素がユーザにより指定される場合に比べ、第1撮像画像及び第2撮像画像の両方に関する指定画素を迅速に決めることができる。
 また、測距装置10Aには、測距ユニット12及び測距制御部68が含まれ、測距ユニット12及び測距制御部68によって計測された被写体までの距離が取得部110により取得される。従って、測距装置10Aによれば、測距ユニット12及び測距制御部68により取得された距離を照射位置実空間座標及び照射位置画素座標の導出に用いることができる。
 また、測距装置10Aには、撮像装置14が含まれ、撮像装置14により被写体が撮像されて得られた第1撮像画像及び第2撮像画像が取得部110により取得される。従って、測距装置10Aによれば、撮像装置14により被写体が撮像されて得られた第1撮像画像及び第2撮像画像を撮像位置距離の導出に用いることができる。
 更に、測距装置10Aでは、実行部112による導出結果が表示部86によって表示される(図22及び図24参照)。従って、測距装置10Aによれば、実行部112による導出結果が表示部86によって表示されない場合に比べ、実行部112による導出結果をユーザに容易に認識させることができる。
 なお、上記第1実施形態では、3特徴画素座標を例示したが、本開示の技術はこれに限定されるものでない。例えば、3特徴画素座標に代えて、特徴的な4画素以上の既定数の画素の各々を特定する2次元座標を採用してもよい。
 また、上記第1実施形態では、注目画素座標が第1撮像画像上の座標から取得され、対応注目画素座標が第2撮像画像上の座標から取得される場合を例示したが、本開示の技術はこれに限定されるものではない。例えば、注目画素座標が第2撮像画像上の座標から取得され、対応注目画素座標が第1撮像画像上の座標から取得されるようにしてもよい。
 また、上記第1実施形態では、3特徴画素座標が第1撮像画像上の座標から取得され、対応特徴画素座標が第2撮像画像上の座標から取得される場合を例示したが、本開示の技術はこれに限定されるものではない。例えば、3特徴画素座標が第2撮像画像上の座標から取得され、対応特徴画素座標が第1撮像画像上の座標から取得されるようにしてもよい。
 また、上記第1実施形態では、3特徴画素座標として、第1画素130、第2画素132、及び第3画素134の各々を特定する2次元座標が取得部110によって取得される場合を例示したが、本開示の技術はこれに限定されるものではない。例えば、図25に示すように、第1画素130A、第2画素132A、及び第3画素134Aの各々を特定する2次元座標が取得部110によって取得されるようにしてもよい。第1画素130A、第2画素132A、及び第3画素134Aは、外壁面画像128において取り囲まれる面積が最大となる3画素である。なお、3画素に限らず、外壁面画像128において取り囲まれる面積が最大となる3画素以上の既定数の画素であればよい。
 このように、図25に示す例では、外壁面画像128において取り囲まれる面積が最大となる3画素が特徴的な3画素として特定され、特定された3画素に関する2次元座標が3特徴画素座標として取得部110によって取得される。また、取得部110により、3特徴画素座標に対応する対応特徴画素座標も取得される。従って、測距装置10Aによれば、特徴的な3画素として、取り囲む面積が最大とならない複数の画素を特定する3特徴画素座標及び対応特徴画素座標が取得される場合に比べ、撮像位置距離を高精度に導出することができる。
 また、上記第1実施形態では、3次元座標導出ボタン90Gがオンされた場合に撮像位置距離導出処理が実現される場合について説明したが、本開示の技術はこれに限定されるものではない。例えば、撮像位置距離導出ボタン90Fがオンされた場合に撮像位置距離導出処理が実行されるようにしてもよい。上記第1実施形態で説明した撮像位置距離導出処理は、3次元座標の導出を最終的な目的とした場合の一例である。
 そのため、3次元座標の導出で要する注目画素座標及び対応注目画素座標を撮像位置距離導出処理で取得しているが、撮像位置距離の導出のみが目的の場合、撮像位置距離導出処理での注目画素座標及び対応注目画素座標の取得は不要である。よって、実行部112は、撮像位置距離導出ボタン90Fがオンされた場合、注目画素座標及び対応注目画素座標を取得せずに撮像位置距離を導出し、次いで、3次元座標導出ボタン90Gがオンされた場合に、注目画素座標及び対応注目画素座標を取得してもよい。この場合、実行部112は、例えば、図23に示す3次元座標導出処理のステップ252の処理とステップ254の処理との間で注目画素座標及び対応注目画素座標を取得し、取得した注目画素座標及び対応注目画素座標をステップ254の処理で用いればよい。
 [第2実施形態]
 上記第1実施形態では、外壁面画像128の全体を対象として3特徴画素座標が取得される場合について説明したが、本第2実施形態では、外壁面画像128の一部を対象として3特徴画素座標が取得される場合について説明する。なお、本第2実施形態では、上記第1実施形態で説明した構成要素と同一の構成要素については同一の符号を付し、その説明を省略する。
 本第2実施形態に係る測距装置10Bは、一例として図6に示すように、測距装置10Aに比べ、二次記憶部104に撮像位置距離導出プログラム106に代えて撮像位置距離導出プログラム150が記憶されている点が異なる。
 CPU100は、撮像位置距離導出プログラム150及び3次元座標導出プログラム108を実行することで、取得部154、導出部111、実行部112、及び制御部156として動作する(図9参照)。
 取得部154は、上記第1実施形態で説明した取得部110に対応し、制御部156は、上記第1実施形態で説明した制御部114に対応する。なお、本第2実施形態では、説明の便宜上、取得部154及び制御部156については、上記第1実施形態で説明した取得部110及び制御部114と異なる部分について説明する。
 制御部156は、表示部86に対して第1撮像画像を表示させ、かつ、表示領域内で外壁面画像128を他の領域と区別可能に表示させる制御を行う。タッチパネル88は、表示部86に外壁面画像128が表示された状態で座標取得対象領域を指定する領域指定情報を受け付ける。ここで、座標取得対象領域とは、外壁面画像128のうちの一部の閉領域を指す。領域指定情報とは、座標取得対象領域を指定する情報を指す。
 取得部154は、タッチパネル88によって受け付けられた領域指定情報により指定された座標取得対象領域から、3特徴画素座標を取得する。
 次に、測距装置10Bの本開示の技術に係る部分の作用として、CPU100が撮像位置距離導出プログラム150を実行することで実現される撮像位置距離導出処理に含まれる第1導出処理について図26を参照して説明する。なお、図13に示すフローチャートと同一のステップについては、同一のステップ番号を付して、その説明を省略する。
 図26に示すフローチャートは、図13に示すフローチャートに比べ、ステップ228Dに代えて、ステップ300~312を有する点が異なる。
 図26に示すステップ300で、制御部156は、第1撮像画像から外壁面画像128(図21参照)を特定し、その後、ステップ302へ移行する。
 ステップ302で、制御部156は、表示部86に対して、ステップ300の処理で特定した外壁面画像128を、第1撮像画像の表示領域内の他の領域と区別可能に強調して表示させ、その後、ステップ304へ移行する。
 ステップ304で、取得部154は、タッチパネル88によって領域指定情報が受け付けられ、受け付けられた領域指定情報により座標取得対象領域が指定されたか否かを判定する。
 ステップ304において、領域指定情報により座標取得対象領域が指定されていない場合は、判定が否定されて、ステップ306へ移行する。ステップ304において、領域指定情報により座標取得対象領域が指定された場合は、判定が肯定されて、ステップ308へ移行する。なお、図示は省略するが、ステップ304において判定が肯定されると、取得部154は、表示部86に対して、後述のステップ310の処理が実行されることで表示部86に表示される再指定メッセージの表示を終了させる。
 ステップ306で、取得部154は、第1導出処理を終了する条件を満足したか否かを判定する。ステップ306において、第1導出処理を終了する条件を満足していない場合は、判定が否定されて、ステップ304へ移行する。ステップ306において、第1導出処理を終了する条件を満足した場合は、判定が肯定されて、第1導出処理を終了する。なお、ステップ306において判定が肯定されると、取得部154は、表示部86に対して、第1撮像画像及び重畳表示情報の表示を終了させる。この場合の重畳表示情報とは、例えば、距離及び照射位置目印136等を指す。
 ステップ308で、取得部154は、タッチパネル88によって受け付けられた領域指定情報により指定された座標取得対象領域158(図27参照)に、上記第1実施形態で説明した特徴的な3画素が存在するか否かを判定する。
 一例として図27に示すように、タッチパネル88によって受け付けられた領域指定情報により座標取得対象領域158が指定された場合、座標取得対象領域158には、模様124(図15参照)を示す模様画像160が含まれている。
 図28に示す例では、座標取得対象領域158に、特徴的な3画素として、第1画素162、第2画素164、及び第3画素166が含まれている。図28に示す例において、第1画素162は、模様画像160の正面視左上隅の画素であり、第2画素164は、模様画像160の正面視左下隅の画素であり、第3画素166は、模様画像160の正面視右下隅の画素である。
 ステップ308において、タッチパネル88によって受け付けられた領域指定情報により指定された座標取得対象領域158に特徴的な3画素が存在しない場合は、判定が否定されて、ステップ310へ移行する。ステップ308において、タッチパネル88によって受け付けられた領域指定情報により指定された座標取得対象領域158に特徴的な3画素が存在する場合は、判定が肯定されて、ステップ312へ移行する。なお、本ステップ308において肯定判定される場合とは、例えば、図27に示すように、タッチパネル88によって受け付けられた領域指定情報により模様画像160を含む座標取得対象領域158が指定された場合を指す。また、図示は省略するが、本ステップ308において判定が肯定されると、取得部154は、表示部86に対して、外壁面画像128の強調した表示を終了させる
 ステップ310で、制御部156は、表示部86に対して再指定メッセージを第1撮像画像の既定領域に重畳した表示を開始させ、その後、ステップ304へ移行する。再指定メッセージとは、例えば、「特徴的な模様又は建材等が含まれる閉領域を指定して下さい」とのメッセージを指す。なお、本ステップ310の処理が実行されることで表示された再指定メッセージは、ステップ304において判定が肯定されると非表示される。また、ここでは、再指定メッセージが可視表示される場合を例示しているが、本開示の技術はこれに限定されるものではなく、音声再生装置(図示省略)による音声の出力等の可聴表示又はプリンタによる印刷物の出力等の永久可視表示を可視表示に代えて行ってもよいし、併用してもよい。
 ステップ312で、取得部154は、タッチパネル88によって受け付けられた領域指定情報により指定された座標取得対象領域158において特徴的な3画素を特定する3特徴画素座標を取得し、その後、ステップ214へ移行する。なお、図28に示す例では、本ステップ312の処理が実行されることで、第1画素162、第2画素164、及び第3画素166の各々を特定する2次元座標が3特徴画素座標として取得部154によって取得される。また、図示は省略するが、本ステップ312の処理が実行されると、第1撮像画像及び重畳表示情報が非表示される。
 以上説明したように、測距装置10Bでは、第1撮像画像において外壁面画像128が他の領域と区別可能に表示部86に表示される。また、タッチパネル88によって領域指定情報が受け付けられ、受け付けられた領域指定情報により、外壁面画像128の一部である座標取得対象領域が指定される。そして、取得部154により、座標取得対象領域に特徴的な3画素が含まれている場合、特徴的な3画素を特定する3特徴画素座標が取得され(ステップ312)、3特徴画素座標に対応する対応特徴画素座標も取得される(ステップ228)。従って、測距装置10Bによれば、外壁面画像128の全体を対象として3特徴画素座標及び対応特徴画素座標を取得する場合に比べ、小さな負荷で3特徴画素座標及び対応特徴画素座標を取得することができる。
 [第3実施形態]
 上記各実施形態では、画像解析により特定の画像内で特徴的な3画素が探索されて特定される場合について説明したが、本第3実施形態では、特徴的な3画素がタッチパネル88に対する操作に従って指定される場合について説明する。なお、本第3実施形態では、上記各実施形態で説明した構成要素と同一の構成要素については同一の符号を付し、その説明を省略する。
 本第3実施形態に係る測距装置10Cは、測距装置10Aに比べ、二次記憶部104に撮像位置距離導出プログラム106に代えて撮像位置距離導出プログラム168が記憶されている点が異なる。
 CPU100は、撮像位置距離導出プログラム168及び3次元座標導出プログラム108を実行することで、一例として図9に示すように、取得部172、導出部111、実行部174、及び制御部176として動作する。
 取得部172は、上記各実施形態で説明した取得部110(154)に対応し、実行部174は、上記第1実施形態で説明した実行部112に対応し、制御部176は、上記各実施形態で説明した制御部114(156)に対応する。なお、本第3実施形態では、説明の便宜上、取得部172、実行部174、及び制御部176については、上記各実施形態で説明した取得部110(154)、実行部112、及び制御部114(156)と異なる部分について説明する。
 タッチパネル88は、第1撮像画像及び第2撮像画像の各々が表示部86に表示されている場合、上記第1実施形態で説明した画素指定情報を受け付ける。また、タッチパネル88は、第2撮像画像が表示部86に表示されている場合も、上記第1実施形態で説明した画素指定情報を受け付ける。
 取得部172は、第1撮像画像が表示部86に表示されている場合、タッチパネル88によって受け付けられた画素指定情報により指定された特徴的な3画素の各々を特定する2次元座標である第1特徴画素座標を取得する。第1特徴画素座標は、上記第1実施形態で説明した3特徴画素座標に対応する2次元座標である。
 取得部172は、第2撮像画像が表示部86に表示されている場合、タッチパネル88によって受け付けられた画素指定情報により指定された特徴的な3画素の各々を特定する2次元座標である第2特徴画素座標を取得する。第2特徴画素座標は、上記第1実施形態で説明した対応特徴画素座標に対応する2次元座標である。
 実行部174は、注目画素座標、対応注目画素座標、第1特徴画素座標、第2特徴画素座標、照射位置実空間座標、撮像レンズ50の焦点距離、及び撮像画素60A1の寸法に基づいて、撮像位置距離を導出する。
 次に、測距装置10Cの本開示の技術に係る部分の作用として、CPU100が撮像位置距離導出プログラム150を実行することで実現される撮像位置距離導出処理に含まれる第1導出処理について図29及び図30を参照して説明する。なお、図13及び図26に示すフローチャートと同一のステップについては、同一のステップ番号を付して、その説明を省略する。
 図29に示すフローチャートは、図26に示すフローチャートに比べ、ステップ304に代えてステップ349を有する点が異なる。また、図29に示すフローチャートは、図26に示すフローチャートに比べ、ステップ308に代えてステップ350,352を有する点が異なる。また、図29に示すフローチャートは、図26に示すフローチャートに比べ、ステップ310に代えてステップ353を有する点が異なる。また、図29に示すフローチャートは、図26に示すフローチャートに比べ、ステップ312に代えてステップ354を有する点が異なる。更に、図30に示すフローチャートは、図13に示すフローチャートに比べ、ステップ228J,228Kに代えてステップ356~372を有する点が異なる。
 ステップ349で、取得部172は、タッチパネル88によって領域指定情報が受け付けられ、受け付けられた領域指定情報により第1座標取得対象領域178(図27参照)が指定されたか否かを判定する。なお、第1座標取得対象領域は、上記第2実施形態で説明した座標取得対象領域158に対応する領域である。
 ステップ349において、領域指定情報により第1座標取得対象領域178が指定されていない場合は、判定が否定されて、ステップ306へ移行する。ステップ349において、領域指定情報により第1座標取得対象領域178が指定された場合は、判定が肯定されて、ステップ350へ移行する。なお、図示は省略するが、ステップ349において判定が肯定されると、取得部172は、表示部86に対して、後述のステップ353の処理が実行されることで表示部86に表示される再指定メッセージの表示を終了させる。
 ステップ350で、制御部176は、表示部86に対して、タッチパネル88で受け付けられた領域指定情報により指定された第1座標取得対象領域178を、第1撮像画像の表示領域内の他の領域と区別可能に強調して表示させる。なお、図示は省略するが、ここで、本実施形態では、タッチパネル88によって画素指定情報が受け付けられ、受け付けられた画素指定情報により3画素が指定される。そして、3画素が指定されると、第1座標取得対象領域178の強調表示が終了する。
 次のステップ352で、取得部172は、タッチパネル88によって受け付けられた画素指定情報により特徴的な3画素が指定されたか否かを判定する。
 一例として図27に示すように、タッチパネル88によって受け付けられた領域指定情報により第1座標取得対象領域178が指定された場合、第1座標取得対象領域178には、模様画像160が含まれている。この場合、特徴的な3画素とは、一例として図28に示すように、模様画像160の3隅に存在する画素である第1画素162、第2画素164、及び第3画素166を指す。
 ステップ352において、タッチパネル88によって受け付けられた画素指定情報により特徴的な3画素が指定されていない場合は、判定が否定されて、ステップ353へ移行する。ステップ352において、タッチパネル88によって受け付けられた画素指定情報により特徴的な3画素が指定された場合は、判定が肯定されて、ステップ354へ移行する。また、図示は省略するが、本ステップ352において判定が肯定されると、取得部172は、表示部86に対して、外壁面画像128の強調した表示を終了させる。
 ステップ353で、制御部176は、表示部86に対して再指定メッセージを第1撮像画像の既定領域に重畳した表示を開始させ、その後、ステップ349へ移行する。本第3実施形態に係る再指定メッセージとは、例えば、「特徴的な模様又は建材等が含まれる閉領域を指定した上で、特徴的な3画素を指定して下さい」とのメッセージを指す。本ステップ353の処理が実行されることで表示された再指定メッセージは、ステップ349において判定が肯定されると非表示される。
 ステップ354で、取得部172は、タッチパネル88によって受け付けられた画素指定情報により指定された特徴的な3画素を特定する第1特徴画素座標を取得し、その後、図30に示すステップ228Eへ移行する。なお、図28に示す例では、本ステップ354の処理が実行されることで、第1画素162、第2画素164、及び第3画素166の各々を特定する2次元座標が第1特徴画素座標として取得部172によって取得される。また、図示は省略するが、本ステップ354の処理が実行されると、第1撮像画像及び重畳表示情報が非表示される。
 図30に示すステップ356で、制御部176は、第2撮像画像から外壁面画像128に対応する外壁面画像である対応外壁面画像を特定し、その後、ステップ358へ移行する。
 ステップ358で、制御部176は、表示部86に対して、ステップ356の処理で特定した対応外壁面画像を、第2撮像画像の表示領域内の他の領域と区別可能に強調して表示させ、その後、ステップ360へ移行する。
 ステップ360で、取得部172は、タッチパネル88によって領域指定情報が受け付けられ、受け付けられた領域指定情報により第2座標取得対象領域が指定されたか否かを判定する。なお、第2座標取得対象領域は、第2撮像画像において、第1座標取得対象領域178(図28参照)に対応する領域としてユーザによってタッチパネル88を介して指定された領域である。
 ステップ360において、領域指定情報により第2座標取得対象領域が指定されていない場合は、判定が否定されて、ステップ362へ移行する。ステップ360において、領域指定情報により第2座標取得対象領域が指定された場合は、判定が肯定されて、ステップ364へ移行する。
 ステップ362で、取得部172は、第1導出処理を終了する条件を満足したか否かを判定する。ステップ362において、第1導出処理を終了する条件を満足していない場合は、判定が否定されて、ステップ360へ移行する。ステップ362において、第1導出処理を終了する条件を満足した場合は、判定が肯定されて、第1導出処理を終了する。なお、ステップ362において判定が肯定されると、取得部172は、表示部86に対して、第2撮像画像の表示を終了させる。
 ステップ364で、制御部176は、表示部86に対して、タッチパネル88で受け付けられた領域指定情報により指定された第2座標取得対象領域を、第2撮像画像の表示領域内の他の領域と区別可能に強調して表示させる。なお、図示は省略するが、ここで、本実施形態では、タッチパネル88によって画素指定情報が受け付けられ、受け付けられた画素指定情報により3画素が指定される。そして、3画素が指定されると、第2座標取得対象領域の強調表示が終了する。
 ステップ366で、取得部172は、タッチパネル88によって受け付けられた画素指定情報により特徴的な3画素が指定されたか否かを判定する。
 タッチパネル88によって受け付けられた領域指定情報により第2座標取得対象領域が指定された場合、第2座標取得対象領域には、模様画像160に対応する模様画像が含まれている。この場合、特徴的な3画素とは、第2撮像画像において、模様画像160に対応する模様画像の3隅に存在する画素である。模様画像160に対応する模様画像の3隅に存在する画素とは、例えば、第2撮像画像において、第1画素162に対応する画素、第2画素164に対応する画素、及び第3画素166に対応する画素を指す。
 ステップ366において、タッチパネル88によって受け付けられた画素指定情報により特徴的な3画素が指定されていない場合は、判定が否定されて、ステップ368へ移行する。ステップ366において、タッチパネル88によって受け付けられた画素指定情報により特徴的な3画素が指定された場合は、判定が肯定されて、ステップ370へ移行する。
 ステップ368で、制御部176は、表示部86に対して、本第3実施形態に係る再指定メッセージを第2撮像画像の既定領域に重畳した表示を開始させ、その後、ステップ360へ移行する。なお、本ステップ368の処理が実行されることで表示された再指定メッセージは、ステップ360において判定が肯定されると非表示される。
 ステップ370で、取得部172は、タッチパネル88によって受け付けられた画素指定情報により指定された特徴的な3画素を特定する第2特徴画素座標を取得し、その後、ステップ372へ移行する。なお、本ステップ370では、例えば、第2撮像画像において、第1画素162に対応する画素、第2画素164に対応する画素、及び第3画素166に対応する画素の各々を特定する2次元座標が第2特徴画素座標として取得部172によって取得される。
 ステップ372で、実行部174は、第1特徴画素座標、第2特徴画素座標、撮像レンズ50の焦点距離、及び撮像画素60A1の寸法から、数式(6)に示す平面方程式のa,b,cを導出することで、平面方程式により規定される平面の向きを導出する。なお、本ステップ372の処理で用いられる第1特徴画素座標は、ステップ354の処理で取得された第1特徴画素座標であり、上記第1実施形態で説明した3特徴画素座標に相当する。また、本ステップ372の処理で用いられる第2特徴画素座標は、ステップ370の処理で取得された第2特徴画素座標であり、上記第1実施形態で説明した対応特徴画素座標に相当する。
 以上説明したように、測距装置10Cでは、第1撮像画像においてタッチパネル88を介して特徴的な3画素が指定され、指定された特徴的な3画素を特定する第1特徴画素座標が取得部172により取得される(ステップ354)。また、第2撮像画像においてタッチパネル88を介して、第1撮像画像の特徴的な3画素に対応する特徴的な3画素が指定される(ステップ366:Y)。また、第2撮像画像においてタッチパネル88を介して指定された特徴的な3画素を特定する第2特徴画素座標が取得部172により取得される(ステップ370)。そして、実行部174により、注目画素座標、対応注目画素座標、第1特徴画素座標、第2特徴画素座標、焦点位置座標、撮像レンズ50の焦点距離、及び撮像画素60A1の寸法に基づいて、撮像位置距離が導出される。従って、測距装置10Cによれば、ユーザの意思に従って取得された第1特徴画素座標及び第2特徴画素座標を基に撮像位置距離を導出することができる。
 [第4実施形態]
 上記各実施形態では、第1位置及び第2位置のうち、第1位置でのみ測距が行われる場合について説明したが、本第4実施形態では、第2位置でも測距が行われる場合について説明する。なお、本第4実施形態では、上記各実施形態で説明した構成要素と同一の構成要素については同一の符号を付し、その説明を省略する。
 本第4実施形態に係る測距装置10Dは、測距装置10Aに比べ、二次記憶部104に撮像位置距離導出プログラム106に代えて撮像位置距離導出プログラム180が記憶されている点が異なる。また、測距装置10Dは、測距装置10Aに比べ、二次記憶部104に3次元座標導出プログラム108に代えて3次元座標導出プログラム181が記憶されている点が異なる。
 CPU100は、撮像位置距離導出プログラム180及び3次元座標導出プログラム181を実行することで、一例として図9に示すように、取得部182、導出部111、実行部184、及び制御部185として動作する。
 取得部182は、上記第2実施形態で説明した取得部154に対応し、実行部184は、上記第1実施形態で説明した実行部112に対応し、制御部185は、上記第2実施形態で説明した制御部156に対応する。なお、本第4実施形態では、説明の便宜上、取得部182については、上記第2実施形態で説明した取得部154と異なる部分について説明する。また、本第4実施形態では、説明の便宜上、実行部184については、上記第1実施形態で説明した実行部112と異なる部分について説明する。更に、本第4実施形態では、説明の便宜上、制御部185については、上記第2実施形態で説明した制御部156と異なる部分について説明する。
 取得部182は、取得部154に比べ、参照用距離を更に取得する。ここで言う「参照用距離」とは、第2計測位置の測距ユニット12により射出されたレーザ光を基に計測された距離を指す。
 実行部184は、注目画素座標、3特徴画素座標、参照用照射位置実空間座標、撮像レンズ50の焦点距離、及び撮像画素60A1の寸法に基づいて、第1撮像位置と第2撮像位置との距離である参照用撮像位置距離を導出する。そして、実行部184は、導出した参照用撮像位置距離を参照して撮像位置距離を調整することで、第1撮像位置と第2撮像位置との距離として最終的に採用される最終撮像位置距離を導出する。
 また、実行部184は、導出した最終撮像位置距離に基づいて指定画素3次元座標を導出する。最終指定画素実空間座標とは、本開示の技術に係る指定画素の一例である注目画素126の実空間上での座標である3次元座標として最終的に採用される3次元座標を指す。
 次に、測距装置10Dの本開示の技術に係る部分の作用として、CPU100が撮像位置距離導出プログラム180を実行することで実現される撮像位置距離導出処理に含まれる第1導出処理について図31を参照して説明する。なお、図13に示すフローチャートと同一のステップについては、同一のステップ番号を付して、その説明を省略する。
 図31に示すフローチャートは、図13に示すフローチャートに比べ、ステップ228E,228Gに代えてステップ400,402を有する点が異なる。また、図31に示すフローチャートは、図13に示すフローチャートに比べ、ステップ228L~228Nに代えてステップ404~416を有する点が異なる。
 図31に示すステップ400で、取得部182は、測距装置10Dにより第2位置で距離の計測及び撮像が実行されたか否かを判定する。ステップ400において、測距装置10Dにより第2位置で距離の計測及び撮像が実行されていない場合は、判定が否定されて、ステップ228Fへ移行する。ステップ400において、測距装置10Dにより第2位置で距離の計測及び撮像が実行された場合は、判定が肯定されて、ステップ402へ移行する。
 ステップ402で、取得部182は、第2位置で計測された距離である参照用距離、及び、第2位置で撮像が実行されることによって得られた第2撮像画像を示す第2撮像画像信号を取得し、その後、ステップ218Hへ移行する。
 ステップ404で、実行部184は、ステップ206の処理で導出された照射位置実空間座標に基づいて数式(6)に示す平面方程式である第1平面方程式を確定し、その後、ステップ406へ移行する。
 ステップ406で、実行部184は、特徴画素3次元座標及び第1平面方程式に基づいて、撮像位置距離を導出し、その後、ステップ408へ移行する。
 ステップ408で、実行部184は、ステップ402の処理で取得部182によって取得された参照用距離、半画角α、射出角度β、及び基準点間距離Mから、数式(2)に基づいて、参照用照射位置実空間座標を導出し、その後、ステップ410へ移行する。なお、本ステップ408の処理で用いられる参照用距離は、上記第1実施形態で説明した距離Lに対応する距離である。
 ステップ410で、実行部184は、ステップ408の処理で導出した参照用照射位置実空間座標に基づいて数式(6)に示す平面方程式である第2平面方程式を確定し、その後、ステップ412へ移行する。すなわち、本ステップ410において、実行部184は、ステップ228Kの処理で導出したa,b,c及びステップ408の処理で導出した参照用照射位置実空間座標を数式(6)に代入することで、数式(6)のdを確定する。ステップ228Kの処理で数式(6)のa,b,cが導出されているので、本ステップ410の処理で数式(6)のdが確定されると、第2平面方程式が確定される。
 ステップ412で、実行部184は、特徴画素3次元座標及び第2平面方程式に基づいて、参照用撮像位置距離を導出し、その後、ステップ414へ移行する。なお、参照用撮像位置距離は、例えば、数式(7)に示す“B”に相当し、第1特徴画素3次元座標が第2平面方程式に代入されることで導出される。
 ステップ414で、実行部184は、ステップ412の処理で導出した参照用撮像位置距離を参照して、ステップ406の処理で導出した撮像位置距離を調整することで、最終撮像位置距離を導出し、その後、ステップ416へ移行する。ここで、撮像位置距離を調整するとは、例えば、撮像位置距離及び参照用撮像位置距離の平均値を求めること、撮像位置距離及び参照用撮像位置距離の平均値に第1調整用係数を乗じること、又は第2調整用係数を撮像位置距離に乗じることを指す。
 なお、第1調整用係数及び第2調整用係数は、何れも、例えば、参照用撮像位置距離に応じて一意に定まる係数である。第1調整用係数は、例えば、参照用撮像位置距離と第1調整用係数とが予め対応付けられた対応テーブル、又は、参照用撮像位置距離が独立変数とされ、第1調整用係数が従属変数とされた演算式から導出される。第2調整用係数も同様に導出される。対応テーブル及び演算式は、測距装置10Dの出荷前の段階で、測距装置10Dの実機による試験、又は測距装置10Dの設計仕様等に基づくコンピュータ・シミュレーション等の結果から導き出された導出用テーブル又は演算式から導出される。
 よって、最終撮像位置距離の一例としては、撮像位置距離及び参照用撮像位置距離の平均値、撮像位置距離及び参照用撮像位置距離の平均値に第1調整用係数を乗じて得た値、又は撮像位置距離に第2調整用係数を乗じて得た値が挙げられる。
 ステップ416で、制御部185は、表示部86に対して、一例として図32に示すように、ステップ414の処理で導出された最終撮像位置距離を第2撮像画像に重畳して表示させる。また、ステップ416で、制御部185は、ステップ414の処理で導出された最終撮像位置距離を既定の記憶領域に記憶し、その後、本撮像位置距離導出処理を終了する。
 次に、3次元座標導出ボタン90Gがオンされた場合にCPU100が3次元座標導出プログラム181を実行することで実現される3次元座標導出処理について図33を参照して説明する。なお、ここでは、説明の便宜上、図31に示す第1導出処理が実行部184によって実行されたことを前提として説明する。
 図33に示す3次元座標導出処理では、先ず、ステップ450で、実行部184は、第1導出処理に含まれるステップ414の処理で最終撮像位置距離が既に導出されているか否かを判定する。ステップ450において、第1導出処理に含まれるステップ414の処理で最終撮像位置距離が導出されていない場合は、判定が否定されて、ステップ458へ移行する。ステップ450において、第1導出処理に含まれるステップ414の処理で最終撮像位置距離が既に導出されている場合は、判定が肯定されて、ステップ452へ移行する。
 ステップ452で、実行部184は、導出開始条件を満足したか否かを判定する。ステップ452において、導出開始条件を満足していない場合は、判定が否定されて、ステップ458へ移行する。ステップ452において、導出開始条件を満足した場合は、判定が肯定されて、ステップ454へ移行する。
 ステップ454で、実行部184は、注目画素座標、対応注目画素座標、最終撮像位置距離、撮像レンズ50の焦点距離、撮像画素60A1の寸法、及び数式(1)に基づいて、指定画素3次元座標を導出し、その後、ステップ456へ移行する。
 なお、本ステップ454では、注目画素座標、対応注目画素座標、最終撮像位置距離、撮像レンズ50の焦点距離、及び撮像画素60A1の寸法が数式(1)に代入されることで、指定画素3次元座標が導出される。
 ステップ456で、制御部185は、一例として図34に示すように、表示部86に対して、ステップ454の処理で導出された指定画素3次元座標を第2撮像画像に重畳して表示させる。また、ステップ456で、制御部185は、ステップ454の処理で導出された指定画素3次元座標を既定の記憶領域に記憶し、その後、ステップ458へ移行する。
 なお、図34に示す例では、(20160,50132,137810)が、ステップ454の処理で導出された指定画素3次元座標に該当する。また、図34に示す例では、指定画素3次元座標が注目画素126に近接して表示されている。
 ステップ458で、実行部184は、3次元座標導出処理を終了する条件を満足したか否かを判定する。ステップ458において、3次元座標導出処理を終了する条件を満足していない場合は、判定が否定されて、ステップ450へ移行する。ステップ458において、3次元座標導出処理を終了する条件を満足した場合は、判定が肯定されて、3次元座標導出処理を終了する。
 以上説明したように、測距装置10Dでは、第2位置から被写体までの距離が計測され、計測された距離である参照用距離が取得部182により取得される(ステップ402)。また、実行部184により、参照用距離に基づいて参照用照射位置実空間座標が導出される(ステップ408)。また、実行部184により、注目画素座標、対応注目画素座標、3特徴画素座標、対応特徴画素座標、参照用照射位置実空間座標、撮像レンズ50の焦点距離、及び撮像画素60A1の寸法に基づいて、参照用撮像位置距離が導出される(ステップ406)。そして、実行部184により、参照用撮像位置距離が参照されて撮像位置距離が調整されることで、最終撮像位置距離が導出される(ステップ414)。従って、測距装置10Dによれば、参照用撮像位置距離を用いない場合に比べ、第1撮像位置と第2撮像位置との距離を高精度に導出することができる。
 また、測距装置10Dでは、撮像位置距離導出処理で導出された最終撮像位置距離に基づいて、指定画素3次元座標が導出される(図33参照)。従って、測距装置10Dによれば、最終撮像位置距離を用いない場合に比べ、指定画素3次元座標を高精度に導出することができる。
 更に、測距装置10Dでは、指定画素3次元座標は、注目画素座標、対応注目画素座標、最終撮像位置距離、撮像レンズ50の焦点距離、及び撮像画素60A1の寸法に基づいて規定されている(数式(1)参照)。従って、測距装置10Dによれば、指定画素3次元座標が最終撮像位置距離、注目画素座標、対応注目画素座標、撮像レンズ50の焦点距離、及び撮像画素60A1の寸法に基づいて規定されない場合に比べ、指定画素3次元座標を高精度に導出することができる。
 なお、上記第4実施形態では、第2位置から射出されたレーザ光を基に計測された距離を参照用距離としたが、本開示の技術はこれに限定されるものではない。例えば、第1位置から射出されたレーザ光を基に計測された距離を参照用距離としてもよい。
 [第5実施形態]
 上記各実施形態では、1台の測距装置により撮像位置距離等が導出される場合について説明したが、本第5実施形態では、2台の測距装置及びパーソナル・コンピュータ(以下、PCと称する)により撮像位置距離等が導出される場合について説明する。なお、PCとは、Personal Computerの略語である。なお、本第5実施形態では、上記各実施形態で説明した構成要素と同一の構成要素については同一の符号を付し、その説明を省略する。
 一例として図35に示すように、本第5実施形態に係る情報処理システム500は、測距装置10E1,10E2及びPC502を有する。なお、本第5実施形態では、PC502が、測距装置10E1,10E2と通信可能とされている。また、本第5実施形態において、PC502は、本開示の技術に係る情報処理装置の一例である。
 一例として図35に示すように、測距装置10E1は第1位置に配置されており、測距装置10E2は第1位置と異なる第2位置に配置されている。
 一例として図36に示すように、測距装置10E1,10E2は同一の構成とされている。なお、以下では、測距装置10E1,10E2を区別して説明する必要がない場合、「測距装置10E」と称する。
 測距装置10Eは、測距装置10Aに比べ、撮像装置14に代えて撮像装置15を有する点が異なる。撮像装置15は、撮像装置14に比べ、撮像装置本体18に代えて撮像装置本体19を有する点が異なる。
 撮像装置本体19は、撮像装置本体18に比べ、通信I/F83を有する点が異なる。通信I/F83は、バスライン84に接続されており、主制御部62の制御下で動作する。
 通信I/F83は、例えば、インターネットなどの通信網(図示省略)に接続されており、通信網に接続されたPC502との間の各種情報の送受信を司る。
 一例として図37に示すように、PC502は、主制御部503を備えている。主制御部503は、CPU504、一次記憶部506、及び二次記憶部508を有する。CPU504、一次記憶部506、及び二次記憶部508は、バスライン510を介して相互に接続されている。
 また、PC502は、通信I/F512を備えている。通信I/F512は、バスライン510に接続されており、主制御部503の制御下で動作する。通信I/F512は、通信網に接続されており、通信網に接続された測距装置10Eとの間の各種情報の送受信を司る。
 また、PC502は、受付部513及び表示部514を備えている。受付部513は、受付I/F(図示省略)を介してバスライン510に接続されており、受付I/Fは、受付部513によって受け付けられた指示の内容を示す指示内容信号を主制御部503に出力する。なお、受付部513は、例えば、キーボード、マウス、及びタッチパネルにより実現される。
 表示部514は、表示制御部(図示省略)を介してバスライン510に接続されており、表示制御部の制御下で各種情報を表示する。なお、表示部514は、例えば、LCDにより実現される。
 二次記憶部508は、上記各実施形態で説明した撮像位置距離導出プログラム106(150,168,180)及び3次元座標導出プログラム108(181)を記憶している。なお、以下では、説明の便宜上、撮像位置距離導出プログラム106,150,168,180を区別して説明する必要がない場合、符号を付さずに「撮像位置距離導出プログラム」と称する。また、以下では、説明の便宜上、3次元座標導出プログラム108,181を区別して説明する必要がない場合、符号を付さずに「3次元座標導出プログラム」と称する。
 CPU504は、測距装置10E1から第1撮像画像信号、注目画素座標、及び距離等を通信I/F512を介して取得する。また、CPU504は、測距装置10E2から第2撮像画像信号等を通信I/F512を介して取得する。
 CPU504は、二次記憶部508から撮像位置距離導出プログラム及び3次元座標導出プログラムを読み出して一次記憶部506に展開し、撮像位置距離導出プログラム及び3次元座標導出プログラムを実行する。なお、以下では、説明の便宜上、撮像位置距離導出プログラム及び3次元座標導出プログラムを総称する場合、「導出プログラム」と称する。
 CPU504は、導出プログラムを実行することで、取得部110(154,172,182)、導出部111、実行部112(174,184)、及び制御部114(156,176,185)として動作する。
 よって、情報処理システム500では、PC502が測距装置10Eから第1撮像画像信号、2撮像画像信号、注目画素座標、及び距離等を通信I/F512を介して取得した上で導出プログラムを実行することで、上記各実施形態と同様の作用及び効果が得られる。
 [第6実施形態]
 上記第1実施形態では、測距ユニット12及び撮像装置14により測距装置10Aが実現される場合を例示したが、本第6実施形態では、更にスマートデバイス602を備えることによって実現される測距装置10Fについて説明する。なお、本第6実施形態では、上記各実施形態と同一の構成要素については同一の符号を付して、その説明を省略し、上記各実施形態と異なる部分についてのみ説明する。
 一例として図38に示すように、本第6実施形態に係る測距装置10Fは、上記第1実施形態に係る測距装置10Aに比べ、撮像装置14に代えて撮像装置600を有する点が異なる。また、測距装置10Fは、測距装置10Aに比べ、スマートデバイス602を有する点が異なる。
 撮像装置600は、撮像装置14に比べ、撮像装置本体18に代えて撮像装置本体603を有する点が異なる。
 撮像装置本体603は、撮像装置本体18に比べ、無線通信部604及び無線通信用アンテナ606を有する点が異なる。
 無線通信部604は、バスライン84及び無線通信用アンテナ606に接続されている。主制御部62は、スマートデバイス602へ送信される対象の情報である送信対象情報を無線通信部604に出力する。
 無線通信部604は、主制御部62から入力された送信対象情報を無線通信用アンテナ606を介してスマートデバイス602へ電波で送信する。また、無線通信部604は、スマートデバイス602からの電波が無線通信用アンテナ606で受信されると、受信された電波に応じた信号を取得し、取得した信号を主制御部62に出力する。
 スマートデバイス602は、CPU608、一次記憶部610、及び二次記憶部612を備えている。CPU608、一次記憶部610、及び二次記憶部612は、バスライン614に接続されている。
 CPU608は、スマートデバイス602を含めて測距装置10Fの全体を制御する。一次記憶部610は、各種プログラムの実行時のワークエリア等として用いられる揮発性のメモリである。一次記憶部610の一例としては、RAMが挙げられる。二次記憶部612は、スマートデバイス602を含めて測距装置10Fの全体の作動を制御する制御プログラム及び各種パラメータ等を予め記憶する不揮発性のメモリである。二次記憶部612の一例としては、フラッシュメモリ又はEEPROMが挙げられる。
 スマートデバイス602は、表示部615、タッチパネル616、無線通信部618、及び無線通信用アンテナ620を備えている。
 表示部615は、表示制御部(図示省略)を介してバスライン614に接続されており、表示制御部の制御下で各種情報を表示する。なお、表示部615は、例えば、LCDにより実現される。
 タッチパネル616は、表示部615の表示画面に重ねられており、指示体による接触を受け付ける。タッチパネル616は、タッチパネルI/F(図示省略)を介してバスライン614に接続されており、指示体により接触された位置を示す位置情報をタッチパネルI/Fに出力する。タッチパネルI/Fは、CPU608の指示に従ってタッチパネルI/Fを作動させ、タッチパネル616から入力された位置情報をCPU608に出力する。
 表示部615には、計測撮像ボタン90A、撮像ボタン90B、撮像系動作モード切替ボタン90C、広角指示ボタン90D、及び望遠指示ボタン90E、撮像位置距離導出ボタン90F、及び3次元座標導出ボタン90G等に相当するソフトキーが表示される(図39参照)。
 例えば、図39に示すように、表示部615には、計測撮像ボタン90Aとして機能する計測撮像ボタン90A1がソフトキーとして表示され、タッチパネル616を介してユーザによって押下される。また、例えば、表示部615には、撮像ボタン90Bとして機能する撮像ボタン90B1がソフトキーとして表示され、タッチパネル616を介してユーザによって押下される。また、例えば、表示部615には、撮像系動作モード切替ボタン90Cとして機能する撮像系動作モード切替ボタン90C1がソフトキーとして表示され、タッチパネル616を介してユーザによって押下される。
 また、例えば、表示部615には、広角指示ボタン90Dとして機能する広角指示ボタン90D1がソフトキーとして表示され、タッチパネル616を介してユーザによって押下される。更に、例えば、表示部615には、望遠指示ボタン90Eとして機能する望遠指示ボタン90E1がソフトキーとして表示され、タッチパネル616を介してユーザによって押下される。
 また、例えば、表示部615には、撮像位置距離導出ボタン90Fとして機能する撮像位置距離導出ボタン90F1がソフトキーとして表示され、タッチパネル616を介してユーザによって押下される。また、例えば、表示部615には、3次元座標導出ボタン90Gとして機能する3次元座標導出ボタン90G1がソフトキーとして表示され、タッチパネル616を介してユーザによって押下される。
 無線通信部618は、バスライン614及び無線通信用アンテナ620に接続されている。無線通信部618は、CPU608から入力された信号を無線通信用アンテナ620を介して撮像装置本体603へ電波で送信する。また、無線通信部618は、撮像装置本体603からの電波が無線通信用アンテナ620で受信されると、受信された電波に応じた信号を取得し、取得した信号をCPU608に出力する。従って、撮像装置本体603は、スマートデバイス602との間で無線通信が行われることで、スマートデバイス602によって制御される。
 二次記憶部612は、導出プログラムを記憶している。CPU608は、二次記憶部612から導出プログラムを読み出して一次記憶部610に展開し、導出プログラムを実行する。
 CPU608は、導出プログラムを実行することで、取得部110(154,172,182)、導出部111、実行部112(174,184)、及び制御部114(156,176,185)として動作する。例えば、CPU608が撮像位置距離導出プログラム106を実行することで、上記第1実施形態で説明した撮像位置距離導出処理が実現される。また、例えば、CPU608が3次元座標導出プログラム108を実行することで、上記第1実施形態で説明した3次元座標導出処理が実現される。
 従って、測距装置10Fでは、スマートデバイス602が導出プログラムを実行することで、上記各実施形態と同様の作用及び効果が得られる。また、測距装置10Fによれば、撮像装置600によって撮像位置距離導出処理及び3次元導出処理が実行される場合に比べ、上記各実施形態で説明した効果を得るにあたって、撮像装置600にかかる負荷を軽減することができる。
 なお、上記各実施形態では、対応注目画素が、第2撮像画像を解析対象として画像解析を実行することで特定され、特定された対応注目画素を特定する対応注目画素座標が取得されるが(ステップ228I,214H1参照)、本開示の技術はこれに限定されるものではない。例えば、ユーザがタッチパネル88を介して第2撮像画像から注目画素に対応する画素を対応注目画素として指定するようにしてもよい。
 また、上記各実施形態では、実行部112(174,184)が照射位置実空間座標、平面の向き、撮像位置距離、及び指定画素3次元座標等を演算式を用いて導出する場合を例示したが、本開示の技術はこれに限定されるものでない。例えば、実行部112(174,184)は、演算式の独立変数を入力とし、演算式の従属変数を出力とするテーブルを用いて照射位置実空間座標、平面の向き、撮像位置距離、及び指定画素3次元座標等を導出するようにしてもよい。
 また、上記各実施形態では、導出プログラムを二次記憶部104(508,612)から読み出す場合を例示したが、必ずしも最初から二次記憶部104(508,612)に記憶させておく必要はない。例えば、図40に示すように、SSD(Solid State Drive)又はUSB(Universal Serial Bus)メモリなどの任意の可搬型の記憶媒体700に先ずは導出プログラムを記憶させておいてもよい。この場合、記憶媒体700の導出プログラムが測距装置10A(10B,10C,10D,10F)(以下、「測距装置10A等」と称する)又はPC502にインストールされ、インストールされた導出プログラムがCPU100(504,608)によって実行される。
 また、通信網(図示省略)を介して測距装置10A等又はPC502に接続される他のコンピュータ又はサーバ装置等の記憶部に導出プログラムを記憶させておき、導出プログラムが測距装置10A等の要求に応じてダウンロードされるようにしてもよい。この場合、ダウンロードされた導出プログラムがCPU100(504,608)によって実行される。
 また、上記各実施形態では、照射位置目印136、撮像位置距離、及び指定画素3次元座標等の各種情報が表示部86に表示される場合を例示したが、本開示の技術はこれに限定されるものではない。例えば、測距装置10A等又はPC502に接続して使用される外部装置の表示部に各種情報が表示されるようにしてもよい。外部装置の一例としては、PC、又は眼鏡型若しくは腕時計型のウェアラブル端末装置が挙げられる。
 また、上記各実施形態では、照射位置目印136、撮像位置距離、及び指定画素3次元座標等が表示部86により可視表示される場合を例示したが、本開示の技術はこれに限定されるものではない。例えば、音声再生装置による音声の出力等の可聴表示又はプリンタによる印刷物の出力等の永久可視表示を可視表示に代えて行ってもよいし、併用してもよい。
 また、上記各実施形態では、照射位置目印136、撮像位置距離、及び指定画素3次元座標等が表示部86に表示される場合を例示したが、本開示の技術はこれに限定されるものではない。例えば、照射位置目印136、撮像位置距離、及び指定画素3次元座標等のうちの少なくとも1つが表示部86と異なる表示部(図示省略)に表示されるようにし、残りが表示部86に表示されるようにしてもよい。照射位置目印136、撮像位置距離、及び指定画素3次元座標等の各々が表示部86を含めた複数の表示部に個別に表示されるようにしてもよい。
 また、上記各実施形態では、測距用の光としてレーザ光を例示しているが、本開示の技術はこれに限定されるものではなく、指向性のある光である指向性光であればよい。例えば、発光ダイオード(LED:Light Emitting Diode)又はスーパールミネッセントダイオード(SLD:Super Luminescent Diode)等により得られる指向性光であってもよい。指向性光が有する指向性は、レーザ光が有する指向性と同程度の指向性であることが好ましく、例えば、数メートルから数キロメートルの範囲内における測距で使用可能な指向性であることが好ましい。
 また、上記各実施形態で説明した撮像位置距離導出処理及び3次元座標導出処理はあくまでも一例である。従って、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよいことは言うまでもない。また、撮像位置距離導出処理及び3次元座標導出処理に含まれる各処理は、ASIC等のハードウェア構成のみで実現されてもよいし、コンピュータを利用したソフトウェア構成とハードウェア構成との組み合わせで実現されてもよい。
 また、上記各実施形態では、説明の便宜上、測距装置10A等に含まれる撮像装置本体18の側面に測距ユニット12が取り付けられる場合について説明したが、本開示の技術はこれに限定されるものではない。例えば、撮像装置本体18の上面又は下面に測距ユニット12が取り付けられてもよい。また、例えば、図41に示すように、測距装置10A等に代えて測距装置10Gを適用してもよい。一例として図41に示すように、測距装置10Gは、測距装置10A等に比べ、測距ユニット12に代えて測距ユニット12Aを有する点、及び撮像装置本体18に代えて撮像装置本体18Aを有する点が異なる。
 図41に示す例において、測距ユニット12Aは、撮像装置本体18Aの筐体18A1に収容されており、対物レンズ32,38は、測距装置10Gの正面側(撮像レンズ50が露出している側)に筐体18A1から露出している。また、測距ユニット12Aは、光軸L1,L2が鉛直方向において同一の高さに設定されるように配置されることが好ましい。なお、筐体18A1に対して測距ユニット12Aが挿脱可能な開口(図示省略)が筐体18A1に形成されていてもよい。
 なお、上記第1実施形態に係る撮像位置距離算出処理に含まれるステップ206,207の処理で用いられる半画角α、及び上記第4実施形態に係る撮像位置距離算出処理に含まれるステップ408の処理で用いられる半画角αは、次の数式(10)に基づいて導出される。数式(10)において、“f”とは、焦点距離を指す。
Figure JPOXMLDOC01-appb-M000010
 本明細書に記載された全ての文献、特許出願及び技術規格は、個々の文献、特許出願及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。
 以上の実施形態に関し、更に以下の付記を開示する。
 (付記1)
 被写体が第1撮像位置から撮像されて得られた第1撮像画像と、被写体が第1撮像位置とは異なる第2撮像位置から撮像されて得られた第2撮像画像と、第1撮像位置に対応する位置及び第2撮像位置に対応する位置の一方から指向性のある光である指向性光が被写体に射出されて指向性光の反射光が受光されることにより計測された被写体までの距離と、を取得する取得部と、
 取得部により取得された距離に基づいて、指向性光による被写体に対する実空間上での照射位置を特定する照射位置実空間座標、並びに、第1撮像画像及び第2撮像画像の各々において、照射位置実空間座標により特定される照射位置と対応する画素の位置を特定する照射位置画素座標を導出する導出部と、
 照射位置画素座標により特定される画素の位置が第1撮像画像及び第2撮像画像の各々において互いに対応する位置で特定可能な画素の位置と異なる画素の位置である位置特定不可能状態の場合に、第1撮像画像及び第2撮像画像の各々において、実空間上で指向性光が照射された照射位置と同一の平面状領域に存在し、かつ、互いに対応する位置で特定可能な3画素以上の複数画素を特定する複数の座標である複数画素座標と、照射位置実空間座標と、被写体の撮像に用いられた撮像レンズの焦点距離と、被写体を撮像する撮像画素群に含まれる撮像画素の寸法と、に基づいて第1撮像位置と第2撮像位置との距離である撮像位置距離を導出する導出処理を実行する実行部と、
 を含む情報処理装置。
 (付記2)
 取得部は、複数画素座標を更に取得し、
 導出処理は、取得部により取得された複数画素座標と、照射位置実空間座標と、焦点距離と、寸法とに基づいて撮像位置距離を導出する処理である付記1に記載の情報処理装置。
 (付記3)
 複数画素は、第1撮像画像及び第2撮像画像の各々から画素を指定する第1画素指定情報を受け付ける第1受付部によって受け付けられた第1画素指定情報により指定され、
 取得部は、第1画素指定情報により指定された複数画素を特定する複数の座標を複数画素座標として取得する付記2に記載の情報処理装置。
 (付記4)
 複数画素座標は、第1撮像画像及び第2撮像画像の各々にて、実空間上で照射位置と同一の平面状領域に存在し、かつ、互いに対応する位置で特定可能な3画素以上の既定数の画素であって、取り囲む面積が最大となる複数画素の各々を特定する座標である付記2に記載の情報処理装置。
 (付記5)
 第1表示部に対して第1撮像画像及び第2撮像画像の少なくとも一方を表示させ、かつ、表示領域内で照射位置と同一の平面状領域に対応する対応領域を他の領域と区別可能に表示させる制御を行う第1制御部を更に含み、
 取得部は、第1表示部に対応領域が表示された状態で対応領域の一部を指定する領域指定情報を受け付ける第2受付部によって受け付けられた領域指定情報により指定された対応領域の一部から複数画素座標を取得する付記2に記載の情報処理装置。
 (付記6)
 取得部は、第1撮像位置に対応する位置及び第2撮像位置に対応する位置の他方から指向性光が被写体に射出されて指向性光の反射光が受光されることにより計測された被写体までの参照用距離を更に取得し、
 導出部は、取得部により取得された参照用距離に基づいて、指向性光による被写体に対する照射位置を特定する参照用照射位置実空間座標を更に導出し、
 実行部は、複数画素座標と、参照用照射位置実空間座標と、焦点距離と、寸法と、に基づいて第1撮像位置と第2撮像位置との距離である参照用撮像位置距離を導出し、導出した参照用撮像位置距離を参照して撮像位置距離を調整することで、第1撮像位置と第2撮像位置との距離として最終的に採用される最終撮像位置距離を導出する処理を実行する付記1から付記5の何れか1つに記載の情報処理装置。
 (付記7)
 実行部は、第1撮像画像及び第2撮像画像の各々において実空間上での位置が対応する画素として指定された指定画素の位置に対応する実空間上での位置の座標として最終的に採用される最終指定画素実空間座標を最終撮像位置距離に基づいて導出する処理を実行する付記6に記載の情報処理装置。
 (付記8)
 最終指定画素実空間座標は、最終撮像位置距離と、第1撮像画像及び第2撮像画像の各々において、指定画素として互いに対応する位置で特定可能な画素を特定する指定画素座標と、焦点距離と、寸法と、に基づいて規定された付記7に記載の情報処理装置。

Claims (15)

  1.  被写体が第1撮像位置から撮像されて得られた第1撮像画像と、前記被写体が前記第1撮像位置とは異なる第2撮像位置から撮像されて得られた第2撮像画像と、前記第1撮像位置に対応する位置から指向性のある光である指向性光が前記被写体に射出されて前記指向性光の反射光が受光されることにより計測された前記被写体までの距離と、を取得する取得部と、
     前記取得部により取得された前記距離に基づいて、前記指向性光による前記被写体に対する実空間上での照射位置を特定する照射位置実空間座標、並びに、前記第1撮像画像及び前記第2撮像画像の各々において、前記照射位置実空間座標により特定される照射位置と対応する画素の位置を特定する照射位置画素座標を導出する導出部と、
     前記照射位置画素座標により特定される画素の位置が前記第1撮像画像及び前記第2撮像画像の各々において互いに対応する位置で特定可能な画素と異なる画素の位置である位置特定不可能状態の場合に、前記第1撮像画像及び前記第2撮像画像の各々において、実空間上で前記指向性光が照射された照射位置と同一の平面状領域に存在し、かつ、互いに対応する位置で特定可能な3画素以上の複数画素を特定する複数の座標である複数画素座標と、前記照射位置実空間座標と、前記被写体の撮像に用いられた撮像レンズの焦点距離と、前記被写体を撮像する撮像画素群に含まれる撮像画素の寸法と、に基づいて前記第1撮像位置と前記第2撮像位置との距離である撮像位置距離を導出する導出処理を実行する実行部と、
     を含む情報処理装置。
  2.  前記実行部は、前記位置特定不可能状態の場合に、前記位置特定不可能状態であることを通知する位置特定不可能状態通知処理を更に実行する請求項1に記載の情報処理装置。
  3.  前記実行部は、前記第1撮像画像及び前記第2撮像画像の各々において実空間上での位置が対応する画素として指定された指定画素の位置に対応する実空間上での位置の座標である指定画素実空間座標を前記撮像位置距離に基づいて導出する処理を実行する請求項1又は請求項2に記載の情報処理装置。
  4.  前記指定画素実空間座標は、前記撮像位置距離と、前記第1撮像画像及び前記第2撮像画像の各々において、前記指定画素として互いに対応する位置で特定可能な画素を特定する指定画素座標と、前記焦点距離と、前記寸法と、に基づいて規定された請求項3に記載の情報処理装置。
  5.  前記導出処理は、前記複数画素座標、前記焦点距離、及び前記寸法に基づいて、前記複数画素座標に対応する実空間上での座標を含む平面を示す平面方程式により規定される前記平面の向きを導出し、導出した前記向きと前記照射位置実空間座標とに基づいて前記平面方程式を確定し、確定した前記平面方程式と、前記複数画素座標と、前記焦点距離と、前記寸法とに基づいて前記撮像位置距離を導出する処理である請求項1から請求項4の何れか一項に記載の情報処理装置。
  6.  被写体が第1撮像位置から撮像されて得られた第1撮像画像と、前記被写体が前記第1撮像位置とは異なる第2撮像位置から撮像されて得られた第2撮像画像と、前記第1撮像位置に対応する位置から指向性のある光である指向性光が前記被写体に射出されて前記指向性光の反射光が受光されることにより計測された前記被写体までの距離と、を取得する取得部と、
     前記取得部により取得された前記距離に基づいて、前記指向性光による前記被写体に対する実空間上での照射位置を特定する照射位置実空間座標、並びに、前記第1撮像画像及び前記第2撮像画像の各々において、前記照射位置実空間座標により特定される照射位置と対応する画素の位置を特定する照射位置画素座標を導出する導出部と、
     前記照射位置画素座標により特定される画素の位置が前記第1撮像画像及び前記第2撮像画像の各々において互いに対応する位置で特定可能な画素の位置である位置特定可能状態の場合に、前記照射位置実空間座標と、前記照射位置画素座標と、前記被写体の撮像に用いられた撮像レンズの焦点距離と、前記被写体を撮像する撮像画素群に含まれる撮像画素の寸法と、に基づいて撮像位置距離を導出する導出処理を実行する実行部と、
     を含む情報処理装置。
  7.  前記実行部は、前記照射位置画素座標により特定される画素の位置が前記第1撮像画像及び前記第2撮像画像の各々において互いに対応する位置で特定可能な画素と異なる画素の位置である位置特定不可能状態の場合に、前記第1撮像画像及び前記第2撮像画像の各々において、実空間上で前記指向性光が照射された照射位置と同一の平面状領域に存在し、かつ、互いに対応する位置で特定可能な3画素以上の複数画素を特定する複数の座標である複数画素座標と、前記照射位置実空間座標と、前記焦点距離と、前記寸法と、に基づいて前記撮像位置距離を導出する複数画素使用導出処理を実行し、
     前記導出処理は、前記複数画素使用導出処理による前記撮像位置距離の導出で用いられるパラメータの個数よりも少ない複数のパラメータに基づいて前記撮像位置距離を導出する処理である請求項6に記載の情報処理装置。
  8.  前記実行部は、前記位置特定可能状態の場合に、前記位置特定可能状態であることを通知する位置特定可能状態通知処理を更に実行する請求項6又は請求項7に記載の情報処理装置。
  9.  前記指向性光を射出し、前記反射光を受光することにより前記距離を計測する計測部を更に含み、
     前記取得部は、前記計測部により計測された前記距離を取得する請求項1から請求項8の何れか一項に記載の情報処理装置。
  10.  前記被写体を撮像する撮像部を更に含み、
     前記取得部は、前記被写体が前記第1撮像位置から前記撮像部により撮像されて得られた前記第1撮像画像、及び前記被写体が前記第2撮像位置から前記撮像部により撮像されて得られた前記第2撮像画像を取得する請求項1から請求項9の何れか一項に記載の情報処理装置。
  11.  表示部に対して前記実行部による導出結果を表示させる制御を行う制御部を更に含む請求項1から請求項10の何れか一項に記載の情報処理装置。
  12.  被写体が第1撮像位置から撮像されて得られた第1撮像画像と、前記被写体が前記第1撮像位置とは異なる第2撮像位置から撮像されて得られた第2撮像画像と、前記第1撮像位置に対応する位置から指向性のある光である指向性光が前記被写体に射出されて前記指向性光の反射光が受光されることにより計測された前記被写体までの距離と、を取得し、
     取得した前記距離に基づいて、前記指向性光による前記被写体に対する実空間上での照射位置を特定する照射位置実空間座標、並びに、前記第1撮像画像及び前記第2撮像画像の各々において、前記照射位置実空間座標により特定される照射位置と対応する画素の位置を特定する照射位置画素座標を導出し、
     前記照射位置画素座標により特定される画素の位置が前記第1撮像画像及び前記第2撮像画像の各々において互いに対応する位置で特定可能な画素と異なる画素の位置である位置特定不可能状態の場合に、前記第1撮像画像及び前記第2撮像画像の各々において、実空間上で前記指向性光が照射された照射位置と同一の平面状領域に存在し、かつ、互いに対応する位置で特定可能な3画素以上の複数画素を特定する複数の座標である複数画素座標と、前記照射位置実空間座標と、前記被写体の撮像に用いられた撮像レンズの焦点距離と、前記被写体を撮像する撮像画素群に含まれる撮像画素の寸法と、に基づいて前記第1撮像位置と前記第2撮像位置との距離である撮像位置距離を導出する導出処理を実行することを含む情報処理方法。
  13.  被写体が第1撮像位置から撮像されて得られた第1撮像画像と、前記被写体が前記第1撮像位置とは異なる第2撮像位置から撮像されて得られた第2撮像画像と、前記第1撮像位置に対応する位置から指向性のある光である指向性光が前記被写体に射出されて前記指向性光の反射光が受光されることにより計測された前記被写体までの距離と、を取得し、 取得した前記距離に基づいて、前記指向性光による前記被写体に対する実空間上での照射位置を特定する照射位置実空間座標、並びに、前記第1撮像画像及び前記第2撮像画像の各々において、前記照射位置実空間座標により特定される照射位置と対応する画素の位置を特定する照射位置画素座標を導出し、
     前記照射位置画素座標により特定される画素の位置が前記第1撮像画像及び前記第2撮像画像の各々において互いに対応する位置で特定可能な画素の位置である位置特定可能状態の場合に、前記照射位置実空間座標と、前記照射位置画素座標と、前記被写体の撮像に用いられた撮像レンズの焦点距離と、前記被写体を撮像する撮像画素群に含まれる撮像画素の寸法と、に基づいて撮像位置距離を導出する導出処理を実行することを含む情報処理方法。
  14.  コンピュータに、
     被写体が第1撮像位置から撮像されて得られた第1撮像画像と、前記被写体が前記第1撮像位置とは異なる第2撮像位置から撮像されて得られた第2撮像画像と、前記第1撮像位置に対応する位置から指向性のある光である指向性光が前記被写体に射出されて前記指向性光の反射光が受光されることにより計測された前記被写体までの距離と、を取得し、
     取得した前記距離に基づいて、前記指向性光による前記被写体に対する実空間上での照射位置を特定する照射位置実空間座標、並びに、前記第1撮像画像及び前記第2撮像画像の各々において、前記照射位置実空間座標により特定される照射位置と対応する画素の位置を特定する照射位置画素座標を導出し、
     前記照射位置画素座標により特定される画素の位置が前記第1撮像画像及び前記第2撮像画像の各々において互いに対応する位置で特定可能な画素と異なる画素の位置である位置特定不可能状態の場合に、前記第1撮像画像及び前記第2撮像画像の各々において、実空間上で前記指向性光が照射された照射位置と同一の平面状領域に存在し、かつ、互いに対応する位置で特定可能な3画素以上の複数画素を特定する複数の座標である複数画素座標と、前記照射位置実空間座標と、前記被写体の撮像に用いられた撮像レンズの焦点距離と、前記被写体を撮像する撮像画素群に含まれる撮像画素の寸法と、に基づいて前記第1撮像位置と前記第2撮像位置との距離である撮像位置距離を導出する導出処理を実行することを含む処理を実行させるためのプログラム。
  15.  コンピュータに、
     被写体が第1撮像位置から撮像されて得られた第1撮像画像と、前記被写体が前記第1撮像位置とは異なる第2撮像位置から撮像されて得られた第2撮像画像と、前記第1撮像位置に対応する位置から指向性のある光である指向性光が前記被写体に射出されて前記指向性光の反射光が受光されることにより計測された前記被写体までの距離と、を取得し、 取得した前記距離に基づいて、前記指向性光による前記被写体に対する実空間上での照射位置を特定する照射位置実空間座標、並びに、前記第1撮像画像及び前記第2撮像画像の各々において、前記照射位置実空間座標により特定される照射位置と対応する画素の位置を特定する照射位置画素座標を導出し、
     前記照射位置画素座標により特定される画素の位置が前記第1撮像画像及び前記第2撮像画像の各々において互いに対応する位置で特定可能な画素の位置である位置特定可能状態の場合に、前記照射位置実空間座標と、前記照射位置画素座標と、前記被写体の撮像に用いられた撮像レンズの焦点距離と、前記被写体を撮像する撮像画素群に含まれる撮像画素の寸法と、に基づいて撮像位置距離を導出する導出処理を実行することを含む処理を実行させるためのプログラム。
PCT/JP2016/082145 2016-02-04 2016-10-28 情報処理装置、情報処理方法、及びプログラム WO2017134880A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017565400A JP6534455B2 (ja) 2016-02-04 2016-10-28 情報処理装置、情報処理方法、及びプログラム
CN201680080876.9A CN108603745B (zh) 2016-02-04 2016-10-28 信息处理装置、信息处理方法及程序
US16/044,524 US10401146B2 (en) 2016-02-04 2018-07-25 Information processing device, information processing method, and program
US16/510,941 US20190339059A1 (en) 2016-02-04 2019-07-14 Information processing device, information processing method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016020225 2016-02-04
JP2016-020225 2016-02-04

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/044,524 Continuation US10401146B2 (en) 2016-02-04 2018-07-25 Information processing device, information processing method, and program

Publications (1)

Publication Number Publication Date
WO2017134880A1 true WO2017134880A1 (ja) 2017-08-10

Family

ID=59499585

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/082145 WO2017134880A1 (ja) 2016-02-04 2016-10-28 情報処理装置、情報処理方法、及びプログラム

Country Status (4)

Country Link
US (2) US10401146B2 (ja)
JP (1) JP6534455B2 (ja)
CN (1) CN108603745B (ja)
WO (1) WO2017134880A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108603743B (zh) * 2016-02-04 2020-03-27 富士胶片株式会社 信息处理装置、信息处理方法及程序
JP6534455B2 (ja) * 2016-02-04 2019-06-26 富士フイルム株式会社 情報処理装置、情報処理方法、及びプログラム
CN109799073B (zh) * 2019-02-13 2021-10-22 京东方科技集团股份有限公司 一种光学畸变测量装置及方法、图像处理系统、电子设备和显示设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006003132A (ja) * 2004-06-15 2006-01-05 Topcon Corp 3次元測量装置及び電子的記憶媒体
JP2013122434A (ja) * 2011-12-12 2013-06-20 Itt:Kk レーザーを用いた単眼カメラによる3次元形状位置計測装置,3次元形状位置計測処理方法および3次元形状位置計測処理プログラム
WO2014195000A1 (de) * 2013-06-04 2014-12-11 Testo Ag 3d-aufnahmevorrichtung, verfahren zur erstellung eines 3d-bildes und verfahren zur einrichtung einer 3d-aufnahmevorrichtung
WO2015008587A1 (ja) * 2013-07-16 2015-01-22 富士フイルム株式会社 撮影装置及び3次元計測装置

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU703825B2 (en) 1995-08-07 1999-04-01 Komatsu Limited Distance measuring apparatus and shape measuring apparatus
CN101943580B (zh) * 2009-07-07 2012-08-29 宏达国际电子股份有限公司 目标物距离检测方法与装置
JP5158386B2 (ja) 2010-06-22 2013-03-06 株式会社アイティーティー 単一カメラによる画像計測処理装置,画像計測処理方法および画像計測処理プログラム
EP2403234A1 (en) * 2010-06-29 2012-01-04 Koninklijke Philips Electronics N.V. Method and system for constructing a compound image from data obtained by an array of image capturing devices
JP4880096B1 (ja) * 2010-06-30 2012-02-22 富士フイルム株式会社 多視点撮影制御装置、多視点撮影制御方法及び多視点撮影制御プログラム
CN103292779B (zh) * 2012-02-28 2015-06-24 联想(北京)有限公司 一种测量距离的方法及图像获取设备
CN104428624B (zh) * 2012-06-29 2016-08-24 富士胶片株式会社 三维测定方法、装置及系统、以及图像处理装置
EP2869023B1 (en) * 2013-10-30 2018-06-13 Canon Kabushiki Kaisha Image processing apparatus, image processing method and corresponding computer program
CN104933718B (zh) * 2015-06-23 2019-02-15 广东省智能制造研究所 一种基于双目视觉的物理坐标定位方法
WO2017038157A1 (ja) * 2015-08-31 2017-03-09 富士フイルム株式会社 測距装置、測距用導出方法、及び測距用導出プログラム
WO2017038159A1 (ja) * 2015-08-31 2017-03-09 富士フイルム株式会社 測距装置、測距用制御方法、及び測距用制御プログラム
WO2017038158A1 (ja) * 2015-08-31 2017-03-09 富士フイルム株式会社 測距装置、測距用制御方法、及び測距用制御プログラム
JP6416408B2 (ja) * 2015-09-28 2018-11-07 富士フイルム株式会社 測距装置、測距方法、及び測距プログラム
WO2017077906A1 (ja) * 2015-11-06 2017-05-11 富士フイルム株式会社 情報処理装置、情報処理方法、及びプログラム
JP6534455B2 (ja) * 2016-02-04 2019-06-26 富士フイルム株式会社 情報処理装置、情報処理方法、及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006003132A (ja) * 2004-06-15 2006-01-05 Topcon Corp 3次元測量装置及び電子的記憶媒体
JP2013122434A (ja) * 2011-12-12 2013-06-20 Itt:Kk レーザーを用いた単眼カメラによる3次元形状位置計測装置,3次元形状位置計測処理方法および3次元形状位置計測処理プログラム
WO2014195000A1 (de) * 2013-06-04 2014-12-11 Testo Ag 3d-aufnahmevorrichtung, verfahren zur erstellung eines 3d-bildes und verfahren zur einrichtung einer 3d-aufnahmevorrichtung
WO2015008587A1 (ja) * 2013-07-16 2015-01-22 富士フイルム株式会社 撮影装置及び3次元計測装置

Also Published As

Publication number Publication date
US10401146B2 (en) 2019-09-03
CN108603745B (zh) 2020-04-28
CN108603745A (zh) 2018-09-28
US20190339059A1 (en) 2019-11-07
JPWO2017134880A1 (ja) 2018-08-09
US20180328718A1 (en) 2018-11-15
JP6534455B2 (ja) 2019-06-26

Similar Documents

Publication Publication Date Title
JP6464281B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US11828847B2 (en) Distance measurement device, deriving method for distance measurement, and deriving program for distance measurement
WO2017134880A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP6404482B2 (ja) 測距装置、測距用制御方法、及び測距用制御プログラム
JP6416408B2 (ja) 測距装置、測距方法、及び測距プログラム
WO2017134881A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP6494059B2 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2017134882A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP6494060B2 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2017056544A1 (ja) 測距装置、測距方法、及び測距プログラム
WO2017149852A1 (ja) 情報処理装置、情報処理方法、及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16889363

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017565400

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16889363

Country of ref document: EP

Kind code of ref document: A1