WO2017056544A1 - 測距装置、測距方法、及び測距プログラム - Google Patents

測距装置、測距方法、及び測距プログラム Download PDF

Info

Publication number
WO2017056544A1
WO2017056544A1 PCT/JP2016/063584 JP2016063584W WO2017056544A1 WO 2017056544 A1 WO2017056544 A1 WO 2017056544A1 JP 2016063584 W JP2016063584 W JP 2016063584W WO 2017056544 A1 WO2017056544 A1 WO 2017056544A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
image
irradiation position
distance
imaging
Prior art date
Application number
PCT/JP2016/063584
Other languages
English (en)
French (fr)
Inventor
杉本 雅彦
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2017542772A priority Critical patent/JP6426295B2/ja
Publication of WO2017056544A1 publication Critical patent/WO2017056544A1/ja
Priority to US15/921,659 priority patent/US10353070B2/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4817Constructional features, e.g. arrangements of optical elements relating to scanning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination

Definitions

  • the technology of the present disclosure relates to a distance measuring device, a distance measuring method, and a distance measuring program.
  • ranging means measuring a distance from a ranging device to a subject to be measured.
  • the captured image refers to an image obtained by capturing an image of an object.
  • the irradiation position pixel coordinate is a distance measurement based on a round trip time of directional light (for example, laser light) emitted by an emission unit toward a subject assumed as a distance measurement object.
  • 2D that specifies the position of the pixel corresponding to the irradiation position of the directional light in the real space by the distance measuring device among the pixels included in the captured image on the assumption that the distance measuring device that performs distance measurement is used. It refers to the two-dimensional coordinates obtained as coordinates.
  • the irradiation position in the image refers to a position obtained as a position corresponding to the irradiation position of the directional light in the real space by the distance measuring device in the captured image.
  • the irradiation position in the image refers to the position of the pixel specified by the irradiation position pixel coordinate among the pixels included in the captured image.
  • an imaging unit equipped with an imaging unit has been developed.
  • a subject is irradiated with laser light, and the subject is imaged in a state where the subject is irradiated with laser light. Then, the captured image obtained by capturing the subject is presented to the user, so that the irradiation position of the laser light is grasped by the user through the captured image.
  • a distance measuring device having a function of deriving dimensions in real space related to an object in an image has been developed, such as a measuring device described in Japanese Patent Application Laid-Open No. 2014-232095.
  • the measuring apparatus described in Japanese Patent Application Laid-Open No. 2014-2332095 includes means for displaying an isosceles trapezoidal shape of a building having an isosceles trapezoidal part imaged by an imaging unit, and four vertices of the displayed isosceles trapezoidal shape. Specifying and determining the coordinates of the specified four vertices. Then, the measuring device described in Japanese Patent Laid-Open No. 2014-2332095 specifies the distance between two points on a plane including an isosceles trapezoidal shape, or the distance from the imaging unit to one point on the plane, The shape of the building is obtained from the coordinates and the focal length, and the size of the building is obtained from the specified distance.
  • a plurality of pixels corresponding to areas in the real space to be derived in the captured image are displayed by the user. Specified by.
  • the size of the area in the real space specified by the user specifying a plurality of pixels is derived based on the distance measured by the distance measuring device. Therefore, in the case of accurately deriving the size of the area in the real space specified from the plurality of designated pixels, it is preferable to derive the irradiation position in the image with high accuracy so that the user can grasp the distance along with the distance.
  • One embodiment of the present invention is a measurement that can quickly derive the dimensions of a plurality of objects as compared to the case where only one dimension is derived every time imaging and ranging are performed.
  • a distance device, a distance measurement method, and a distance measurement program are provided.
  • a distance measuring device includes an imaging unit that images a subject, and a plurality of directional lights, each of which has directivity, are emitted to the subject, and each reflected light of the directional light is reflected.
  • the size of the real space region corresponding to the interval is derived based on the distance related to the inner irradiation position, the interval of the plurality of pixels related to the irradiation position in the image for each distance in the captured image, and the focal length in the imaging unit.
  • the distance measuring device can quickly measure the dimensions of a plurality of objects as compared to the case where only one dimension derivation target is designated every time imaging and distance measurement are performed. Can be derived.
  • a distance measuring device is the distance measuring device according to the first aspect of the present invention, wherein the measurement unit is emitted by an emission unit that emits directional light and a corresponding emission unit.
  • the measurement unit is emitted by an emission unit that emits directional light and a corresponding emission unit.
  • the distance measuring device is capable of detecting a plurality of directional lights compared to a case where the angle at which the directional light is emitted cannot be changed for each set of the emitting part and the light receiving part. Each irradiation position can be easily changed.
  • the derivation unit captures an object every time a plurality of distances are provisionally measured by the measuring unit.
  • the first of the temporary image irradiation position corresponding to the irradiation position in the temporary image obtained by provisional imaging by the unit and the distance temporarily measured by the measurement unit with the directional light corresponding to the temporary image irradiation position
  • the correspondence relationship is obtained for each set, and the irradiation position in the image is derived for each set based on the obtained first correspondence relationship.
  • the distance measuring device is more directed to the directional light emitted by the emission units of each set than when the in-image irradiation position is derived for each set without obtaining the first correspondence relationship.
  • the irradiation position in the image based on can be derived with high accuracy.
  • the distance actually measured by the measuring unit is specified by the first correspondence relationship for the corresponding set.
  • it further includes an execution unit that executes a predetermined process as a process for suppressing a decrease in accuracy of the irradiation position in the image.
  • the distance measuring device is directed to each direction irradiated for each set as compared with a case where a predetermined process is not performed as a process for suppressing a decrease in accuracy of the irradiation position in the image.
  • the accuracy of the irradiation position in the image based on the characteristic light can be increased.
  • a distance measuring apparatus an imaging unit that images a subject, and directional light, which is directional light, is emitted in each of a plurality of directions by scanning the subject,
  • a measurement unit that measures a plurality of distances to the subject by receiving reflected light of each directional light in a plurality of directions, and irradiation of the subject with each of the directional light that is used for measurement of the plurality of distances by the measurement unit
  • the distance measuring device can quickly measure the dimensions of a plurality of objects as compared to the case where only one dimension derivation target is designated each time imaging and distance measurement are performed. Can be derived.
  • the derivation unit captures an object every time a plurality of distances are provisionally measured by the measurement unit.
  • the first of the temporary image irradiation position corresponding to the irradiation position in the temporary image obtained by provisional imaging by the unit and the distance temporarily measured by the measurement unit with the directional light corresponding to the temporary image irradiation position Correspondence is obtained for each direction, and the irradiation position in the image is derived for each direction based on the obtained first correspondence.
  • the distance measuring device is an image based on directional light emitted in each direction, compared to the case where the irradiation position in the image is derived for each direction without obtaining the first correspondence relationship.
  • the inner irradiation position can be derived with high accuracy.
  • the distance measuring device is the distance measuring device according to the sixth aspect of the present invention, wherein the distance actually measured by the measuring unit is specified by the first correspondence relationship with respect to the corresponding direction.
  • it further includes an execution unit that executes a predetermined process as a process for suppressing a decrease in accuracy of the irradiation position in the image.
  • the distance measuring apparatus emits light in each of a plurality of directions compared to a case where a predetermined process is not performed as a process for suppressing a decrease in accuracy of the irradiation position in the image.
  • the accuracy of the irradiation position in the image based on each directional light can be increased.
  • the distance measuring device is assumed as a factor affecting the irradiation position in the image in the distance measuring device according to any one of the first to seventh aspects of the present invention.
  • the distance measuring device does not output information based on the derivation accuracy of the dimensions of the real space region even though the factor that affects the irradiation position in the image actually exists. Compared to the above, information based on the derivation accuracy of the dimensions of the real space region can be easily grasped by the user.
  • different derivation accuracy is associated with each of different assumed factors in the second correspondence relationship.
  • the output unit derives the derivation accuracy associated with the assumed factor corresponding to the factor that actually exists.
  • the distance measuring apparatus can derive the derivation accuracy with higher accuracy than when the derivation accuracy is associated with only a single assumed factor.
  • the output unit when the output unit actually has a plurality of factors, each of the plurality of factors actually present It is said that the derivation accuracy associated with the assumed factor corresponding to the above is derived by synthesis.
  • the distance measuring device has each of the factors associated with the assumed factors corresponding to each of the plurality of factors actually present in the distance measuring device as factors affecting the irradiation position in the image. Compared to the case where the derivation accuracy is derived individually, simple handling of the derivation accuracy can be realized.
  • a distance measuring device is a distance measuring device according to any one of the first to tenth aspects of the present invention, and is capable of changing an angle at which directional light is emitted.
  • the control unit further includes a change unit, and when the irradiation position in the image is outside the predetermined range in the captured image, the control unit causes the measurement unit to measure the distance until the irradiation position in the image falls within the predetermined range, and the measurement unit measures the distance. Based on the determined distance and the angle changed by the changing unit, control is further performed to cause the deriving unit to derive the irradiation position in the image.
  • the distance measuring apparatus can perform distance measurement in a state where the irradiation position in the image is within the predetermined range in the captured image.
  • a distance measuring device is the distance measuring device according to the eleventh aspect of the present invention, wherein the control unit has a predetermined irradiation position in the image when the irradiation position in the image is outside the predetermined range. Until the distance is within the range, the measuring unit measures the distance, and the driving unit is driven to change the angle to the changing unit. Based on the distance measured by the measuring unit and the changing unit, the deriving unit It is supposed that the control for deriving the irradiation position in the image is performed.
  • the distance measuring apparatus reduces the effort required to put the irradiation position in the image within the predetermined range as compared with the case where the changing unit changes the angle without using the power source. be able to.
  • a distance measuring device is the distance measuring device according to any one of the first aspect to the twelfth aspect of the present invention.
  • a frame containing the irradiation position in the image is specified, and for each frame, a plurality of pixels are specified inside the frame, and the derivation unit corresponds to the corresponding image among the plurality of distances measured by the measurement unit for each frame.
  • the dimension of the real space region corresponding to the interval is derived based on the distance related to the inner irradiation position, the specified interval between the plurality of pixels, and the focal length.
  • the user of the plurality of directional lights can derive the size of the real space region as compared with the case where the frame containing the irradiation position in the image is not specified. Derivation of the dimensions of the real space region based on the distance measured based on the directional light to be used can be realized with a simple configuration.
  • a distance measuring device is the distance measuring device according to any one of the first to thirteenth aspects of the present invention, wherein the subject has a plurality of different at least one of orientation and position.
  • the measurement unit emits directional light to each of the plurality of planar regions, and receives the reflected light of each of the directional light to each of the plurality of planar regions. The distance to each of the planar regions is measured.
  • the distance measuring device is different from the case where only one directional light is emitted to the planar region, with different dimensions of the real space region for a plurality of planar regions. Can be easily derived.
  • a distance measuring method includes an imaging unit that images a subject, and a plurality of directional lights, each of which has directivity, are emitted to the subject, and each reflected light of the directional light is reflected.
  • a measuring unit that measures a plurality of distances to a subject by receiving light at each corresponding light receiving unit, and a subject with each of directional light that is used for measuring a plurality of distances by a measuring unit included in the distance measuring device.
  • a position corresponding to the irradiation position in the captured image obtained by imaging by the imaging unit among a plurality of distances measured by the measurement unit by controlling the imaging unit to capture an image at an angle of view where the irradiation position falls.
  • the real space corresponding to the interval based on the distance related to the irradiation position in the image derived as follows, the interval between the plurality of pixels related to the irradiation position in the image for each distance in the captured image, and the focal length in the imaging unit The dimensions of the region Including that out.
  • the distance measuring method allows the dimensions of a plurality of objects to be quickly compared with the case where only one dimension derivation target is designated each time imaging and distance measurement are performed. Can be derived.
  • a distance measuring method includes: an imaging unit that images a subject; and directional light that is directional light is scanned with respect to the subject to emit in each of a plurality of directions; A measuring unit that measures a plurality of distances to a subject by receiving reflected light of each directional light in a plurality of directions, and a directivity used for measuring a plurality of distances by a measuring unit included in the distance measuring device.
  • Control is performed so that the imaging unit captures an image at an angle of view where the irradiation position on the subject by each of the sex light falls, and among the plurality of distances measured by the measurement unit, the captured image obtained by imaging by the imaging unit Based on the distance related to the irradiation position in the image derived as the position corresponding to the irradiation position, the interval between the plurality of pixels related to the irradiation position in the image for each distance in the captured image, and the focal length in the imaging unit , Corresponding to the interval It comprises deriving a dimension of real space area that.
  • the distance measuring method allows the dimensions of a plurality of objects to be quickly compared with the case where only one dimension derivation target is designated each time imaging and distance measurement are performed. Can be derived.
  • a distance measuring program provides a computer with an imaging unit that images a subject and a plurality of directional lights, each of which is directional light, emitted to the subject, Each of the directional light used for measuring the plurality of distances by the measuring unit included in the distance measuring device including a measuring unit that measures the plurality of distances to the subject by receiving the reflected light at each corresponding light receiving unit.
  • the imaging unit is controlled to capture an image at an angle of view where the irradiation position with respect to the subject falls within, and among the plurality of distances measured by the measurement unit, the irradiation position in the captured image obtained by the imaging unit is determined.
  • the interval based on the distance related to the irradiation position in the image derived as the corresponding position the interval of multiple pixels related to the irradiation position in the image for each distance in the captured image, and the focal length in the imaging unit.
  • a distance measuring program for executing a process comprising deriving the size of the real space region that.
  • the distance measuring program can quickly measure the dimensions of a plurality of objects as compared to a case where only one dimension derivation target is designated each time imaging and distance measurement are performed. Can be derived.
  • a distance measuring program provides a computer with an imaging unit that captures an image of a subject, and scanning the subject with directional light, which is directional light, in each of a plurality of directions. Measuring a plurality of distances by a measuring unit included in the distance measuring apparatus, and a measuring unit that measures a plurality of distances to a subject by emitting reflected light of each directional light in a plurality of directions Imaging obtained by imaging by the imaging unit out of a plurality of distances measured by the measurement unit by controlling the imaging unit to capture an image at an angle of view where the irradiation position on the subject by each of the directional light used is within In the image, the distance related to the irradiation position in the image derived as the position corresponding to the irradiation position, the interval between the plurality of pixels related to the irradiation position in the image for each distance in the captured image, and the focal length in the imaging unit Based on, is a distance measuring program for
  • the distance measuring program according to the eighteenth aspect of the present invention can quickly measure the dimensions of a plurality of objects as compared with the case where only one dimension derivation target is designated each time imaging and distance measurement are performed. Can be derived.
  • the present invention it is possible to quickly derive the dimensions of a plurality of objects as compared with the case where only one dimension is derived every time imaging and ranging are performed. The effect of being able to be obtained is obtained.
  • FIG. 6 is a front view showing an example of an appearance of a distance measuring device according to the first to fifth embodiments.
  • FIG. 10 is a conceptual diagram (schematic side view) showing an example of a schematic configuration of a distance measuring unit and a vertical rotation mechanism according to the first to sixth embodiments.
  • FIG. 10 is a conceptual diagram (schematic front view) showing an example of a schematic configuration of an upper ranging unit, an upper lateral rotation mechanism, a lower ranging unit, and a lower lateral rotation mechanism according to the first to sixth embodiments.
  • FIG. 10 is a conceptual diagram (schematic plan view) showing an example of a schematic configuration of an upper ranging unit and a lower ranging unit according to the first to sixth embodiments.
  • 10 is a time chart showing an example of a measurement sequence by the distance measuring apparatus according to the first to seventh embodiments. 10 is a time chart showing an example of a laser trigger, a light emission signal, a light reception signal, and a count signal required for performing one measurement by the distance measuring apparatus according to the first to seventh embodiments.
  • FIG. 10 is a functional block diagram illustrating an example of main functions realized by a CPU of a distance measuring device according to first to seventh embodiments.
  • FIG. 10 is a conceptual diagram showing an example of a position / distance table according to the first to seventh embodiments.
  • FIG. 10 is a conceptual diagram showing an example of a factor / accuracy table according to the first to seventh embodiments.
  • 10 is a flowchart showing an example of a flow of factor storage processing according to the first to seventh embodiments.
  • 10 is a flowchart showing an example of a flow of measurement processing according to the first to third embodiments, the fifth embodiment, and the sixth embodiment. It is a continuation of the flowchart shown in FIG.16 and FIG.36. It is a continuation of the flowchart shown in FIG.16 and FIG.48.
  • 10 is a flowchart showing an example of a flow of irradiation position derivation data acquisition processing according to the first to seventh embodiments.
  • FIG. 10 is a screen diagram illustrating an example of a screen in a state where a main image, a distance, an error, and an irradiation position mark are displayed on the display unit according to the first to seventh embodiments. It is a screen figure which shows an example of the irradiation position adjustment recommendation screen which concerns on 1st-7th embodiment.
  • FIG. 10 is a screen diagram illustrating an example of a temporary measurement / temporary imaging guide screen according to the first to seventh embodiments.
  • FIG. 10 is a screen diagram showing an example of a re-execution guidance screen according to the first to seventh embodiments.
  • FIG. 10 is a screen diagram illustrating an example of a screen in a state where a main image including a post-projection-transformed image obtained by performing a projective transformation process on an image region within a rectangular frame is displayed. It is a screen figure which shows an example of the screen of the state where the length of the area, the error, and the bidirectional arrow were superimposed and displayed on the image after projective transformation. 10 is a flowchart showing an example of the flow of irradiation position adjustment processing according to the first embodiment and fifth to seventh embodiments.
  • FIG. 17 is a flowchart illustrating an exemplary flow of a measurement process according to the fifth embodiment, and is a continuation of the flowchart illustrated in FIG. 16.
  • FIG. 17 is a flowchart illustrating an exemplary flow of a measurement process according to the fifth embodiment, and is a continuation of the flowchart illustrated in FIG. 16.
  • It is a graph which shows an example of the approximated curve regarding the latest position / distance correspondence information.
  • It is a block diagram which shows an example of the hardware constitutions of the principal part of the distance measuring device which concerns on 6th Embodiment.
  • It is a conceptual diagram (schematic side view) which shows an example of schematic structure of the ranging unit and vertical rotation mechanism which concern on 7th Embodiment.
  • FIG. 1 It is a conceptual diagram (schematic front view) which shows an example of the ranging unit and horizontal rotation mechanism which concern on 7th Embodiment. It is a conceptual diagram (schematic top view) which shows an example of the scanning aspect by the ranging unit which concerns on 7th Embodiment. It is a block diagram which shows an example of the hardware constitutions of the principal part of the ranging device which concerns on 7th Embodiment. It is a flowchart which shows an example of the flow of the measurement process which concerns on 7th Embodiment. It is a conceptual diagram which shows an example within the corresponding
  • FIG. 10 is a screen diagram illustrating an example of a screen in a state where a main image, a distance, an error, an irradiation position mark, and a warning / recommendation message are displayed on the display unit according to the first to sixth embodiments.
  • the distance from the distance measuring device to the subject to be measured is also simply referred to as “distance”.
  • the angle of view with respect to the subject is also simply referred to as “view angle”.
  • the distance measuring device 10 ⁇ / b> A includes a distance measuring unit 12 and an imaging device 14.
  • the distance measurement unit 12 and a distance measurement control unit 68 (see FIG. 5) described later are examples of a measurement unit according to the technique of the present disclosure
  • the imaging device 14 is an imaging unit according to the technique of the present disclosure. It is an example.
  • the imaging device 14 includes a lens unit 16 and an imaging device body 18, and the lens unit 16 is detachably attached to the imaging device body 18.
  • a hot shoe 20 is provided on the upper surface of the imaging apparatus main body 18, and the distance measuring unit 12 is detachably attached to the hot shoe 20.
  • the distance measuring device 10A has a distance measuring system function for measuring a distance by emitting a distance measuring laser beam to the distance measuring unit 12, and an image capturing system for capturing an image of a subject by causing the image capturing device 14 to image a subject.
  • a captured image obtained by capturing an image of a subject by the imaging device 14 by using an imaging system function is simply referred to as “image” or “captured image”.
  • the ranging unit 12 has an upper ranging unit 11 and a lower ranging unit 13, and the upper ranging unit 11 is arranged on the upper surface of the lower ranging unit 13.
  • Each of the upper ranging unit 11 and the lower ranging unit 13 is an example of a “group” according to the technique of the present disclosure.
  • the upper stage ranging unit 11 is rotatably attached to the lower stage ranging unit 13 with the central part in plan view as a rotation axis, and the lower range finding unit 13 has the center part in plan view as the rotational axis. It is rotatably attached to the central part in plan view.
  • unit-stage ranging units when it is not necessary to distinguish between the upper-stage ranging unit 11 and the lower-stage ranging unit 13, they are referred to as “unit-stage ranging units” without reference numerals.
  • the ranging device 10A performs one measurement sequence (see FIG. 7) for each of the upper ranging unit 11 and the lower ranging unit 13 in response to one instruction by using the ranging system function.
  • the distance measuring device 10 ⁇ / b> A finally outputs one distance by performing one measurement sequence using the upper ranging unit 11, and performs one measurement sequence using the lower ranging unit 13. Finally, one distance is output.
  • the main measurement and the temporary measurement are selectively performed using a distance measuring function in accordance with a user instruction.
  • the main measurement means the measurement in which the distance measured by using the distance measuring system function is employed, and the temporary measurement means the measurement performed in the preparation stage for improving the accuracy of the main measurement.
  • the ranging device 10A has a still image capturing mode and a moving image capturing mode as operation modes of the image capturing system function.
  • the still image capturing mode is an operation mode for capturing a still image
  • the moving image capturing mode is an operation mode for capturing a moving image.
  • the still image capturing mode and the moving image capturing mode are selectively set according to a user instruction.
  • an imaging system function is activated to selectively perform main imaging and provisional imaging.
  • the main imaging is imaging performed in synchronization with the main measurement
  • the temporary imaging is imaging performed in synchronization with the temporary measurement.
  • an image obtained by performing the main imaging is also referred to as a main captured image or a main image
  • an image obtained by performing the temporary imaging is also referred to as a temporary captured image or a temporary image.
  • image when it is not necessary to distinguish between the main captured image and the provisional captured image, they are referred to as “image” or “captured image”.
  • the ranging device 10A has a distance deriving mode and a dimension deriving mode as operation modes of the ranging system function.
  • the distance derivation mode is an operation mode in which the distance measuring device 10A measures the distance.
  • the dimension deriving mode is an operation mode for deriving the dimensions of the real space area designated by the user based on the distance measured by the distance measuring device 10A by using a dimension deriving function described later.
  • the imaging device body 18 includes a vertical rotation mechanism 15.
  • the vertical rotation mechanism 15 receives power generated by a motor 17 (see FIG. 5), which will be described later, and rotates the hot shoe 20 in the vertical direction in front view with the front end portion of the hot shoe 20 as a rotation axis. Accordingly, the hot shoe 20 with the distance measuring unit 12 attached is rotated in the vertical direction in the front view by the vertical rotation mechanism 15, so that the direction of the distance measuring unit 12 is the vertical direction in the front view (for example, as shown in FIG. 2). A1 direction).
  • the hot shoe 20 is rotated in the vertical direction in the front view so that the rear end portion of the hot shoe 20 sinks into the imaging device main body 18 is shown.
  • the technology of the present disclosure is not limited to this.
  • the hot shoe 20 may be rotated in the longitudinal direction of the front view so as to push up the rear end portion of the hot shoe 20 from the imaging device main body 18.
  • the vertical direction in front view is simply referred to as “vertical direction”.
  • the upper stage ranging unit 11 includes an upper stage horizontal rotation mechanism 11A.
  • the upper horizontal rotation mechanism 11A receives power generated by a motor 11B (see FIG. 6), which will be described later, and the upper distance measuring unit 11 in the lateral direction when viewed from the front with the central portion in plan view of the lower distance measuring unit 13 as a rotation axis. Rotate to Accordingly, when the distance measuring unit 12 is attached to the hot shoe 20, the upper distance measuring unit 11 is rotated in the lateral direction when viewed from the front, so that the upper distance measuring unit 11 is oriented in the lateral direction when viewed from the front (for example, as shown in FIG. (In the direction indicated by arrow B1).
  • the lateral direction in front view is also simply referred to as “lateral direction”.
  • the lower ranging unit 13 includes a lower horizontal rotation mechanism 13A.
  • the lower horizontal rotation mechanism 13A receives power generated by a motor 13B (see FIG. 6), which will be described later, and rotates the lower distance measuring unit 13 in the horizontal direction about the central portion of the hot shoe 20 in plan view as a rotation axis. Accordingly, by rotating the lower ranging unit 13 in the horizontal direction with the ranging unit 12 attached to the hot shoe 20, the orientation of the lower ranging unit 13 is changed to the horizontal direction (for example, the arrow B1 shown in FIG. 3). Direction).
  • the distance measuring unit 12 has a plurality of unit stage distance measuring units (for example, the upper distance measuring unit 11 and the lower distance measuring unit 13 as an example) in the vertical direction. It becomes possible to emit the laser beam of the book to the subject. Further, when the orientation of each of the upper ranging unit 11 and the lower ranging unit 13 is changed to the horizontal direction, as shown in FIG. 4 as an example, each of the upper ranging unit 11 and the lower ranging unit 13 A plurality of laser beams can be emitted in different directions. In the example shown in FIG. 4, a state in which two laser beams are emitted from the distance measuring unit 12 is shown.
  • the distance measuring unit 12 includes a connector 26.
  • the upper stage ranging unit 11 includes signal lines 28A, 28B, and 28C
  • the lower stage ranging unit 13 includes signal lines 28D, 28E, and 28F.
  • the signal lines 28A, 28B, 28C, 28D, 28E, and 28F are connected to the connector 26.
  • the connector 26 can be connected to the hot shoe 20, and the distance measuring unit 12 operates under the control of the imaging apparatus main body 18 with the connector 26 connected to the hot shoe 20.
  • the upper ranging unit 11 includes an emitting unit 22 and a light receiving unit 24.
  • the positional relationship between the emitting unit 22 and the light receiving unit 24 is fixed.
  • the emitting unit 22 includes an LD (Laser Diode) 22A, a condenser lens (not shown), an objective lens 22B, and an LD driver 22C.
  • LD Laser Diode
  • the condensing lens and the objective lens 22B are provided along the optical axis of the laser light emitted by the LD 22A, and are arranged in the order of the condensing lens and the objective lens 22B along the optical axis from the LD 22A side.
  • the LD 22A emits laser light for distance measurement, which is an example of directional light according to the technology of the present disclosure.
  • the laser light emitted by the LD 22A is a colored laser light. For example, if the laser light is within a range of several meters from the emission unit 22, the irradiation position of the laser light is visually recognized in real space and imaged. It is also visually recognized from a captured image obtained by imaging by the device 14.
  • the condensing lens condenses the laser light emitted by the LD 22A and passes the condensed laser light.
  • the objective lens 22B faces the subject and emits laser light that has passed through the condenser lens to the subject.
  • the LD driver 22C is connected to the LD 22A and is connected to the connector 26 via the signal line 28A.
  • the LD driver 22 ⁇ / b> C drives the LD 22 ⁇ / b> A according to an instruction from the imaging apparatus main body 18 to emit laser light.
  • the light receiving unit 24 includes a PD (Photo Diode) 24A, an objective lens 24B, and a light receiving signal processing circuit 24C.
  • the objective lens 24B is disposed on the light receiving surface side of the PD 24A, and the reflected laser light, which is the laser light reflected by the laser beam emitted from the emitting unit 22 when hitting the subject, is incident on the objective lens 24B.
  • the objective lens 24B passes the reflected laser light and guides it to the light receiving surface of the PD 24A.
  • the PD 24A receives the reflected laser light that has passed through the objective lens 24B, and outputs an analog signal corresponding to the amount of received light as a light reception signal.
  • the received light signal processing circuit 24C is connected to the PD 24A, and is connected to the connector 26 via the signal line 28B.
  • the received light signal processing circuit 24C amplifies the received light signal input from the PD 24A with an amplifier (not shown), and performs A / D (Analog / Digital) conversion on the amplified received light signal. Then, the received light signal processing circuit 24 ⁇ / b> C outputs the received light signal digitized by A / D conversion to the imaging device main body 18.
  • the upper ranging unit 11 includes a motor 11B.
  • the motor 11B is connected to the upper horizontal rotation mechanism 11A so as to be able to transmit power, and is connected to the connector 26 via a signal line 28C. Accordingly, the upper horizontal rotation mechanism 11A operates under the control of the imaging apparatus main body 18 under the power generated by the motor 11B.
  • the lower ranging unit 13 includes an emitting unit 30 and a light receiving unit 32.
  • the positional relationship between the emitting unit 30 and the light receiving unit 32 is fixed.
  • the emitting unit 30 includes an LD 30A, a condenser lens (not shown), an objective lens 30B, and an LD driver 30C.
  • the condenser lens and objective lens 30B are provided along the optical axis of the laser light emitted from the LD 30A, and are arranged in the order of the condenser lens and objective lens 30B along the optical axis from the LD 30A side.
  • the LD 30A emits laser light for distance measurement, which is an example of directional light according to the technology of the present disclosure.
  • the laser light emitted by the LD 30A is the same laser light as the LD 22A of the emission unit 22 of the upper ranging unit 11.
  • the condensing lens condenses the laser light emitted by the LD 30A and allows the condensed laser light to pass through.
  • the objective lens 30B faces the subject and emits laser light that has passed through the condenser lens to the subject.
  • the LD driver 30C is connected to the LD 30A and is connected to the connector 26 via the signal line 28D.
  • the LD driver 30 ⁇ / b> C drives the LD 30 ⁇ / b> A according to an instruction from the imaging device body 18 to emit laser light.
  • the light receiving unit 32 includes a PD 32A, an objective lens 32B, and a light reception signal processing circuit 32C.
  • the objective lens 32B is disposed on the light receiving surface side of the PD 32A, and the reflected laser light, which is the laser light reflected by the laser beam emitted from the emitting unit 30 when it hits the subject, is incident on the objective lens 32B.
  • the objective lens 32B passes the reflected laser light and guides it to the light receiving surface of the PD 32A.
  • the PD 32A receives the reflected laser light that has passed through the objective lens 32B, and outputs an analog signal corresponding to the amount of received light as a light reception signal.
  • the objective lenses 22B, 24B, 30B, and 32B are referred to as “objective lenses” without reference numerals.
  • the received light signal processing circuit 32C is connected to the PD 32A, and is connected to the connector 26 via the signal line 28E.
  • the light reception signal processing circuit 32C amplifies the light reception signal input from the PD 32A with an amplifier (not shown), and performs A / D conversion on the amplified light reception signal. Then, the light reception signal processing circuit 32C outputs the light reception signal digitized by A / D conversion to the imaging device main body 18.
  • the lower ranging unit 13 includes a motor 13B.
  • the motor 13B is connected to the lower horizontal rotation mechanism 13A so that power can be transmitted, and is connected to the connector 26 via a signal line 28F. Therefore, the lower horizontal rotation mechanism 13A operates under the control of the imaging apparatus main body 18 under the power generated by the motor 13B.
  • the imaging device 14 includes mounts 42 and 44.
  • the mount 42 is provided in the imaging apparatus main body 18, and the mount 44 is provided in the lens unit 16.
  • the lens unit 16 is attached to the imaging apparatus main body 18 in a replaceable manner by coupling the mount 44 to the mount 42.
  • the lens unit 16 includes an imaging lens 50, a zoom lens 52, a zoom lens moving mechanism 54, and a motor 56.
  • Subject light that is reflected light from the subject enters the imaging lens 50.
  • the imaging lens 50 passes the subject light and guides it to the zoom lens 52.
  • a zoom lens 52 is attached to the zoom lens moving mechanism 54 so as to be slidable with respect to the optical axis.
  • a motor 56 is connected to the zoom lens moving mechanism 54, and the zoom lens moving mechanism 54 slides the zoom lens 52 along the optical axis direction under the power of the motor 56.
  • the motor 56 is connected to the imaging apparatus main body 18 via mounts 42 and 44, and the drive is controlled in accordance with a command from the imaging apparatus main body 18.
  • a stepping motor is applied as an example of the motor 56. Accordingly, the motor 56 is driven in synchronism with the pulse power in response to a command from the imaging apparatus main body 18.
  • the imaging device body 18 includes an imaging device 60, a main control unit 62, an image memory 64, an image processing unit 66, a distance measurement control unit 68, a motor 17, motor drivers 21, 23, 25, 72, an imaging device driver 74, an image signal.
  • a processing circuit 76 and a display control unit 78 are provided.
  • the imaging device main body 18 includes a touch panel I / F (Interface) 79, a reception I / F 80, and a media I / F 82.
  • the rotation mechanism, the motors 11B, 13B, and 17, and the motor drivers 21, 23, and 25 are examples of changing units according to the technology of the present disclosure.
  • the changing unit according to the technique of the present disclosure refers to a mechanism capable of changing an injection angle ⁇ described below, for example.
  • the main control unit 62, the image memory 64, the image processing unit 66, the distance measurement control unit 68, the motor driver 72, the image sensor driver 74, the image signal processing circuit 76, and the display control unit 78 are connected to the bus line 84. .
  • the touch panel I / F 79, the reception I / F 80, and the media I / F 82 are connected to the bus line 84.
  • the signal lines 28A, 28B, 28D, and 28E are also connected to the bus line 84 via the connector 26 and the hot shoe 20.
  • the signal line 28 ⁇ / b> C is connected to the bus line 84 via the motor driver 21. Further, the signal line 28 ⁇ / b> F is connected to the bus line 84 via the motor driver 23.
  • the imaging element 60 is a CMOS (Complementary Metal Oxide Semiconductor) type image sensor, and includes a color filter (not shown).
  • the color filter includes a G filter corresponding to G (Green: green) that contributes most to obtain a luminance signal, an R filter corresponding to R (Red: red), and a B filter corresponding to B (Blue: blue).
  • the image sensor 60 has a plurality of pixels (not shown) arranged in a matrix, and each pixel is assigned one of an R filter, a G filter, and a B filter included in the color filter. It has been.
  • the subject light that has passed through the zoom lens 52 is imaged on the imaging surface that is the light receiving surface of the imaging device 60, and charges corresponding to the amount of received light of the subject light are accumulated in the pixels of the imaging device 60.
  • the imaging element 60 outputs the electric charge accumulated in each pixel as an image signal indicating an image corresponding to a subject image obtained by imaging subject light on the imaging surface.
  • a motor 17 is connected to the vertical rotation mechanism 15, and the vertical rotation mechanism 15 receives the power generated by the motor 17 and rotates the hot shoe 20 in the vertical direction, as shown in FIG. 2 as an example. Then, the distance measuring unit 12 is rotated in the arrow A1 direction.
  • the main control unit 62 controls the entire distance measuring device 10 ⁇ / b> A via the bus line 84.
  • the motor driver 21 controls the motor 11B (see FIG. 6) in accordance with an instruction from the main control unit 62. Further, the motor driver 23 controls the motor 13B (see FIG. 6) in accordance with an instruction from the main control unit 62. Further, the motor driver 25 controls the motor 17 in accordance with an instruction from the main control unit 62.
  • the motors 11B, 13B, and 17 are examples of power sources according to the technology of the present disclosure.
  • stepping motors are applied as an example of the motors 11B, 13B, and 17. Therefore, the motors 11B, 13B, and 17 are driven in synchronism with the pulse power according to a command from the main control unit 62.
  • the imaging device 14 has a view angle changing function.
  • the view angle changing function is a function of changing the view angle with respect to the subject by moving the zoom lens 52.
  • the view angle changing function includes the zoom lens 52, the zoom lens moving mechanism 54, the motor 56, and the motor. This is realized by the driver 72 and the main control unit 62.
  • the optical angle-of-view changing function by the zoom lens 52 is illustrated, but the technology of the present disclosure is not limited to this, and an electronic angle of view that does not use the zoom lens 52. It may be a change function.
  • the image sensor driver 74 is connected to the image sensor 60 and supplies drive pulses to the image sensor 60 under the control of the main control unit 62. Each pixel of the image sensor 60 is driven according to the drive pulse supplied by the image sensor driver 74.
  • the image signal processing circuit 76 is connected to the image sensor 60, and reads an image signal for one frame from the image sensor 60 for each pixel under the control of the main control unit 62.
  • the image signal processing circuit 76 performs various processes such as correlated double sampling processing, automatic gain adjustment, and A / D conversion on the read image signal.
  • the image signal processing circuit 76 converts the image signal digitized by performing various processes on the image signal into a specific frame rate (for example, several tens frames / s) defined by the clock signal supplied from the main control unit 62. Second) for every frame.
  • the image memory 64 temporarily holds the image signal input from the image signal processing circuit 76.
  • the imaging apparatus body 18 includes a display unit 86, a touch panel 88, a receiving device 90, and a memory card 92.
  • the display unit 86 is connected to the display control unit 78 and displays various information under the control of the display control unit 78.
  • the display unit 86 is realized by, for example, an LCD (Liquid Crystal Display).
  • the touch panel 88 is superimposed on the display screen of the display unit 86, and accepts contact with a user's finger and / or an indicator such as a touch pen.
  • the touch panel 88 is connected to the touch panel I / F 79 and outputs position information indicating the position touched by the indicator to the touch panel I / F 79.
  • the touch panel I / F 79 operates the touch panel 88 according to an instruction from the main control unit 62 and outputs position information input from the touch panel 88 to the main control unit 62.
  • the accepting device 90 accepts various instructions from the user.
  • the reception device 90 includes a main measurement / main imaging button 90A, a temporary measurement / temporary imaging button 90B, an imaging system operation mode switching button 90C, a wide-angle instruction button 90D, and a telephoto instruction button 90E.
  • the reception device 90 includes a measurement system operation mode switching button 90F and an irradiation position adjustment button 90G. Further, the receiving device 90 includes an upper rotary switch 90H, a lower rotary switch 90I, a vertical rotary switch 90J, and the like.
  • the reception device 90 is connected to the reception I / F 80, and the reception I / F 80 outputs an instruction content signal indicating the content of the instruction received by the reception device 90 to the main control unit 62.
  • the main measurement / main imaging button 90A is a press-type button that receives an instruction to start main measurement and main imaging.
  • the temporary measurement / provisional imaging button 90 ⁇ / b> B is a press-type button that receives instructions for starting temporary measurement and provisional imaging.
  • the imaging system operation mode switching button 90C is a push-type button that receives an instruction to switch between the still image capturing mode and the moving image capturing mode.
  • the wide-angle instruction button 90D is a push-type button that accepts an instruction to change the angle of view.
  • the amount of change of the angle of view to the wide-angle side is within an allowable range, and the pressing on the wide-angle instruction button 90D is continued. It depends on the pressing time.
  • the telephoto instruction button 90E is a push-type button that accepts an instruction to change the angle of view.
  • the amount of change in the angle of view to the telephoto side is within an allowable range, and the pressure on the telephoto instruction button 90E continues. It depends on the pressing time.
  • the measurement system operation mode switching button 90F is a press-type button that receives an instruction to switch between the distance derivation mode and the dimension derivation mode.
  • the irradiation position adjustment button 90G is a press-type button that receives an instruction to adjust the irradiation position in the image.
  • the upper rotary switch 90H is a rotary switch that receives an instruction to operate the upper horizontal rotation mechanism 11A to change the direction of the upper ranging unit 11 in the horizontal direction.
  • the lower rotary switch 90I is a rotary switch that receives an instruction to operate the lower horizontal rotation mechanism 13A to change the direction of the lower ranging unit 13 in the horizontal direction.
  • the vertical rotation rotary switch 90J is a rotary switch that receives an instruction to operate the vertical rotation mechanism 15 to change the direction of the distance measuring unit 12 to the vertical direction.
  • buttons when there is no need to distinguish between the main measurement / main imaging button 90A and the temporary measurement / temporary imaging button 90B, they are referred to as “release buttons”.
  • view angle instruction buttons when there is no need to distinguish between the wide-angle instruction button 90D and the telephoto instruction button 90E, they are referred to as “view angle instruction buttons”.
  • the manual focus mode and the autofocus mode are selectively set according to a user instruction via the reception device 90.
  • the release button receives a two-stage pressing operation of an imaging preparation instruction state and an imaging instruction state.
  • the imaging preparation instruction state refers to, for example, a state where the release button is pressed from the standby position to the intermediate position (half-pressed position), and the imaging instruction state refers to the final pressed position (full-pressed when the release button exceeds the intermediate position). The position is pressed down to (position).
  • half-pressed state the state in which the release button is pressed from the standby position to the half-pressed position
  • the state in which the release button is pressed from the standby position to the full-pressed position Is called “fully pressed”.
  • the imaging condition is adjusted by pressing the release button halfway, and then the main exposure is performed when the release button is fully pressed.
  • the exposure adjustment is performed by the AE (Automatic Exposure) function, and then the focus adjustment is performed by the AF (Auto-Focus) function.
  • the main exposure refers to exposure performed to obtain a later-described still image file.
  • exposure means exposure performed for obtaining a live view image described later and exposure performed for obtaining a moving image file described later in addition to the main exposure.
  • exposure means exposure performed for obtaining a live view image described later and exposure performed for obtaining a moving image file described later in addition to the main exposure.
  • the main control unit 62 performs exposure adjustment by the AE function and focus adjustment by the AF function. Moreover, although the case where exposure adjustment and focus adjustment are performed is illustrated in the present embodiment, the technology of the present disclosure is not limited to this, and exposure adjustment or focus adjustment may be performed. .
  • the image processing unit 66 acquires an image signal for each frame from the image memory 64 at a specific frame rate, and performs various processes such as gamma correction, luminance / color difference conversion, and compression processing on the acquired image signal. .
  • the image processing unit 66 outputs an image signal obtained by performing various processes to the display control unit 78 frame by frame at a specific frame rate. Further, the image processing unit 66 outputs an image signal obtained by performing various processes to the main control unit 62 in response to a request from the main control unit 62.
  • the display control unit 78 outputs the image signal input from the image processing unit 66 to the display unit 86 at a specific frame rate for each frame under the control of the main control unit 62.
  • the display unit 86 displays images, character information, and the like.
  • the display unit 86 displays the image indicated by the image signal input at a specific frame rate from the display control unit 78 as a live view image.
  • the live view image is a plurality of images obtained by continuous imaging in time series by the imaging device 14, that is, a continuous frame image obtained by imaging in a continuous frame, and is also referred to as a through image.
  • the display unit 86 also displays a still image that is a single frame image obtained by imaging in a single frame. Further, the display unit 86 displays a reproduced image and / or a menu screen in addition to the live view image.
  • the image processing unit 66 and the display control unit 78 are realized by ASIC (Application Specific Integrated Circuit), but the technology of the present disclosure is not limited to this.
  • each of the image processing unit 66 and the display control unit 78 may be realized by an FPGA (Field-Programmable Gate Array).
  • the image processing unit 66 may be realized by a computer including a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory).
  • the display control unit 78 may also be realized by a computer including a CPU, a ROM, and a RAM.
  • each of the image processing unit 66 and the display control unit 78 may be realized by a combination of a hardware configuration and a software configuration.
  • the main control unit 62 controls the image sensor driver 74 to cause the image sensor 60 to perform exposure for one frame when an instruction to capture a still image is received by the release button in the still image capturing mode.
  • the main control unit 62 acquires an image signal obtained by performing exposure for one frame from the image processing unit 66, performs a compression process on the acquired image signal, and performs still image processing in a specific still image format. Generate an image file.
  • the specific still image format refers to, for example, JPEG (Joint Photographic Experts Group).
  • the main control unit 62 When an instruction to capture a moving image is received by the release button in the moving image capturing mode, the main control unit 62 outputs an image signal output from the image processing unit 66 to the display control unit 78 as a live view image for a specific frame. Get every frame at the rate. Then, the main control unit 62 performs a compression process on the image signal acquired from the image processing unit 66 to generate a moving image file in a specific moving image format.
  • the specific moving image format refers to, for example, MPEG (Moving Picture Experts Group).
  • MPEG Motion Picture Experts Group
  • the media I / F 82 is connected to the memory card 92, and records and reads image files from and to the memory card 92 under the control of the main control unit 62. Note that the image file read from the memory card 92 by the media I / F 82 is decompressed by the main control unit 62 and displayed on the display unit 86 as a reproduced image.
  • the main control unit 62 stores distance information including at least one of distance information input from the distance measurement control unit 68 and dimension information indicating a dimension derived by using a dimension deriving function described later, as an image file. And stored in the memory card 92 via the media I / F 82. The distance measurement information is read from the memory card 92 together with the image file by the main control unit 62 via the media I / F 82. Then, when distance information is included in the distance measurement information read by the main control unit 62, the distance indicated by the distance information is displayed on the display unit 86 together with the reproduced image by the related image file. When the distance information read by the main control unit 62 includes dimension information, the dimension indicated by the dimension information is displayed on the display unit 86 together with the reproduced image by the related image file.
  • the distance measurement control unit 68 controls the distance measurement unit 12 under the control of the main control unit 62.
  • the ranging control unit 68 is realized by an ASIC, but the technology of the present disclosure is not limited to this.
  • the distance measurement control unit 68 may be realized by an FPGA.
  • the distance measurement control unit 68 may be realized by a computer including a CPU, a ROM, and a RAM. Further, the distance measurement control unit 68 may be realized by a combination of a hardware configuration and a software configuration.
  • the distance measurement control unit 68 controls the LD driver 22C under the control of the main control unit 62, thereby controlling the light emission of the laser beam by the LD 22A and acquiring the light reception signal from the light reception signal processing circuit 24C. Further, the distance measurement control unit 68 controls the LD driver 30C under the control of the main control unit 62, thereby controlling the light emission of the laser light by the LD 30A and acquiring the light reception signal from the light reception signal processing circuit 32C. Then, the distance measurement control unit 68 derives the distance to the subject based on the timing at which the laser light is emitted and the timing at which the light reception signal is acquired for each unit-stage distance measurement unit, and the distance indicating the derived distance Information is output to the main control unit 62.
  • the measurement of the distance to the subject by the distance measurement control unit 68 will be described in more detail by taking the upper distance measurement unit 11 as an example.
  • the method for measuring the distance to the subject using the lower ranging unit 13 is the same as the method for measuring the distance to the subject using the upper ranging unit 11, and thus the description thereof is omitted.
  • one measurement sequence by the distance measuring device 10A is defined by a voltage adjustment period, an actual measurement period, and a pause period.
  • the voltage adjustment period is a period for adjusting the drive voltages of the LD 22A and PD 24A.
  • the actual measurement period is a period during which the distance to the subject is actually measured. In the actual measurement period, the operation of causing the LD 22A to emit laser light and causing the PD 24A to receive reflected laser light is repeated several hundred times. Based on the timing at which the laser light is emitted and the timing at which the received light signal is obtained, Is derived.
  • the pause period is a period for pausing the driving of the LD 22A and the PD 24A. Therefore, in one measurement sequence, the distance to the subject is measured several hundred times.
  • each of the voltage adjustment period, the actual measurement period, and the rest period is set to several hundred milliseconds.
  • the distance measurement control unit 68 has a count that defines the timing at which the distance measurement control unit 68 gives an instruction to emit laser light and the timing at which the distance measurement control unit 68 acquires a light reception signal.
  • a signal is supplied.
  • the count signal is generated by the main control unit 62 and supplied to the distance measurement control unit 68, but is not limited thereto, and is generated by a dedicated circuit such as a time counter connected to the bus line 84. You may make it supply to the ranging control part 68.
  • the distance measurement control unit 68 outputs a laser trigger for emitting laser light to the LD driver 22C according to the count signal.
  • the LD driver 22C drives the LD 22A to emit laser light in response to the laser trigger.
  • the laser light emission time is set to several tens of nanoseconds.
  • the time until the laser beam emitted by the emitting unit 22 toward the subject several kilometers ahead is received by the PD 24A as reflected laser light is “several kilometers ⁇ 2 / speed of light” ⁇ several microseconds. Therefore, in order to measure the distance to the subject several kilometers away, as shown in FIG. 7 as an example, a minimum required time of several microseconds is required.
  • the measurement time of one time is set to several milliseconds.
  • the round trip time of the laser beam depends on the distance to the subject. Since they are different, the measurement time per time may be varied according to the assumed distance.
  • the distance measurement control unit 68 derives the distance to the subject based on the measurement values obtained from several hundred measurements in one measurement sequence, for example, a histogram of the measurement values obtained from several hundred measurements To derive the distance to the subject.
  • the horizontal axis is the distance to the subject
  • the vertical axis is the number of measurements
  • the number of measurements is derived by the distance measurement control unit 68 as a distance measurement result.
  • the histogram shown in FIG. 9 is merely an example, and is based on the round trip time of laser light (elapsed time from light emission to light reception) and / or 1/2 of the round trip time of laser light instead of the distance to the subject. A histogram may be generated.
  • the main control unit 62 includes a CPU 100 that is an example of a control unit, a derivation unit, and an output unit according to the technology of the present disclosure.
  • the main control unit 62 includes a primary storage unit 102 and a secondary storage unit 104.
  • the CPU 100 controls the entire distance measuring device 10A.
  • the primary storage unit 102 is a volatile memory used as a work area or the like when executing various programs.
  • An example of the primary storage unit 102 is a RAM.
  • the secondary storage unit 104 is a nonvolatile memory that stores in advance a control program for controlling the operation of the distance measuring apparatus 10A and / or various parameters.
  • Examples of the secondary storage unit 104 include an EEPROM (Electrically Erasable Programmable Read Only Memory) and / or a flash memory.
  • the CPU 100, the primary storage unit 102, and the secondary storage unit 104 are connected to each other via the bus line 84.
  • the distance measuring device 10A is provided with a dimension deriving function.
  • the dimension derivation function is an area in the real space included in the subject based on the addresses u1 and u2 of the designated pixels and the distance D measured by the distance measuring device 10A.
  • leads-out the area based on the length L is pointed out.
  • the “designated pixel” refers to a pixel in the image sensor 60 corresponding to, for example, two points designated on the live view image by the user.
  • the length L is derived by, for example, the following formula (1).
  • Equation (1) p is a pitch between pixels included in the image sensor 60, u1 and u2 are pixel addresses designated by the user, and f is a focal length of the imaging lens 50.
  • the mathematical formula (1) is a mathematical formula that is used on the assumption that an object whose size is to be derived is captured in a state of facing the imaging lens 50 in front view. Therefore, in the distance measuring device 10A, for example, when a subject including an object whose dimension is to be derived is captured in a state in which the imaging lens 50 is not directly facing the front, a projective conversion process is performed. .
  • the projective transformation process includes, for example, a captured image obtained by imaging and / or an image of a rectangular portion of the captured image in the captured image using a known technique such as affine transformation. This refers to the process of converting into a face-to-face image based on a rectangular image.
  • the directly-facing image refers to an image in a state of facing the imaging lens 50 in a front view. Then, the addresses u1 and u2 of the pixels in the image sensor 60 are designated via the front-facing image, and the length L is derived from Equation (1).
  • the irradiation position in the image is highly accurate so that the user can grasp the distance along with the distance. This is because, if the irradiation position in the image and the irradiation position of the laser beam in the real space are positions with respect to planes having different directions and positions, for example, the derived length L is completely different from the actual length. is there.
  • a method in which the distance measuring device 10A executes irradiation position derivation data acquisition processing (see FIG. 19) described later can be considered.
  • a factor (see Table 1) used for deriving the irradiation position in the image is derived based on the distance measured by using the distance measuring system function. For example, position / distance correspondence information described later is acquired as the derivation data.
  • the factors refer to, for example, the half angle of view ⁇ , the emission angle ⁇ , and the reference point distance d as shown in FIG.
  • the half angle of view ⁇ indicates half of the angle of view with respect to the subject imaged by the imaging device 14.
  • the emission angle ⁇ refers to an angle at which laser light is emitted from the emission unit 22.
  • the distance d between reference points refers to the distance between the first reference point P1 defined in the imaging device 14 and the second reference point P2 defined in the distance measuring unit 12.
  • An example of the first reference point P1 is the principal point of the imaging lens 50.
  • An example of the second reference point P2 is a point set in advance as the origin of coordinates that can specify the position of the three-dimensional space in the distance measuring unit 12.
  • one end of the left and right ends of the objective lens 22B when viewed from the front, or one vertex of the casing when the casing (not shown) of the upper ranging unit 11 has a rectangular parallelepiped shape.
  • the dimension in the real space relating to only one object designated as the dimension deriving target is derived. For this reason, when there are a plurality of objects desired by the user as dimensions to be derived in the captured image obtained by one imaging, the objects are designated one by one each time imaging and ranging are performed. Therefore, it takes time to derive the dimensions.
  • the secondary storage unit 104 stores a factor storage program 106, a measurement program 107, and an irradiation position adjustment program 108.
  • the factor storage program 106, the measurement program 107, and the irradiation position adjustment program 108 are examples of a distance measurement program according to the technique of the present disclosure.
  • programs when there is no need to distinguish between the factor storage program 106, the measurement program 107, and the irradiation position adjustment program 108, they are referred to as “programs” without reference numerals.
  • the CPU 100 reads out a program from the secondary storage unit 104, develops the program in the primary storage unit 102, and executes the program, whereby the control unit 100 ⁇ / b> A, the derivation unit 100 ⁇ / b> B, and the output unit 100 ⁇ / b> C are obtained. Operate.
  • the control unit 100A performs control for causing the imaging device 14 to capture an image at an angle of view in which the irradiation positions of the laser light used for the main measurement of a plurality of distances by each of the unit stage ranging units are within the subject.
  • the deriving unit 100B uses the laser light used in the main measurement in the main image obtained by the main imaging by the imaging device 14 among the plurality of distances that are actually measured using each of the unit-stage ranging units. Based on the distance related to the irradiation position in the main image corresponding to the irradiation position, the interval between the plurality of pixels, and the focal length of the imaging device 14, the size of the real space region corresponding to the interval between the plurality of pixels is derived.
  • the irradiation position in the main image is an example of the irradiation position in the image according to the present invention.
  • the “interval of a plurality of pixels” means an interval of a plurality of pixels related to the irradiation position in the main image in the main captured image. Note that the interval between the plurality of pixels is specified for each distance measured using each unit stage distance measuring unit (in other words, for each irradiation position in the main image).
  • the output unit 100C derives derivation accuracy corresponding to the irradiation position influence factor that actually exists in the distance measuring apparatus 10A based on a factor / accuracy table 111 (see FIG. 14) described later, and information based on the derived derivation accuracy. Is output.
  • the irradiation position influence factor refers to a factor that affects the irradiation position in the image. Examples of the irradiation position affecting factor include replacement of the imaging lens 50 and / or change of the angle of view.
  • the derivation accuracy output by the output unit 100C indicates the accuracy of the dimensions derived by the derivation unit 100B. Further, in the present embodiment, the information based on the derivation accuracy output by the output unit 100C indicates a dimensional error derived by the derivation unit 100B.
  • the secondary storage unit 104 stores a position / distance table 109 and a factor / accuracy table 111.
  • the position / distance table 109 stores position / distance correspondence information regarding the corresponding unit stage ranging unit.
  • position / distance correspondence information regarding the upper stage ranging unit 11 and position / distance correspondence information regarding the lower stage ranging unit 13 are shown as an example of position / distance correspondence information regarding the unit stage ranging unit.
  • the position / distance correspondence information refers to the irradiation position in the temporary image and the processing in steps 254D and 254E described later for each irradiation position in the temporary image specified by executing the processing in step 254I described later. This refers to information that associates the distance obtained as a result.
  • the provisional image irradiation positions X 1 , X 2 , and X 3 and the distances D 1 , D 2 , and D 3 are associated with the upper ranging unit 11, and the provisional image irradiation position.
  • X 1 , X 2 , X 3 and distances D 1 , D 2 , D 3 are updated every time the irradiation position derivation data acquisition process is executed.
  • FIG. 13 the example shown in FIG.
  • the irradiation positions X 4 , X 5 , X 6 and the distances D 4 , D 5 , D 6 in the temporary image are associated with the lower ranging unit 13, and
  • the irradiation positions X 4 , X 5 , X 6 and the distances D 4 , D 5 , D 6 are updated every time the irradiation position derivation data acquisition process is executed.
  • the “irradiation position in the provisional image” is obtained by provisionally imaging the subject by the imaging device 14 every time a plurality of distances are provisionally measured by the unit-stage ranging unit and the ranging control unit 68. This refers to a position in the provisional image that corresponds to the irradiation position of the subject with laser light.
  • the irradiation position pixel coordinates are derived by the CPU 100 and the irradiation position pixel coordinates are identified from the irradiation position pixel coordinates of the main image, the provisional image irradiation position, and the live view image irradiation position.
  • the irradiation position pixel coordinates are derived by the CPU 100 and the irradiation position pixel coordinates are identified from the irradiation position pixel coordinates of the main image, the provisional image irradiation position, and the live view image irradiation position.
  • intra-image irradiation positions when it is not necessary to distinguish between the irradiation position in the main image, the irradiation position in the temporary image, and the irradiation position in the live view image.
  • the irradiation position in the live view image refers to a position corresponding to the irradiation position by the laser beam used in the measurement in the live view image obtained by imaging by the imaging device 14.
  • the irradiation position within the live view image is an example of the irradiation position within the image according to the present invention, and is derived by the same derivation method as the above-described method for deriving the irradiation position within the main image.
  • the position / distance correspondence information is an example of information indicating a first correspondence relationship according to the technique of the present disclosure.
  • the first correspondence relationship according to the technology of the present disclosure corresponds to the irradiation position in the temporary image in the temporary image obtained by provisional imaging each time a plurality of distances are temporarily measured, and the irradiation position in the temporary image. This indicates a correspondence relationship with the distance temporarily measured by the unit-stage ranging unit and the ranging control unit 68 with the laser beam to be emitted.
  • the irradiation position in the temporary image specified by the position / distance correspondence information is “the subject image is temporarily captured by the imaging unit each time a plurality of distances are provisionally measured in the first correspondence relationship according to the technique of the present disclosure. It is an example of "irradiation position in the temporary image in the temporary image obtained by doing this.”
  • the distance specified by the position / distance correspondence information is an example of “distance temporarily measured by the measurement unit with the directional light corresponding to the irradiation position in the temporary image” in the first correspondence relationship according to the technique of the present disclosure. is there.
  • the factor / accuracy table 111 stores factor / accuracy correspondence information that is an example of information indicating the second correspondence relationship according to the technique of the present disclosure.
  • the factor / accuracy correspondence information refers to information in which an assumed factor assumed as an irradiation position influence factor and a derivation accuracy by the derivation unit 100B are associated with each other.
  • the factor / accuracy correspondence information is fixed before the shipment of the distance measuring apparatus 10A.
  • the factor / accuracy table 111 is derived from the result of a computer simulation or the like based on an actual test of the distance measuring device 10A and / or a design specification of the distance measuring device 10A before the distance measuring device 10A is shipped. Stored factor / accuracy correspondence information.
  • derivation accuracy ⁇ , ⁇ , ⁇ , ⁇ , and ⁇ when an assumed factor actually occurs is defined for each assumed factor.
  • an assumed factor a change in the angle of view, a lens exchange, a distance measurement unit exchange, a change in the emission direction, and a manufacturing variation are cited.
  • Lens replacement refers to replacement of only the imaging lens 50 in the lens unit 16 and replacement of the lens unit 16 itself.
  • the distance measurement unit replacement refers to replacement of only the objective lens in the distance measurement unit 12 and replacement of the distance measurement unit 12 itself.
  • the view angle change refers to a change in the view angle that accompanies the movement of the zoom lens 52 when the view angle instruction button is pressed.
  • the change in the emission direction refers to a change in the direction in which the laser beam is emitted for each unit stage ranging unit.
  • Manufacturing variation refers to variations in various characteristics in manufacturing between a plurality of distance measuring devices 10A of the same model.
  • view angle change (1)... (N) indicates different features of the change of the view angle. Therefore, derivation accuracy ⁇ 1 ... ⁇ n , which is a different derivation accuracy, is associated with the view angle change (1). Note that examples of different characteristics of the change in the angle of view include a difference in the change direction and the change amount of the angle of view.
  • lens exchange (1)... (N) shows different characteristics of lens exchange. Therefore, derivation accuracy ⁇ 1 ... ⁇ n , which is a different derivation accuracy, is associated with lens replacement (1).
  • An example of a different feature of lens replacement is a difference in focal length of the lens unit 16.
  • distance measurement unit replacement (1)... (N) shows different characteristics of replacement of the distance measurement unit 12. Therefore, the derivation accuracy ⁇ 1, ... ⁇ n , which is a different derivation accuracy, is associated with the distance measurement unit replacement (1).
  • An example of a different feature of the distance measurement unit replacement is a difference in the type of the distance measurement unit 12.
  • the change (1)... (N) of the emission direction shows different features of the change of the emission direction of the laser beam for each unit stage ranging unit. Therefore, the derivation accuracy ⁇ 1, ... ⁇ n , which is a different derivation accuracy, is associated with the change (1).
  • the difference in the outer shape of the emission units 22 and 30 accompanying the change over time of the distance measurement unit 12 and / or the distance measurement unit 12 having a different laser beam emission direction is mentioned.
  • each distance measuring device 10A is associated with a derivation accuracy ⁇ uniquely determined for each distance measuring device 10A.
  • step 200 the output unit 100C determines whether or not a new irradiation position influence factor has occurred. If a new irradiation position influence factor has occurred in step 200, the determination is affirmed and the routine proceeds to step 202. In step 200, if a new irradiation position affecting factor has not occurred, the determination is denied and the routine proceeds to step 204.
  • step 202 the output unit 100 ⁇ / b> C indicates the generated new irradiation position influence factor and the factor information indicating the characteristics of the generated new irradiation position influence factor in the secondary storage unit 104 in time series and in units.
  • the information is stored for each step distance measuring unit, and then the process proceeds to step 208.
  • the characteristics of the irradiation position influence factor include, for example, a field angle change feature, a lens exchange feature, a distance measurement unit exchange feature, and an emission direction change feature, which are the same as the corresponding assumed factor features. It is sufficient if it is the feature of. Note that “same” here means not only perfect identity but also identity within a predetermined error range.
  • step 204 the output unit 100C determines whether or not the irradiation position derivation data acquisition process (see FIG. 19) has been executed. If the irradiation position derivation data acquisition process is executed in step 204, the determination is affirmed and the routine proceeds to step 206. If it is determined in step 204 that the irradiation position derivation data acquisition process has not been executed, the determination is negative and the routine proceeds to step 208. Note that, in step 204, the determination is also denied when the factor information is not stored in the secondary storage unit 104, and the process proceeds to step 208.
  • step 206 the output unit 100C erases the factor information stored in the secondary storage unit 104, and then proceeds to step 208.
  • step 208 the output unit 100C determines whether or not an end condition that is a condition for ending this factor storage process is satisfied.
  • the end condition indicates, for example, a condition that an instruction to end the factor storage process is received via the touch panel 88.
  • step 208 If it is determined in step 208 that the termination condition is not satisfied, the determination is denied and the process proceeds to step 200. In step 208, if the end condition is satisfied, the determination is affirmed and the factor storage process is ended.
  • a distance derivation mode or a dimension derivation mode is set as the operation mode of the ranging system function.
  • the description will be made on the assumption that the position of the imaging device 14 is fixed, except for the case where provisional measurement and provisional imaging are performed in the later-described irradiation position derivation data acquisition processing.
  • the angle of view has already been determined.
  • the upper ranging unit 11 and the lower ranging unit 13 will be described on the assumption that the laser beams are emitted in synchronization with each other.
  • the irradiation position of the laser light on the subject in real space is referred to as “real space irradiation position”.
  • the subject is an outer wall portion of an office building, and the outer wall portion of the office building has a planar wall portion (planar region) having a rectangular window and / or a rectangular pattern or the like. ).
  • planar shape as used herein includes not only a flat surface but also a planar shape in a range that allows slight unevenness due to a window or a vent, for example, by visual observation or by existing image analysis technology. Any plane or plane shape recognized as “planar” may be used.
  • the derivation of the irradiation position in the image in the X direction that is the left-right direction of the front view with respect to the imaging surface of the imaging device 60 included in the imaging device 14 will be described as an example.
  • the derivation of the irradiation position in the image in the Y direction which is the front view vertical direction with respect to the imaging surface of the imaging element 60 included in the image sensor 60 is similarly performed.
  • the intra-image irradiation position finally derived by deriving the intra-image irradiation position for each of the X direction and the Y direction is expressed by two-dimensional coordinates.
  • the left-right direction in front view with respect to the imaging surface of the imaging device 60 included in the imaging device 14 is referred to as “X direction” or “row direction”, and imaging of the imaging device 60 included in the imaging device 14 is performed.
  • the front view left-right direction with respect to the surface is referred to as “Y direction” or “column direction”.
  • step 220 the control unit 100A determines whether or not the upper rotary switch 90H has been operated. If the upper rotary switch 90H is operated in step 220, the determination is affirmed and the routine proceeds to step 222. If the upper rotary switch 90H is not operated at step 220, the determination is negative and the routine proceeds to step 224.
  • step 222 the control unit 100A operates the upper horizontal rotation mechanism 11A according to the operation amount and operation direction of the upper rotary switch 90H to rotate the upper ranging unit 11 in the horizontal direction, and then proceeds to step 232. Transition.
  • the upper rotary switch 90H When the upper rotary switch 90H is operated, the upper distance measurement is performed within the range in which the real space irradiation position when the laser light is emitted by the upper distance measuring unit 11 is within the currently set angle of view.
  • the unit 11 is rotated in the lateral direction by a rotation amount corresponding to the operation amount.
  • step 224 the control unit 100A determines whether or not the lower rotary switch 90I has been operated. If the lower rotary switch 90I is operated in step 224, the determination is affirmed and the routine proceeds to step 226. If it is determined in step 224 that the lower rotary switch 90I has not been operated, the determination is negative and the routine proceeds to step 228.
  • step 226 the control unit 100A operates the lower horizontal rotation mechanism 13A according to the operation amount and operation direction of the lower rotary switch 90I to rotate the lower ranging unit 13 in the horizontal direction, and then proceeds to step 232. Transition.
  • the lower rotary switch 90I When the lower rotary switch 90I is operated, the lower distance measurement is performed within the range in which the real space irradiation position when the laser light is emitted by the lower distance measuring unit 13 is within the currently set angle of view.
  • the unit 13 is rotated in the horizontal direction by a rotation amount corresponding to the operation amount.
  • Step 2208 the control unit 100A determines whether or not the vertical rotation rotary switch 90J has been operated. In step 228, when the rotary switch 90J for vertical rotation is operated, determination is affirmed and the routine proceeds to step 230. If it is determined in step 228 that the vertical rotation rotary switch 90J has not been operated, the determination is negative and the routine proceeds to step 234.
  • the distance measuring unit is limited to a range in which the real space irradiation position when the laser light is emitted by the distance measuring unit 12 falls within the currently set angle of view. 12 is rotated in the vertical direction by a rotation amount corresponding to the operation amount.
  • step 230 the control unit 100A operates the vertical rotation mechanism 15 in accordance with the operation amount and operation direction of the vertical rotation rotary switch 90J to rotate the distance measuring unit 12 in the vertical direction, and then proceeds to step 232. .
  • step 232 the control unit 100A updates the emission angle ⁇ in accordance with the rotation direction and rotation amount of the unit stage ranging unit, and then proceeds to step 234.
  • the “rotation direction and rotation amount of the unit ranging unit” is roughly divided into the rotation direction and rotation amount of the upper ranging unit 11 and the rotation direction and rotation amount of the lower ranging unit 13.
  • the “rotation direction and rotation amount of the upper ranging unit 11” means the rotation direction and rotation amount of the upper ranging unit 11 when the upper ranging unit 11 is rotated in the horizontal direction, and the vertical ranging unit 12 is vertical. It means the rotation direction and amount of rotation of the upper ranging unit 11 when rotated in the direction.
  • “Rotation direction and rotation amount of the lower ranging unit 13” means the rotation direction and amount of the lower ranging unit 13 when the lower ranging unit 13 is rotated in the horizontal direction, and the vertical distance measurement unit 12 is vertical. This means the direction and amount of rotation of the lower ranging unit 13 when rotated in the direction.
  • step 234 the deriving unit 100B determines whether or not the distance deriving mode is set. If the distance derivation mode is not set in step 234, the determination is negative and the routine proceeds to step 258 shown in FIG. If the distance derivation mode is set in step 234, the determination is affirmed and the routine proceeds to step 236 shown in FIG.
  • step 236 the derivation unit 100B determines whether or not the main measurement / main imaging button 90A is turned on. If it is determined in step 236 that the main measurement / main imaging button 90A is not turned on, the determination is negative, and the routine proceeds to step 252. If the main measurement / main imaging button 90A is turned on in step 236, the determination is affirmed, and the routine proceeds to step 238.
  • step 238 the derivation unit 100B controls the distance measurement control unit 68 to perform the main measurement for each unit-stage distance measurement unit.
  • the derivation unit 100B controls the image sensor driver 74 and the image signal processing circuit 76 to execute the main imaging, and then proceeds to step 240.
  • step 240 the deriving unit 100B derives a factor for each unit stage ranging unit based on the corresponding position / distance correspondence information stored in the position / distance table 109, and then proceeds to step 242.
  • the factor derived by executing the processing of this step 240 is an uncertain factor at the present time, and is different for each irradiation position influence factor as shown in Table 1 below.
  • the number of uncertain factors can be 1 to 3.
  • the uncertain factors are the half angle of view ⁇ , the emission angle ⁇ , and the reference point distance d. Become.
  • the half angle of view ⁇ and the emission angle ⁇ there are two uncertain factors: the emission angle ⁇ and the reference point distance d.
  • the uncertain factor is one of the half angles of view ⁇ .
  • the uncertain factor is one of the injection angles ⁇ .
  • the factor is derived by, for example, the following mathematical formulas (2) to (4).
  • the distance D is a distance specified from the position / distance correspondence information.
  • the distance D is specified from the position / distance correspondence information about the upper ranging unit 11.
  • distance refers to the distance D 1, D 2, D 3 .
  • the distances identified from the position / distance correspondence information regarding the lower ranging unit 13 indicate distances D 4 , D 5 , and D 6 .
  • “row direction pixel in irradiation position” is the irradiation position in the image in the row direction
  • “half of the number of pixels in the row direction” is half of the number of pixels in the row direction in the image sensor 60.
  • the half angle of view ⁇ is derived by, for example, the following formula (5).
  • “f” refers to the focal length. It is preferable that the focal length f to be substituted into the mathematical formula (5) is, for example, the focal length used in the main imaging in Step 230.
  • the irradiation position in the temporary image specified from the position / distance correspondence information stored in the position / distance table 109 is set as the “irradiation position row direction pixel”.
  • the irradiation positions in the temporary image specified from the position / distance correspondence information regarding the upper ranging unit 11 indicate X 1 , X 2 , and X 3 .
  • the irradiation positions in the temporary image specified from the position / distance correspondence information regarding the lower ranging unit 13 indicate X 4 , X 5 , and X 6 .
  • the distance specified from the position / distance correspondence information stored in the position / distance table 109 is calculated for each corresponding irradiation position in the temporary image (corresponding “row direction pixel of irradiation position”) using the formulas (2) and (2). Used as the distance D in (3). Then, the deriving unit 100B derives a factor that can be closest to each of the “irradiation position row direction pixels”.
  • the method for deriving the factor will be described by taking the position / distance correspondence information regarding the upper ranging unit 11 among the position / distance correspondence information stored in the position / distance table 109 shown in FIG. 13 as an example.
  • the distance D 1 is used as a distance D of equation (2) and Equation (3).
  • the distance D 2 is used as the distance D of equation (2) and Equation (3).
  • the distance D 3 is used as a distance D of equation (2) and Equation (3).
  • Equations (2) to (4) the half field angle ⁇ , the emission angle ⁇ , and the reference point distance d that can be closest to each of the irradiation positions X 1 , X 2 , and X 3 in the temporary image are derived. Is done.
  • step 242 the deriving unit 100B derives the irradiation position in the main image based on the factor derived in step 240 for each unit stage ranging unit, and then proceeds to step 244.
  • the irradiation position in the main image is derived by, for example, mathematical expressions (2) to (4). That is, the factor derived in step 240 is substituted into the equations (2) to (4), and the distance obtained by executing the main measurement in step 238 is substituted into the equations (2) to (4) as the distance D.
  • the distance obtained by executing the main measurement in step 238 is substituted into the equations (2) to (4) as the distance D.
  • “row direction pixel of irradiation position” is derived as the irradiation position in the main image.
  • step 244 the output unit 100C derives the derivation accuracy associated with the specific assumed factor from the factor / accuracy correspondence information for each unit stage ranging unit. Then, the output unit 100C derives the error in the irradiation position in the main image derived by the deriving unit 100B based on the derived derivation accuracy for each unit stage ranging unit, and then proceeds to step 246.
  • the specific assumption factor refers to an assumption factor corresponding to the irradiation position influence factor that actually exists in the distance measuring apparatus 10A.
  • the specific assumption factors are the assumption factors included in the factor / accuracy correspondence information, the assumption factors corresponding to the factor information currently stored in the secondary storage unit 104, and the factors / accuracy This refers to manufacturing variation among the assumed factors included in the correspondence information.
  • a specific assumption factor points out only the manufacture dispersion
  • the derivation accuracy corresponding to the specific assumption factor is the derivation accuracy ⁇ 1 , ⁇ .
  • the derivation accuracy corresponding to a specific assumed factor is the derivation accuracy ⁇ .
  • the derivation accuracy ⁇ 1 and ⁇ are integrated, and the main image is based on the integrated derivation accuracy.
  • the error of the inner irradiation position is derived for each unit stage ranging unit.
  • the specific assumption factor is only the manufacturing variation
  • the error of the irradiation position in the main image is derived for each unit-stage ranging unit based on the derivation accuracy ⁇ .
  • the derivation accuracy obtained by integrating a plurality of derivation accuracy refers to, for example, the derivation accuracy obtained by a dependent variable integrated by a polynomial including the derivation accuracy associated with a specific assumption factor as an independent variable.
  • the following mathematical formula (6) can be given.
  • Q is a dependent variable
  • F ( ⁇ ), G ( ⁇ ), H ( ⁇ ), J ( ⁇ ), and K ( ⁇ ) are functions.
  • F ( ⁇ ) is a function defined by derivation accuracy ⁇ , which is an independent variable.
  • G ( ⁇ ) is a function defined by derivation accuracy ⁇ , which is an independent variable.
  • H ( ⁇ ) is a function defined by the derivation accuracy ⁇ , which is an independent variable.
  • J ( ⁇ ) is a function defined by the derivation accuracy ⁇ that is an independent variable.
  • K ( ⁇ ) is a function defined by the derivation accuracy ⁇ that is an independent variable.
  • the derivation accuracy obtained by integrating a plurality of derivation accuracies may be the dependent variable Q itself of Equation (6), or may be a value obtained by adjusting the dependent variable Q.
  • the value obtained by adjusting the dependent variable Q indicates, for example, a value obtained by multiplying the dependent variable Q by a coefficient (for example, a coefficient specified by the user via the touch panel 88).
  • the error is derived based on a position error table (not shown) in which the derivation accuracy and the coordinates of the irradiation position in the image and the corresponding error are associated in advance.
  • a position error table (not shown) in which the derivation accuracy and the coordinates of the irradiation position in the image and the corresponding error are associated in advance.
  • the disclosed technique is not limited to this.
  • the error may be derived based on an arithmetic expression in which the derivation accuracy and the coordinates of the irradiation position in the image are independent variables and the error is a dependent variable.
  • step 246 the output unit 100C displays the main image, the distance, the error, and the irradiation position marks 116A and 116B on the display unit 86 as shown in FIG. 21 as an example, and then proceeds to step 248.
  • the main image displayed on the display unit 86 is an image obtained by performing the main imaging by executing the processing of step 238.
  • the irradiation position mark 116A is a mark indicating the irradiation position in the main image derived by executing the processing of step 242 based on the laser light emitted by the upper ranging unit 11.
  • the irradiation position mark 116 ⁇ / b> B is a mark indicating the irradiation position in the main image derived by executing the processing of step 242 based on the laser light emitted by the lower ranging unit 13.
  • the irradiation position marks 116A and 116B are referred to as irradiation position marks 116 when it is not necessary to distinguish between them.
  • the distance for each unit-stage ranging unit is displayed on the display unit 86 as shown in FIG. 21 as an example.
  • the distance for each unit stage ranging unit is roughly classified into a distance measured using the upper stage ranging unit 11 and a distance measured using the lower stage ranging unit 13.
  • the distance measured using the upper ranging unit 11 refers to the distance measured by executing the process of step 238 based on the laser light emitted by the upper ranging unit 11.
  • the distance measured using the lower ranging unit 13 refers to the distance measured by performing the process of step 238 based on the laser light emitted by the lower ranging unit 13.
  • the numerical value “32514.2” corresponds to the distance measured using the upper ranging unit 11 and the unit is millimeter.
  • the numerical value “1333325.0” corresponds to the distance measured using the lower ranging unit 13, and the unit is millimeter.
  • an error for each unit stage ranging unit is displayed on the display unit 86 as shown in FIG. 21 as an example.
  • the error for each unit stage ranging unit is roughly divided into an error in the irradiation position in the main image by the upper stage ranging unit 11 and an error in the irradiation position in the main image by the lower stage ranging unit 13.
  • the error of the irradiation position in the main image by the upper ranging unit 11 is the irradiation position in the main image derived by executing the processing of step 242 based on the laser light emitted by the upper ranging unit 11. Refers to the error.
  • the error of the irradiation position in the main image by the lower ranging unit 13 is the irradiation position in the main image derived by executing the processing of step 242 based on the laser beam emitted by the lower ranging unit 13. Refers to the error.
  • the numerical value “ ⁇ 16.3” corresponds to the error of the irradiation position in the main image by the upper ranging unit 11 and the unit is millimeter.
  • the numerical value “ ⁇ 15.2” corresponds to the error of the irradiation position in the main image by the lower ranging unit 13 and the unit is millimeter.
  • step 248 the output unit 100C determines whether or not at least one of the errors derived for each unit stage ranging unit has exceeded the threshold value by executing the processing of step 244 or step 286 described later.
  • the threshold value is a preferred value to be subjected to the irradiation position derivation data acquisition process (see FIG. 19). It is a value obtained in advance based on the result.
  • the derivation accuracy of the irradiation position in the main image by the derivation unit 100B is derived in advance. Means less than accuracy.
  • step 248 if all of the errors derived for each unit stage ranging unit are equal to or less than the threshold value by executing the processing of step 244 or step 286, the determination is negative and the process proceeds to step 252. In step 248, if at least one of the errors derived by executing the processing of step 244 or step 286 exceeds the threshold value, the determination is affirmed and the process proceeds to step 250.
  • step 250 the output unit 100C displays the irradiation position adjustment recommendation screen 110 on the display unit 86 as shown in FIG. 22 as an example, and then proceeds to step 252.
  • the irradiation position adjustment recommendation screen 110 is a screen for recommending adjustment of the irradiation position in the main image.
  • a message “Adjustment of the irradiation position in the main image is recommended” is displayed on the irradiation position adjustment recommendation screen 110.
  • the “Yes” soft key specified when expressing the intention to adjust the irradiation position in the main image is displayed on the irradiation position adjustment recommendation screen 110.
  • the “No” soft key designated when expressing the intention not to adjust the irradiation position in the main image is displayed on the irradiation position adjustment recommendation screen 110.
  • the irradiation position adjustment recommendation screen 110 is displayed on the display unit 86 as an alarm indicating that the derivation accuracy derived by the output unit 100C is less than the predetermined derivation accuracy.
  • step 252 the output unit 100C determines whether or not the “Yes” soft key on the irradiation position adjustment recommendation screen 110 is turned on. If the “Yes” soft key on the irradiation position adjustment recommendation screen 110 is turned on in step 252, the determination is affirmed and the routine proceeds to step 254. If the “No” soft key on the irradiation position adjustment recommendation screen 110 is turned on in step 252 and if a predetermined time (for example, 30 seconds) has elapsed since the irradiation position adjustment recommendation screen 110 was displayed, the determination is made. If not, the process proceeds to step 256.
  • a predetermined time for example, 30 seconds
  • step 254 the deriving unit 100B executes the irradiation position deriving data acquisition process shown in FIG. 19 as an example, and then proceeds to step 256.
  • step 254A the derivation unit 100B displays the temporary measurement / temporary imaging guide screen 112 on the display unit 86 as shown in FIG. Thereafter, the process proceeds to step 254B.
  • the provisional measurement / provisional imaging guide screen 112 is a screen for guiding the user to perform provisional measurement and provisional imaging a plurality of times (in this embodiment, three times as an example) by changing the laser beam emission direction.
  • a message “Please perform provisional measurement and provisional imaging three times by changing the laser beam emission direction” is displayed on the provisional measurement and provisional imaging guide screen 112.
  • step 254B the derivation unit 100B determines whether or not the temporary measurement / provisional imaging button 90B is turned on. If the temporary measurement / provisional imaging button 90B is not turned on in step 254B, the determination is negative and the routine proceeds to step 254C. If the temporary measurement / provisional imaging button 90B is turned on in step 254B, the determination is affirmed and the routine proceeds to step 254D.
  • step 254C the deriving unit 100B determines whether or not an end condition that is a condition for ending the main irradiation position deriving data acquisition process is satisfied.
  • the end condition refers to, for example, a condition that an instruction to end the main irradiation position derivation data acquisition process has been received via the touch panel 88.
  • step 254C if the end condition is not satisfied, the determination is denied and the process proceeds to step 254B. If the end condition is satisfied in step 254C, the determination is affirmed and the routine proceeds to step 220.
  • step 254D the derivation unit 100B controls the distance measurement control unit 68 to perform provisional measurement for each unit stage distance measurement unit.
  • the derivation unit 100B controls the image sensor driver 74 and the image signal processing circuit 76 to execute provisional imaging, and then proceeds to step 254E.
  • the provisional measurement and provisional imaging are performed by changing the photographing direction every time the provisional measurement / provisional imaging button 90B is turned on. In order to change the shooting direction, for example, the direction of the distance measuring device 10A may be changed.
  • step 254E the deriving unit 100B stores, for each unit-stage ranging unit, the temporary image, which is an image obtained by executing provisional imaging, and the distance obtained by executing the provisional measurement in the primary storage unit 102.
  • the information is stored for each distance unit, and then the process proceeds to step 254F.
  • step 254F the derivation unit 100B determines whether or not the temporary measurement / provisional imaging button 90B has been turned on three times, thereby determining whether or not the temporary measurement and provisional imaging have been performed three times. In step 254F, when temporary measurement and provisional imaging are not performed three times, the determination is negative and the process proceeds to step 254B. In step 254F, when provisional measurement and provisional imaging are performed three times, the determination is affirmed, and the process proceeds to step 254G.
  • the deriving unit 100B uses position / distance correspondence information used for deriving the irradiation position in the main image based on the relationship between a plurality of provisionally measured distances (here, three distances as an example) for each unit-stage ranging unit. It is determined whether or not the relationship is a predetermined relationship that does not contribute effectively to the construction of. That is, in step 254G, the deriving unit 100B determines whether the three distances stored in the primary storage unit 102 in step 254E are valid distances for each unit stage ranging unit.
  • the effective distance is a distance of a relationship in which the three distances stored in the primary storage unit 102 effectively contribute to the construction (generation) of position / distance correspondence information used for deriving the irradiation position in the main image.
  • the relationship in which the three distances effectively contribute to the construction of the position / distance correspondence information used for deriving the irradiation position in the main image is, for example, that the three distances are equal to or greater than a predetermined distance (for example, 0.3 m or more). ) It means a distant relationship.
  • step 254G if the three distances stored in the primary storage unit 102 in step 254E are not valid distances for at least one unit stage ranging unit, the determination is negative and the process proceeds to step 254H.
  • step 254G for all the unit stage ranging units, if the three distances stored in the primary storage unit 102 in step 254E are valid distances, the determination is affirmed and the process proceeds to step 254I.
  • step 254H the derivation unit 100B displays the re-execution guidance screen 114 on the display unit 86 as shown in FIG. 24 as an example, and then proceeds to step 254B.
  • the re-execution guidance screen 114 is a screen for guiding the user to redo temporary measurement and provisional imaging.
  • step 254I the deriving unit 100B specifies the irradiation position in the temporary image for each temporary image stored in the primary storage unit 102 in step 254E for each unit ranging unit, and then proceeds to step 254J.
  • the irradiation position in the temporary image is, for example, based on a difference between an image obtained before provisional measurement and provisional imaging (for example, one frame before) in the live view image and a provisional image obtained by provisional imaging. Identified. If the distance at which the temporary measurement is performed is about several meters, the user can visually recognize the irradiation position of the laser light from the temporary image. In this case, the irradiation position visually recognized from the temporary image may be specified by the user via the touch panel 88, and the specified position may be specified as the irradiation position in the temporary image.
  • step 254J the deriving unit 100B generates the position / distance correspondence information for each unit stage ranging unit and overwrites the position / distance table 109, so that the position / distance table 109 is created for each unit stage ranging unit. Then, the irradiation position derivation data acquisition process is terminated.
  • the deriving unit 100B determines whether or not an end condition that is a condition for ending this measurement process is satisfied.
  • the end condition refers to a condition that an instruction to end the main measurement process is received via the touch panel 88, for example.
  • step 256 If it is determined in step 256 that the termination condition is not satisfied, the determination is denied and the process proceeds to step 220. If the end condition is satisfied in step 256, the determination is affirmed and the main measurement process is ended.
  • step 258 shown in FIG. 17 the derivation unit 100B determines whether or not the main measurement / main imaging button 90A is turned on. If it is determined in step 258 that the main measurement / main imaging button 90A is not turned on, the determination is negative and the routine proceeds to step 260. In step 258, when the main measurement / main image pickup button 90A is turned on, the determination is affirmed and the routine proceeds to step 262.
  • step 260 the derivation unit 100B determines whether or not the irradiation position adjustment button 90G is turned on. If the irradiation position adjustment button 90G is turned on in step 260, the determination is affirmed and the routine proceeds to step 254 shown in FIG. If it is determined in step 260 that the irradiation position adjustment button 90G has not been turned on, the determination is negative and the routine proceeds to step 256 shown in FIG.
  • step 262 the derivation unit 100B controls the distance measurement control unit 68 to perform the main measurement for each unit stage distance measurement unit. Further, the derivation unit 100B executes the main imaging by controlling the imaging element driver 74 and the image signal processing circuit 76, and then proceeds to step 264.
  • step 264 the deriving unit 100B derives a factor for each unit stage ranging unit based on the position / distance correspondence information stored in the position / distance table 109, and then proceeds to step 266.
  • step 266 the deriving unit 100B derives the irradiation position in the main image based on the factor derived in step 264 for each unit stage ranging unit, and then proceeds to step 268.
  • the irradiation position in the image is derived by, for example, equations (2) to (4). That is, the factor derived in step 264 is substituted into the equations (2) to (4), and the distance obtained by executing the main measurement in step 262 is substituted into the equations (2) to (4) as the distance D.
  • the distance obtained by executing the main measurement in step 262 is substituted into the equations (2) to (4) as the distance D.
  • “row direction pixel of irradiation position” is derived as the irradiation position in the main image.
  • step 268 the derivation unit 100B causes the display unit 86 to display the main image, the distance, and the irradiation position markers 116A and 116B, as shown in FIG. 25 as an example.
  • the main image displayed on the display unit 86 is an image obtained by performing the main imaging by executing the processing of step 262.
  • the irradiation position mark 116A is a mark indicating the irradiation position in the main image derived by executing the processing of step 266 based on the laser light emitted by the upper ranging unit 11. It is.
  • the irradiation position mark 116B is a mark indicating the irradiation position in the main image derived by executing the processing of step 266 based on the laser light emitted by the lower ranging unit 13. It is.
  • the distance for each unit-stage ranging unit is displayed on the display unit 86 as shown in FIG. 25 as an example.
  • the distance for each unit stage ranging unit is roughly classified into a distance measured using the upper stage ranging unit 11 and a distance measured using the lower stage ranging unit 13.
  • the distance measured using the upper ranging unit 11 refers to the distance measured by executing the processing of step 262 based on the laser light emitted by the upper ranging unit 11.
  • the distance measured using the lower ranging unit 13 refers to the distance measured by executing the processing of step 262 based on the laser light emitted by the lower ranging unit 13.
  • the numerical value “42351.2” corresponds to the distance measured using the upper ranging unit 11 and the unit is millimeter.
  • the numerical value “4361.3” corresponds to the distance measured using the lower ranging unit 13 and the unit is millimeter.
  • the user designates a frame in the display area of the main image via the touch panel 88.
  • a correctly designated frame is a rectangular frame 117A that includes an irradiation position mark 116A in the display area of the main image, and an irradiation position in the display area of the main image. It refers to a rectangular frame 117B that encloses the mark 116B.
  • the frame 117A is defined by four points 119A, 119B, 119C, and 119D.
  • the area surrounded by the frame 117A is an area designated in relation to the irradiation position in the main image specified from the irradiation position mark 116A.
  • the frame 117B is defined by four points 119E, 119F, 119G, and 119H.
  • the area surrounded by the frame 117B is an area designated in relation to the irradiation position in the main image specified from the irradiation position mark 116B.
  • step 270 if the frame is not correctly specified in the display area of the main image via the touch panel 88, the determination is negative and the process proceeds to step 272. In step 270, if the frame is correctly specified in the display area of the main image via the touch panel 88, the determination is affirmed and the process proceeds to step 274.
  • step 272 the derivation unit 100B determines whether or not the above-described end condition, which is a condition for ending this measurement process, is satisfied. If the termination condition is not satisfied at step 272, the determination is negative and the routine proceeds to step 270. If the end condition is satisfied in step 272, the determination is affirmed and the main measurement process is ended.
  • the derivation unit 100B determines whether or not a square area exists inside at least one of the frames 117A and 117B.
  • the quadrangular regions indicate trapezoidal regions 121A and 121B.
  • the rectangular region is displayed in the main image. Appears as
  • step 274 if there is no square area inside either of the frames 117A and 117B, the determination is negative and the process proceeds to step 280. In step 274, if a square area is present inside at least one of the frames 117A and 117B, the determination is affirmed and the routine proceeds to step 276.
  • the frames 117A and 117B are referred to as a frame 117 when it is not necessary to distinguish between them.
  • the trapezoidal regions 121A and 121B are referred to as trapezoidal regions 121 when it is not necessary to distinguish between them.
  • step 276 the deriving unit 100B performs the above-described projective transformation process on the image region surrounded by the frame 117 that includes the trapezoidal region 121, and then proceeds to step 278.
  • step 276 first, the deriving unit 100B derives a projective transformation coefficient that is a coefficient for projective transformation based on the rectangular area included in the frame 117. Then, the deriving unit 100B executes the projective transformation process on the latest main image (the main image obtained by the process of step 262) using the derived projective transformation coefficient, and then proceeds to step 278. By executing the processing of this step 278, the latest main image is converted into an image corresponding to the above-mentioned front-view image.
  • the quadrangular area included in the frame 117A is a trapezoidal area 121A
  • the quadrangular area included in the frame 117B is a trapezoidal area 121B. Accordingly, when the processing of this step 278 is executed, the first projective transformation coefficient is derived based on the trapezoidal area 121A, and the second projective transformation coefficient is derived based on the trapezoidal area 121B.
  • the projective transformation process is executed based on the first projective transformation coefficient for the image region surrounded by the frame 117A (for example, a rectangular image region whose outer edge is defined by the frame 117A).
  • a projective transformation process is executed on the image region surrounded by the frame 117B (for example, a rectangular image region whose outer edge is defined by the frame 117B) based on the second projective transformation coefficient.
  • step 276 the above-described projective transformation process is not executed for the image area surrounded by the frame 117 that does not include the trapezoidal area 121. Also, in the following, for convenience of explanation, it is assumed that the process of step 276 is executed in a state where the frame 117A includes the trapezoidal area 121A and the frame 117B includes the trapezoidal area 121B. Will be described.
  • step 278 the deriving unit 100B causes the display unit 86 to display the post-projection-transformed images 123A and 123B obtained by performing the projective transformation process in step 276.
  • the post-projection conversion image 123A is, for example, an image corresponding to an image obtained by imaging in a state where a portion corresponding to the image region surrounded by the frame 117A is directly facing the imaging lens 50 in a front view. Point to. That is, the post-projection transformation image 123A is an image including a rectangular region 123A1 obtained by performing the projection transformation process on the trapezoidal region 121A.
  • the post-projection conversion image 123B is, for example, an image corresponding to an image obtained by imaging in a state where a portion corresponding to the image region surrounded by the frame 117B is directly facing the imaging lens 50 in front view. Point to. That is, the post-projection transformation image 123B is an image including a rectangular region 123B1 obtained by performing the projection transformation process on the trapezoidal region 121B.
  • post-projection conversion images 123A and 123B are referred to as “projection-transformed images” without reference numerals.
  • the user designates two points, that is, two pixels in the display area of the image after projection conversion via the touch panel 88. Specify an area.
  • the designated area refers to an area in real space corresponding to the interval between two pixels.
  • the deriving unit 100B determines whether or not two pixels of the area length derivation target image, which is an image used for deriving the length of the designated area, are designated.
  • the area length derivation target image refers to the post-projection-transformed images 123A and 123B when the processing in steps 276 and 278 is executed.
  • the section length derivation target image refers to an image of an area surrounded by each of the frames 117A and 117B in the main image when the processing in steps 276 and 278 is not executed.
  • the two designated pixels in the area length derivation target image are handled as pixels associated with the irradiation position in the main image specified from the irradiation position mark 116.
  • the two designated pixels in the post-projection-transformed image 123A are pixels associated with the irradiation position in the main image identified from the irradiation position mark 116A.
  • the designated two pixels in the image in the region surrounded by the frame 117A are included in the main image identified from the irradiation position mark 116A thereafter. It is treated as a pixel associated with the irradiation position.
  • step 280 if two pixels of the area length derivation target image are not designated via the touch panel 88, the determination is negative and the process proceeds to step 282. In step 280, when two pixels of the area length derivation target image are designated via the touch panel 88, the determination is affirmed and the process proceeds to step 284.
  • step 282 the deriving unit 100B determines whether or not the above-described end condition, which is a condition for ending this measurement process, is satisfied. If the termination condition is not satisfied at step 282, the determination is negative and the routine proceeds to step 280. In step 282, if the end condition is satisfied, the determination is affirmed and the measurement process ends.
  • step 284 the deriving unit 100B derives the length of the area corresponding to the interval between the two pixels designated by the user via the touch panel 88 for each area length deriving target image by using the dimension deriving function. Thereafter, the process proceeds to step 286.
  • the length of the area corresponding to the interval between the two pixels designated by the user via the touch panel 88 is derived by Expression (1).
  • u1 and u2 are addresses of two pixels designated by the user via the touch panel 88.
  • step 286 the output unit 100C derives the derivation accuracy associated with the specific assumed factor from the factor / accuracy correspondence information, and based on the derived derivation accuracy, the length of the area derived by the derivation unit 100B. An error is derived, and then the process proceeds to step 288. Note that an error in the length of the area is derived for each area length derivation target image.
  • the specific assumption factor indicates an assumption factor corresponding to the irradiation position influence factor that actually exists in the distance measuring apparatus 10A.
  • the specific assumption factors are the assumption factors included in the factor / accuracy correspondence information, the assumption factors corresponding to the factor information currently stored in the secondary storage unit 104, and the factors / accuracy This refers to manufacturing variation among the assumed factors included in the correspondence information.
  • step 244 or step 286 is executed, and thus the assumed factor regarding the manufacturing variation is obtained. An error based on is derived. Then, by executing the processing of step 246 or step 288 described later, an error based on an assumed factor related to manufacturing variation is displayed on the display unit 86.
  • step 286 when multiple derivation accuracy is derived from the factor / accuracy correspondence information, the multiple derivation accuracy is integrated, and the length of the area is calculated based on the integrated derivation accuracy.
  • An error is derived. For example, when the specific assumption factor is only the manufacturing variation, an error in the length of the area is derived based on the derivation accuracy ⁇ . That is, when the distance measuring device 10A is operated for the first time after shipment of the distance measuring device 10A and this measurement processing is executed, an error in the length of the area is derived based on the derivation accuracy ⁇ .
  • the error is derived based on, for example, a length error table (not shown) in which the derivation accuracy and the length of the area and the error are associated in advance. It is not limited.
  • the error may be derived based on an arithmetic expression in which the derivation accuracy and the length of the area are independent variables and the error is a dependent variable.
  • step 288 the output unit 100C causes the display unit 86 to display the image, the length of the area, the error, and the bidirectional arrows 125A and 125B as shown in FIG. 27 as an example, and then proceeds to step 248.
  • the image displayed on the display unit 86 by executing the processing of step 288 is the main image or the post-projection-transformed image 123.
  • the post-projection-transformed image 123 is displayed only when the process of step 276 is executed.
  • the main image obtained by performing the main imaging in step 262 is displayed on the display unit 86.
  • the length of the area displayed on the display unit 86 by executing the process of step 288 is the length of the area derived by executing the process of step 284.
  • the numerical value “52” and the numerical value “15” correspond to the length of the area, and the unit is millimeter.
  • the error displayed on the display unit 86 by executing the process of step 288 is an error derived by executing the process of step 286.
  • the numerical value “ ⁇ 1” and the numerical value “ ⁇ 3” correspond to errors, and the unit is millimeters.
  • each of the bidirectional arrows 125 ⁇ / b> A and 125 ⁇ / b> B displayed on the display unit 86 by executing the process of step 288 is an arrow that specifies between two pixels designated by the user via the touch panel 88. .
  • the control unit 100A determines whether or not a predetermined time has arrived.
  • the predetermined time indicates, for example, a time each time three frames of live view images are displayed.
  • the predetermined time is not limited to the time each time the live view image is displayed in three frames, and may be the time each time the live view image is displayed in another number of frames. Alternatively, it may be defined by a predetermined time such as 5 seconds.
  • the predetermined time may be a time determined in advance according to an instruction received via the touch panel 88 or the like.
  • step 300 if the predetermined time has arrived, the determination is affirmed and the routine proceeds to step 302. If it is determined in step 300 that the predetermined time has not arrived, the determination is denied and the routine proceeds to step 316.
  • step 302 the control unit 100A controls the distance measurement control unit 68 to perform distance measurement.
  • the control unit 100A controls the imaging element driver 74 and the image signal processing circuit 76 to execute imaging, and then proceeds to step 304.
  • step 304 the control unit 100A causes the derivation unit 100B to derive the irradiation position in the live view image based on the latest factor, and then proceeds to step 306.
  • the latest factor is, for example, the intra-image irradiation position derived last before the processing of step 304 is executed, in the main image derived by executing the processing of step 242 (see FIG. 18). In the case of the irradiation position, it indicates the factor used in deriving the irradiation position in the main image.
  • the latest factor is, for example, the injection of the factors used in the derivation of the irradiation position in the latest live view image when the processing of step 312 described later is performed after the previous processing of step 304 is performed. It refers to factors other than the angle ⁇ and the injection angle ⁇ updated in step 312.
  • the irradiation position in the live view image is derived by the above-described mathematical expressions (2) to (4). That is, the latest factor is substituted into the equations (2) to (4), and the distance obtained by performing the measurement at step 302 is substituted as the distance D into the equations (2) to (4). Thereby, “row direction pixel of irradiation position” is derived as the irradiation position in the live view image.
  • the control unit 100A sets the irradiation position in the live view image derived by executing the processing of step 304 in the display area of the live view image.
  • the display unit 86 is controlled to display the irradiation position mark 116A, which is a mark to be displayed.
  • the distance measuring device 10A can make the user easily grasp the latest irradiation position in the live view image as compared with the case where the irradiation position mark 116A is not displayed.
  • the irradiation position mark 116B which is a mark indicating the irradiation position in the live view image derived based on the laser light emitted by the lower ranging unit 13, is also displayed on the display unit 86. Has been.
  • step 306 the control unit 100A determines whether or not the irradiation position in the live view image derived by the deriving unit 100B is within the predetermined range by executing the process of step 304.
  • “within a predetermined range” refers to the inside of a rectangular frame 127 having a predetermined size, as shown in FIG. 30 as an example.
  • the frame 127 is not limited to the shape and position shown in FIG. 30, and the frame 127 may be a frame that surrounds a specific partial area in the display area of the captured image.
  • the frame 127 is displayed in the display area of the captured image, but the present invention is not limited to this, and the frame 127 may not be displayed.
  • the display and non-display of the frame 127 by the display unit 86 may be selectively switched by the control unit 100A according to an instruction received via the touch panel 88 or the like.
  • step 306 If it is determined in step 306 that the irradiation position in the live view image is outside the predetermined range, the determination is denied and the process proceeds to step 308.
  • this step 306 as shown in FIG. 30 as an example, when both the irradiation position markers 116A and 116B are located outside the frame 127, it is determined that the irradiation position in the live view image is outside the predetermined range. .
  • step 306 when at least one of the irradiation position markers 116A and 116B is positioned inside the frame 127, it is determined that the irradiation position in the live view image is within the predetermined range.
  • step 308 the control unit 100A causes the display unit 86 to display information outside the predetermined range so as to be superimposed on the live view image, and then proceeds to step 310.
  • the information outside the predetermined range refers to information indicating that the irradiation position in the live view image derived by the deriving unit 100B by performing the process of step 304 is outside the predetermined range.
  • a message 129 “Laser beam irradiation position is out of the predetermined range” displayed on the display unit 86 can be cited. is there.
  • a message “laser light is not irradiated in the frame” may be displayed on the display unit 86 as information outside the predetermined range.
  • an audible display by an audio output by an audio reproduction device may be performed.
  • permanent visible display may be performed by an image forming apparatus (not shown), or at least two of visible display, audible display, and permanent visible display may be combined.
  • step 310 the control unit 100A controls the rotation mechanism via the motor driver 23 to rotate the upper ranging unit 11 by a predetermined rotation amount toward the predetermined direction, and then proceeds to step 312.
  • the default rotation amount means, for example, a certain rotation amount.
  • the predetermined rotation amount for example, the rotation amount required to change the injection angle ⁇ by a predetermined angle (for example, 3 degrees) can be mentioned.
  • the predetermined direction is a direction in which the distance between the irradiation position in the live view image derived by the deriving unit 100B and the reference straight line 133 (see FIG. 29) crossing the frame 127 is shortened by executing the process of step 304.
  • the reference straight line 133 is provided for each unit stage ranging unit, and the reference straight line for each unit stage ranging unit includes the optical axis of the laser beam of the emission unit 22 and the laser beam of the emission unit 30 in the frame 127. Is set at a position separated by a distance corresponding to the amount of deviation in the height direction from the optical axis.
  • the reference straight line 133 is roughly divided into reference straight lines 133A and 133B.
  • the reference straight line 133 ⁇ / b> A is a straight line used for the upper ranging unit 11
  • the reference straight line 133 ⁇ / b> B is a straight line used for the lower ranging unit 13.
  • the predetermined direction is the position between the irradiation position in the live view image derived by the deriving unit 100B by executing the process of step 304 and the reference straight line 133A corresponding to the upper ranging unit 11. It is uniquely determined from the relationship.
  • step 312 the control unit 100 ⁇ / b> A updates the emission angle ⁇ according to the rotation direction and the rotation amount of the upper ranging unit 11 rotated by executing the processing of step 310, and then proceeds to step 300.
  • step 306 determines whether the irradiation position in the live view image is within the predetermined range in step 306 or not. If the irradiation position in the live view image is within the predetermined range in step 306, the determination is affirmed and the process proceeds to step 314.
  • step 314 the control unit 100 ⁇ / b> A causes the display unit 86 to display the information in the predetermined range superimposed on the live view image, and then proceeds to step 316.
  • the information in the predetermined range refers to information indicating that the irradiation position in the live view image derived by the deriving unit 100B by executing the process of step 304 is within the predetermined range.
  • the information within the predetermined range As an example of the information within the predetermined range, as shown in FIG. 31, there is a message 131 “Laser beam irradiation position is within the predetermined range” displayed on the display unit 86, but this is only an example. is there.
  • a message “laser light is being irradiated in the frame” may be displayed on the display unit 86 as information within a predetermined range.
  • an audible display by an audio output by an audio reproduction device may be performed.
  • permanent visible display may be performed by an image forming apparatus (not shown), or at least two of visible display, audible display, and permanent visible display may be combined.
  • the information within the predetermined range is displayed by the display unit 86, thereby notifying the user that the irradiation position within the live view image is within the predetermined range.
  • step 316 the control unit 100A determines whether or not an end condition that is a condition for ending the main irradiation position adjustment process is satisfied.
  • the end condition is, for example, a condition that the irradiation position adjustment button 90G is pressed again and / or a predetermined time after the execution of the main irradiation position adjustment process is started (for example, 1 minute) indicates the condition that has passed.
  • step 316 if the termination condition is not satisfied, the determination is negative and the routine proceeds to step 300.
  • step 316 when the end condition is satisfied, the determination is affirmed and the main irradiation position adjustment process is ended.
  • the distance measuring unit 12 emits a plurality of laser beams. Further, the control unit 100A performs control for causing the imaging device 14 to perform imaging at an angle of view in which the real space irradiation position by each of the plurality of laser beams falls (step 262). Further, the in-image irradiation position is derived as a position corresponding to the real space irradiation position by the deriving unit 100B (step 266).
  • the length of the area corresponding to the interval between the two pixels related to the area length derivation target image for each irradiation position in the main image is the distance measured by using the ranging system function, the two specified Derived based on the pixel interval and the focal length of the imaging device 14 (step 284). Therefore, according to the distance measuring device 10A, it is possible to quickly derive the lengths of a plurality of areas as compared with the case where only one area is designated every time imaging and ranging are performed.
  • the direction of the laser beam can be changed for each unit stage distance measuring unit. Therefore, according to the distance measuring apparatus 10A, the irradiation position of each of the plurality of laser beams can be easily changed.
  • position / distance correspondence information is generated for each unit stage distance measurement unit (step 254J), and the irradiation position in the main image is determined based on the generated position / distance correspondence information. It is derived every time (steps 264 and 266). Therefore, according to the distance measuring device 10A, compared with the case where the irradiation position in the main image is derived for each unit step ranging unit without generating the position / distance correspondence information, The irradiation position can be derived with high accuracy.
  • the length of the area corresponding to the interval between the two pixels related to the area length derivation target image is the distance measured by using the distance measuring system function and the two specified pixels.
  • the focal length of the imaging device 14 are derived.
  • the output unit 100C derives the derivation accuracy corresponding to the assumed factor as the irradiation position influence factor that actually exists in the distance measuring device 10A based on the position / distance correspondence information, and based on the derived derivation accuracy.
  • An error in the length of the zone is derived (step 286). Then, the derived error is displayed on the display unit 86 by the output unit 100C (step 288).
  • the error of the length of the area can be easily grasped by the user as compared with the case where the error of the length of the area is not displayed even though the irradiation position influence factor actually exists. be able to.
  • factor / accuracy correspondence information in which different derivation accuracy is associated with each of different assumed factors is stored in the factor / accuracy table 111. Then, the output unit 100C derives the derivation accuracy associated with the assumed factor corresponding to the irradiation position influence factor that actually exists in the distance measuring device 10A from the factor / accuracy correspondence information (step 286). Therefore, according to the distance measuring device 10A, it is possible to derive the derivation accuracy with higher accuracy than when the derivation accuracy is associated with only a single assumed factor.
  • the derivation accuracy associated with the assumed factors corresponding to each of the plurality of irradiation position influence factors actually existing in the distance measuring device 10A is obtained. It is derived by being integrated (step 286). Therefore, according to the distance measuring device 10A, compared to a case where each derivation accuracy associated with an assumed factor corresponding to each of a plurality of irradiation position influence factors actually existing in the distance measuring device 10A is derived individually. Simple handling with derivation accuracy can be realized.
  • the derivation accuracy is integrated by the mathematical expression (6). Therefore, according to the distance measuring device 10A, the derivation accuracy can be easily integrated as compared with the case of using the monomial.
  • the irradiation position affecting factors are the lens replacement, the distance measurement unit replacement, the field angle change, the emission direction change, and the manufacturing variation. Therefore, according to the distance measuring device 10A, the influence of the applied factor is greater than when the lens replacement, the distance measurement unit replacement, the angle of view change, the change in the exit direction, and the manufacturing variation are not considered as the irradiation position influence factors.
  • the derivation accuracy in consideration of can be derived.
  • the factor / accuracy correspondence information is stored in the factor / accuracy table 111 at the stage before the shipment of the distance measuring device 10A. Therefore, according to the distance measuring device 10A, the derivation accuracy can be quickly derived as compared with the case where the factor / accuracy correspondence information is created and stored in the factor / accuracy table 111 after shipment of the distance measuring device 10A.
  • the irradiation position adjustment recommendation screen 110 is displayed on the display unit 86, and an alarm is issued (steps 248 and 250). . Therefore, according to the distance measuring device 10 ⁇ / b> A, the user can easily recognize that the error exceeds the threshold as compared with the case where the alarm is not issued even though the error exceeds the threshold.
  • the distance measuring device 10A when the irradiation position in the live view image is outside the predetermined range in the captured image (step 306: N), the distance measurement control unit until the irradiation position in the live view image enters the frame 127. Measurement by 68 is executed (step 302). Then, the irradiation position in the live view image is derived based on the latest factor including the distance measured by the distance measurement control unit 68 and the latest emission angle ⁇ (step 304). Therefore, according to the distance measuring apparatus 10 ⁇ / b> A, distance measurement can be performed in a state where the irradiation position in the live view image is within the frame 127.
  • the distance measurement control unit 68 performs measurement until the irradiation position in the live view image enters the frame 127.
  • the injection angle ⁇ is changed by the rotation mechanism. Then, the irradiation position in the live view image is derived based on the latest factors including the distance measured by the distance measurement control unit 68 and the latest emission angle ⁇ .
  • the distance measuring apparatus 10 ⁇ / b> A compared with the case where the emission angle ⁇ is changed without using the motors 11 ⁇ / b> B, 13 ⁇ / b> B, 17 and the rotation mechanism, the effort required to put the irradiation position in the live view image into the frame 127 Can be reduced.
  • a frame 117 that includes the irradiation position mark 116 is designated for each irradiation position in the main image.
  • two pixels are designated by the user via the touch panel 88 inside the frame 117. Then, based on the distance actually measured for the irradiation position in the main image within the frame 117 by the deriving unit 100B, the interval between the two specified pixels, and the focal length, the interval between the two specified pixels is set. The length of the corresponding area is derived (step 284).
  • the laser beam that the user wants to use for derivation of the length of the area among the plurality of laser beams is used. Derivation of the length of the area based on the measured distance can be realized with a simple configuration.
  • the distance measuring unit 12 emits two laser beams.
  • One laser beam is applied to the outer wall of one front side of the office building that is erected in the imaging direction, and the other laser beam is erected in the imaging direction.
  • the light is applied to the outer wall on the other front side of the office building (see, for example, FIGS. 21 and 29 to 31).
  • the distance measurement control unit 68 measures the distance based on each laser beam, and for each measured distance, the deriving unit 100B derives the length of the area designated by the user (step 284). Therefore, according to the distance measuring device 10A, compared to the case where only one laser beam is emitted to the office building, the lengths of the different areas can be easily derived for the two office buildings.
  • the position of the frame 127 is fixed.
  • the technology of the present disclosure is not limited to this.
  • the position of the frame 127 may be changed according to an instruction received via the touch panel 88 or the like.
  • the size of the frame 127 may be fixed, but may be changed according to an instruction received via the touch panel 88 or the like, for example.
  • the frame 127 has a rectangular shape.
  • the technology of the present disclosure is not limited to this, and for example, an elliptical shape, a rectangular shape, or a triangular shape that forms a closed region. It may be a frame of another shape such as a shape.
  • the case where the emission angle ⁇ is updated with the rotation of the unit-stage ranging unit is illustrated.
  • the reference point distance d may also be updated.
  • the distance d between reference points is also updated, for example, in step 304 shown in FIG. 28, the irradiation position in the main image and / or the live view based on the latest factors including the updated distance d between reference points.
  • the irradiation position in the image may be derived.
  • the output accuracy is derived based on the factor / accuracy correspondence information by the output unit 100C
  • the technology of the present disclosure is not limited to this.
  • the derivation accuracy may be derived based on an arithmetic expression in which the assumed factor is an independent variable and the derivation accuracy is a dependent variable.
  • the output unit 100C may output the derivation accuracy based on the factor / accuracy correspondence information or the arithmetic expression in which the correspondence between the assumed factor and the derivation accuracy is defined.
  • the error is derived as an example of “information based on the derivation accuracy” according to the technique of the present disclosure based on the derivation accuracy derived by the output unit 100C, and the derived error is displayed on the display unit 86.
  • the technique of the present disclosure is not limited to this.
  • the derivation accuracy itself derived by the output unit 100C may be displayed on the display unit 86 as an example of “information based on the derivation accuracy” according to the technique of the present disclosure.
  • both the derivation accuracy and the error derived as examples of “information based on derivation accuracy” according to the technology of the present disclosure may be displayed on the display unit 86.
  • the factor / accuracy table 111 is stored in advance in the secondary storage unit 104 before shipment of the distance measuring apparatus 10A is illustrated, but the technology of the present disclosure is limited to this. It is not a thing. That is, the factor / accuracy table 111 may be stored in the secondary storage unit 104 before the output unit 100C operates for the first time. For example, the factor / accuracy table 111 may be downloaded after the ranging device 10A is shipped and before the output unit 100C is operated for the first time.
  • the factor / accuracy correspondence information stored in the factor / accuracy table 111 is fixed has been described, but the technology of the present disclosure is not limited to this.
  • the factor / accuracy correspondence information may be rewritten in accordance with an instruction received via the touch panel 88 after the distance measuring device 10A is shipped.
  • the output unit 100C integrates a plurality of derivation accuracies using a polynomial.
  • the technology of the present disclosure is not limited to this, and the output unit 100C outputs an output similar to a polynomial.
  • a plurality of derivation accuracies may be integrated using an integrated table (not shown) from which is obtained.
  • an image region defined by a plurality of pixels specified by the user The area of the real space area corresponding to may be derived by the dimension deriving function.
  • an image region defined by a plurality of designated pixels refers to, for example, an image region surrounded by three or more designated pixels.
  • the first embodiment has been described on the assumption that the outer wall portion of the office building is imaged by the distance measuring device 10A in a state where the outer wall portion of the office building is not directly facing the imaging lens 50 in front view. Is not limited to this. That is, the distance measuring device 10 ⁇ / b> A may capture an image with the outer wall portion of the office building facing the imaging lens 50 in front view. In this case, the processes of steps 276 and 278 included in the measurement process can be omitted.
  • a separate office building (an office building built at a distant position) is exemplified, and a case where laser light is irradiated to each office building has been described.
  • the technology is not limited to this.
  • a plurality of laser beams may be applied to one office building.
  • regions for example, outer wall surface
  • the technique of the present disclosure is not limited to this, and the error of manufacturing variation is displayed on the display unit 86. May not be displayed.
  • the factor / accuracy correspondence information has been described with an example in which the angle of view change, the lens exchange, the distance measurement unit exchange, the emission direction change, and the manufacturing variation are included. Is not limited to this.
  • the manufacturing variation may not be included in the factor / accuracy correspondence information.
  • the factor / accuracy correspondence information may be in a form in which at least one of the field angle change, the lens exchange, the distance measurement unit exchange, the emission direction change, and the manufacturing variation is deleted.
  • the technique of the present disclosure is not limited to this, and is derived by executing the processing of steps 240 and 264.
  • the factor that has been set may also be displayed.
  • provisional measurement and provisional imaging are performed three times. Although the case where it implements was illustrated, the technique of this indication is not limited to this. Even if the three factors of the half angle of view ⁇ , the emission angle ⁇ , and the distance d between the reference points are uncertain factors, provisional measurement and provisional imaging may be executed four or more times. As the number of times of provisional imaging is increased, the accuracy increases. Further, when there are two uncertain factors, provisional measurement and provisional imaging are performed at least twice. When there is one uncertain factor, provisional measurement and provisional imaging are performed at least once. Good.
  • the lens position, the distance measurement unit replacement, the field angle change, the change in the emission direction, and the manufacturing variation are exemplified as the irradiation position influence factors.
  • the technology of the present disclosure is limited to this. Instead, at least one of these may be an irradiation position affecting factor.
  • the irradiation position influence factor may be that a predetermined period (for example, 30 days) has elapsed since derivation of the previous factor.
  • change_quantity of at least one of temperature and humidity exceeded the reference value as an irradiation position influence factor.
  • a detection unit that detects that the irradiation position influence factor has occurred may be provided in the distance measuring apparatus 10A, and information indicating that the irradiation position influence factor has occurred is input by the user via the touch panel 88. You may do it.
  • a detection unit that detects that a plurality of irradiation position influence factors have occurred may be provided in the distance measuring device 10A, and information indicating that a plurality of irradiation position influence factors have occurred via the touch panel 88 by the user. May be input.
  • the distance measurement control unit 68 is built in the imaging device body 18 instead of the imaging device body 18. May be.
  • the entire distance measurement unit 12 may be controlled by the distance measurement control unit 68 built in the distance measurement unit 12 under the control of the main control unit 62.
  • an irradiation position adjustment program 132 is stored in the secondary storage unit 104 in place of the irradiation position adjustment program 108, compared to the distance measuring device 10A. Are different (see FIG. 10).
  • the distance measuring device 10B according to the second embodiment is different from the distance measuring device 10A in that an irradiation position adjustment process shown in FIG. 32 is executed instead of the irradiation position adjustment process shown in FIG.
  • step 32 differs from the irradiation position adjustment process shown in FIG. 28 in that step 303 is provided between step 302 and step 304.
  • step 303 the control unit 100A derives the distance difference and determines whether or not the derived distance difference exceeds a threshold value.
  • the distance dissimilarity was measured by the distance used for the previous derivation of the live view image irradiation position by the derivation unit 100B and the process of step 302 being executed. Indicates the degree of difference from the latest distance.
  • step 303 when the process of step 304 has already been executed, the distance used for the previous derivation of the irradiation position in the live view image by the derivation unit 100B and the process of step 302 are taken as an example of the distance difference degree.
  • the absolute value of the difference from the latest distance measured by execution is adopted.
  • the distance dissimilarity is measured by, for example, the distance used for deriving the irradiation position in the main image by the deriving unit 100B and the process of step 302 being executed. It refers to the degree of difference from the latest distance made.
  • step 303 when the process of step 304 has not been executed yet, the distance used for derivation of the irradiation position in the main image by the derivation unit 100B and the process of step 302 are executed as an example of the distance difference degree.
  • the absolute value of the difference from the latest distance measured is used.
  • the absolute value of the difference is adopted as an example of the distance difference degree, but the technology of the present disclosure is not limited to this.
  • the ratio of the latest distance measured by executing the process of step 302 to the distance used for deriving the irradiation position in the main image by the deriving unit 100B is calculated. It may be used as a distance difference degree. Further, for example, the ratio of the latest distance measured by executing the process of step 302 with respect to the distance used for the previous derivation of the irradiation position in the live view image by the derivation unit 100B is used as the distance difference degree. May be.
  • step 303 if the distance dissimilarity exceeds the threshold value, the determination is affirmed and the process proceeds to step 304. If the distance difference degree is equal to or smaller than the threshold value in step 303, the determination is negative and the process proceeds to step 300.
  • the distance measuring apparatus 10B intermittently measures the distance by executing the processing of step 300 (step 302). Then, when the latest distance difference degree is equal to or greater than the threshold (step 303: Y), the processing after step 304 is executed.
  • the distance measuring device 10B it is possible to easily maintain the irradiation position in the live view image within the frame 127 as compared with the case where the processing after step 304 is not executed when the distance difference is equal to or greater than the threshold.
  • the distance measuring device 10C according to the third embodiment is different from the distance measuring device 10B in that an irradiation position adjustment program 134 is stored in the secondary storage unit 104 instead of the irradiation position adjustment program 132 (FIG. 10). reference).
  • the distance measuring apparatus 10C performs an irradiation position adjustment process shown in FIG. 33 in place of the irradiation position adjustment process shown in FIG. 32, as compared with the distance measuring apparatus 10B. Is different.
  • step 350 the control unit 100A determines whether or not the release button is half pressed. If it is determined in step 350 that the release button is half pressed, the determination is affirmed, and the routine proceeds to step 302. If it is determined in step 350 that the release button is not half pressed, the determination is negative and the routine proceeds to step 316.
  • step 350: Y when the release button is half-pressed (step 350: Y), the processing after step 302 is executed.
  • the irradiation position in the live view image enters the frame 127 during the main exposure as compared with the case where the processing after step 302 is not executed when the release button is pressed halfway. It can suppress that it is not in the state.
  • the distance measuring device 10D is different from the distance measuring device 10C in that an imaging device 139 is provided instead of the imaging device 14.
  • the imaging device 139 is different from the imaging device 14 in that the imaging device 139 includes an imaging device body 180 instead of the imaging device body 18.
  • the imaging apparatus main body 180 is different from the imaging apparatus main body 18 in that a rotary encoder 181 is provided instead of the motor 17 and the motor driver 25.
  • the imaging apparatus main body 180 is different from the imaging apparatus main body 18 in that the motor drivers 21 and 23 are not provided.
  • the distance measuring device 10D is different from the distance measuring device 10C in that it includes a reception device 182 instead of the reception device 90.
  • the receiving device 182 is different from the receiving device 90 in that it does not have the upper rotary switch 90H, the lower rotary switch 90I, and the vertical rotary switch 90J.
  • the distance measuring device 10D is different from the distance measuring device 10C in that it includes a distance measuring unit 183 instead of the distance measuring unit 12.
  • the distance measuring unit 183 is different from the distance measuring unit 12 in that an upper distance measuring unit 184 is provided instead of the upper distance measuring unit 11 and a lower distance measuring unit 185 is provided instead of the lower distance measuring unit 13.
  • unit ranging units when it is not necessary to distinguish between the upper ranging unit 184 and the lower ranging unit 185, they are referred to as “unit ranging units”.
  • the upper ranging unit 184 is different from the upper ranging unit 11 in that it includes a rotary encoder 187 instead of the motor 11B.
  • the lower ranging unit 185 is different from the lower ranging unit 13 in that it includes a rotary encoder 186 instead of the motor 13B.
  • the rotary encoder 181 is connected to the vertical rotation mechanism 15 and the bus line 84, and detects the rotation direction and the rotation amount of the hot shoe 20 rotated by the vertical rotation mechanism 15.
  • the main control unit 62 acquires the rotation direction and the rotation amount detected by the rotary encoder 181.
  • the rotary encoder 187 is connected to the upper horizontal rotation mechanism 11A.
  • the rotary encoder 187 is connected to the connector 26 via the signal line 28C, and detects the rotation direction and the rotation amount of the upper ranging unit 184 rotated by the upper horizontal rotation mechanism 11A.
  • the main control unit 62 acquires the rotation direction and the rotation amount detected by the rotary encoder 187.
  • the rotary encoder 186 is connected to the lower horizontal rotation mechanism 13A.
  • the rotary encoder 186 is connected to the connector 26 via the signal line 28F, and detects the rotation direction and amount of rotation of the lower ranging unit 185 rotated by the lower horizontal rotation mechanism 13A.
  • the main control unit 62 acquires the rotation direction and the rotation amount detected by the rotary encoder 186.
  • the distance measuring device 10D according to the fourth embodiment is different from the distance measuring device 10C in that a measurement program 136 is stored in the secondary storage unit 104 in place of the measurement program 107 (see FIG. 10). .
  • the distance measuring device 10D according to the fourth embodiment is different from the distance measuring device 10C in that an irradiation position adjustment program 137 is stored in the secondary storage unit 104 in place of the irradiation position adjustment program 134 ( (See FIG. 10).
  • the distance measuring device 10D according to the fourth embodiment is different from the distance measuring device 10C in that the measurement process shown in FIG. 36 is executed instead of the measurement process shown in FIG.
  • the distance measuring device 10D according to the fourth embodiment is different from the distance measuring device 10C in that an irradiation position adjustment process shown in FIG. 37 is executed instead of the irradiation position adjustment process shown in FIG.
  • the horizontal rotation range of the upper ranging unit 184 and the lower ranging unit 185 are set so that the real space irradiation position is within the currently set angle of view. Description will be made on the assumption that the horizontal rotation range is limited in advance. The fourth embodiment will be described on the assumption that the vertical rotation range of the distance measuring unit 183 is also limited in advance so that the real space irradiation position falls within the angle of view set at the present time.
  • 36 is different from the measurement process shown in FIG. 16 in that the steps 222, 226, and 230 are not included. 36 is different from the measurement process shown in FIG. 16 in that step 360 is provided instead of step 220, step 362 is provided instead of step 224, and step 364 is provided instead of step 228. It has different points.
  • step 360 the control unit 100A determines whether or not the upper ranging unit 184 has been rotated. If it is determined in step 360 that the upper ranging unit 184 has not been rotated, the determination is negative and the routine proceeds to step 362. If the upper ranging unit 184 is rotated in step 360, the determination is affirmed and the routine proceeds to step 366.
  • step 362 the control unit 100A determines whether or not the lower ranging unit 185 has been rotated. If it is determined in step 362 that the lower ranging unit 185 has not been rotated, the determination is negative and the routine proceeds to step 364. If it is determined in step 362 that the lower ranging unit 185 has been rotated, the determination is affirmed and the process proceeds to step 366.
  • step 366 the control unit 100A updates the emission angle ⁇ in accordance with the rotation direction and rotation amount of the unit stage ranging unit, and then proceeds to step 316.
  • the irradiation position adjustment process shown in FIG. 37 differs from the irradiation position adjustment process shown in FIG. 33 in that step 370 is provided instead of step 310 and step 372 is provided instead of step 312.
  • step 370 the control unit 100A determines whether or not the unit stage ranging unit has been rotated. If it is determined in step 370 that the unit ranging unit is not rotated, the determination is negative and the routine proceeds to step 316. In step 370, when the unit stage ranging unit is rotated, the determination is affirmed and the process proceeds to step 372.
  • step 372 the control unit 100A updates the emission angle ⁇ according to the rotation direction and the rotation amount of the unit stage ranging unit, and then proceeds to step 350.
  • the unit stage ranging unit is manually rotated, and the measurement process is executed based on the rotation amount and the rotation direction of the unit stage ranging unit.
  • the distance measuring device 10 ⁇ / b> D when the unit-stage distance measuring unit is manually rotated and the irradiation position in the live view image is outside the frame 127, the distance measurement control is performed until the irradiation position in the live view image enters the frame 127. The distance is measured by the unit 68. Then, the irradiation position in the live view image is derived by the deriving unit 100B based on the measured distance and the emission angle ⁇ .
  • the user's intention can be easily reflected in the change of the emission angle ⁇ , compared to the case where the unit stage distance measuring unit cannot be manually rotated.
  • a factor is derived, and the irradiation position in the main image is derived based on the derived factor.
  • the irradiation position in the main image is derived without deriving the factor. Will be described.
  • the same components as those described in the first embodiment are denoted by the same reference numerals, the description thereof is omitted, and only the parts different from the first embodiment are described. explain.
  • the distance measuring device 10E according to the fifth embodiment is different from the distance measuring device 10A in that a measurement program 138 is stored in the secondary storage unit 104 instead of the measurement program 107. Different (see FIG. 10).
  • FIG. 38 and FIG. 39 Regarding measurement processing realized by the CPU 100 executing the measurement program 138 when the power switch of the distance measuring device 10E is turned on (turned on).
  • the same steps as those in FIGS. 17 and 18 are denoted by the same step numbers, and the description thereof is omitted.
  • step 380 is provided instead of steps 264 and 266.
  • step 382 is provided instead of step 268.
  • the flowchart shown in FIG. 39 differs from the flowchart shown in FIG. 18 in that step 384 is provided instead of steps 240 and 242. 39 is different from the flowchart shown in FIG. 18 in that step 386 is provided instead of step 246.
  • the deriving unit 100B derives the irradiation position in the main image based on the position / distance correspondence information for each unit stage ranging unit, and then proceeds to step 382.
  • step 380 for example, as shown in FIG. 40, for each unit stage ranging unit, an approximate curve Z X are created for the location and distance correspondence information. Then, for each unit stage ranging unit, the image irradiation position which this measurement corresponds to the distance obtained is performed at step 262 is derived from the approximate curve Z X. That is, in this step 380, the approximate curve Z X defined by the position / distance correspondence information, which is an example of the information indicating the first correspondence relationship according to the technology of the present disclosure, and the distance obtained by executing this measurement. From the relationship, the irradiation position in the main image is derived for each unit-stage ranging unit.
  • step 382 the derivation unit 100B causes the display unit 86 to display the main image, the distance, and the irradiation position markers 116A and 116B for each unit-stage ranging unit, as shown in FIG. Migrate to
  • the irradiation position marks 116A and 116B displayed on the display unit 86 by executing the processing of step 382 are the main images derived for each unit stage ranging unit by executing the processing of step 380. It is a mark which shows an internal irradiation position.
  • step 384 shown in FIG. 39 the deriving unit 100B derives the irradiation position in the main image based on the position / distance correspondence information for each unit stage ranging unit, and then proceeds to step 244.
  • the approximate curve Z X are created for the location and distance correspondence information. Then, the image irradiation position which this measurement corresponds to the distance obtained is performed at step 238 is derived from the approximate curve Z X. That is, in this step 384, the approximate curve Z X defined by the position / distance correspondence information, which is an example of the information indicating the first correspondence relationship according to the technology of the present disclosure, and the distance obtained by executing this measurement. From the relationship, the irradiation position in the main image is derived for each unit-stage ranging unit.
  • step 386 the derivation unit 100B causes the display unit 86 to display the main image, the distance, the error, and the irradiation position markers 116A and 116B, as shown in FIG. 21, and then proceeds to step 248.
  • the irradiation position marks 116A and 116B displayed on the display unit 86 by executing the processing of step 386 are the main images derived for each unit stage ranging unit by executing the processing of step 384. It is a mark which shows an internal irradiation position.
  • the irradiation position in the main image is derived for each unit stage ranging unit from the relationship between the approximate curve defined by the position / distance correspondence information and the distance obtained in the main measurement.
  • the irradiation position in the main image is compared with the case where the irradiation position in the main image is derived for each unit-stage ranging unit without using the approximate curve defined by the position / distance correspondence information. Derivation can be realized with a simple configuration.
  • the distance measuring device 10A realized by the distance measuring unit 12 and the imaging device 14 is exemplified.
  • the distance measuring device 10F including the smart device 402 (see FIG. 41) will be described. Note that in the sixth embodiment, the same components as those in the above embodiments will be denoted by the same reference numerals, description thereof will be omitted, and only parts different from those in the above embodiments will be described.
  • the sixth embodiment for convenience of explanation, when there is no need to distinguish between the measurement programs 107, 136, and 137, they are referred to as “measurement programs” without reference numerals. In the sixth embodiment, for convenience of explanation, when it is not necessary to distinguish and explain the irradiation position adjustment programs 108, 132, 134, and 137, they are referred to as “irradiation position adjustment programs” without reference numerals. In the sixth embodiment, when it is not necessary to distinguish between the factor storage program 106, the measurement program, and the irradiation position adjustment program, they are simply referred to as “programs”.
  • the distance measuring device 10F according to the sixth embodiment is different from the distance measuring device 10A according to the first embodiment in that an imaging device 400 is provided instead of the imaging device 14. .
  • the distance measuring device 10F is different from the distance measuring device 10A in that the smart device 402 is provided.
  • the imaging device 400 is different from the imaging device 14 in that the imaging device 400 includes an imaging device body 403 instead of the imaging device body 18.
  • the imaging apparatus main body 403 is different from the imaging apparatus main body 18 in that it includes a wireless communication unit 404 and a wireless communication antenna 406.
  • the wireless communication unit 404 is connected to the bus line 84 and the wireless communication antenna 406.
  • the main control unit 62 outputs transmission target information, which is information to be transmitted to the smart device 402, to the wireless communication unit 404.
  • the wireless communication unit 404 transmits the transmission target information input from the main control unit 62 to the smart device 402 via the wireless communication antenna 406 by radio waves.
  • the radio communication unit 404 acquires a signal corresponding to the received radio wave and outputs the acquired signal to the main control unit 62.
  • the smart device 402 includes a CPU 408, a primary storage unit 410, and a secondary storage unit 412.
  • the CPU 408, the primary storage unit 410, and the secondary storage unit 412 are connected to the bus line 422.
  • the CPU 408 controls the entire distance measuring device 10F including the smart device 402.
  • the primary storage unit 410 is a volatile memory used as a work area or the like when executing various programs.
  • An example of the primary storage unit 410 is a RAM.
  • the secondary storage unit 412 is a non-volatile memory that stores in advance a control program for controlling the overall operation of the distance measuring device 10F including the smart device 402 and / or various parameters. Examples of the secondary storage unit 412 include a flash memory and / or an EEPROM.
  • the smart device 402 includes a display unit 414, a touch panel 416, a wireless communication unit 418, and a wireless communication antenna 420.
  • the display unit 414 is connected to the bus line 422 via a display control unit (not shown), and displays various information under the control of the display control unit.
  • the display unit 414 is realized by an LCD, for example.
  • the touch panel 416 is overlaid on the display screen of the display unit 414 and accepts contact by an indicator.
  • the touch panel 416 is connected to the bus line 422 via a touch panel I / F (not shown), and outputs position information indicating the position touched by the indicator to the touch panel I / F.
  • the touch panel I / F operates the touch panel I / F in accordance with an instruction from the CPU 408 and outputs position information input from the touch panel 416 to the CPU 408.
  • the display unit 414 includes the main measurement / main imaging button 90A, the temporary measurement / temporary imaging button 90B, the imaging system operation mode switching button 90C, the wide-angle instruction button 90D, and the telephoto instruction button 90E described in the first embodiment.
  • a soft key corresponding to is displayed.
  • the display unit 414 displays soft keys corresponding to the measurement system operation mode switching button 90F and the irradiation position adjustment button 90G described in the first embodiment.
  • the main measurement / main imaging button 90A1 that functions as the main measurement / main imaging button 90A is displayed as a soft key on the display unit 414, and is pressed by the user via the touch panel 416.
  • the display unit 414 displays the temporary measurement / provisional imaging button 90B1 functioning as the temporary measurement / provisional imaging button 90B as a soft key and is pressed by the user via the touch panel 416.
  • an imaging system operation mode switching button 90C1 that functions as the imaging system operation mode switching button 90C is displayed as a soft key on the display unit 414 and is pressed by the user via the touch panel 416.
  • a wide-angle instruction button 90D1 that functions as the wide-angle instruction button 90D is displayed as a soft key on the display unit 414, and is pressed by the user via the touch panel 416.
  • a telephoto instruction button 90E1 that functions as the telephoto instruction button 90E is displayed as a soft key on the display unit 414, and is pressed by the user via the touch panel 416.
  • the measurement system operation mode switching button 90F1 functioning as the measurement system operation mode switching button 90F is displayed as a soft key on the display unit 414, and is pressed by the user via the touch panel 416.
  • an irradiation position adjustment button 90G1 that functions as the irradiation position adjustment button 90G is displayed as a soft key on the display unit 414, and is pressed by the user via the touch panel 416.
  • an upper horizontal rotation touch pad 430, a lower horizontal rotation touch pad 432, and a vertical rotation touch pad 434 are displayed on the display unit 414.
  • the upper horizontal rotation touch pad 430 is a circular touch pad that functions as the upper rotary switch 90H.
  • the horizontal rotation amount and the rotation direction of the upper ranging unit 11 are drawn in an arc shape inside the display area of the upper horizontal rotation touchpad 430 via the touch panel 416. It is determined by that.
  • the horizontal rotation amount of the upper ranging unit 11 is determined according to the length of the locus drawn inside the display area of the upper horizontal rotation touchpad 430.
  • the length of the locus drawn inside the display area of the upper horizontal rotation touchpad 430 is, for example, the slide amount of the indicator (for example, the user's finger) slid while being in contact with the touch panel 416. Equivalent to.
  • the rotation direction of the upper ranging unit 11 is determined according to the direction in which the locus inside the display area of the upper horizontal rotation touchpad 430 is drawn (the direction of arrow C in the example shown in FIG. 42).
  • the direction in which the locus inside the display area of the upper horizontal rotation touchpad 430 is drawn corresponds to, for example, the sliding direction of the indicator that is slid in contact with the touch panel 416.
  • the lower horizontal rotation touchpad 432 is a circular touchpad that functions as the lower rotary switch 90I.
  • the horizontal rotation amount and the rotation direction of the lower ranging unit 13 are drawn in an arc shape inside the display area of the lower horizontal rotation touchpad 432 via the touch panel 416. It is determined by that.
  • the horizontal rotation amount of the lower ranging unit 13 is determined according to the length of the locus drawn inside the display area of the lower horizontal rotation touch pad 432.
  • the length of the locus drawn inside the display area of the lower horizontal rotation touchpad 432 corresponds to, for example, the sliding amount of the indicator that is slid while being in contact with the touch panel 416.
  • the rotation direction of the lower ranging unit 13 is determined according to the direction in which the locus inside the display area of the lower horizontal rotation touch pad 432 is drawn (in the example shown in FIG. 42, the direction of the arrow D).
  • the direction in which the locus inside the display area of the lower horizontal rotation touchpad 432 is drawn corresponds to, for example, the sliding direction of the indicator that is slid in contact with the touch panel 416.
  • the vertical rotation touch pad 434 is a circular touch pad that functions as the vertical rotation rotary switch 90J.
  • the vertical rotation amount and rotation direction of the ranging unit 12 is determined by drawing an arc-shaped locus inside the display area of the vertical rotation touchpad 434 via the touch panel 416. Determined.
  • the vertical rotation amount of the ranging unit 12 is determined according to the length of the locus drawn inside the display area of the vertical rotation touch pad 434.
  • the length of the trajectory drawn inside the display area of the vertical rotation touch pad 434 corresponds to, for example, the sliding amount of the indicator that is slid while being in contact with the touch panel 416.
  • the rotation direction of the distance measuring unit 12 is determined according to the direction in which the locus inside the display area of the vertical rotation touch pad 434 is drawn (the direction of arrow E in the example shown in FIG. 42).
  • the direction in which the locus inside the display area of the vertical rotation touchpad 434 is drawn corresponds to, for example, the sliding direction of the indicator that is slid in contact with the touch panel 416.
  • the wireless communication unit 418 is connected to the bus line 422 and the wireless communication antenna 420.
  • the wireless communication unit 418 transmits a signal input from the CPU 408 to the imaging apparatus main body 403 via radio waves via the wireless communication antenna 420.
  • the radio communication unit 418 acquires a signal corresponding to the received radio wave, and outputs the acquired signal to the CPU 408. Therefore, the imaging device main body 403 is controlled by the smart device 402 by performing wireless communication with the smart device 402.
  • the secondary storage unit 412 stores a program.
  • the CPU 408 operates as the control unit 100A, the derivation unit 100B, and the output unit 100C according to the technology of the present disclosure by reading the program from the secondary storage unit 412 and developing the program in the primary storage unit 410 and executing the program.
  • the CPU 408 executes the factor storage program 106
  • the factor storage processing described in the first embodiment is realized.
  • the measurement processing described in each of the above embodiments is realized by the CPU 408 executing the measurement program.
  • the irradiation position adjustment program the irradiation position adjustment processing described in the above embodiments is realized.
  • the CPU 408 performs the factor storage process, the measurement process, and the irradiation position adjustment process. Therefore, according to the distance measuring device 10F, compared with the case where the factor storage process, the measurement process, and the irradiation position adjustment process are executed by the imaging device 400, the imaging device 400 has Such a load can be reduced.
  • the distance measuring device 10G according to the seventh embodiment is different from the distance measuring device 10A in that it includes a distance measuring unit 450 instead of the distance measuring unit 12. Further, the distance measuring device 10G is different from the distance measuring device 10A in that it includes an imaging device 452 instead of the imaging device 14. The imaging device 452 is different from the imaging device 14 in that it has an imaging device body 454 instead of the imaging device body 18.
  • the imaging device main body 454 includes a vertical rotation mechanism 15.
  • the vertical rotation mechanism 15 receives the power generated by the motor 17 and rotates the hot shoe 20 in the vertical direction with the front end portion of the hot shoe 20 as a rotation axis. Accordingly, the hot shoe 20 with the distance measuring unit 450 attached is rotated in the vertical direction by the vertical rotation mechanism 15 so that the direction of the distance measuring unit 450 is in the vertical direction (for example, the A2 direction shown in FIG. 44). Be changed.
  • FIG. 44 for convenience of explanation, a mode in which the hot shoe 20 is rotated in the vertical direction so that the rear end portion of the hot shoe 20 sinks into the imaging apparatus main body 454 is shown. Is not limited to this.
  • the hot shoe 20 may be rotated in the vertical direction so that the rear end portion of the hot shoe 20 is pushed up from the imaging device main body 454.
  • the imaging device main body 454 includes a lateral rotation mechanism 456.
  • the horizontal rotation mechanism 456 receives power generated by a motor 458 (see FIG. 47), which will be described later, and rotates the hot shoe 20 in the horizontal direction around the center point of the hot shoe 20 in plan view. Accordingly, the hot shoe 20 with the distance measurement unit 450 attached is rotated in the horizontal direction by the horizontal rotation mechanism 456, so that the direction of the distance measurement unit 450 is in the horizontal direction (for example, the B2 direction shown in FIG. 45). Be changed.
  • scanning refers to emitting laser light at predetermined time intervals while changing the direction of the distance measurement unit 450 in the horizontal direction at a predetermined speed (in other words, , Intermittently irradiating laser light).
  • scanning is realized by changing the direction of the distance measurement unit 450 in the horizontal direction, but the technology of the present disclosure is not limited to this.
  • scanning may be realized by intermittently emitting laser light while changing the direction of the distance measuring unit 450 in the vertical direction or the oblique direction.
  • the distance measuring unit 450 includes an emitting unit 460, a light receiving unit 462, and a connector 26.
  • the emission unit 460 includes an LD 464, a condenser lens (not shown), an objective lens 465, and an LD driver 468.
  • the LD 464 has the same function as the LD 22A
  • the condensing lens has the same function as the condensing lens included in the emission unit 22 described in the first embodiment.
  • the objective lens 465 has a function similar to that of the objective lens 22B
  • the LD driver 468 has a function similar to that of the LD driver 22C.
  • the light receiving unit 462 includes a PD 470, an objective lens 472, and a light receiving signal processing circuit 474.
  • the PD 470 has the same function as the PD 24A
  • the objective lens 472 has the same function as the objective lens 24B
  • the received light signal processing circuit 474 has the same function as the received light signal processing circuit 24C.
  • a motor 458 is connected to the lateral rotation mechanism 456, and the lateral rotation mechanism 456 receives the power of the motor 458 and rotates the hot shoe 20 in the lateral direction, for example, as shown in FIG.
  • the unit 450 is rotated in the direction of arrow B2.
  • the receiving device 466 is different from the receiving device 90 in that it does not have the upper rotary switch 90H, the lower rotary switch 90I, and the vertical rotary switch 90J.
  • the secondary storage unit 104 stores a factor storage program 140, a measurement program 142, an irradiation position adjustment program 144, a position / distance table 109, and a factor / accuracy table 111.
  • the factor storage program 140, the measurement program 142, and the irradiation position adjustment program 144 are examples of a distance measurement program according to the technique of the present disclosure.
  • the CPU 100 reads out a program from the secondary storage unit 104, develops the program in the primary storage unit 102, and executes the program, whereby the control unit 500 ⁇ / b> A, the derivation unit 500 ⁇ / b> B, and the output unit 500 ⁇ / b> C. Operate.
  • control unit 500A will be described differently from the control unit 100A
  • derivation unit 500B will be described differently from the derivation unit 100B
  • output unit 500C will be described as the output unit 100C. Different points will be explained.
  • the position / distance correspondence information regarding the corresponding unit stage ranging unit is stored in the position / distance table 109.
  • the position / distance correspondence information is stored in the position / distance table 109.
  • the position / distance correspondence information for each direction is stored. That is, in the seventh embodiment, as shown in FIG. 13 as an example, the position / distance table 109 stores position / distance correspondence information for each of a first direction and a second direction described later.
  • the position / distance correspondence information is the irradiation position in the temporary image and the processing in steps 622D and 622E for each irradiation position in the temporary image specified by executing the process in step 622I. This refers to information that associates the distance obtained as a result.
  • the provisional image irradiation positions X 1 , X 2 , and X 3 and the distances D 1 , D 2 , and D 3 are associated with the first direction, and the provisional image irradiation position X 1 , X 2 , X 3 and distances D 1 , D 2 , D 3 are updated each time the irradiation position derivation data acquisition process is executed.
  • the provisional image irradiation positions X 4 , X 5 , and X 6 and the distances D 4 , D 5 , and D 6 are associated with the second direction.
  • the positions X 4 , X 5 , X 6 and the distances D 4 , D 5 , D 6 are updated every time the irradiation position derivation data acquisition process is executed.
  • the factor storage process according to the seventh embodiment is different from the factor storage process according to the first embodiment in that step 502 is provided instead of step 202.
  • step 502 shown in FIG. 15 the output unit 500C stores the factor information in the secondary storage unit 104 in time series, and then proceeds to step 208.
  • factor information relating to each unit stage ranging unit is stored in the secondary storage unit 104, whereas in the seventh embodiment, the process of step 502 is executed.
  • the factor information related to the distance measuring unit 450 is stored in the secondary storage unit 104.
  • 48 is different from the flowcharts shown in FIGS. 16 and 17 in that steps 220 to 232 are not included. 48 is different from the flowcharts shown in FIGS. 16 and 17 in that step 600 is provided instead of step 234. 48 is different from the flowcharts shown in FIGS. 16 and 17 in that steps 602 to 608 are provided instead of steps 262 to 268.
  • the measurement process according to the seventh embodiment includes steps 610 to 620 instead of steps 238 to 248 and step 622 instead of step 254, compared to the measurement process according to the first embodiment. It has a different point (see FIG. 18).
  • the irradiation position deriving data acquisition process according to the seventh embodiment is different from the irradiation position deriving data acquisition process according to the first embodiment in that it includes step 622D instead of step 254D. Further, the irradiation position deriving data acquisition process according to the seventh embodiment is different from the irradiation position deriving data acquisition process according to the first embodiment in that it includes step 622E instead of step 254E. Further, the irradiation position deriving data acquisition process according to the seventh embodiment is different from the irradiation position deriving data acquisition process according to the first embodiment in that step 622G is provided instead of step 254G.
  • the irradiation position deriving data acquisition process according to the seventh embodiment is different from the irradiation position deriving data acquisition process according to the first embodiment in that it includes step 622I instead of step 254I. Furthermore, the irradiation position deriving data acquisition process according to the seventh embodiment is different from the irradiation position deriving data acquisition process according to the first embodiment in that it includes step 622J instead of step 254J.
  • step 600 the derivation unit 500B determines whether or not the dimension derivation mode is set. If the distance derivation mode is set in step 600, the determination is negative and the routine proceeds to step 236 shown in FIG. In step 600, if the dimension derivation mode is set, the determination is affirmative and the routine proceeds to step 258.
  • step 602 the derivation unit 500B controls the distance measurement control unit 68 to emit laser light in each of the first direction and the second direction, and perform the main measurement based on each laser light. To do.
  • the derivation unit 500B controls the image sensor driver 74 and the image signal processing circuit 76 to execute the main imaging in accordance with the emission timing of each laser beam, and then proceeds to step 604.
  • the laser light is emitted in the first direction and the second direction by operating the rotating mechanism and scanning the subject with the laser light by the distance measuring unit 450.
  • the first direction and the second direction are separated from each other by a predetermined angle difference (for example, 10 degrees in the lateral direction) within a range in which the real space irradiation position is within the currently set angle of view.
  • a predetermined angle difference for example, 10 degrees in the lateral direction
  • the first direction corresponds to the emission direction of the laser beam when the upper ranging unit 11 emits the laser beam by executing the process of step 262 of the measurement process according to the first embodiment.
  • the second direction refers to the emission direction of the laser light when the lower ranging unit 13 emits the laser light by executing the process of step 262 of the measurement process according to the first embodiment.
  • the “predetermined angle difference” may be an angle difference designated by the user via the touch panel 88 within a range where the real space irradiation position is within the currently set angle of view. .
  • step 604 the deriving unit 500B derives a factor for each of the first direction and the second direction based on the position / distance correspondence information stored in the position / distance table 109, and then proceeds to step 606. Transition.
  • step 606 the deriving unit 500B derives the irradiation position in the main image based on the factor derived in step 604 for each of the first direction and the second direction, and then proceeds to step 608.
  • step 608 the derivation unit 500B causes the display unit 86 to display the main image, the distance, and the irradiation position markers 116A and 116B, as shown in FIG. 25 as an example.
  • the main image displayed on the display unit 86 is a single image obtained by performing the main imaging by executing the processing in step 602. Note that the technology of the present disclosure is not limited to this, and, for example, two images obtained by performing the main imaging at each laser light irradiation timing by executing the processing of step 602 are obtained. It may be a composite image obtained by combining.
  • the irradiation position mark 116A is a mark indicating the irradiation position in the main image derived by executing the processing of step 606 based on the laser light emitted in the first direction. is there.
  • the irradiation position mark 116B is a mark indicating the irradiation position in the main image derived by executing the processing of step 606 based on the laser light emitted in the second direction. is there.
  • the distance measured based on the laser light emitted in the first direction and the laser light emitted in the second direction were measured.
  • the distance is displayed on the display unit 86.
  • the numerical value “42351.2” corresponds to the distance measured by executing the process of step 602 based on the laser light emitted in the first direction.
  • the numerical value “4361.3” corresponds to the distance measured by executing the process of step 602 based on the laser light emitted in the second direction. .
  • step 610 shown in FIG. 18 the derivation unit 500B controls the distance measurement control unit 68 to emit laser light in each of the first direction and the second direction, and based on each laser light. Perform this measurement.
  • the derivation unit 500B controls the image sensor driver 74 and the image signal processing circuit 76 to execute the main imaging in accordance with the emission timing of each laser beam, and then proceeds to step 612.
  • step 612 the deriving unit 500B derives a factor for each of the first direction and the second direction based on the position / distance correspondence information stored in the position / distance table 109, and then proceeds to step 614. Transition.
  • step 614 the deriving unit 500B derives the irradiation position in the main image based on the factor derived in step 612 for each of the first direction and the second direction, and then proceeds to step 616.
  • step 616 the output unit 500C calculates the derivation accuracy associated with the specific assumed factor from the factor / accuracy correspondence information for each irradiation position in the main image derived for each of the first direction and the second direction. To derive. Then, the output unit 500C outputs the irradiation position in the main image derived by the deriving unit 500B based on the derived derivation accuracy for each irradiation position in the main image derived in each of the first direction and the second direction. Then, the process proceeds to step 618.
  • the error derived by executing the process of step 616 is the irradiation position in the main image derived for each of the first direction and the second direction by executing the process of step 614. Each time is derived by the output unit 500C.
  • step 616 for example, when the specific assumption factors are the view angle change (1) and the manufacturing variation as described above, the derivation accuracy ⁇ 1 and ⁇ are integrated. Then, based on the integrated derivation accuracy, the error in the irradiation position in the main image is derived in each of the first direction and the second direction by executing the processing in step 614. Derived for each position.
  • the error in the irradiation position in the main image based on the derivation accuracy ⁇ is performed in the first direction and the second direction by executing the processing in step 614.
  • the error in the irradiation position in the main image derived for each of the above That is, when the distance measurement device 10G is operated for the first time after the distance measurement device 10G is shipped and the main measurement process is executed, an error in the irradiation position in the main image is derived for each of the first direction and the second direction. Further, for each irradiation position in the main image, it is derived based on the derivation accuracy ⁇ .
  • step 618 the derivation unit 500B causes the display unit 86 to display the main image, the distance, the error, and the irradiation position marks 116A and 116B as shown in FIG. 21, and then proceeds to step 620.
  • the main image displayed on the display unit 86 is a single image obtained by performing the main imaging by executing the processing of step 610.
  • the technology of the present disclosure is not limited to this, and, for example, two images obtained by performing the main imaging at each irradiation timing of each laser beam by executing the processing of step 610 are obtained. It may be a composite image obtained by combining.
  • the irradiation position mark 116A is a mark indicating the irradiation position in the main image derived by executing the processing of step 614 based on the laser light emitted in the first direction.
  • the irradiation position mark 116B is a mark that indicates the irradiation position in the main image that is derived by executing the processing of step 614 based on the laser light emitted in the second direction.
  • each distance measured based on each laser beam emitted in each of the first direction and the second direction is displayed. Displayed on the part 86.
  • the numerical value “32514.2” corresponds to the distance measured based on the laser light emitted in the first direction by executing the processing of step 610.
  • the numerical value “133325.0” corresponds to the distance measured based on the laser light emitted in the second direction by executing the process of step 610. .
  • step 618 when the processing of step 618 is executed, as shown in FIG. 21 as an example, an error for each irradiation position in the main image derived in each of the first direction and the second direction is displayed on the display unit 86. Is displayed.
  • the numerical value “ ⁇ 16.3” corresponds to the error in the irradiation position in the main image derived in the first direction by executing the processing in step 614.
  • the numerical value “ ⁇ 15.2” corresponds to the error in the irradiation position in the main image derived in the second direction by executing the processing in step 614.
  • the output unit 100C determines whether or not at least one of the errors derived for each of the first direction and the second direction exceeds the threshold value by executing the processing of step 616 or step 286.
  • the threshold value is a preferred value to be subjected to the irradiation position derivation data acquisition process (see FIG. 19), a test using an actual distance measuring device 10G, and / or a computer simulation based on a design specification of the distance measuring device 10G, or the like. It is a value obtained in advance based on the result.
  • step 620 when the error derived by executing the processing of step 616 or step 286 exceeds the threshold, the derivation accuracy of the irradiation position in the main image by the derivation unit 500B is derived in advance. Means less than accuracy.
  • step 620 if all of the errors derived for each of the first direction and the second direction are equal to or less than the threshold by executing the processing of step 616 or step 286, the determination is negative, and step 252 is determined.
  • Migrate to In step 620 when at least one of the errors derived by executing the processing of step 616 or step 286 exceeds the threshold value, the determination is affirmed and the process proceeds to step 250.
  • step 622 the derivation unit 500B executes the irradiation position derivation data acquisition process shown in FIG. 19 as an example, and then proceeds to step 256.
  • the derivation unit 500B controls the distance measurement control unit 68 to emit laser light in each of the first direction and the second direction. Then, temporary measurement is executed based on each laser beam. In addition, the derivation unit 500B controls the image sensor driver 74 and the image signal processing circuit 76 to perform provisional imaging in accordance with the emission timing of each laser beam, and then proceeds to step 622E.
  • the provisional measurement and provisional imaging are performed by changing the photographing direction every time the provisional measurement / provisional imaging button 90B is turned on. In order to change the shooting direction, for example, the direction of the distance measuring device 10G may be changed.
  • step 622E the derivation unit 500B primarily stores a temporary image, which is an image obtained by executing provisional imaging, and a distance obtained by executing provisional measurement for each of the first direction and the second direction.
  • the information is stored in the unit 102 and then the process proceeds to step 254F.
  • the provisional image and distance obtained in the first direction and the temporary image and distance obtained in the second direction are distinguished from each other and stored in the primary storage unit 102 by executing the processing in step 622E. Is done.
  • the derivation unit 500B has a relationship between a plurality of temporarily measured distances (here, three distances as an example) for each of the first direction and the second direction. It is determined whether or not the relationship is a predetermined relationship that does not contribute to the construction of the position / distance correspondence information used for deriving the irradiation position in the image. That is, in step 622G, the derivation unit 500B determines whether the three distances stored in the primary storage unit 102 in step 622E are valid distances for each of the first direction and the second direction.
  • step 622G if the three distances stored in the primary storage unit 102 in step 622E are not valid distances for at least one of the first direction and the second direction, the determination is negative and the process proceeds to step 254H. Transition. In step 622G, when the three distances stored in the primary storage unit 102 in step 622E are valid distances for both the first direction and the second direction, the determination is affirmed and the process proceeds to step 622I. To do.
  • step 622I the deriving unit 500B specifies the irradiation position in the temporary image for each temporary image stored in the primary storage unit 102 in step 622E for each of the first direction and the second direction, and then, step 622J Migrate to
  • step 622J the derivation unit 500B generates position / distance correspondence information for each of the first direction and the second direction, and overwrites the position / distance table 109, thereby the first direction and the second direction.
  • the position / distance table 109 is updated for each of the directions.
  • the irradiation position adjustment process according to the seventh embodiment is different from the irradiation position adjustment process according to the first embodiment in that step 632 is provided instead of step 302 and step 634 is provided instead of step 304.
  • the irradiation position adjustment process according to the seventh embodiment includes step 636 instead of step 306 and step 640 instead of step 310 as compared to the irradiation position adjustment process according to the first embodiment. The point is different.
  • the irradiation position adjustment process according to the seventh embodiment is different from the irradiation position adjustment process according to the first embodiment in that step 642 is provided instead of step 312.
  • control unit 500A controls the distance measurement control unit 68 to emit laser light in each of the first direction and the second direction, and perform the main measurement based on each laser light. To do. Further, the control unit 500A controls the image sensor driver 74 and the image signal processing circuit 76 to execute the main imaging in accordance with the emission timing of each laser beam, and then proceeds to step 306.
  • control unit 500A causes derivation unit 500B to derive the irradiation position in the live view image based on the latest factor for each of the first direction and the second direction, and then proceeds to step 636. .
  • step 636 the control unit 500A determines whether all the irradiation positions in the live view image derived by the deriving unit 500B are within the predetermined range by executing the process of step 634.
  • step 636 if at least one of the irradiation positions in the live view image is outside the predetermined range, the determination is denied and the process proceeds to step 308. If all the irradiation positions in the live view image are within the predetermined range in step 636, the determination is affirmed and the process proceeds to step 314.
  • step 640 the control unit 500A controls the rotation mechanism via the motor drivers 25 and 464, thereby rotating the distance measuring unit 450 by a predetermined rotation amount toward the predetermined direction to adjust the start position of scanning. Thereafter, the process proceeds to step 642.
  • step 642 the control unit 500A updates the emission angle ⁇ according to the rotation direction and the rotation amount of the distance measuring unit 450 rotated by executing the process of step 640, and then proceeds to step 300.
  • the laser light is scanned with respect to the subject by the distance measuring unit 450 and is emitted in each of the first direction and the second direction (step 602).
  • the control unit 500A performs control for causing the imaging device 14 to perform imaging at an angle of view in which the real space irradiation position by each of the laser beams in the first direction and the second direction falls (step 602).
  • the in-image irradiation position is derived for each of the first direction and the second direction by the deriving unit 500B as a position corresponding to the actual space irradiation position (step 606).
  • the length of the area corresponding to the interval between the two pixels related to the area length derivation target image for each irradiation position in the main image is the distance measured by using the ranging system function, the two specified Derived based on the pixel interval and the focal length of the imaging device 14 (step 284). Therefore, according to the distance measuring device 10G, it is possible to quickly derive the lengths of a plurality of areas as compared with the case where only one area is designated every time imaging and ranging are performed.
  • position / distance correspondence information is generated for each of the first direction and the second direction (step 622J), and the irradiation position in the main image is determined based on the generated position / distance correspondence information. Derived for each of the first direction and the second direction (steps 264, 266). Therefore, according to the distance measuring device 10G, the first direction and the first direction are compared with the case where the irradiation position in the main image is derived for each of the first direction and the second direction without generating position / distance correspondence information. The irradiation position in the main image with respect to each of the two directions can be derived with high accuracy.
  • the seventh embodiment differences from the first embodiment have been mainly described.
  • the second to sixth embodiments are applied to the distance measuring apparatus 10G according to the seventh embodiment. It is also possible.
  • the laser beam emitted from the upper ranging unit 11 (184) is replaced with the laser beam emitted in the first direction, and the laser beam emitted from the lower ranging unit 13 (185) is changed to the second direction.
  • Each embodiment may be solved by replacing the laser beam applied to the laser beam.
  • the said 7th Embodiment demonstrated the case where a laser beam was irradiated to the 2 directions of a 1st direction and a 2nd direction by the ranging unit 450, the technique of this indication is limited to this. It is not a thing. For example, laser light is emitted in each of three or more directions that are set so that the real space irradiation position falls within the angle of view, and the irradiation position, distance, and dimensions in the main image are based on the laser light emitted in each direction. , And errors may be derived for each direction and output.
  • the CPU 100 determines whether or not the measurable range is within the correspondence information distance range (an example of the range of distances specified by the first correspondence relationship according to the technology of the present disclosure). The determination result may be displayed on the display unit 86.
  • the measurable range is classified into the corresponding information distance range and the corresponding information distance range.
  • within the correspondence information distance range refers to within the distance range specified from the latest position / distance correspondence information generated by executing the processing of step 254J (622J).
  • outside the correspondence information distance range refers to outside the distance range specified from the latest position / distance correspondence information generated by executing the processing of step 254J (622J).
  • “within the corresponding information distance range” refers to a range of distance D 1 or more and distance D 3 or less.
  • the first correspondence information distance range refers to the distance D 1 less than the range.
  • the second correspondence information distance range refers to a range exceeding the distance D 3. Note that “outside the correspondence information distance range” is an example of “outside the range of the distance specified by the first correspondence” according to the technology of the present disclosure.
  • the distance measuring device 10A according to the first embodiment, the accuracy of the irradiation position in the main image can be improved as compared with the case where the warning / recommendation message 120 is not displayed.
  • the CPU 100 is an example of an execution unit according to the technique of the present disclosure.
  • the execution unit according to the technology of the present disclosure is when the distance obtained by the main measurement is outside the range of the distance specified by the position / distance correspondence information that is an example of the information indicating the first correspondence relationship according to the technology of the present disclosure
  • a predetermined process is executed as a process for suppressing a decrease in accuracy of the irradiation position in the main image.
  • the warning / recommendation message 120 warns that there is a high possibility that the laser beam is not irradiated to the position in the real space corresponding to the position of the irradiation position mark 116, and executes the irradiation position derivation data acquisition processing. This message is recommended to the user.
  • the process of displaying the warning / recommendation message 120 is an example of “a process that is predetermined as a process that is used to suppress a decrease in accuracy of the irradiation position in the image” according to the technique of the present disclosure.
  • the warning / recommendation message 120 may be displayed only when there is a high possibility that the laser beam is not irradiated at a position in the real space corresponding to each of the irradiation position marks 116A and 116B. . Further, the warning / recommendation message 120 may be displayed when there is a high possibility that the laser beam is not irradiated at a position in the real space corresponding to one of the irradiation position marks 116A and 116B. .
  • the warning / recommendation message 120 includes a warning message that “the irradiation position mark has low accuracy (reliability)”.
  • the warning / recommendation message 120 includes a recommendation message “Temporary measurement / provisional imaging is recommended in the range of XX meters to ⁇ meters”.
  • “range of XX meters to ⁇ meters” included in the recommendation message is a range corresponding to outside the first corresponding information distance range or a range corresponding to outside the second corresponding information distance range. That is, when the distance obtained by executing the main measurement in step 238 or step 262 is outside the first correspondence information distance range, a predetermined range outside the first correspondence information distance range is adopted. When the distance obtained by executing the main measurement in step 238 or step 262 is outside the second correspondence information distance range, a predetermined range outside the second correspondence information distance range is adopted.
  • the predetermined range refers to a range of distances recommended for provisional measurement based on the relationship between the distance obtained by executing the main measurement in step 238 or step 262 and the corresponding information distance range.
  • the predetermined range is a table or an arithmetic expression determined in advance according to the degree of deviation between the distance obtained by performing the main measurement in step 238 or step 262 and a specific value in the corresponding information distance range. This refers to the range that can be uniquely obtained from
  • the specific value in the correspondence information distance range may be a median value or an average value in the correspondence information distance range.
  • the default range outside the first correspondence information distance range is, for example, uniquely corresponding to a difference between the obtained distances main measurement is performed at equal distances D 2 and step 238 or step 262 shown in FIG. 49 It may be a range to be obtained.
  • the default range outside the second correspondence information distance range is, for example, uniquely corresponding to a difference between the obtained distances main measurement is performed at equal distances D 2 and step 238 or step 262 shown in FIG. 49 It may be a range to be obtained. Further, instead of the “predetermined range”, “a plurality of predetermined distances” may be used. Examples of the plurality of predetermined distances include three or more distances that are equally spaced within the predetermined range obtained as described above, and may be a plurality of distances recommended in provisional measurement.
  • warning / recommendation message 120 is presented to the user by being visually displayed on the display unit 86, the technique of the present disclosure is not limited to this.
  • an audio playback device mounted on the distance measuring device 10A may output a message by voice and present it to the user, or both visual display and audible display may be performed. May be.
  • the correspondence information distance range refers to the distance range specified by the latest position / distance correspondence information generated by executing the processing of step 254J (622J).
  • “outside the correspondence information distance range” refers to outside the distance specified by the latest position / distance correspondence information generated by executing the processing of step 254J (622J). Outside the correspondence information distance range is classified into a first correspondence information distance range outside and a second correspondence information distance range outside.
  • “outside the first correspondence information distance range” refers to a range less than the minimum distance specified by the latest position / distance correspondence information.
  • “outside the second correspondence information distance range” refers to a range exceeding the maximum distance specified by the latest position / distance correspondence information.
  • the distance obtained by executing the main measurement in step 238 or step 262 belongs to the outside of the second correspondence information distance range. Therefore, as shown in FIG. 51, when the distance obtained by performing the main measurement in step 238 or step 262 belongs outside the second correspondence information distance range, as shown in FIG. A warning / recommendation message 120 is displayed on the display unit 86 for each distance unit. Therefore, according to the distance measuring device 10E according to the fifth embodiment, the accuracy of the irradiation position in the main image can be improved as compared with the case where the process for suppressing the decrease in the accuracy of the irradiation position in the main image is not performed. .
  • warning / recommendation message 120 is not displayed on the display unit 86 when the distance obtained by performing the main measurement in step 238 or step 262 belongs to the corresponding information distance range.
  • the warning / recommendation message 120 for the lower ranging unit 13 is displayed.
  • the warning / recommendation message 120 for the upper ranging unit 11 is also displayed as needed for the lower ranging unit 13. Are displayed in a distinguishable manner.
  • the warning / recommendation message 120 is also displayed for each of the first direction and the second direction described in the seventh embodiment so that the first direction and the second direction can be distinguished.
  • the irradiation position mark 116 is displayed even if the distance obtained by performing the main measurement is outside the corresponding information distance range, but the technique of the present disclosure is limited to this. is not.
  • the distance obtained by performing the main measurement is a distance outside the first corresponding information distance range
  • the difference between the distance obtained by performing the main measurement and the minimum distance included in the corresponding information distance range The irradiation position mark 116 may not be displayed when is equal to or greater than the threshold.
  • the distance obtained by executing the main measurement is a distance outside the second corresponding information distance range
  • the distance obtained by executing the main measurement and the maximum distance included in the corresponding information distance range The irradiation position mark 116 may not be displayed when the difference is greater than or equal to the threshold value. According to this configuration, even when the difference between the distance obtained by performing the main measurement and the distance included in the corresponding information distance range is equal to or greater than the threshold, the irradiation position mark 116 is displayed more accurately. It can suppress that the low irradiation position mark 116 is referred by the user.
  • the case where the CPU 100 (408) derives the irradiation position in the main image, the irradiation position in the temporary image, and the irradiation position in the live view image and the length of the area is exemplified. It is not limited to this.
  • one of the irradiation position in the main image, the irradiation position in the temporary image, and the irradiation position in the live view image and the length of the area is derived by the CPU 100, and the other is derived by another CPU (not shown).
  • the process of step 266 may be executed by a CPU other than the CPU 100
  • the process of step 284 may be executed by the CPU 100.
  • one or two of the irradiation position in the main image, the irradiation position in the temporary image, and the irradiation position in the live view image are derived by the CPU 100, and the rest are derived by another CPU (not shown). Also good. Further, one or two of the irradiation position in the main image, the irradiation position in the temporary image, and the irradiation position in the live view image and the length of the area are derived by the CPU 100, and the irradiation position in the main image and the irradiation position in the temporary image The remaining of the irradiation positions in the live view image may be derived by another CPU (not shown).
  • the program may be first stored in an arbitrary portable storage medium 700 such as an SSD (Solid State Drive) or a USB (Universal Serial Bus) memory.
  • the program stored in the storage medium 700 is installed in the distance measuring devices 10A, 10B, 10C, 10D, 10E, 10D, and 10G (hereinafter referred to as the distance measuring device 10A and the like), and the installed program is the CPU 100 ( 408).
  • a program is stored in a storage unit such as another computer or a server device connected to the distance measuring device 10A or the like via a communication network (not shown), and the program responds to a request from the distance measuring device 10A or the like. It may be downloaded. In this case, the downloaded program is executed by the CPU 100 (408).
  • various information such as the main image, the temporary image, the distance, the length of the area, the error, the irradiation position in the main image, and the temporary measurement / temporary imaging guide screen 112 are displayed on the display unit 86 (414).
  • the display unit 86 414
  • various types of information may be displayed on a display unit of an external device used by connecting to the distance measuring device 10A or the like.
  • the external device there is a personal computer or a wearable terminal device of eyeglass type or watch type.
  • audible display such as sound output by a sound reproduction device, or permanent visual display such as output of printed matter by a printer may be performed instead of visible display, and at least visible display, audible display, and permanent visible display Two may be used in combination.
  • the distance, the irradiation position mark 116, the length of the area, and the error are displayed on the display unit 86 (414).
  • the technology of the present disclosure is not limited to this.
  • various screens are displayed on a display unit (not shown) different from the display unit 86 (414), and the distance, the length of the area, the error, and the irradiation position mark 116 are displayed on the display unit 86 (414). You may make it do.
  • each of various screens such as the irradiation position adjustment recommendation screen 110 and the temporary measurement / temporary imaging guidance screen 112 may be individually displayed on a plurality of display units including the display unit 86 (414).
  • laser light is exemplified as distance measurement light.
  • the technology of the present disclosure is not limited to this, and any directional light that is directional light may be used. Good.
  • it may be directional light obtained by a light emitting diode (LED: Light Emitting Diode) or a super luminescent diode (SLD).
  • the directivity of the directional light is preferably the same as the directivity of the laser light.
  • the directivity can be used for ranging within a range of several meters to several kilometers. preferable.
  • each process included in the factor storage process, the measurement process, and the irradiation position adjustment process may be realized only by a hardware configuration such as an ASIC, or by a combination of a software configuration using a computer and a hardware configuration. It may be realized.
  • An imaging unit that captures a subject image indicating the subject;
  • a measuring unit that measures a plurality of distances to the subject by emitting a plurality of directional lights, each of which is directional light, to the subject, and receiving each reflected light of the directional light by a corresponding light receiving unit;
  • a control unit that performs control to cause the imaging unit to capture an image at an angle of view in which an irradiation position with respect to the subject by each of the directional light used for measuring a plurality of distances by the measurement unit is included;
  • a distance related to the irradiation position in the image derived as a position corresponding to the irradiation position in the captured image obtained by imaging by the imaging unit, and each distance in the captured image
  • a deriving unit for deriving a size of the real space region corresponding to the interval based on the interval between the plurality of pixels related to the irradiation position in the image and the focal length in
  • Appendix 2 An imaging unit that captures a subject image indicating the subject; By scanning the directional light, which is directional light, with respect to the subject, the light is emitted in each of a plurality of directions, and the reflected light of each directional light in the plurality of directions is received to obtain a plurality of light up to the subject.
  • a measurement unit for measuring the distance A control unit that performs control to cause the imaging unit to capture an image at an angle of view in which an irradiation position with respect to the subject by each of the directional light used for measuring a plurality of distances by the measurement unit is included; Among a plurality of distances measured by the measurement unit, a distance related to the irradiation position in the image derived as a position corresponding to the irradiation position in the captured image obtained by imaging by the imaging unit, and each distance in the captured image A deriving unit for deriving a size of the real space region corresponding to the interval based on the interval between the plurality of pixels related to the irradiation position in the image and the focal length in the imaging unit; Ranging device including.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Geometry (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

測距装置は、撮像部と、各々指向性のある光である指向性光を被写体に複数本射出し、指向性光の各々の反射光を対応する各受光部で受光することにより被写体までの複数の距離を計測する計測部と、複数の距離の計測に用いられる指向性光の各々による被写体に対する照射位置が収まる画角で撮像部に対して撮像させる制御を行う制御部と、計測された複数の距離のうち、撮像されて得られた撮像画像内の、照射位置に相当する位置として導出された画像内照射位置に関する距離と、撮像画像内において距離毎に画像内照射位置に関連させた複数画素の間隔と、撮像部での焦点距離とに基づいて、間隔に対応する実空間領域の寸法を導出する導出部と、を含む。

Description

測距装置、測距方法、及び測距プログラム
 本開示の技術は、測距装置、測距方法、及び測距プログラムに関する。
 先ず、本明細書において、測距とは、測距装置から計測対象となる被写体までの距離を計測することを指す。また、本明細書において、撮像画像とは、被写体を撮像する撮像部により撮像されて得られた画像を指す。また、本明細書において、照射位置画素座標とは、測距対象として想定している被写体に向けて射出部により射出された指向性光(例えば、レーザ光)の往復時間等を基に測距を行う測距装置を用いて測距を行う前提で、撮像画像に含まれる画素のうち、測距装置による実空間上での指向性光の照射位置と対応する画素の位置を特定する2次元座標として得られた2次元座標を指す。また、本明細書において、画像内照射位置とは、撮像画像内における、測距装置による実空間上での指向性光の照射位置に相当する位置として得られた位置を指す。換言すると、画像内照射位置とは、撮像画像に含まれる画素のうち、照射位置画素座標により特定される画素の位置を指す。
 近年、撮像部が搭載された撮像部が開発されている。この種の測距装置では、被写体に対してレーザ光が照射され、レーザ光が被写体に照射された状態で被写体が撮像される。そして、被写体が撮像されて得られた撮像画像がユーザに提示されることで、レーザ光の照射位置が、撮像画像を通じてユーザによって把握される。
 また、近年、例えば、特開2014-232095号公報に記載の計測装置のように、画像内の対象物に関する実空間上の寸法を導出する機能を備えた測距装置も開発されている。
 特開2014-232095号公報に記載の計測装置は、撮像部により撮像された等脚台形部分を有する建造物の等脚台形状を表示する手段と、表示された等脚台形状の4頂点を特定し、特定した4頂点の座標を求める手段と、を含む。そして、特開2014-232095号公報に記載の計測装置は、等脚台形状を含む平面上の2点間の距離、若しくは、撮像部から平面上の1点までの距離を特定し、4頂点の座標と焦点距離とから建造物の形状を求め、特定した距離から建造物の大きさを求める。
 ところで、撮像部により撮像されて得られた撮像画像内の対象物に関する実空間上の寸法を導出する場合、撮像画像内において導出対象とされる実空間上の区域に対応する複数の画素がユーザによって指定される。ユーザによって複数の画素が指定されることで指定された実空間上の区域の寸法は、測距装置で計測された距離に基づいて導出される。そのため、指定された複数の画素から特定される実空間上の区域の寸法を正確に導出する場合には、画像内照射位置を高精度に導出して距離と共にユーザに把握させることが好ましい。
 しかしながら、特開2014-232095号公報に記載の発明では、撮像及び測距が1回行われると、寸法の導出対象として指定された1つの対象物のみに関する実空間上の寸法が導出されるにすぎない。そのため、1回の撮像により得られた撮像画像内に寸法の導出対象としてユーザが希望する対象物が複数存在する場合、撮像及び測距が1回行われる毎に対象物を1つずつ指定しなければならず、寸法の導出に手間を要する。
 本発明の一つの実施形態は、撮像及び測距が1回行われる毎に寸法の導出対象が1つのみ指定される場合に比べ、複数の対象物の寸法を迅速に導出することができる測距装置、測距方法、及び測距プログラムを提供する。
 本発明の第1の態様に係る測距装置は、被写体を撮像する撮像部と、各々指向性のある光である指向性光を被写体に複数本射出し、指向性光の各々の反射光を対応する各受光部で受光することにより被写体までの複数の距離を計測する計測部と、計測部による複数の距離の計測に用いられる指向性光の各々による被写体に対する照射位置が収まる画角で撮像部に対して撮像させる制御を行う制御部と、計測部により計測された複数の距離のうち、撮像部により撮像されて得られた撮像画像内の、照射位置に相当する位置として導出された画像内照射位置に関する距離と、撮像画像内において距離毎に画像内照射位置に関連させた複数画素の間隔と、撮像部での焦点距離とに基づいて、間隔に対応する実空間領域の寸法を導出する導出部と、を含む。
 従って、本発明の第1の態様に係る測距装置は、撮像及び測距が1回行われる毎に寸法の導出対象が1つのみ指定される場合に比べ、複数の対象物の寸法を迅速に導出することができる。
 本発明の第2の態様に係る測距装置は、本発明の第1の態様に係る測距装置において、計測部が、指向性光を射出する射出部と、対応する射出部により射出された指向性光の反射光を受光する受光部とを複数組有し、組内での射出部と受光部との位置関係が固定化された状態で、指向性光が射出される角度が射出部及び受光部の組毎に変更可能とされている。
 従って、本発明の第2の態様に係る測距装置は、指向性光が射出される角度を射出部及び受光部の組毎に変更することができない場合に比べ、複数本の指向性光の各々の照射位置を容易に変更することができる。
 本発明の第3の態様に係る測距装置は、本発明の第2の態様に係る測距装置において、導出部は、計測部により複数の距離の各々が仮計測される毎に被写体が撮像部により仮撮像されて得られた仮画像内の、照射位置に相当する仮画像内照射位置と、仮画像内照射位置に対応する指向性光で計測部により仮計測された距離との第1対応関係を組毎に求め、求めた第1対応関係に基づいて画像内照射位置を組毎に導出する、とされている。
 従って、本発明の第3の態様に係る測距装置は、第1対応関係を求めずに画像内照射位置を組毎に導出する場合に比べ、各組の射出部により射出される指向性光に基づく画像内照射位置を高精度に導出することができる。
 本発明の第4の態様に係る測距装置は、本発明の第3の態様に係る測距装置において、計測部により本計測された距離が、対応する組に関する第1対応関係により特定される距離の範囲外の場合に、画像内照射位置の精度の低下の抑制に供する処理として予め定められた処理を実行する実行部を更に含む、とされている。
 従って、本発明の第4の態様に係る測距装置は、画像内照射位置の精度の低下の抑制に供する処理として予め定められた処理を行わない場合に比べ、組毎に照射される各指向性光に基づく画像内照射位置の精度を高めることができる。
 本発明の第5の態様に係る測距装置は、被写体を撮像する撮像部と、指向性のある光である指向性光を被写体に対して走査することで複数の方向の各々に射出し、複数の方向の各々の指向性光の反射光を受光することにより被写体までの複数の距離を計測する計測部と、計測部による複数の距離の計測に用いられる指向性光の各々による被写体に対する照射位置が収まる画角で撮像部に対して撮像させる制御を行う制御部と、計測部により計測された複数の距離のうち、撮像部により撮像されて得られた撮像画像内の、照射位置に相当する位置として導出された画像内照射位置に関する距離と、撮像画像内において距離毎に画像内照射位置に関連させた複数画素の間隔と、撮像部での焦点距離とに基づいて、間隔に対応する実空間領域の寸法を導出する導出部と、を含む。
 従って、本発明の第5の態様に係る測距装置は、撮像及び測距が1回行われる毎に寸法の導出対象が1つのみ指定される場合に比べ、複数の対象物の寸法を迅速に導出することができる。
 本発明の第6の態様に係る測距装置は、本発明の第5の態様に係る測距装置において、導出部は、計測部により複数の距離の各々が仮計測される毎に被写体が撮像部により仮撮像されて得られた仮画像内の、照射位置に相当する仮画像内照射位置と、仮画像内照射位置に対応する指向性光で計測部により仮計測された距離との第1対応関係を方向毎に求め、求めた第1対応関係に基づいて画像内照射位置を方向毎に導出する。
 従って、本発明の第6の態様に係る測距装置は、第1対応関係を求めずに画像内照射位置を方向毎に導出する場合に比べ、各方向に射出される指向性光に基づく画像内照射位置を高精度に導出することができる。
 本発明の第7の態様に係る測距装置は、本発明の第6の態様に係る測距装置において、計測部により本計測された距離が、対応する方向に関する第1対応関係により特定される距離の範囲外の場合に、画像内照射位置の精度の低下の抑制に供する処理として予め定められた処理を実行する実行部を更に含む、とされている。
 従って、本発明の第7の態様に係る測距装置は、画像内照射位置の精度の低下の抑制に供する処理として予め定められた処理を行わない場合に比べ、複数の方向の各々に照射される各指向性光に基づく画像内照射位置の精度を高めることができる。
 本発明の第8の態様に係る測距装置は、本発明の第1の態様から第7の態様の何れか1つに係る測距装置において、画像内照射位置に影響を及ぼす要因として想定された想定要因と導出部による導出精度との第2対応関係に基づいて、実際に存在する要因に対応する導出精度を導出し、導出した導出精度に基づく情報を出力する出力部を更に含む、とされている。
 従って、本発明の第8の態様に係る測距装置は、画像内照射位置に影響を及ぼす要因が実際に存在するにも拘わらず、実空間領域の寸法の導出精度に基づく情報が出力されない場合に比べ、実空間領域の寸法の導出精度に基づく情報をユーザに容易に把握させることができる。
 本発明の第9の態様に係る測距装置は、本発明の第8の態様に係る測距装置において、第2対応関係において、異なる想定要因の各々に対して異なる導出精度が対応付けられており、出力部は、実際に存在する要因に対応する想定要因に対応付けられた導出精度を導出する、とされている。
 従って、本発明の第9の態様に係る測距装置は、単一の想定要因のみに対して導出精度が対応付けられている場合に比べ、導出精度を精度良く導出することができる。
 本発明の第10の態様に係る測距装置は、本発明の第9の態様に係る測距装置において、出力部は、実際に要因が複数存在する場合、実際に存在する複数の要因の各々に対応する想定要因に対応付けられた導出精度を総合化して導出する、とされている。
 従って、本発明の第10の態様に係る測距装置は、画像内照射位置に影響を及ぼす要因として測距装置に実際に存在する複数の要因の各々に対応する想定要因に対応付けられた各導出精度が個別に導出される場合に比べ、導出精度の簡便な取り扱いを実現することができる。
 本発明の第11の態様に係る測距装置は、本発明の第1の態様から第10の態様の何れか1つに係る測距装置において、指向性光が射出される角度を変更可能な変更部を更に含み、制御部は、画像内照射位置が撮像画像内の既定範囲外の場合に、画像内照射位置が既定範囲内に入るまで、計測部に距離を計測させ、計測部により計測された距離、及び変更部により変更された角度に基づいて導出部に画像内照射位置を導出させる制御を更に行う、とされている。
 従って、本発明の第11の態様に係る測距装置は、画像内照射位置を撮像画像内の既定範囲内に入れた状態で測距を行うことができる。
 本発明の第12の態様に係る測距装置は、本発明の第11の態様に係る測距装置において、制御部は、画像内照射位置が既定範囲外の場合に、画像内照射位置が既定範囲内に入るまで、計測部に距離を計測させ、動力源を駆動させることで変更部に角度を変更させ、計測部により計測された距離、及び変更部に変更させた角度に基づいて導出部に画像内照射位置を導出させる制御を行う、とされている。
 従って、本発明の第12の態様に係る測距装置は、動力源を用いずに変更部に角度を変更させる場合に比べ、画像内照射位置を既定範囲内に入れるのに要する手間を軽減することができる。
 本発明の第13の態様に係る測距装置は、本発明の第1の態様から第12の態様の何れか1つに係る測距装置において、撮像画像内で、画像内照射位置毎に、画像内照射位置を内包する枠が指定され、枠毎に、枠の内側で複数画素が指定され、導出部は、枠毎に、計測部により計測された複数の距離のうちの、対応する画像内照射位置に関する距離と、指定された複数画素の間隔と、焦点距離とに基づいて、間隔に対応する実空間領域の寸法を導出する、とされている。
 従って、本発明の第13の態様に係る測距装置は、画像内照射位置を内包する枠が指定されない場合に比べ、複数本の指向性光のうちのユーザが実空間領域の寸法の導出に利用したい指向性光を基に計測された距離に基づく実空間領域の寸法の導出を簡易な構成で実現することができる。
 本発明の第14の態様に係る測距装置は、本発明の第1の態様から第13の態様の何れか1つに係る測距装置において、被写体は、向き及び位置の少なくとも1つが異なる複数の平面状領域を含み、計測部は、複数の平面状領域の各々に対して指向性光を射出し、複数の平面状領域の各々に対する指向性光の各々の反射光を受光することにより複数の平面状領域の各々までの距離を計測する、とされている。
 従って、本発明の第14の態様に係る測距装置は、1本の指向性光のみが平面状領域に射出される場合に比べ、複数の平面状領域を対象として、異なる実空間領域の寸法を容易に導出することができる。
 本発明の第15の態様に係る測距方法は、被写体を撮像する撮像部と、各々指向性のある光である指向性光を被写体に複数本射出し、指向性光の各々の反射光を対応する各受光部で受光することにより被写体までの複数の距離を計測する計測部と、を含む測距装置に含まれる計測部による複数の距離の計測に用いられる指向性光の各々による被写体に対する照射位置が収まる画角で撮像部に対して撮像させる制御を行い、計測部により計測された複数の距離のうち、撮像部により撮像されて得られた撮像画像内の、照射位置に相当する位置として導出された画像内照射位置に関する距離と、撮像画像内において距離毎に画像内照射位置に関連させた複数画素の間隔と、撮像部での焦点距離とに基づいて、間隔に対応する実空間領域の寸法を導出することを含む。
 従って、本発明の第15の態様に係る測距方法は、撮像及び測距が1回行われる毎に寸法の導出対象が1つのみ指定される場合に比べ、複数の対象物の寸法を迅速に導出することができる。
 本発明の第16の態様に係る測距方法は、被写体を撮像する撮像部と、指向性のある光である指向性光を被写体に対して走査することで複数の方向の各々に射出し、複数の方向の各々の指向性光の反射光を受光することにより被写体までの複数の距離を計測する計測部と、を含む測距装置に含まれる計測部による複数の距離の計測に用いられる指向性光の各々による被写体に対する照射位置が収まる画角で撮像部に対して撮像させる制御を行い、計測部により計測された複数の距離のうち、撮像部により撮像されて得られた撮像画像内の、照射位置に相当する位置として導出された画像内照射位置に関する距離と、撮像画像内において距離毎に画像内照射位置に関連させた複数画素の間隔と、撮像部での焦点距離とに基づいて、間隔に対応する実空間領域の寸法を導出することを含む。
 従って、本発明の第16の態様に係る測距方法は、撮像及び測距が1回行われる毎に寸法の導出対象が1つのみ指定される場合に比べ、複数の対象物の寸法を迅速に導出することができる。
 本発明の第17の態様に係る測距プログラムは、コンピュータに、被写体を撮像する撮像部と、各々指向性のある光である指向性光を被写体に複数本射出し、指向性光の各々の反射光を対応する各受光部で受光することにより被写体までの複数の距離を計測する計測部と、を含む測距装置に含まれる計測部による複数の距離の計測に用いられる指向性光の各々による被写体に対する照射位置が収まる画角で撮像部に対して撮像させる制御を行い、計測部により計測された複数の距離のうち、撮像部により撮像されて得られた撮像画像内の、照射位置に相当する位置として導出された画像内照射位置に関する距離と、撮像画像内において距離毎に画像内照射位置に関連させた複数画素の間隔と、撮像部での焦点距離とに基づいて、間隔に対応する実空間領域の寸法を導出することを含む処理を実行させるための測距プログラムとされている。
 従って、本発明の第17の態様に係る測距プログラムは、撮像及び測距が1回行われる毎に寸法の導出対象が1つのみ指定される場合に比べ、複数の対象物の寸法を迅速に導出することができる。
 本発明の第18の態様に係る測距プログラムは、コンピュータに、被写体を撮像する撮像部と、指向性のある光である指向性光を被写体に対して走査することで複数の方向の各々に射出し、複数の方向の各々の指向性光の反射光を受光することにより被写体までの複数の距離を計測する計測部と、を含む測距装置に含まれる計測部による複数の距離の計測に用いられる指向性光の各々による被写体に対する照射位置が収まる画角で撮像部に対して撮像させる制御を行い、計測部により計測された複数の距離のうち、撮像部により撮像されて得られた撮像画像内の、照射位置に相当する位置として導出された画像内照射位置に関する距離と、撮像画像内において距離毎に画像内照射位置に関連させた複数画素の間隔と、撮像部での焦点距離とに基づいて、間隔に対応する実空間領域の寸法を導出することを含む処理を実行させるための測距プログラムとされている。
 従って、本発明の第18の態様に係る測距プログラムは、撮像及び測距が1回行われる毎に寸法の導出対象が1つのみ指定される場合に比べ、複数の対象物の寸法を迅速に導出することができる。
 本発明の一つの実施形態によれば、撮像及び測距が1回行われる毎に寸法の導出対象が1つのみ指定される場合に比べ、複数の対象物の寸法を迅速に導出することができる、という効果が得られる。
第1~第5実施形態に係る測距装置の外観の一例を示す正面図である。 第1~第6実施形態に係る測距ユニット及び縦回転機構の概略構成の一例を示す概念図(概略側面図)である。 第1~第6実施形態に係る上段測距ユニット、上段用横回転機構、下段測距ユニット、及び下段用横回転機構の概略構成の一例を示す概念図(概略正面図)である。 第1~第6実施形態に係る上段測距ユニット及び下段測距ユニットの概略構成の一例を示す概念図(概略平面図)である。 第1~第3実施形態及び第5実施形態に係る測距装置の要部のハードウェア構成の一例を示すブロック図である。 第1~第3実施形態、第5実施形態、及び第6実施形態に係る測距ユニットの要部のハードウェア構成の一例を示すブロック図である。 第1~第7実施形態に係る測距装置による計測シーケンスの一例を示すタイムチャートである。 第1~第7実施形態に係る測距装置による1回の計測を行う場合に要するレーザトリガ、発光信号、受光信号、及びカウント信号の一例を示すタイムチャートである。 第1~第7実施形態に係る測距装置による計測シーケンスで得られた計測値のヒストグラム(被写体までの距離(計測値)を横軸とし、計測回数を縦軸とした場合のヒストグラム)の一例を示すグラフである。 第1~第5実施形態及び第7実施形態に係る測距装置に含まれる主制御部のハードウェア構成の一例を示すブロック図である。 指定された区域の寸法(長さ)を計測する方法の説明に供する説明図である。 第1~第7実施形態に係る測距装置のCPUによって実現される要部機能の一例を示す機能ブロック図である。 第1~第7実施形態に係る位置・距離テーブルの一例を示す概念図である。 第1~第7実施形態に係る要因・精度テーブルの一例を示す概念図である。 第1~第7実施形態に係る要因記憶処理の流れの一例を示すフローチャートである。 第1~第3実施形態、第5実施形態、及び第6実施形態に係る計測処理の流れの一例を示すフローチャートである。 図16及び図36に示すフローチャートの続きである。 図16及び図48に示すフローチャートの続きである。 第1~第7実施形態に係る照射位置導出用データ取得処理の流れの一例を示すフローチャートである。 画像内照射位置に影響を与える因子の説明に供する説明図である。 第1~第7実施形態に係る表示部に本画像、距離、誤差、及び照射位置目印が表示された状態の画面の一例を示す画面図である。 第1~第7実施形態に係る照射位置調整推奨画面の一例を示す画面図である。 第1~第7実施形態に係る仮計測・仮撮像案内画面の一例を示す画面図である。 第1~第7実施形態に係る再実行案内画面の一例を示す画面図である。 本画像内の表示領域で照射位置目印を各々内包する四角形状の複数の枠が指定された状態の画面の一例を示す画面図である。 四角形状の枠内の画像領域に対して射影変換処理が行われることによって得られた射影変換後画像を含む本画像が表示された状態の画面の一例を示す画面図である。 射影変換後画像に区域の長さ、誤差、及び双方向矢印が重畳して表示された状態の画面の一例を示す画面図である。 第1実施形態及び第5~第7実施形態に係る照射位置調整処理の流れの一例を示すフローチャートである。 照射位置調整処理が実行されることによって表示部に表示されるライブビュー画像、枠、及び照射位置目印の一例を示す画面図である。 照射位置調整処理が実行されることによって表示部に表示されるライブビュー画像、枠、照射位置目印、及び既定範囲外情報に相当するメッセージの一例を示す画面図である。 照射位置調整処理が実行されることによって表示部に表示されるライブビュー画像、枠、照射位置目印、及び既定範囲内情報に相当するメッセージの一例を示す画面図である。 第2実施形態に係る照射位置調整処理の流れの一例を示すフローチャートである。 第3実施形態に係る照射位置調整処理の流れの一例を示すフローチャートである。 第4実施形態に係る測距装置の要部のハードウェア構成の一例を示すブロック図である。 第4実施形態に係る測距ユニットの要部のハードウェア構成の一例を示すブロック図である。 第4実施形態に係る計測処理の流れの一例を示すフローチャートである。 第4実施形態に係る照射位置調整処理の流れの一例を示すフローチャートである。 第5実施形態に係る計測処理の流れの一例を示すフローチャートであって、図16に示すフローチャートの続きである。 第5実施形態に係る計測処理の流れの一例を示すフローチャートであって、図16に示すフローチャートの続きである。 最新の位置・距離対応情報に関する近似曲線の一例を示すグラフである。 第6実施形態に係る測距装置の要部のハードウェア構成の一例を示すブロック図である。 第6実施形態に係るスマートデバイスの表示部にソフトキーとして表示された本計測・本撮像ボタン、仮計測・仮撮像ボタン、撮像系動作モード切替ボタン、広角指示ボタン、望遠指示ボタン、計測系動作モード切替ボタン、照射位置調整ボタン、上段横回転用タッチパッド、下段横回転用タッチパッド、及び縦回転用タッチパッドを含む画面の一例を示す画面図である。 第7実施形態に係る測距装置の外観の一例を示す正面図である。 第7実施形態に係る測距ユニット及び縦回転機構の概略構成の一例を示す概念図(概略側面図)である。 第7実施形態に係る測距ユニット及び横回転機構の一例を示す概念図(概略正面図)である。 第7実施形態に係る測距ユニットによる走査態様の一例を示す概念図(概略平面図)である。 第7実施形態に係る測距装置の要部のハードウェア構成の一例を示すブロック図である。 第7実施形態に係る計測処理の流れの一例を示すフローチャートである。 各実施形態に係る対応情報距離範囲内、第1対応情報距離範囲外、及び第2対応情報距離範囲外の一例を示す概念図である。 第1~第6実施形態に係る表示部に本画像、距離、誤差、照射位置目印、及び警告・推奨メッセージが表示された状態の画面の一例を示す画面図である。 第5実施形態に係る近似曲線を用いて画像内照射位置が導出される場合に用いられる対応情報距離範囲内、第1対応情報距離範囲外、及び第2対応情報距離範囲外の一例を示す概念図である。 第1~第7実施形態に係るプログラムが記憶された記憶媒体からプログラムが測距装置にインストールされる態様の一例を示す概念図である。
 以下、添付図面に従って本開示の技術に係る実施形態の一例について説明する。なお、本実施形態では、説明の便宜上、測距装置から計測対象となる被写体までの距離を単に「距離」とも称する。また、本実施形態では、被写体に対する画角(被写体を示す被写体像の画角)を単に「画角」とも称する。
 [第1実施形態]
 一例として図1に示すように、本第1実施形態に係る測距装置10Aは、測距ユニット12及び撮像装置14を備えている。なお、本実施形態では、測距ユニット12及び後述の測距制御部68(図5参照)が本開示の技術に係る計測部の一例であり、撮像装置14が本開示の技術に係る撮像部の一例である。
 撮像装置14は、レンズユニット16及び撮像装置本体18を備えており、レンズユニット16は、撮像装置本体18に対して着脱自在に取り付けられる。
 撮像装置本体18の上面にはホットシュー(Hot Shoe)20が設けられており、測距ユニット12は、ホットシュー20に対して着脱自在に取り付けられる。
 測距装置10Aは、測距ユニット12に対して測距用のレーザ光を射出させて測距を行う測距系機能と、撮像装置14に対して被写体を撮像させて撮像画像を得る撮像系機能とを備えている。なお、以下では、撮像系機能を働かせることで撮像装置14により被写体が撮像されて得られた撮像画像を、単に「画像」又は「撮像画像」と称する。
 測距ユニット12は、上段測距ユニット11及び下段測距ユニット13を有しており、上段測距ユニット11は下段測距ユニット13の上面に重ねられて配置されている。なお、上段測距ユニット11及び下段測距ユニット13の各々は、本開示の技術に係る「組」の一例である。
 上段測距ユニット11は、平面視中央部を回転軸として下段測距ユニット13に対して回転自在に取り付けられており、下段測距ユニット13は、平面視中央部を回転軸としてホットシュー20の平面視中央部に対して回転自在に取り付けられている。
 なお、以下では、説明の便宜上、上段測距ユニット11及び下段測距ユニット13を区別して説明する必要がない場合、符号を付さずに「単位段測距ユニット」と称する。
 測距装置10Aは、測距系機能を働かせることで、1回の指示に応じて上段測距ユニット11及び下段測距ユニット13の各々について1回の計測シーケンス(図7参照)を行う。測距装置10Aは、上段測距ユニット11を用いて1回の計測シーケンスを行うことで最終的に1つの距離を出力し、下段測距ユニット13を用いて1回の計測シーケンスを行うことで最終的に1つの距離を出力する。
 なお、本実施形態では、ユーザの指示に応じて、測距系機能を働かせて本計測及び仮計測が選択的に行われる。本計測とは、測距系機能を働かせて計測された距離が本採用される計測を意味し、仮計測とは、本計測の精度を高めるための準備段階で行われる計測を意味する。
 測距装置10Aは、撮像系機能の動作モードとして、静止画撮像モードと動画撮像モードとを有する。静止画撮像モードは、静止画像を撮像する動作モードであり、動画撮像モードは、動画像を撮像する動作モードである。静止画撮像モード及び動画撮像モードは、ユーザの指示に応じて選択的に設定される。
 なお、本実施形態では、ユーザの指示に応じて、撮像系機能を働かせて本撮像及び仮撮像が選択的に行われる。本撮像は、本計測と同期して行われる撮像であり、仮撮像は、仮計測と同期して行われる撮像である。以下では、説明の便宜上、本撮像が行われて得られた画像を本撮像画像又は本画像とも称し、仮撮像が行われて得られた画像を仮撮像画像又は仮画像とも称する。また、以下では、説明の便宜上、本撮像画像と仮撮像画像とを区別して説明する必要がない場合、「画像」又は「撮像画像」と称する。
 測距装置10Aは、測距系機能の動作モードとして、距離導出モードと寸法導出モードとを有する。距離導出モードは、測距装置10Aが距離を計測する動作モードである。寸法導出モードは、測距装置10Aにより計測された距離に基づいて、ユーザによって指定された実空間領域の寸法を、後述の寸法導出機能を働かせて導出する動作モードである。
 なお、以下では、説明の便宜上、実空間領域の寸法として、実空間における2点間の長さを導出する場合を例に挙げて説明する。また、以下では、説明の便宜上、「実空間上の2点間」を「実空間上の区域」又は単に「区域」とも称する。
 一例として図2に示すように、撮像装置本体18は、縦回転機構15を備えている。縦回転機構15は、後述のモータ17(図5参照)によって生成される動力を受けて、ホットシュー20の前端部を回転軸としてホットシュー20を正面視縦方向に回転させる。従って、測距ユニット12が取り付けられた状態のホットシュー20が縦回転機構15によって正面視縦方向に回転されることで、測距ユニット12の向きが正面視縦方向(例えば、図2に示すA1方向)で変更される。
 なお、図2に示す例では、説明の便宜上、ホットシュー20の後端部が撮像装置本体18内に沈み込むようにホットシュー20を正面視縦方向に回転させる態様が示されているが、本開示の技術はこれに限定されるものではない。例えば、ホットシュー20の後端部を撮像装置本体18から押し上げるようにホットシュー20を正面視縦方向に回転させてもよい。なお、以下では、説明の便宜上、正面視縦方向を単に「縦方向」と称する。
 一例として図3に示すように、上段測距ユニット11は、上段用横回転機構11Aを備えている。上段用横回転機構11Aは、後述のモータ11B(図6参照)によって生成される動力を受けて、下段測距ユニット13の平面視中央部を回転軸として上段測距ユニット11を正面視横方向に回転させる。従って、測距ユニット12がホットシュー20に取り付けられた状態で上段測距ユニット11を正面視横方向に回転させることで、上段測距ユニット11の向きが正面視横方向(例えば、図3に示す矢印B1方向)に変更される。なお、以下では、説明の便宜上、正面視横方向を単に「横方向」とも称する。
 一例として図3に示すように、下段測距ユニット13は、下段用横回転機構13Aを備えている。下段用横回転機構13Aは、後述のモータ13B(図6参照)によって生成される動力を受けて、ホットシュー20の平面視中央部を回転軸として下段測距ユニット13を横方向に回転させる。従って、測距ユニット12がホットシュー20に取り付けられた状態で下段測距ユニット13を横方向に回転させることで、下段測距ユニット13の向きが横方向(例えば、図3に示す矢印B1に方向)に変更される。
 このように、測距ユニット12は、縦方向に複数組の単位段測距ユニット(一例として、上段測距ユニット11及び下段測距ユニット13)を有するため、1回の指示に応じて、複数本のレーザ光を被写体に射出することが可能となる。また、上段測距ユニット11及び下段測距ユニット13の各々の向きが横方向に変更されると、一例として図4に示すように、上段測距ユニット11及び下段測距ユニット13の各々により、複数本のレーザ光が互いに異なる方向に射出可能となる。なお、図4に示す例では、測距ユニット12から2本のレーザ光が射出されている状態が示されている。
 なお、第1~第6実施形態では、説明の便宜上、上段用横回転機構11A及び下段用横回転機構13Aを区別せずに説明する場合、符号を付さずに「横回転機構」と称する。また、第1~第6実施形態では、縦回転機構15及び横回転機構を区別して説明する必要がない場合は、符号を付さずに「回転機構」と称する。
 一例として図5に示すように、測距ユニット12は、コネクタ26を備えている。上段測距ユニット11は、信号線28A,28B,28Cを備えており、下段測距ユニット13は、信号線28D,28E,28Fを備えている。信号線28A,28B,28C,28D,28E,28Fは、コネクタ26に接続されている。
 コネクタ26は、ホットシュー20に接続可能とされており、測距ユニット12は、コネクタ26がホットシュー20に接続された状態で、撮像装置本体18の制御下で動作する。
 一例として図6に示すように、上段測距ユニット11は、射出部22及び受光部24を備えている。なお、射出部22と受光部24との位置関係は固定化されている。
 射出部22は、LD(レーザダイオード:Laser Diode)22A、集光レンズ(図示省略)、対物レンズ22B、及びLDドライバ22Cを有する。
 集光レンズ及び対物レンズ22Bは、LD22Aにより射出されるレーザ光の光軸に沿って設けられており、LD22A側から光軸に沿って集光レンズ及び対物レンズ22Bの順に配置されている。
 LD22Aは、本開示の技術に係る指向性光の一例である測距用のレーザ光を発光する。LD22Aにより発光されるレーザ光は、有色のレーザ光であり、例えば、射出部22から数メートル程度の範囲内であれば、レーザ光の照射位置は、実空間上で視覚的に認識され、撮像装置14によって撮像されて得られた撮像画像からも視覚的に認識される。
 集光レンズは、LD22Aにより発光されたレーザ光を集光し、集光したレーザ光を通過させる。対物レンズ22Bは、被写体に対向しており、集光レンズを通過したレーザ光を被写体に対して射出する。
 LDドライバ22Cは、LD22Aに接続されており、信号線28Aを介してコネクタ26に接続されている。LDドライバ22Cは、撮像装置本体18の指示に従ってLD22Aを駆動させてレーザ光を発光させる。
 受光部24は、PD(フォトダイオード:Photo Diode)24A、対物レンズ24B、及び受光信号処理回路24Cを有する。対物レンズ24Bは、PD24Aの受光面側に配置されており、射出部22により射出されたレーザ光が被写体に当たって反射したレーザ光である反射レーザ光は対物レンズ24Bに入射される。対物レンズ24Bは、反射レーザ光を通過させ、PD24Aの受光面に導く。PD24Aは、対物レンズ24Bを通過した反射レーザ光を受光し、受光量に応じたアナログ信号を受光信号として出力する。
 受光信号処理回路24Cは、PD24Aに接続されており、信号線28Bを介してコネクタ26に接続されている。受光信号処理回路24Cは、PD24Aから入力された受光信号を増幅器(図示省略)で増幅し、増幅した受光信号に対してA/D(Analog/Digital)変換を行う。そして、受光信号処理回路24Cは、A/D変換によってデジタル化された受光信号を撮像装置本体18に出力する。
 上段測距ユニット11は、モータ11Bを備えている。モータ11Bは、上段用横回転機構11Aに対して動力を伝達可能に接続されており、信号線28Cを介してコネクタ26に接続されている。従って、上段用横回転機構11Aは、撮像装置本体18の制御下で、モータ11Bにより生成された動力を受けて作動する。
 一例として図6に示すように、下段測距ユニット13は、射出部30及び受光部32を備えている。なお、射出部30と受光部32との位置関係は固定化されている。
 射出部30は、LD30A、集光レンズ(図示省略)、対物レンズ30B、及びLDドライバ30Cを有する。
 集光レンズ及び対物レンズ30Bは、LD30Aにより射出されるレーザ光の光軸に沿って設けられており、LD30A側から光軸に沿って集光レンズ及び対物レンズ30Bの順に配置されている。
 LD30Aは、本開示の技術に係る指向性光の一例である測距用のレーザ光を発光する。LD30Aにより発光されるレーザ光は、上段測距ユニット11の射出部22のLD22Aと同様のレーザ光である。
 集光レンズは、LD30Aにより発光されたレーザ光を集光し、集光したレーザ光を通過させる。対物レンズ30Bは、被写体に対向しており、集光レンズを通過したレーザ光を被写体に対して射出する。
 LDドライバ30Cは、LD30Aに接続されており、信号線28Dを介してコネクタ26に接続されている。LDドライバ30Cは、撮像装置本体18の指示に従ってLD30Aを駆動させてレーザ光を発光させる。
 受光部32は、PD32A、対物レンズ32B、及び受光信号処理回路32Cを有する。対物レンズ32Bは、PD32Aの受光面側に配置されており、射出部30により射出されたレーザ光が被写体に当たって反射したレーザ光である反射レーザ光は対物レンズ32Bに入射される。対物レンズ32Bは、反射レーザ光を通過させ、PD32Aの受光面に導く。PD32Aは、対物レンズ32Bを通過した反射レーザ光を受光し、受光量に応じたアナログ信号を受光信号として出力する。
 なお、以下では、説明の便宜上、対物レンズ22B,24B,30B,32Bを区別して説明する必要がない場合、符号を付さずに「対物レンズ」と称する。
 受光信号処理回路32Cは、PD32Aに接続されており、信号線28Eを介してコネクタ26に接続されている。受光信号処理回路32Cは、PD32Aから入力された受光信号を増幅器(図示省略)で増幅し、増幅した受光信号に対してA/D変換を行う。そして、受光信号処理回路32Cは、A/D変換によってデジタル化された受光信号を撮像装置本体18に出力する。
 下段測距ユニット13は、モータ13Bを備えている。モータ13Bは、下段用横回転機構13Aに対して動力を伝達可能に接続されており、信号線28Fを介してコネクタ26に接続されている。従って、下段用横回転機構13Aは、撮像装置本体18の制御下で、モータ13Bにより生成された動力を受けて作動する。
 一例として図5に示すように、撮像装置14は、マウント42,44を備えている。マウント42は、撮像装置本体18に設けられており、マウント44は、レンズユニット16に設けられている。レンズユニット16は、マウント42にマウント44が結合されることにより撮像装置本体18に交換可能に装着される。
 レンズユニット16は、撮像レンズ50、ズームレンズ52、ズームレンズ移動機構54、及びモータ56を備えている。
 被写体からの反射光である被写体光は、撮像レンズ50に入射される。撮像レンズ50は、被写体光を通過させ、ズームレンズ52に導く。
 ズームレンズ移動機構54には、光軸に対してスライド可能にズームレンズ52が取り付けられている。また、ズームレンズ移動機構54にはモータ56が接続されており、ズームレンズ移動機構54は、モータ56の動力を受けてズームレンズ52を光軸方向に沿ってスライドさせる。
 モータ56は、マウント42,44を介して撮像装置本体18に接続されており、撮像装置本体18からの命令に従って駆動が制御される。なお、本実施形態では、モータ56の一例としてステッピングモータを適用している。従って、モータ56は、撮像装置本体18からの命令によりパルス電力に同期して駆動する。
 撮像装置本体18は、撮像素子60、主制御部62、画像メモリ64、画像処理部66、測距制御部68、モータ17、モータドライバ21,23,25,72、撮像素子ドライバ74、画像信号処理回路76、及び表示制御部78を備えている。また、撮像装置本体18は、タッチパネルI/F(Interface:インタフェース)79、受付I/F80、及びメディアI/F82を備えている。
 なお、回転機構、モータ11B,13B,17、及びモータドライバ21,23,25は、本開示の技術に係る変更部の一例である。ここで、本開示の技術に係る変更部とは、例えば、後述の射出角度βを変更可能な機構を指す。
 主制御部62、画像メモリ64、画像処理部66、測距制御部68、モータドライバ72、撮像素子ドライバ74、画像信号処理回路76、及び表示制御部78は、バスライン84に接続されている。また、タッチパネルI/F79、受付I/F80、及びメディアI/F82は、バスライン84に接続されている。また、信号線28A,28B,28D,28Eも、コネクタ26及びホットシュー20を介してバスライン84に接続されている。また、信号線28Cは、モータドライバ21を介してバスライン84に接続されている。更に、信号線28Fは、モータドライバ23を介してバスライン84に接続されている。
 撮像素子60は、CMOS(Complementary Metal Oxide Semicondutor)型のイメージセンサであり、カラーフィルタ(図示省略)を備えている。カラーフィルタは、輝度信号を得るために最も寄与するG(Green:緑)に対応するGフィルタ、R(Red:赤)に対応するRフィルタ、及びB(Blue:青)に対応するBフィルタを含む。撮像素子60は、マトリクス状に配置された複数の画素(図示省略)を有しており、各画素には、カラーフィルタに含まれるRフィルタ、Gフィルタ、及びBフィルタの何れかのフィルタが割り当てられている。
 ズームレンズ52を通過した被写体光は、撮像素子60の受光面である撮像面に結像され、被写体光の受光量に応じた電荷が撮像素子60の画素に蓄積される。撮像素子60は、各画素に蓄積された電荷を、被写体光が撮像面で結像されて得られた被写体像に相当する画像を示す画像信号として出力する。
 縦回転機構15にはモータ17が接続されており、縦回転機構15は、モータ17により生成された動力を受けてホットシュー20を縦方向に回転させることで、一例として図2に示すように、測距ユニット12を矢印A1方向に回転させる。
 主制御部62は、バスライン84を介して測距装置10Aの全体を制御する。
 モータドライバ21は、主制御部62の指示に従ってモータ11B(図6参照)を制御する。また、モータドライバ23は、主制御部62の指示に従ってモータ13B(図6参照)を制御する。更に、モータドライバ25は、主制御部62の指示に従ってモータ17を制御する。
 なお、モータ11B,13B,17は、本開示の技術に係る動力源の一例である。また、本実施形態では、モータ11B,13B,17の一例としてステッピングモータを適用している。従って、モータ11B,13B,17は、主制御部62からの命令によりパルス電力に同期して駆動する。
 撮像装置14は、画角変更機能を有する。画角変更機能は、ズームレンズ52を移動させることで被写体に対する画角を変更する機能であり、本実施形態において、画角変更機能は、ズームレンズ52、ズームレンズ移動機構54、モータ56、モータドライバ72、及び主制御部62によって実現される。
 なお、本実施形態では、ズームレンズ52による光学式の画角変更機能を例示しているが、本開示の技術はこれに限定されるものではなく、ズームレンズ52を利用しない電子式の画角変更機能であってもよい。
 撮像素子ドライバ74は、撮像素子60に接続されており、主制御部62の制御下で、撮像素子60に駆動パルスを供給する。撮像素子60の各画素は、撮像素子ドライバ74によって供給された駆動パルスに従って駆動する。
 画像信号処理回路76は、撮像素子60に接続されており、主制御部62の制御下で、撮像素子60から1フレーム分の画像信号を画素毎に読み出す。画像信号処理回路76は、読み出した画像信号に対して、相関二重サンプリング処理、自動利得調整、A/D変換等の各種処理を行う。画像信号処理回路76は、画像信号に対して各種処理を行うことでデジタル化した画像信号を、主制御部62から供給されるクロック信号で規定される特定のフレームレート(例えば、数十フレーム/秒)で1フレーム毎に画像メモリ64に出力する。画像メモリ64は、画像信号処理回路76から入力された画像信号を一時的に保持する。
 撮像装置本体18は、表示部86、タッチパネル88、受付デバイス90、及びメモリカード92を備えている。
 表示部86は、表示制御部78に接続されており、表示制御部78の制御下で各種情報を表示する。表示部86は、例えば、LCD(Liquid Crystal Display)により実現される。
 タッチパネル88は、表示部86の表示画面に重ねられており、ユーザの指及び/又はタッチペン等の指示体による接触を受け付ける。タッチパネル88は、タッチパネルI/F79に接続されており、指示体により接触された位置を示す位置情報をタッチパネルI/F79に出力する。タッチパネルI/F79は、主制御部62の指示に従ってタッチパネル88を作動させ、タッチパネル88から入力された位置情報を主制御部62に出力する。
 受付デバイス90は、ユーザによる各種指示を受け付ける。受付デバイス90は、本計測・本撮像ボタン90A、仮計測・仮撮像ボタン90B、撮像系動作モード切替ボタン90C、広角指示ボタン90D、及び望遠指示ボタン90Eを有している。また、受付デバイス90は、計測系動作モード切替ボタン90F及び照射位置調整ボタン90Gを有している。更に、受付デバイス90は、上段用ロータリスイッチ90H、下段用ロータリスイッチ90I、及び縦回転用ロータリスイッチ90J等を有している。
 受付デバイス90は、受付I/F80に接続されており、受付I/F80は、受付デバイス90によって受け付けられた指示の内容を示す指示内容信号を主制御部62に出力する。
 本計測・本撮像ボタン90Aは、本計測及び本撮像の開始の指示を受け付ける押圧式のボタンである。仮計測・仮撮像ボタン90Bは、仮計測及び仮撮像の開始の指示を受け付ける押圧式のボタンである。撮像系動作モード切替ボタン90Cは、静止画撮像モードと動画撮像モードとを切り替える指示を受け付ける押圧式のボタンである。
 広角指示ボタン90Dは、画角を広角にする指示を受け付ける押圧式のボタンであり、広角側への画角の変更量は、許容される範囲内で、広角指示ボタン90Dへの押圧が継続して行われる押圧時間に応じて定まる。
 望遠指示ボタン90Eは、画角を望遠にする指示を受け付ける押圧式のボタンであり、望遠側への画角の変更量は、許容される範囲内で、望遠指示ボタン90Eへの押圧が継続して行われる押圧時間に応じて定まる。
 計測系動作モード切替ボタン90Fは、距離導出モードと寸法導出モードとを切り替える指示を受け付ける押圧式のボタンである。照射位置調整ボタン90Gは、画像内照射位置を調整する指示を受け付ける押圧式のボタンである。
 上段用ロータリスイッチ90Hは、上段用横回転機構11Aを作動させて上段測距ユニット11の向きを横方向に変更する指示を受け付ける回転式のスイッチである。下段用ロータリスイッチ90Iは、下段用横回転機構13Aを作動させて下段測距ユニット13の向きを横方向に変更する指示を受け付ける回転式のスイッチである。縦回転用ロータリスイッチ90Jは、縦回転機構15を作動させて測距ユニット12の向きを縦方向に変更する指示を受け付ける回転式のスイッチである。
 なお、以下では、説明の便宜上、本計測・本撮像ボタン90A及び仮計測・仮撮像ボタン90Bを区別して説明する必要がない場合、「レリーズボタン」と称する。また、以下では、説明の便宜上、広角指示ボタン90D及び望遠指示ボタン90Eを区別して説明する必要がない場合、「画角指示ボタン」と称する。
 なお、測距装置10Aでは、マニュアルフォーカスモードとオートフォーカスモードとが受付デバイス90を介したユーザの指示に応じて選択的に設定される。レリーズボタンは、撮像準備指示状態と撮像指示状態との2段階の押圧操作を受け付ける。撮像準備指示状態とは、例えば、レリーズボタンが待機位置から中間位置(半押し位置)まで押下される状態を指し、撮像指示状態とは、レリーズボタンが中間位置を超えた最終押下位置(全押し位置)まで押下される状態を指す。なお、以下では、説明の便宜上、「レリーズボタンが待機位置から半押し位置まで押下された状態」を「半押し状態」といい、「レリーズボタンが待機位置から全押し位置まで押下された状態」を「全押し状態」という。
 オートフォーカスモードでは、レリーズボタンが半押し状態にされることで撮像条件の調整が行われ、その後、引き続き全押し状態にすると本露光が行われる。つまり、本露光に先立ってレリーズボタンが半押し状態にされることでAE(Automatic Exposure)機能が働いて露出調整が行われた後、AF(Auto-Focus)機能が働いて焦点調整が行われ、レリーズボタンが全押し状態にされると本露光が行われる。ここで、本露光とは、後述の静止画像ファイルを得るために行われる露光を指す。また、本実施形態において、露光とは、本露光の他に、後述のライブビュー画像を得るために行われる露光、及び後述の動画像ファイルを得るために行われる露光も意味する。以下では、説明の便宜上、これらの露光を区別して説明する必要がない場合、単に「露光」と称する。
 なお、本実施形態では、主制御部62がAE機能による露出調整及びAF機能による焦点調整を行う。また、本実施形態では、露出調整及び焦点調整が行われる場合を例示しているが、本開示の技術はこれに限定されるものではなく、露出調整又は焦点調整が行われるようにしてもよい。
 画像処理部66は、画像メモリ64から特定のフレームレートで1フレーム毎に画像信号を取得し、取得した画像信号に対して、ガンマ補正、輝度・色差変換、及び圧縮処理等の各種処理を行う。
 画像処理部66は、各種処理を行って得た画像信号を特定のフレームレートで1フレーム毎に表示制御部78に出力する。また、画像処理部66は、各種処理を行って得た画像信号を、主制御部62の要求に応じて、主制御部62に出力する。
 表示制御部78は、主制御部62の制御下で、画像処理部66から入力された画像信号を1フレーム毎に特定のフレームレートで表示部86に出力する。
 表示部86は、画像及び文字情報等を表示する。表示部86は、表示制御部78から特定のフレームレートで入力された画像信号により示される画像をライブビュー画像として表示する。ライブビュー画像は、撮像装置14により時系列で連続的に撮像されて得られた複数の画像、すなわち、連続フレームで撮像されて得られた連続フレーム画像であり、スルー画像とも称される。また、表示部86は、単一フレームで撮像されて得られた単一フレーム画像である静止画像も表示する。更に、表示部86は、ライブビュー画像の他に、再生画像及び/又はメニュー画面等も表示する。
 なお、本実施形態では、画像処理部66及び表示制御部78は、ASIC(Application Specific Integrated Circuit)によって実現されているが、本開示の技術はこれに限定されるものではない。例えば、画像処理部66及び表示制御部78の各々は、FPGA(Field-Programmable Gate Array)によって実現されてもよい。また、画像処理部66は、CPU(中央処理装置:Central Processing Unit)、ROM(Read Only Memory)、及びRAM(Random Access Memory)を含むコンピュータによって実現されてもよい。また、表示制御部78も、CPU、ROM、及びRAMを含むコンピュータによって実現されてもよい。更に、画像処理部66及び表示制御部78の各々は、ハードウェア構成及びソフトウェア構成の組み合わせによって実現されてもよい。
 主制御部62は、静止画撮像モード下でレリーズボタンによって静止画像の撮像の指示が受け付けられた場合、撮像素子ドライバ74を制御することで、撮像素子60に1フレーム分の露光を行わせる。主制御部62は、1フレーム分の露光が行われることによって得られた画像信号を画像処理部66から取得し、取得した画像信号に対して圧縮処理を施して特定の静止画像用フォーマットの静止画像ファイルを生成する。なお、ここで、特定の静止画像用フォーマットとは、例えば、JPEG(Joint Photographic Experts Group)を指す。
 主制御部62は、動画撮像モード下でレリーズボタンによって動画像の撮像の指示が受け付けられた場合、画像処理部66によりライブビュー画像用として表示制御部78に出力される画像信号を特定のフレームレートで1フレーム毎に取得する。そして、主制御部62は、画像処理部66から取得した画像信号に対して圧縮処理を施して特定の動画像用フォーマットの動画像ファイルを生成する。なお、ここで、特定の動画像用フォーマットとは、例えば、MPEG(Moving Picture Experts Group)を指す。なお、以下では、説明の便宜上、静止画像ファイル及び動画像ファイルを区別して説明する必要がない場合、画像ファイルと称する。
 メディアI/F82は、メモリカード92に接続されており、主制御部62の制御下で、メモリカード92に対する画像ファイルの記録及び読み出しを行う。なお、メディアI/F82によってメモリカード92から読み出された画像ファイルは、主制御部62によって伸長処理が施されて表示部86に再生画像として表示される。
 なお、主制御部62は、測距制御部68から入力された距離情報及び後述の寸法導出機能を働かせて導出された寸法を示す寸法情報のうちの少なくとも1つを含む測距情報を画像ファイルに関連付けて、メディアI/F82を介してメモリカード92に保存する。そして、測距情報は、メモリカード92からメディアI/F82を介して主制御部62によって画像ファイルと共に読み出される。そして、主制御部62によって読み出された測距情報に距離情報が含まれている場合、距離情報により示される距離が、関連する画像ファイルによる再生画像と共に表示部86に表示される。また、主制御部62によって読み出された測距情報に寸法情報が含まれている場合、寸法情報により示される寸法が、関連する画像ファイルによる再生画像と共に表示部86に表示される。
 測距制御部68は、主制御部62の制御下で、測距ユニット12を制御する。なお、本実施形態において、測距制御部68は、ASICによって実現されているが、本開示の技術はこれに限定されるものではない。例えば、測距制御部68は、FPGAによって実現されてもよい。また、測距制御部68は、CPU、ROM、及びRAMを含むコンピュータによって実現されてもよい。更に、測距制御部68は、ハードウェア構成及びソフトウェア構成の組み合わせによって実現されてもよい。
 測距制御部68は、主制御部62の制御下で、LDドライバ22Cを制御することで、LD22Aによるレーザ光の発光を制御し、受光信号処理回路24Cから受光信号を取得する。また、測距制御部68は、主制御部62の制御下で、LDドライバ30Cを制御することで、LD30Aによるレーザ光の発光を制御し、受光信号処理回路32Cから受光信号を取得する。そして、測距制御部68は、単位段測距ユニット毎に、レーザ光を発光させたタイミングと受光信号を取得したタイミングとを基に、被写体までの距離を導出し、導出した距離を示す距離情報を主制御部62に出力する。
 ここで、測距制御部68による被写体までの距離の計測について上段測距ユニット11を例に挙げて更に詳細に説明する。なお、下段測距ユニット13を利用した被写体までの距離の計測方法については、上段測距ユニット11を利用した被写体までの距離の計測方法と同様なので、説明を省略する。
 一例として図7に示すように、測距装置10Aによる1回の計測シーケンスは、電圧調整期間、実計測期間、及び休止期間で規定される。
 電圧調整期間は、LD22A及びPD24Aの駆動電圧を調整する期間である。実計測期間は、被写体までの距離を実際に計測する期間である。実計測期間では、LD22Aにレーザ光を発光させ、PD24Aに反射レーザ光を受光させる動作が数百回繰り返され、レーザ光を発光させたタイミングと受光信号を取得したタイミングとを基に、被写体までの距離が導出される。休止期間は、LD22A及びPD24Aの駆動を休止させるための期間である。よって、1回の計測シーケンスでは、被写体までの距離の計測が数百回行われることになる。
 なお、本実施形態では、電圧調整期間、実計測期間、及び休止期間の各々を数百ミリ秒としている。
 一例として図8に示すように、測距制御部68には、測距制御部68がレーザ光の発光の指示を与えるタイミング、及び測距制御部68が受光信号を取得するタイミングを規定するカウント信号が供給される。本実施形態では、カウント信号は、主制御部62によって生成されて測距制御部68に供給されるが、これに限らず、バスライン84に接続されたタイムカウンタ等の専用回路によって生成されて測距制御部68に供給されるようにしてもよい。
 測距制御部68は、カウント信号に応じて、レーザ光を発光させるためのレーザトリガをLDドライバ22Cに出力する。LDドライバ22Cは、レーザトリガに応じて、LD22Aを駆動してレーザ光を発光させる。
 図8に示す例では、レーザ光の発光時間が数十ナノ秒とされている。この場合、射出部22により数キロメートル先の被写体に向けて射出されたレーザ光が反射レーザ光としてPD24Aで受光されるまでの時間は、“数キロメートル×2/光速”≒数マイクロ秒となる。従って、数キロメートル先の被写体までの距離を計測するためには、一例として図7に示すように、最低必要時間として、数マイクロ秒の時間を要する。
 なお、本実施形態では、レーザ光の往復時間等を考慮して、一例として図7に示すように、1回の計測時間を数ミリ秒としているが、被写体までの距離によりレーザ光の往復時間は異なるので、想定する距離に応じて1回あたりの計測時間を異ならせてもよい。
 測距制御部68は、1回の計測シーケンスにおける数百回の計測から得た計測値を基に、被写体までの距離を導出する場合、例えば、数百回の計測から得た計測値のヒストグラムを解析して被写体までの距離を導出する。
 一例として図9に示すように、1回の計測シーケンスにおける数百回の計測から得られた計測値のヒストグラムでは、横軸が被写体までの距離であり、縦軸が計測回数であり、計測回数の最大値に対応する距離が測距結果として測距制御部68によって導出される。なお、図9に示すヒストグラムはあくまでも一例であり、被写体までの距離に代えて、レーザ光の往復時間(発光から受光までの経過時間)及び/又はレーザ光の往復時間の1/2等に基づいてヒストグラムが生成されてもよい。
 一例として図10に示すように、主制御部62は、本開示の技術に係る制御部、導出部及び出力部の一例であるCPU100を備えている。また、主制御部62は、一次記憶部102及び二次記憶部104を備えている。CPU100は、測距装置10Aの全体を制御する。一次記憶部102は、各種プログラムの実行時のワークエリア等として用いられる揮発性のメモリである。一次記憶部102の一例としては、RAMが挙げられる。二次記憶部104は、測距装置10Aの作動を制御する制御プログラム及び/又は各種パラメータ等を予め記憶する不揮発性のメモリである。二次記憶部104の一例としては、EEPROM(Electrically Erasable Programmable Read Only Memory)及び/又はフラッシュメモリ等が挙げられる。CPU100、一次記憶部102、及び二次記憶部104は、バスライン84を介して相互に接続されている。
 ところで、測距装置10Aには、寸法導出機能が備えられている。寸法導出機能とは、一例として図11に示すように、指定された画素のアドレスu1,u2、及び測距装置10Aにより計測された距離D等に基づいて、被写体に含まれる実空間上の区域の長さLを導出したり、長さLに基づく面積を導出したりする機能を指す。ここで、「指定された画素」とは、例えば、ユーザによってライブビュー画像上で指定された2点に対応する撮像素子60における画素を指す。長さLは、例えば、下記の数式(1)により導出される。数式(1)において、pは、撮像素子60に含まれる画素間のピッチであり、u1,u2は、ユーザによって指定された画素のアドレスであり、fは、撮像レンズ50の焦点距離である。
Figure JPOXMLDOC01-appb-M000001
 なお、数式(1)は、寸法の導出対象とされる対象物が撮像レンズ50に対して正面視で正対している状態で撮像されることを前提として用いられる数式である。従って、測距装置10Aでは、例えば、寸法の導出対象とされる対象物を含む被写体が、撮像レンズ50に対して正面視で正対していない状態で撮像された場合、射影変換処理が行われる。射影変換処理とは、例えば、撮像されて得られた撮像画像、及び/又は、撮像画像のうちの四角形状の部分の画像を、アフィン変換等の公知技術を利用して、撮像画像に含まれる四角形状の画像に基づいて正対視画像に変換する処理を指す。正対視画像とは、撮像レンズ50に対して正面視で正対している状態の画像を指す。そして、正対視画像を介して撮像素子60における画素のアドレスu1,u2が指定され、数式(1)より長さLが導出される。
 このように、アドレスu1,u2に基づいて実空間上の区域の長さLを正確に導出するには、画像内照射位置を高精度に導出して距離と共にユーザに把握させることが好ましい。なぜならば、画像内照射位置と実空間上のレーザ光の照射位置とが、例えば、向きも位置も異なる平面に対する位置だとすると、導出された長さLが実際の長さとは全く異なってしまうからである。
 ここで、画像内照射位置の高精度な導出を実現するために、測距装置10Aが後述の照射位置導出用データ取得処理(図19参照)を実行する方法が考えられる。照射位置導出用データ取得処理が測距装置10Aにより実行されると、測距系機能を働かせて計測された距離に基づいて、画像内照射位置の導出に用いる因子(表1参照)を導出するための導出用データとして、例えば、後述の位置・距離対応情報が取得される。
 なお、本実施形態において、因子とは、例えば、図20に示すように、半画角α、射出角度β、及び基準点間距離dを指す。半画角αとは、撮像装置14により撮像される被写体に対する画角の半分を指す。射出角度βとは、射出部22からレーザ光が射出される角度を指す。基準点間距離dとは、撮像装置14に規定された第1基準点P1と測距ユニット12に規定された第2基準点P2との距離を指す。第1基準点P1の一例としては、撮像レンズ50の主点が挙げられる。第2基準点P2の一例としては、測距ユニット12における3次元空間の位置を特定可能な座標の原点として予め設定された点が挙げられる。具体的には、対物レンズ22Bの正面視左右端の一端、又は上段測距ユニット11の筐体(図示省略)が直方体状である場合の筐体の1つの頂点が挙げられる。
 ところで、従来の寸法の導出方法によれば、撮像及び測距が1回行われると、寸法の導出対象として指定された1つの対象物のみに関する実空間上の寸法が導出される。そのため、1回の撮像により得られた撮像画像内に寸法の導出対象としてユーザが希望する対象物が複数存在する場合、撮像及び測距が1回行われる毎に対象物を1つずつ指定しなければならず、寸法の導出に手間を要する。
 そこで、測距装置10Aでは、一例として図10に示すように、二次記憶部104が要因記憶プログラム106、計測プログラム107、及び照射位置調整プログラム108を記憶している。なお、要因記憶プログラム106、計測プログラム107、及び照射位置調整プログラム108は、本開示の技術に係る測距プログラムの一例である。また、本第1実施形態では、説明の便宜上、要因記憶プログラム106、計測プログラム107、及び照射位置調整プログラム108を区別して説明する必要がない場合、符号を付さずに「プログラム」と称する。
 一例として図12に示すように、CPU100は、二次記憶部104からプログラムを読み出して一次記憶部102に展開し、プログラムを実行することで、制御部100A、導出部100B、及び出力部100Cとして動作する。
 制御部100Aは、単位段測距ユニットの各々による複数の距離の本計測に用いられるレーザ光の各々の被写体に対する照射位置が収まる画角で撮像装置14に対して撮像させる制御を行う。
 導出部100Bは、単位段測距ユニットの各々を利用して本計測された複数の距離のうち、撮像装置14による本撮像で得られた本画像内の、本計測で用いられたレーザ光による照射位置に相当する本画像内照射位置に関する距離と、複数画素の間隔と、撮像装置14の焦点距離と、に基づいて、複数画素の間隔に対応する実空間領域の寸法を導出する。なお、本画像内照射位置は、本発明に係る画像内照射位置の一例である。
 ここで、「複数画素の間隔」とは、本撮像画像内において本画像内照射位置に関連させた複数画素の間隔を意味する。なお、複数画素の間隔は、単位段測距ユニットの各々を利用して計測された距離毎(換言すると、本画像内照射位置毎)に指定される。
 出力部100Cは、後述の要因・精度テーブル111(図14参照)に基づいて、測距装置10Aに実際に存在する照射位置影響要因に対応する導出精度を導出し、導出した導出精度に基づく情報を出力する。なお、ここで、照射位置影響要因とは、画像内照射位置に影響を及ぼす要因を指す。照射位置影響要因としては、例えば、撮像レンズ50の交換及び/又は画角の変更等が挙げられる。
 ここで、出力部100Cにより出力される導出精度とは、導出部100Bにより導出される寸法の精度を指す。また、本実施形態において、出力部100Cにより出力される導出精度に基づく情報とは、導出部100Bにより導出される寸法の誤差を指す。
 一例として図10に示すように、二次記憶部104は、位置・距離テーブル109及び要因・精度テーブル111を記憶している。
 一例として図13に示すように、位置・距離テーブル109は、対応する単位段測距ユニットに関する位置・距離対応情報を格納している。図13に示す例では、単位段測距ユニットに関する位置・距離対応情報の一例として、上段測距ユニット11に関する位置・距離対応情報と、下段測距ユニット13に関する位置距離対応情報と、が示されている。ここで、位置・距離対応情報とは、後述のステップ254Iの処理が実行されることによって特定された仮画像内照射位置毎に、仮画像内照射位置と後述のステップ254D,254Eの処理が実行されることによって得られる距離とを対応付けた情報を指す。
 図13に示す例では、上段測距ユニット11に対して仮画像内照射位置X,X,X及び距離D,D,Dが対応付けられており、仮画像内照射位置X,X,X及び距離D,D,Dは、照射位置導出用データ取得処理が実行される毎に更新される。また、図13に示す例では、下段測距ユニット13に対して仮画像内照射位置X,X,X及び距離D,D,Dが対応付けられており、仮画像内照射位置X,X,X及び距離D,D,Dは、照射位置導出用データ取得処理が実行される毎に更新される。
 ここで、前述の「仮画像内照射位置」とは、単位段測距ユニット及び測距制御部68により複数の距離の各々が仮計測される毎に被写体が撮像装置14により仮撮像されて得られた仮画像内の、レーザ光による被写体に対する照射位置に相当する位置を指す。
 なお、本実施形態において、本画像内照射位置、仮画像内照射位置、及びライブビュー画像内照射位置は、CPU100によって照射位置画素座標が導出され、導出された照射位置画素座標から特定される。また、以下では、説明の便宜上、本画像内照射位置、仮画像内照射位置、及びライブビュー画像内照射位置を区別して説明する必要がない場合、単に「画像内照射位置」と称する。
 ここで、ライブビュー画像内照射位置とは、撮像装置14による撮像で得られたライブビュー画像内の、計測で用いられたレーザ光による照射位置に相当する位置を指す。なお、ライブビュー画像内照射位置は、本発明に係る画像内照射位置の一例であり、前述の本画像内照射位置の導出方法と同様の導出方法によって導出される。
 位置・距離対応情報は、本開示の技術に係る第1対応関係を示す情報の一例である。本開示の技術に係る第1対応関係とは、複数の距離の各々が仮計測される毎に仮撮像されて得られた仮画像内の仮画像内照射位置と、仮画像内照射位置に対応するレーザ光で単位段測距ユニット及び測距制御部68により仮計測された距離、との対応関係を指す。
 すなわち、位置・距離対応情報により特定される仮画像内照射位置は、本開示の技術に係る第1対応関係における「複数の距離の各々が仮計測される毎に被写体像が撮像部により仮撮像されて得られた仮画像内の仮画像内照射位置」の一例である。また、位置・距離対応情報により特定される距離は、本開示の技術に係る第1対応関係における「仮画像内照射位置に対応する指向性光で計測部により仮計測された距離」の一例である。
 一例として図14に示すように、要因・精度テーブル111は、本開示の技術に係る第2対応関係を示す情報の一例である要因・精度対応情報を格納している。要因・精度対応情報とは、照射位置影響要因として想定された想定要因と、導出部100Bによる導出精度と、を対応付けた情報を指す。
 なお、本実施形態において、要因・精度対応情報は、測距装置10Aの出荷前の段階で固定化されている。すなわち、要因・精度テーブル111には、測距装置10Aの出荷前の段階で、測距装置10Aの実機による試験及び/又は測距装置10Aの設計仕様等に基づくコンピュータ・シミュレーション等の結果から導き出された要因・精度対応情報が格納されている。
 図14に示す例では、仮に想定要因が実際に発生した場合の導出精度δ,ε,ζ,η,λが想定要因毎に規定されている。図14に示す例では、想定要因の一例として、画角変更、レンズ交換、測距ユニット交換、射出方向の変更、及び製造ばらつきが挙げられている。
 レンズ交換とは、レンズユニット16における撮像レンズ50のみの交換、及びレンズユニット16そのものの交換を指す。測距ユニット交換とは、測距ユニット12における対物レンズのみの交換、及び測距ユニット12そのものの交換を指す。画角変更とは、画角指示ボタンが押下されたことによるズームレンズ52の移動に伴う画角の変更を指す。射出方向の変更とは、単位段測距ユニット毎のレーザ光が射出される方向の変更を指す。製造ばらつきとは、同じ機種の複数の測距装置10A間での製造上の各種特性等のばらつきを指す。
 なお、図14に示す(1)・・・・(n)は、同じ種類の想定要因であっても内容が異なっていることを識別するための識別符号である。
 例えば、画角変更(1)・・・・(n)は、画角の変更の異なる特徴を示している。そのため、画角変更(1)・・・・(n)に対しては、異なる導出精度である導出精度δ・・・・δが対応付けられている。なお、画角の変更の異なる特徴の一例としては、画角の変更方向及び変更量の違いが挙げられる。
 また、例えば、レンズ交換(1)・・・・(n)は、レンズ交換の異なる特徴を示している。そのため、レンズ交換(1)・・・・(n)に対しては、異なる導出精度である導出精度ε・・・・εが対応付けられている。なお、レンズ交換の異なる特徴の一例としては、レンズユニット16の焦点距離の違いが挙げられる。
 また、例えば、測距ユニット交換(1)・・・・(n)は、測距ユニット12の交換の異なる特徴を示している。そのため、測距ユニット交換(1)・・・・(n)に対しては、異なる導出精度である導出精度ζ・・・・ζが対応付けられている。なお、測距ユニット交換の異なる特徴の一例としては、測距ユニット12の型式の違いが挙げられる。
 更に、例えば、射出方向の変更(1)・・・・(n)は、単位段測距ユニット毎におけるレーザ光の射出方向の変更の異なる特徴を示している。そのため、射出方向の変更(1)・・・・(n)に対しては、異なる導出精度である導出精度η・・・・ηが対応付けられている。なお、射出方向の変更の異なる特徴としては、例えば、測距ユニット12の経時変化に伴う射出部22,30の外形形状の違い、及び/又は、レーザ光の射出方向が異なる測距ユニット12の型式の違いが挙げられる。
 なお、測距装置10A毎に対する固有の製造ばらつきに対しては、各測距装置10Aに対して一意に定められた導出精度λが対応付けられている。
 次に、測距装置10Aの作用について説明する。
 先ず、測距装置10Aの電源スイッチがオン(投入)された場合にCPU100が要因記憶プログラム106を実行することで実現される要因記憶処理について図15を参照して説明する。なお、以下では、説明の便宜上、ライブビュー画像が表示部86に表示されている場合について説明する。また、以下では、説明の便宜上、レーザ光の被写体に対する実空間上の照射位置を「実空間照射位置」と称する。
 図15に示す要因記憶処理では、先ず、ステップ200で、出力部100Cは、新たな照射位置影響要因が発生したか否かを判定する。ステップ200において、新たな照射位置影響要因が発生した場合は、判定が肯定されて、ステップ202へ移行する。ステップ200において、新たな照射位置影響要因が発生していない場合は、判定が否定されて、ステップ204へ移行する。
 ステップ202で、出力部100Cは、発生した新たな照射位置影響要因を示し、かつ、発生した新たな照射位置影響要因の特徴を示す要因情報を二次記憶部104に時系列で、かつ、単位段測距ユニット毎に記憶し、その後、ステップ208へ移行する。
 ここで、照射位置影響要因の特徴とは、例えば、画角変更の特徴、レンズ交換の特徴、測距ユニット交換の特徴、及び射出方向の変更の特徴を指し、対応する想定要因の特徴と同一の特徴であればよい。なお、ここで言う「同一」とは、完全な同一の他に、予め定められた誤差の範囲内での同一も意味する。
 ステップ204で、出力部100Cは、照射位置導出用データ取得処理(図19参照)が実行されたか否かを判定する。ステップ204において、照射位置導出用データ取得処理が実行された場合は、判定が肯定されて、ステップ206へ移行する。ステップ204において、照射位置導出用データ取得処理が実行されていない場合は、判定が否定されて、ステップ208へ移行する。なお、ステップ204では、二次記憶部104に要因情報が記憶されていない場合も、判定が否定されて、ステップ208へ移行する。
 ステップ206で、出力部100Cは、二次記憶部104に記憶されている要因情報を消去し、その後、ステップ208へ移行する。
 ステップ208で、出力部100Cは、本要因記憶処理を終了する条件である終了条件を満足したか否かを判定する。本要因記憶処理において、終了条件とは、例えば、本要因記憶処理を終了する指示がタッチパネル88を介して受け付けられたとの条件を指す。
 ステップ208において、終了条件を満足していない場合は、判定が否定されて、ステップ200へ移行する。ステップ208において、終了条件を満足した場合は、判定が肯定されて、本要因記憶処理を終了する。
 次に、測距装置10Aの電源スイッチがオン(投入)された場合にCPU100が計測プログラム107を実行することで実現される計測処理について図16~図19を参照して説明する。
 なお、以下では、説明の便宜上、ライブビュー画像が表示部86に表示されている場合について説明する。また、以下では、説明の便宜上、測距系機能の動作モードとして、距離導出モード又は寸法導出モードが設定されていることを前提として説明する。また、以下では、説明の便宜上、後述の照射位置導出用データ取得処理において仮計測及び仮撮像が行われる場合を除いて、撮像装置14の位置が固定されていることを前提として説明する。また、以下では、説明の便宜上、画角が既に定まっていることを前提として説明する。また、以下では、説明の便宜上、上段測距ユニット11及び下段測距ユニット13は、互いにレーザ光を同期して射出することを前提として説明する。
 また、以下では、説明の便宜上、レーザ光の被写体に対する実空間上の照射位置を「実空間照射位置」と称する。また、以下では、説明の便宜上、被写体をオフィスビルの外壁部とし、オフィスビルの外壁部が四角形状の窓及び/又は四角形状の模様等を有している平面状の壁部(平面状領域)であることを前提として説明する。ここで言う「平面状」には、平面のみならず、窓又は換気口等による若干の凸凹を許容する範囲での平面形状も含まれ、例えば、目視により、又は、既存の画像解析技術により、「平面状」と認識される平面又は平面形状であればよい。
 また、以下では、説明の便宜上、被写体であるオフィスビルの外壁部が撮像レンズ50に対して正面視で正対していない状態で測距装置10Aによって撮像されることを前提として説明する。また、以下では、説明の便宜上、一例として図21に示すように、撮影方向に対して前後して立設された異なるオフィスビルの各々の外壁面に対してレーザ光が1本ずつ照射されることを前提として説明する。
 また、以下では、説明の便宜上、撮像装置14に含まれる撮像素子60の撮像面に対する正面視左右方向であるX方向についての画像内照射位置の導出を例に挙げて説明するが、撮像装置14に含まれる撮像素子60の撮像面に対する正面視上下方向であるY方向についての画像内照射位置の導出も同様に行われる。このように、X方向及びY方向の各々について画像内照射位置の導出が行われることによって最終的に出力される画像内照射位置は2次元座標で表現される。
 また、以下では、説明の便宜上、撮像装置14に含まれる撮像素子60の撮像面に対する正面視左右方向を「X方向」又は「行方向」と称し、撮像装置14に含まれる撮像素子60の撮像面に対する正面視左右方向を「Y方向」又は「列方向」と称する。
 図16に示す計測処理では、先ず、ステップ220で、制御部100Aは、上段用ロータリスイッチ90Hが操作されたか否かを判定する。ステップ220において、上段用ロータリスイッチ90Hが操作された場合は、判定が肯定されて、ステップ222へ移行する。ステップ220において、上段用ロータリスイッチ90Hが操作されていない場合は、判定が否定されて、ステップ224へ移行する。
 ステップ222で、制御部100Aは、上段用ロータリスイッチ90Hの操作量及び操作方向に応じて上段用横回転機構11Aを作動させて上段測距ユニット11を横方向に回転させ、その後、ステップ232へ移行する。なお、上段用ロータリスイッチ90Hが操作されると、上段測距ユニット11によりレーザ光が射出された場合の実空間照射位置が現時点で設定されている画角に収まる範囲内を限度に上段測距ユニット11が操作量に応じた回転量で横方向に回転される。
 ステップ224で、制御部100Aは、下段用ロータリスイッチ90Iが操作されたか否かを判定する。ステップ224において、下段用ロータリスイッチ90Iが操作された場合は、判定が肯定されて、ステップ226へ移行する。ステップ224において、下段用ロータリスイッチ90Iが操作されていない場合は、判定が否定されて、ステップ228へ移行する。
 ステップ226で、制御部100Aは、下段用ロータリスイッチ90Iの操作量及び操作方向に応じて下段用横回転機構13Aを作動させて下段測距ユニット13を横方向に回転させ、その後、ステップ232へ移行する。なお、下段用ロータリスイッチ90Iが操作されると、下段測距ユニット13によりレーザ光が射出された場合の実空間照射位置が現時点で設定されている画角に収まる範囲内を限度に下段測距ユニット13が操作量に応じた回転量で横方向に回転される。
 ステップ228で、制御部100Aは、縦回転用ロータリスイッチ90Jが操作されたか否かを判定する。ステップ228において、縦回転用ロータリスイッチ90Jが操作された場合は、判定が肯定されて、ステップ230へ移行する。ステップ228において、縦回転用ロータリスイッチ90Jが操作されていない場合は、判定が否定されて、ステップ234へ移行する。なお、縦回転用ロータリスイッチ90Jが操作されると、測距ユニット12によりレーザ光が射出された場合の実空間照射位置が現時点で設定されている画角に収まる範囲内を限度に測距ユニット12が操作量に応じた回転量で縦方向に回転される。
 ステップ230で、制御部100Aは、縦回転用ロータリスイッチ90Jの操作量及び操作方向に応じて縦回転機構15を作動させて測距ユニット12を縦方向に回転させ、その後、ステップ232へ移行する。
 ステップ232で、制御部100Aは、単位段測距ユニットの回転方向及び回転量に従って、射出角度βを更新し、その後、ステップ234へ移行する。
 なお、ここで、「単位段測距ユニットの回転方向及び回転量」とは、上段測距ユニット11の回転方向及び回転量と、下段測距ユニット13の回転方向及び回転量とに大別される。「上段測距ユニット11の回転方向及び回転量」とは、上段測距ユニット11が横方向に回転された場合の上段測距ユニット11の回転方向及び回転量、並びに、測距ユニット12が縦方向に回転された場合の上段測距ユニット11の回転方向及び回転量を意味する。「下段測距ユニット13の回転方向及び回転量」とは、下段測距ユニット13が横方向に回転された場合の下段測距ユニット13の回転方向及び回転量、並びに、測距ユニット12が縦方向に回転された場合の下段測距ユニット13の回転方向及び回転量を意味する。
 ステップ234で、導出部100Bは、距離導出モードが設定されているか否かを判定する。ステップ234において、距離導出モードが設定されていない場合は、判定が否定されて、図17に示すステップ258へ移行する。ステップ234において、距離導出モードが設定されている場合は、判定が肯定されて、図18に示すステップ236へ移行する。
 ステップ236で、導出部100Bは、本計測・本撮像ボタン90Aがオンされたか否かを判定する。ステップ236において、本計測・本撮像ボタン90Aがオンされていない場合は、判定が否定されて、ステップ252へ移行する。ステップ236において、本計測・本撮像ボタン90Aがオンされた場合は、判定が肯定されて、ステップ238へ移行する。
 ステップ238で、導出部100Bは、測距制御部68を制御することで、単位段測距ユニット毎に、本計測を実行する。また、導出部100Bは、撮像素子ドライバ74及び画像信号処理回路76を制御することで、本撮像を実行し、その後、ステップ240へ移行する。
 ステップ240で、導出部100Bは、単位段測距ユニット毎に、位置・距離テーブル109に格納されている対応する位置・距離対応情報に基づいて因子を導出し、その後、ステップ242へ移行する。
 ここで、本ステップ240の処理が実行されることによって導出される因子は、現時点で不確定の因子であり、下記の表1に示すように、照射位置影響要因毎に異なる。
Figure JPOXMLDOC01-appb-T000002
 不確定の因子の個数は、1~3個の場合があり得る。例えば、表1に示す例では、測距ユニット交換と画角変更との双方が行われた場合、不確定の因子は、半画角α、射出角度β、及び基準点間距離dの3つとなる。また、レンズ交換のみが行われた場合、不確定の因子は、半画角α及び射出角度βの2つとなる。また、測距ユニット交換のみが行われた場合、不確定の因子は、射出角度β及び基準点間距離dの2つとなる。また、画角変更のみが行われた場合に、不確定の因子は、半画角αの1つとなる。更に、射出方向の変更のみが行われた場合、不確定の因子は、射出角度βの1つとなる。
 本ステップ240において、因子は、例えば、下記の数式(2)~(4)により導出される。数式(2)及び数式(3)において、距離Dは、位置・距離対応情報から特定される距離であり、図13に示す例において、上段測距ユニット11に関する位置・距離対応情報から特定される距離とは、距離D,D,Dを指す。また、図13に示す例において、下段測距ユニット13に関する位置・距離対応情報から特定される距離とは、距離D,D,Dを指す。数式(4)において、「照射位置の行方向画素」は、行方向における画像内照射位置であり、「行方向画素数の半分」は、撮像素子60における行方向の画素数の半分である。また、本実施形態において、半画角αは、例えば、下記の数式(5)により導出される。数式(5)において、“f”とは、焦点距離を指す。数式(5)に代入される焦点距離fは、例えば、ステップ230の本撮像で用いられた焦点距離であることが好ましい。
Figure JPOXMLDOC01-appb-M000003
Figure JPOXMLDOC01-appb-M000004
Figure JPOXMLDOC01-appb-M000005
Figure JPOXMLDOC01-appb-M000006
 本ステップ240では、位置・距離テーブル109に格納されている位置・距離対応情報から特定される仮画像内照射位置が「照射位置の行方向画素」とされる。図13に示す例において、上段測距ユニット11に関する位置・距離対応情報から特定される仮画像内照射位置とは、X,X,Xを指す。また、図13に示す例において、下段測距ユニット13に関する位置・距離対応情報から特定される仮画像内照射位置とは、X,X,Xを指す。位置・距離テーブル109に格納されている位置・距離対応情報から特定される距離は、対応する仮画像内照射位置(対応する「照射位置の行方向画素」)毎に、数式(2)及び数式(3)における距離Dとして用いられる。そして、「照射位置の行方向画素」の各々に最も近付けることができる因子が導出部100Bによって導出される。
 ここで、因子の導出方法について、図13に示す位置・距離テーブル109に格納されている位置・距離対応情報のうちの上段測距ユニット11に関する位置・距離対応情報を例に挙げて説明する。
 例えば、仮画像内照射位置Xが「照射位置の行方向画素」として数式(4)で用いられる場合には、距離Dが数式(2)及び数式(3)の距離Dとして用いられる。また、仮画像内照射位置Xが「照射位置の行方向画素」として数式(4)で用いられる場合には、距離Dが数式(2)及び数式(3)の距離Dとして用いられる。また、仮画像内照射位置Xが「照射位置の行方向画素」として数式(4)で用いられる場合には、距離Dが数式(2)及び数式(3)の距離Dとして用いられる。そして、数式(2)~(4)から、仮画像内照射位置X,X,Xの各々に最も近付けることができる半画角α、射出角度β、及び基準点間距離dが導出される。
 ステップ242で、導出部100Bは、単位段測距ユニット毎に、ステップ240で導出した因子に基づいて本画像内照射位置を導出し、その後、ステップ244へ移行する。
 本ステップ242では、例えば、数式(2)~(4)により本画像内照射位置が導出される。すなわち、ステップ240で導出された因子が数式(2)~(4)に代入され、ステップ238で本計測が実行されて得られた距離が距離Dとして数式(2)~(4)に代入される。これにより、「照射位置の行方向画素」が本画像内照射位置として導出される。
 ステップ244で、出力部100Cは、単位段測距ユニット毎に、要因・精度対応情報から特定の想定要因に対応付けられた導出精度を導出する。そして、出力部100Cは、単位段測距ユニット毎に、導出した導出精度に基づいて、導出部100Bにより導出された本画像内照射位置の誤差を導出し、その後、ステップ246へ移行する。
 本ステップ244において、特定の想定要因とは、測距装置10Aに実際に存在する照射位置影響要因に相当する想定要因を指す。具体的には、特定の想定要因とは、要因・精度対応情報に含まれる想定要因のうちの、現時点で二次記憶部104に記憶されている要因情報に対応する想定要因と、要因・精度対応情報に含まれる想定要因のうちの製造ばらつきと、を指す。なお、現時点で二次記憶部104に要因情報が記憶されていない場合、特定の想定要因とは、要因・精度対応情報に含まれる想定要因のうちの製造ばらつきのみを指す。
 例えば、現時点で二次記憶部104に記憶されている要因情報に対応する想定要因が画角変更(1)の場合、特定の想定要因に対応する導出精度は、導出精度δ,λである。また、例えば、現時点で二次記憶部104に要因情報が記憶されていない場合、特定の想定要因に対応する導出精度は、導出精度λである。
 本ステップ244では、例えば、上記のように特定の想定要因が画角変更(1)及び製造ばらつきの場合、導出精度δ,λが総合化され、総合化された導出精度に基づいて本画像内照射位置の誤差が単位段測距ユニット毎に導出される。また、例えば、特定の想定要因が製造ばらつきのみの場合、導出精度λに基づいて本画像内照射位置の誤差が単位段測距ユニット毎に導出される。すなわち、測距装置10Aの出荷後に初めて測距装置10Aを稼働させて本計測処理が実行されると、導出精度λに基づいて本画像内照射位置の誤差が単位段測距ユニット毎に導出されることになる。
 複数の導出精度が総合化された導出精度とは、例えば、特定の想定要因に対応付けられた導出精度を独立変数として含む多項式により総合化された従属変数により得られる導出精度を指す。多項式の一例としては、下記の数式(6)が挙げられる。数式(6)において、Qは従属変数であり、F(δ)、G(ε)、H(ζ)、J(η)及びK(λ)は関数である。また、数式(6)において、F(δ)は、独立変数である導出精度δにより規定された関数である。また、数式(6)において、G(ε)は、独立変数である導出精度εにより規定された関数である。また、数式(6)において、H(ζ)は、独立変数である導出精度ζにより規定された関数である。また、数式(6)において、J(η)は、独立変数である導出精度ηにより規定された関数である。更に、数式(6)において、K(λ)は、独立変数である導出精度λにより規定された関数である。
Figure JPOXMLDOC01-appb-M000007
 なお、ここで、複数の導出精度が総合化された導出精度は、数式(6)の従属変数Qそのものであってもよいし、従属変数Qを調整して得た値であってもよい。従属変数Qを調整して得た値とは、例えば、従属変数Qに対して係数(例えば、ユーザがタッチパネル88を介して指示した係数)を乗じて得た値を指す。
 また、本ステップ244では、誤差が、例えば、導出精度及び画像内照射位置の座標とこれらに対応する誤差とが予め対応付けられた位置誤差テーブル(図示省略)に基づいて導出されるが、本開示の技術はこれに限定されるものではない。誤差は、例えば、導出精度及び画像内照射位置の座標を独立変数とし、誤差を従属変数とする演算式に基づいて導出されてもよい。
 ステップ246で、出力部100Cは、一例として図21に示すように、本画像、距離、誤差、及び照射位置目印116A,116Bを表示部86に表示させ、その後、ステップ248へ移行する。
 なお、図21に示す例において、表示部86に表示される本画像は、ステップ238の処理が実行されることで本撮像が行われて得られた画像である。
 照射位置目印116Aは、上段測距ユニット11により射出されたレーザ光を基にして、ステップ242の処理が実行されることで導出された本画像内照射位置を示す目印である。照射位置目印116Bは、下段測距ユニット13により射出されたレーザ光を基にして、ステップ242の処理が実行されることで導出された本画像内照射位置を示す目印である。なお、以下では、照射位置目印116A,116Bを区別して説明する必要がない場合、照射位置目印116と称する。
 また、本ステップ246の処理が実行されると、一例として図21に示すように、単位段測距ユニット毎の距離が表示部86に表示される。ここで、単位段測距ユニット毎の距離は、上段測距ユニット11を用いて計測された距離と下段測距ユニット13を用いて計測された距離とに大別される。上段測距ユニット11を用いて計測された距離とは、上段測距ユニット11により射出されたレーザ光を基にして、ステップ238の処理が実行されることで計測された距離を指す。下段測距ユニット13を用いて計測された距離とは、下段測距ユニット13により射出されたレーザ光を基にして、ステップ238の処理が実行されることで計測された距離を指す。
 なお、図21に示す例では、「325414.2」との数値が上段測距ユニット11を用いて計測された距離に該当し、単位はミリメートルである。また、図21に示す例では、「133325.0」との数値が下段測距ユニット13を用いて計測された距離に該当し、単位はミリメートルである。
 また、本ステップ246の処理が実行されると、一例として図21に示すように、単位段測距ユニット毎の誤差が表示部86に表示される。ここで、単位段測距ユニット毎の誤差は、上段測距ユニット11による本画像内照射位置の誤差と下段測距ユニット13による本画像内照射位置の誤差とに大別される。上段測距ユニット11による本画像内照射位置の誤差とは、上段測距ユニット11により射出されたレーザ光を基にして、ステップ242の処理が実行されることで導出された本画像内照射位置の誤差を指す。下段測距ユニット13による本画像内照射位置の誤差とは、下段測距ユニット13により射出されたレーザ光を基にして、ステップ242の処理が実行されることで導出された本画像内照射位置の誤差を指す。
 なお、図21に示す例では、「±16.3」との数値が上段測距ユニット11による本画像内照射位置の誤差に該当し、単位はミリメートルである。また、図21に示す例では、「±15.2」との数値が下段測距ユニット13による本画像内照射位置の誤差に該当し、単位はミリメートルである。
 ステップ248で、出力部100Cは、ステップ244又は後述のステップ286の処理が実行されることで単位段測距ユニット毎に導出された誤差の少なくとも1つが閾値を超えたか否かを判定する。閾値は、照射位置導出用データ取得処理(図19参照)が実行されるべき好ましい値として測距装置10Aの実機による試験、及び/又は、測距装置10Aの設計仕様等に基づくコンピュータ・シミュレーション等の結果に基づいて事前に得られた値である。なお、本ステップ248において、ステップ244又はステップ286の処理が実行されることで導出された誤差が閾値を超える場合とは、導出部100Bによる本画像内照射位置の導出精度が予め定められた導出精度未満であることを意味する。
 ステップ248において、ステップ244又はステップ286の処理が実行されることで単位段測距ユニット毎に導出された誤差の全てが閾値以下の場合は、判定が否定されて、ステップ252へ移行する。ステップ248において、ステップ244又はステップ286の処理が実行されることで導出された誤差の少なくとも1つが閾値を超えた場合は、判定が肯定されて、ステップ250へ移行する。
 ステップ250で、出力部100Cは、一例として図22に示すように、表示部86に対して照射位置調整推奨画面110を表示させ、その後、ステップ252へ移行する。
 照射位置調整推奨画面110は、本画像内照射位置の調整を推奨するための画面である。図22に示す例では、照射位置調整推奨画面110に、「本画像内照射位置の調整をお奨めします。」というメッセージが表示されている。また、図22に示す例では、照射位置調整推奨画面110に、本画像内照射位置の調整を行う意思を表明する場合に指定される「はい」のソフトキーが表示されている。また、図22に示す例では、照射位置調整推奨画面110に、本画像内照射位置の調整を行わない意思を表明する場合に指定される「いいえ」のソフトキーが表示されている。
 このように、本ステップ250では、出力部100Cによって導出された導出精度が予め定められた導出精度未満であることを示す警報として、照射位置調整推奨画面110が表示部86に表示される。
 ステップ252で、出力部100Cは、照射位置調整推奨画面110の「はい」のソフトキーがオンされたか否かを判定する。ステップ252において、照射位置調整推奨画面110の「はい」のソフトキーがオンされた場合、判定が肯定されて、ステップ254へ移行する。ステップ252において、照射位置調整推奨画面110の「いいえ」のソフトキーがオンされた場合、及び照射位置調整推奨画面110が表示されてから既定時間(例えば、30秒)が経過した場合、判定が否定されて、ステップ256へ移行する。
 ステップ254で、導出部100Bは、一例として図19に示す照射位置導出用データ取得処理を実行し、その後、ステップ256へ移行する。
 図19に示す照射位置導出用データ取得処理では、先ず、ステップ254Aで、導出部100Bは、一例として図23に示すように、表示部86に対して仮計測・仮撮像案内画面112を表示させ、その後、ステップ254Bへ移行する。
 仮計測・仮撮像案内画面112は、レーザ光の射出方向を変えて仮計測及び仮撮像を複数回(本実施形態では、一例として3回)行うことをユーザに案内するための画面である。図23に示す例では、仮計測・仮撮像案内画面112に、「レーザ光の射出方向を変えて仮計測・仮撮像を3回行って下さい。」というメッセージが表示されている。
 ステップ254Bで、導出部100Bは、仮計測・仮撮像ボタン90Bがオンされたか否かを判定する。ステップ254Bにおいて、仮計測・仮撮像ボタン90Bがオンされていない場合は、判定が否定されて、ステップ254Cへ移行する。ステップ254Bにおいて、仮計測・仮撮像ボタン90Bがオンされた場合は、判定が肯定されて、ステップ254Dへ移行する。
 ステップ254Cで、導出部100Bは、本照射位置導出用データ取得処理を終了する条件である終了条件を満足したか否かを判定する。本照射位置導出用データ取得処理において、終了条件とは、例えば、本照射位置導出用データ取得処理を終了する指示がタッチパネル88を介して受け付けられたとの条件を指す。
 ステップ254Cにおいて、終了条件を満足していない場合は、判定が否定されて、ステップ254Bへ移行する。ステップ254Cにおいて、終了条件を満足した場合は、判定が肯定されて、ステップ220へ移行する。
 ステップ254Dで、導出部100Bは、測距制御部68を制御することで、単位段測距ユニット毎に、仮計測を実行する。また、導出部100Bは、撮像素子ドライバ74及び画像信号処理回路76を制御することで、仮撮像を実行し、その後、ステップ254Eへ移行する。なお、仮計測及び仮撮像は、仮計測・仮撮像ボタン90Bがオンされる毎に撮影方向を変えて行われる。撮影方向を変えるには、例えば、測距装置10Aの向きを変えればよい。
 ステップ254Eで、導出部100Bは、単位段測距ユニット毎に、仮撮像を実行して得た画像である仮画像、及び仮計測を実行して得た距離を一次記憶部102に単位段測距ユニット毎に記憶し、その後、ステップ254Fへ移行する。
 ステップ254Fで、導出部100Bは、仮計測・仮撮像ボタン90Bが3回オンされたか否かを判定することで、仮計測及び仮撮像が3回行われたか否かを判定する。ステップ254Fにおいて、仮計測及び仮撮像が3回行われていない場合は、判定が否定されて、ステップ254Bへ移行する。ステップ254Fにおいて、仮計測及び仮撮像が3回行われた場合は、判定が肯定されて、ステップ254Gへ移行する。
 次に、導出部100Bは、単位段測距ユニット毎に、仮計測された複数の距離(ここでは、一例として3つの距離)の関係が本画像内照射位置の導出に用いる位置・距離対応情報の構築に有効に寄与しない予め定められた関係でないか否かを判定する。すなわち、ステップ254Gで、導出部100Bは、単位段測距ユニット毎に、ステップ254Eで一次記憶部102に記憶した3つの距離が有効な距離か否かを判定する。ここで、有効な距離とは、一次記憶部102に記憶されている3つの距離が本画像内照射位置の導出に用いる位置・距離対応情報の構築(生成)に有効に寄与する関係の距離を指す。3つの距離が本画像内照射位置の導出に用いる位置・距離対応情報の構築に有効に寄与する関係とは、例えば、3つの距離が互いに予め定められた距離以上(例えば、0.3メートル以上)離れた関係を意味する。
 ステップ254Gにおいて、単位段測距ユニットの少なくとも1つについて、ステップ254Eで一次記憶部102に記憶した3つの距離が有効な距離でない場合は、判定が否定されて、ステップ254Hへ移行する。ステップ254Gにおいて、単位段測距ユニットの全てについて、ステップ254Eで一次記憶部102に記憶した3つの距離が有効な距離である場合は、判定が肯定されて、ステップ254Iへ移行する。
 ステップ254Hで、導出部100Bは、一例として図24に示すように、表示部86に対して再実行案内画面114を表示させ、その後、ステップ254Bへ移行する。
 再実行案内画面114は、仮計測及び仮撮像のやり直しをユーザに案内するための画面である。図24に示す例では、再実行案内画面114に、「有効な距離が計測できませんでした。レーザ光の射出方向を変えて仮計測・仮撮像を3回行って下さい。」というメッセージが表示されている。
 ステップ254Iで、導出部100Bは、単位段測距ユニット毎に、ステップ254Eで一次記憶部102に記憶した仮画像毎に仮画像内照射位置を特定し、その後、ステップ254Jへ移行する。仮画像内照射位置は、例えば、ライブビュー画像において仮計測及び仮撮像が行われる前(例えば、1フレーム前)に得られた画像と仮撮像が行われて得られた仮画像との差分から特定される。なお、仮計測が行われた距離が数メートル程度であれば、ユーザは仮画像からレーザ光の照射位置を視覚的に認識することができる。この場合、仮画像から視覚的に認識された照射位置がタッチパネル88を介してユーザによって指定されるものとし、指定された位置が仮画像内照射位置として特定されるようにしてもよい。
 ステップ254Jで、導出部100Bは、単位段測距ユニット毎に、位置・距離対応情報を生成して位置・距離テーブル109に上書きすることで、位置・距離テーブル109を単位段測距ユニット毎に更新し、その後、本照射位置導出用データ取得処理を終了する。
 一方、図18に示す計測処理では、ステップ256で、導出部100Bは、本計測処理を終了する条件である終了条件を満足したか否かを判定する。本計測処理において、終了条件とは、例えば、本計測処理を終了する指示がタッチパネル88を介して受け付けられたとの条件を指す。
 ステップ256において、終了条件を満足していない場合は、判定が否定されて、ステップ220へ移行する。ステップ256において、終了条件を満足した場合は、判定が肯定されて、本計測処理を終了する。
 一方、図17に示すステップ258で、導出部100Bは、本計測・本撮像ボタン90Aがオンされたか否かを判定する。ステップ258において、本計測・本撮像ボタン90Aがオンされていない場合は、判定が否定されて、ステップ260へ移行する。ステップ258において、本計測・本撮像ボタン90Aがオンされた場合は、判定が肯定されて、ステップ262へ移行する。
 ステップ260で、導出部100Bは、照射位置調整ボタン90Gがオンされたか否かを判定する。ステップ260において、照射位置調整ボタン90Gがオンされた場合は、判定が肯定されて、図18に示すステップ254へ移行する。ステップ260において、照射位置調整ボタン90Gがオンされていない場合は、判定が否定されて、図18に示すステップ256へ移行する。
 ステップ262で、導出部100Bは、測距制御部68を制御することで、単位段測距ユニット毎に、本計測を実行する。また、導出部100Bは、撮像素子ドライバ74及び画像信号処理回路76を制御することで、本撮像を実行し、その後、ステップ264へ移行する。
 ステップ264で、導出部100Bは、単位段測距ユニット毎に、位置・距離テーブル109に格納されている位置・距離対応情報に基づいて因子を導出し、その後、ステップ266へ移行する。
 ステップ266で、導出部100Bは、単位段測距ユニット毎に、ステップ264で導出した因子に基づいて本画像内照射位置を導出し、その後、ステップ268へ移行する。
 本ステップ266では、例えば、数式(2)~(4)により画像内照射位置が導出される。すなわち、ステップ264で導出された因子が数式(2)~(4)に代入され、ステップ262で本計測が実行されて得られた距離が距離Dとして数式(2)~(4)に代入される。これにより、「照射位置の行方向画素」が本画像内照射位置として導出される。
 ステップ268で、導出部100Bは、一例として図25に示すように、本画像、距離、及び照射位置目印116A,116Bを表示部86に表示させる。
 なお、図25に示す例において、表示部86に表示される本画像は、ステップ262の処理が実行されることで本撮像が行われて得られた画像である。
 図25に示す例において、照射位置目印116Aは、上段測距ユニット11により射出されたレーザ光を基にして、ステップ266の処理が実行されることで導出された本画像内照射位置を示す目印である。図25に示す例において、照射位置目印116Bは、下段測距ユニット13により射出されたレーザ光を基にして、ステップ266の処理が実行されることで導出された本画像内照射位置を示す目印である。
 また、本ステップ268の処理が実行されると、一例として図25に示すように、単位段測距ユニット毎の距離が表示部86に表示される。ここで、単位段測距ユニット毎の距離は、上段測距ユニット11を用いて計測された距離と下段測距ユニット13を用いて計測された距離とに大別される。上段測距ユニット11を用いて計測された距離とは、上段測距ユニット11により射出されたレーザ光を基にして、ステップ262の処理が実行されることで計測された距離を指す。下段測距ユニット13を用いて計測された距離とは、下段測距ユニット13により射出されたレーザ光を基にして、ステップ262の処理が実行されることで計測された距離を指す。
 なお、図25に示す例では、「42351.2」との数値が上段測距ユニット11を用いて計測された距離に該当し、単位はミリメートルである。また、図25に示す例では、「4361.3」との数値が下段測距ユニット13を用いて計測された距離に該当し、単位はミリメートルである。
 ここで、ユーザは、表示部86に本画像、距離、及び照射位置目印116A,116Bを含む画面が表示されると、タッチパネル88を介して本画像の表示領域内で枠を指定する。
 そこで、次のステップ270で、導出部100Bは、タッチパネル88を介して本画像の表示領域内で枠が正しく指定されたか否かを判定する。ここで、正しく指定された枠とは、一例として図25に示すように、本画像の表示領域内において照射位置目印116Aを内包する四角形状の枠117A、及び本画像の表示領域内において照射位置目印116Bを内包する四角形状の枠117Bを指す。
 一例として図25に示すように、枠117Aは、点119A,119B,119C,119Dの4点によって画定される。枠117Aによって囲まれた領域は、照射位置目印116Aから特定される本画像内照射位置に関連して指定された領域である。
 一例として図25に示すように、枠117Bは、点119E,119F,119G,119Hの4点によって画定される。枠117Bによって囲まれた領域は、照射位置目印116Bから特定される本画像内照射位置に関連して指定された領域である。
 ステップ270において、タッチパネル88を介して本画像の表示領域内で枠が正しく指定されていない場合は、判定が否定されて、ステップ272へ移行する。ステップ270において、タッチパネル88を介して本画像の表示領域内で枠が正しく指定された場合は、判定が肯定されて、ステップ274へ移行する。
 ステップ272で、導出部100Bは、本計測処理を終了する条件である前述の終了条件を満足したか否かを判定する。ステップ272において、終了条件を満足していない場合は、判定が否定されて、ステップ270へ移行する。ステップ272において、終了条件を満足した場合は、判定が肯定されて、本計測処理を終了する。
 ステップ274で、導出部100Bは、枠117A,117Bのうちの少なくとも一方の内側に四角形状の領域が存在するか否かを判定する。四角形状の領域とは、例えば、図25に示すように、台形状領域121A,121Bを指す。なお、オフィスビルの外壁部のうちの台形状領域121A,121Bに対応する部分の各々は、撮像レンズ50に対して正面視で正対している状態で撮像されると、本画像には長方形領域として表れる。
 ステップ274において、枠117A,117Bの何れの内側にも四角形状の領域が存在しない場合は、判定が否定されて、ステップ280へ移行する。ステップ274において、枠117A,117Bのうちの少なくとも一方の内側に四角形状の領域が存在する場合は、判定が肯定されて、ステップ276へ移行する。
 なお、以下では、説明の便宜上、枠117A,117Bを区別して説明する必要がない場合、枠117と称する。また、以下では、説明の便宜上、台形状領域121A,121Bを区別して説明する必要がない場合、台形状領域121と称する。
 ステップ276で、導出部100Bは、台形状領域121を内包する枠117によって囲まれている画像領域に対して前述の射影変換処理を実行し、その後、ステップ278へ移行する。
 すなわち、ステップ276で、先ず、導出部100Bは、枠117内に含まれる四角形状の領域に基づいて射影変換用の係数である射影変換係数を導出する。そして、導出部100Bは、導出した射影変換係数を用いて最新の本画像(ステップ262の処理で得られた本画像)に対して射影変換処理を実行し、その後、ステップ278へ移行する。本ステップ278の処理が実行されることで、最新の本画像は、上述の正対視画像に相当する画像に変換される。
 枠117Aに含まれる四角形状の領域は、台形状領域121Aであり、枠117Bに含まれる四角形状の領域は、台形状領域121Bである。従って、本ステップ278の処理が実行されると、台形状領域121Aに基づいて第1の射影変換係数が導出され、台形状領域121Bに基づいて第2の射影変換係数が導出される。
 そして、枠117Aによって囲まれた画像領域(例えば、枠117Aによって外縁が画定された四角形の画像領域)に対して第1の射影変換係数に基づいて射影変換処理が実行される。また、枠117Bによって囲まれた画像領域(例えば、枠117Bによって外縁が画定された四角形の画像領域)に対して第2の射影変換係数に基づいて射影変換処理が実行される。
 なお、本ステップ276では、台形状領域121を内包しない枠117によって囲まれている画像領域に対しては、前述の射影変換処理が実行されない。また、以下では、説明の便宜上、枠117Aが台形状領域121Aを内包しており、かつ、枠117Bが台形状領域121Bを内包している状態で本ステップ276の処理が実行されることを前提として説明する。
 ステップ278で、導出部100Bは、ステップ276で射影変換処理が実行されることで得られた射影変換後画像123A,123Bを表示部86に表示させる。
 射影変換後画像123Aとは、例えば、枠117Aによって囲まれた画像領域に対応する部分が撮像レンズ50に対して正面視で正対している状態で撮像されて得られた画像に相当する画像を指す。すなわち、射影変換後画像123Aは、台形状領域121Aに対して射影変換処理が実行されて得られた長方形領域123A1を含む画像である。
 射影変換後画像123Bとは、例えば、枠117Bによって囲まれた画像領域に対応する部分が撮像レンズ50に対して正面視で正対している状態で撮像されて得られた画像に相当する画像を指す。すなわち、射影変換後画像123Bは、台形状領域121Bに対して射影変換処理が実行されて得られた長方形領域123B1を含む画像である。
 なお、以下では、説明の便宜上、射影変換後画像123A,123Bを区別して説明する必要がない場合、符号を付さずに「射影変換後画像」と称する。
 ここで、ユーザは、表示部86に射影変換後画像を含む画面が表示されると、タッチパネル88を介して射影変換後画像の表示領域内で2点、すなわち、2つの画素を指定することで区域を指定する。ここで、指定される区域とは、2つの画素の間隔に対応する実空間上の区域を指す。
 そこで、次のステップ280で、導出部100Bは、指定された区域の長さの導出に用いる画像である区域長さ導出対象画像のうちの2つの画素が指定されたか否かを判定する。
 ここで、例えば、区域長さ導出対象画像とは、ステップ276,278の処理が実行された場合、射影変換後画像123A,123Bを指す。また、例えば、区域長さ導出対象画像とは、ステップ276,278の処理が実行されなかった場合、本画像のうちの枠117A,117Bの各々で囲まれた領域の画像を指す。
 なお、区域長さ導出対象画像のうちの指定された2つの画素は、以後、照射位置目印116から特定される本画像内照射位置に関連させた画素として取り扱われる。例えば、ステップ276,278の処理が実行された場合、射影変換後画像123Aのうちの指定された2つの画素は、以後、照射位置目印116Aから特定される本画像内照射位置に関連させた画素として取り扱われる。また、例えば、ステップ276,278の処理が実行されなかった場合、枠117Aで囲まれた領域の画像のうちの指定された2つの画素は、以後、照射位置目印116Aから特定される本画像内照射位置に関連させた画素として取り扱われる。
 ステップ280において、タッチパネル88を介して区域長さ導出対象画像のうちの2つの画素が指定されていない場合は、判定が否定されて、ステップ282へ移行する。ステップ280において、タッチパネル88を介して区域長さ導出対象画像のうちの2つの画素が指定された場合は、判定が肯定されて、ステップ284へ移行する。
 ステップ282で、導出部100Bは、本計測処理を終了する条件である前述の終了条件を満足したか否かを判定する。ステップ282において、終了条件を満足していない場合は、判定が否定されて、ステップ280へ移行する。ステップ282において、終了条件を満足した場合は、判定が肯定されて、本計測処理を終了する。
 ステップ284で、導出部100Bは、区域長さ導出対象画像毎に、ユーザによってタッチパネル88を介して指定された2つの画素の間隔に対応する区域の長さを、寸法導出機能を働かせて導出し、その後、ステップ286へ移行する。
 本ステップ284では、ユーザによってタッチパネル88を介して指定された2つの画素の間隔に対応する区域の長さが、数式(1)により導出される。なお、この場合、数式(1)のu1,u2(図11参照)は、ユーザによってタッチパネル88を介して指定された2つの画素のアドレスである。
 ステップ286で、出力部100Cは、要因・精度対応情報から特定の想定要因に対応付けられた導出精度を導出し、導出した導出精度に基づいて、導出部100Bにより導出された区域の長さの誤差を導出し、その後、ステップ288へ移行する。なお、区域の長さの誤差は、区域長さ導出対象画像毎に導出される。
 本ステップ286において、特定の想定要因とは、測距装置10Aに実際に存在する照射位置影響要因に相当する想定要因を指す。具体的には、特定の想定要因とは、要因・精度対応情報に含まれる想定要因のうちの、現時点で二次記憶部104に記憶されている要因情報に対応する想定要因と、要因・精度対応情報に含まれる想定要因のうちの製造ばらつきと、を指す。
 なお、現時点で二次記憶部104に要因情報が記憶されていない場合、特定の想定要因とは、要因・精度対応情報に含まれる想定要因のうちの製造ばらつきのみを指す。従って、測距装置10Aがデフォルトで稼動された場合、二次記憶部104には要因情報が記憶されていないため、ステップ244又はステップ286の処理が実行されることで、製造ばらつきに関する想定要因に基づく誤差が導出される。そして、ステップ246又は後述のステップ288の処理が実行されることで、製造ばらつきに関する想定要因に基づく誤差が表示部86に表示される。
 本ステップ286でも、ステップ244と同様に、要因・精度対応情報から複数の導出精度が導出された場合、複数の導出精度が総合化され、総合化された導出精度に基づいて区域の長さの誤差が導出される。また、例えば、特定の想定要因が製造ばらつきのみの場合、導出精度λに基づいて区域の長さの誤差が導出される。すなわち、測距装置10Aの出荷後に初めて測距装置10Aを稼働させて本計測処理が実行されると、導出精度λに基づいて区域の長さの誤差が導出されることになる。
 なお、本ステップ286でも、ステップ244と同様に、数式(6)に基づいて複数の導出精度が総合化される。また、本ステップ286では、誤差が、例えば、導出精度及び区域の長さと誤差とが予め対応付けられた長さ誤差テーブル(図示省略)に基づいて導出されるが、本開示の技術はこれに限定されるものではない。誤差は、例えば、導出精度及び区域の長さを独立変数とし、誤差を従属変数とする演算式に基づいて導出されてもよい。
 ステップ288で、出力部100Cは、一例として図27に示すように、画像、区域の長さ、誤差、及び双方向矢印125A,125Bを表示部86に表示させ、その後、ステップ248へ移行する。
 本ステップ288の処理が実行されることで表示部86に表示される画像は、本画像又は射影変換後画像123である。すなわち、ステップ276の処理が実行された場合のみ射影変換後画像123が表示され、それ以外の場合は、ステップ262で本撮像されて得られた本画像が表示部86に表示される。
 また、本ステップ288の処理が実行されることで表示部86に表示される区域の長さは、ステップ284の処理が実行されることで導出された区域の長さである。なお、図27に示す例では、「52」との数値及び「15」との数値が区域の長さに該当し、単位はミリメートルである。
 また、本ステップ288の処理が実行されることで表示部86に表示される誤差は、ステップ286の処理が実行されることで導出された誤差である。なお、図27に示す例では、「±1」との数値及び「±3」との数値が誤差に該当し、単位はミリメートルである。
 更に、本ステップ288の処理が実行されることで表示部86に表示される双方向矢印125A,125Bの各々は、ユーザによってタッチパネル88を介して指定された2つの画素間を特定する矢印である。
 次に、表示部86にライブビュー画像が表示されている状態で照射位置調整ボタン90Gが押下された場合にCPU100が照射位置調整プログラム108を実行することで実現される照射位置調整処理について図28を参照して説明する。
 なお、以下では、説明の便宜上、上段測距ユニット11を回転させる場合を例に挙げて説明するが、下段測距ユニット13を回転させる場合についても同様に行われる。また、以下では、説明の便宜上、表示部86にライブビュー画像が特定のフレームレートで表示されている場合について説明する。
 図28に示す照射位置調整処理では、先ず、ステップ300で、制御部100Aは、既定時期が到来したか否かを判定する。ここで、既定時期とは、例えば、ライブビュー画像が3フレーム表示される毎の時期を指す。なお、既定時期は、ライブビュー画像が3フレーム表示される毎の時期に限定されるものではなく、ライブビュー画像が他のフレーム数で表示される毎の時期であってもよいし、3秒又は5秒等の予め定められた時間で規定されてもよい。また、既定時期は、タッチパネル88等を介して受け付けられた指示に従って予め定められた時期であってもよい。
 ステップ300において、既定時期が到来した場合は、判定が肯定されて、ステップ302へ移行する。ステップ300において、既定時期が到来していない場合は、判定が否定されて、ステップ316へ移行する。
 ステップ302で、制御部100Aは、測距制御部68を制御することで、距離の計測を実行する。また、制御部100Aは、撮像素子ドライバ74及び画像信号処理回路76を制御することで、撮像を実行し、その後、ステップ304へ移行する。
 ステップ304で、制御部100Aは、最新の因子に基づいてライブビュー画像内照射位置を導出部100Bに導出させ、その後、ステップ306へ移行する。最新の因子とは、例えば、本ステップ304の処理が実行される前に最後に導出された画像内照射位置がステップ242(図18参照)の処理が実行されることで導出された本画像内照射位置の場合、本画像内照射位置の導出で用いられた因子を指す。また、最新の因子とは、例えば、前回のステップ304の処理の実行後に後述のステップ312の処理が実行された場合、最新のライブビュー画像内照射位置の導出で用いられた因子のうちの射出角度β以外の因子と、ステップ312で更新された射出角度βとを指す。
 本ステップ304では、例えば、前述した数式(2)~(4)によりライブビュー画像内照射位置が導出される。すなわち、最新の因子が数式(2)~(4)に代入され、ステップ302で計測が実行されて得られた距離が距離Dとして数式(2)~(4)に代入される。これにより、「照射位置の行方向画素」がライブビュー画像内照射位置として導出される。
 ここで、一例として図29~図31に示すように、制御部100Aは、ライブビュー画像の表示領域内に、本ステップ304の処理が実行されることで導出されたライブビュー画像内照射位置を示す目印である照射位置目印116Aを表示させる制御を表示部86に行う。これにより、測距装置10Aは、照射位置目印116Aが表示されない場合に比べ、ユーザに対して最新のライブビュー画像内照射位置を容易に把握させることができる。なお、図29~図31に示す例では、下段測距ユニット13により射出されたレーザ光を基に導出されたライブビュー画像内照射位置を示す目印である照射位置目印116Bも表示部86に表示されている。
 ステップ306で、制御部100Aは、ステップ304の処理が実行されることで導出部100Bによって導出されたライブビュー画像内照射位置が既定範囲内か否かを判定する。ここで、既定範囲内とは、一例として図30に示すように、予め定められた大きさの長方形状の枠127の内側を指す。枠127は、図30に示す形状及び位置に限定されるものではなく、枠127は、撮像画像の表示領域内における特定の一部の領域を囲む枠であればよい。なお、本実施形態では、枠127が撮像画像の表示領域内に表示されるが、これに限定されるものではなく、枠127は表示されなくてもよい。また、表示部86による枠127の表示及び非表示は、タッチパネル88等を介して受け付けられた指示に従って制御部100Aによって選択的に切り替えられるようにしてもよい。
 ステップ306において、ライブビュー画像内照射位置が既定範囲外の場合は、判定が否定されて、ステップ308へ移行する。なお、本ステップ306では、一例として図30に示すように、照射位置目印116A,116Bの両方が枠127の外側に位置する場合、ライブビュー画像内照射位置が既定範囲外であると判定される。また、本ステップ306では、照射位置目印116A,116Bの少なくとも一方が枠127の内側に位置する場合、ライブビュー画像内照射位置が既定範囲内であると判定される。
 ステップ308で、制御部100Aは、表示部86に対して既定範囲外情報をライブビュー画像に重畳して表示させ、その後、ステップ310へ移行する。ここで、既定範囲外情報とは、ステップ304の処理が実行されることで導出部100Bによって導出されたライブビュー画像内照射位置が既定範囲外であることを示す情報を指す。
 既定範囲外情報としては、一例として図30に示すように、表示部86に表示される「レーザ光の照射位置が既定範囲外です。」とのメッセージ129が挙げられるが、これはあくまでも一例である。その他には、例えば、枠127が表示されている場合、「レーザ光が枠内に照射されていません。」とのメッセージが既定範囲外情報として表示部86に表示されるようにしてもよい。また、例えば、表示部86による可視表示に限らず、音声再生装置(図示省略)での音声の出力による可聴表示が行われるようにしてもよい。また、画像形成装置(図示省略)による永久可視表示が行われるようにしてもよいし、可視表示、可聴表示、及び永久可視表示のうちの少なくとも2つを組み合わせてもよい。
 このように、本ステップ308の処理が実行されることで、既定範囲外情報が表示部86によって表示され、これにより、ライブビュー画像内照射位置が既定範囲外であることがユーザに報知される。
 ステップ310で、制御部100Aは、回転機構をモータドライバ23を介して制御することで、上段測距ユニット11を既定方向に向かって既定回転量だけ回転させ、その後、ステップ312へ移行する。
 ここで、既定回転量とは、例えば、一定の回転量を意味する。既定回転量の一例としては、例えば、射出角度βを予め定められた角度(例えば、3度)だけ変更するのに要する回転量が挙げられる。
 また、既定方向とは、ステップ304の処理が実行されることで導出部100Bによって導出されたライブビュー画像内照射位置と、枠127を横切る基準直線133(図29参照)との距離が縮まる方向を指す。基準直線133は、単位段測距ユニット毎に設けられており、単位段測距ユニット毎の基準直線は、枠127内において、射出部22のレーザ光の光軸と、射出部30のレーザ光の光軸との高さ方向のずれ分に対応する距離だけ離れた位置に設定されている。
 基準直線133は、基準直線133A,133Bに大別される。基準直線133Aは、上段測距ユニット11に対して用いられる直線であり、基準直線133Bは、下段測距ユニット13に対して用いられる直線である。
 そのため、本実施形態において、既定方向は、ステップ304の処理が実行されることで導出部100Bによって導出されたライブビュー画像内照射位置と、上段測距ユニット11に対応する基準直線133Aとの位置関係から一意に定まる。
 ステップ312で、制御部100Aは、ステップ310の処理が実行されることで回転された上段測距ユニット11の回転方向及び回転量に従って射出角度βを更新し、その後、ステップ300へ移行する。
 一方、ステップ306において、ライブビュー画像内照射位置が既定範囲内の場合は、判定が肯定されて、ステップ314へ移行する。
 ステップ314で、制御部100Aは、表示部86に対して既定範囲内情報をライブビュー画像に重畳して表示させ、その後、ステップ316へ移行する。ここで、既定範囲内情報とは、ステップ304の処理が実行されることで導出部100Bによって導出されたライブビュー画像内照射位置が既定範囲内であることを示す情報を指す。
 既定範囲内情報としては、一例として図31に示すように、表示部86に表示される「レーザ光の照射位置が既定範囲内です。」とのメッセージ131が挙げられるが、これはあくまでも一例である。その他には、例えば、枠127が表示されている場合、「レーザ光が枠内に照射されています。」とのメッセージが既定範囲内情報として表示部86に表示されるようにしてもよい。また、例えば、表示部86による可視表示に限らず、音声再生装置(図示省略)での音声の出力による可聴表示が行われるようにしてもよい。また、画像形成装置(図示省略)による永久可視表示が行われるようにしてもよいし、可視表示、可聴表示、及び永久可視表示のうちの少なくとも2つを組み合わせてもよい。
 このように、本ステップ314の処理が実行されることで、既定範囲内情報が表示部86によって表示され、これにより、ライブビュー画像内照射位置が既定範囲内であることがユーザに報知される。
 ステップ316で、制御部100Aは、本照射位置調整処理を終了する条件である終了条件を満足したか否かを判定する。本照射位置調整処理において、終了条件とは、例えば、照射位置調整ボタン90Gが再び押下されたとの条件、及び/又は、本照射位置調整処理の実行が開始されてから予め定められた時間(例えば、1分)が経過したとの条件等を指す。
 ステップ316において、終了条件を満足していない場合は、判定が否定されて、ステップ300へ移行する。ステップ316において、終了条件を満足した場合は、判定が肯定されて、本照射位置調整処理を終了する。
 以上説明したように、測距装置10Aでは、測距ユニット12により複数本のレーザ光が照射される。また、制御部100Aにより、複数本のレーザ光の各々による実空間照射位置が収まる画角で撮像装置14に対して撮像を行わせる制御が行われる(ステップ262)。また、導出部100Bにより、実空間照射位置に対応する位置として本画像内照射位置が導出される(ステップ266)。そして、本画像内照射位置毎に区域長さ導出対象画像に関連させた2つの画素の間隔に対応する区域の長さが、測距系機能を働かせて計測された距離、指定された2つの画素の間隔、及び撮像装置14での焦点距離に基づいて導出される(ステップ284)。従って、測距装置10Aによれば、撮像及び測距が1回行われる毎に区域が1つのみ指定される場合に比べ、複数の区域の長さを迅速に導出することができる。
 また、測距装置10Aでは、単位段測距ユニット毎にレーザ光の向きが変更可能とされている。従って、測距装置10Aによれば、複数本のレーザ光の各々の照射位置を容易に変更することができる。
 また、測距装置10Aでは、単位段測距ユニット毎に位置・距離対応情報が生成され(ステップ254J)、生成された位置・距離対応情報に基づいて本画像内照射位置が単位段測距ユニット毎に導出される(ステップ264,266)。従って、測距装置10Aによれば、位置・距離対応情報を生成することなく本画像内照射位置を単位段測距ユニット毎に導出する場合に比べ、単位段測距ユニットの各々に関する本画像内照射位置を高精度に導出することができる。
 また、測距装置10Aでは、区域長さ導出対象画像に関連させた2つの画素の間隔に対応する区域の長さが、測距系機能を働かせて計測された距離、指定された2つの画素の間隔、及び撮像装置14での焦点距離に基づいて導出される。また、出力部100Cにより、位置・距離対応情報に基づいて、測距装置10Aに実際に存在する照射位置影響要因としての想定要因に対応する導出精度が導出され、導出された導出精度に基づいて、区域の長さの誤差が導出される(ステップ286)。そして、出力部100Cにより、導出された誤差が表示部86に表示される(ステップ288)。従って、測距装置10Aによれば、照射位置影響要因が実際に存在するにも拘らず、区域の長さの誤差が表示されない場合に比べ、区域の長さの誤差をユーザに容易に把握させることができる。
 また、測距装置10Aでは、異なる想定要因の各々に対して異なる導出精度が対応付けられた要因・精度対応情報が要因・精度テーブル111に格納されている。そして、出力部100Cにより、測距装置10Aに実際に存在する照射位置影響要因に対応する想定要因に対応付けられた導出精度が要因・精度対応情報から導出される(ステップ286)。従って、測距装置10Aによれば、単一の想定要因のみに対して導出精度が対応付けられている場合に比べ、導出精度を精度良く導出することができる。
 また、測距装置10Aでは、実際に照射位置影響要因が複数存在する場合、測距装置10Aに実際に存在する複数の照射位置影響要因の各々に対応する想定要因に対応付けられた導出精度が総合化されて導出される(ステップ286)。従って、測距装置10Aによれば、測距装置10Aに実際に存在する複数の照射位置影響要因の各々に対応する想定要因に対応付けられた各導出精度が個別に導出される場合に比べ、導出精度の簡便な取り扱いを実現することができる。
 また、測距装置10Aでは、多項式である数式(6)により導出精度が総合化される。従って、測距装置10Aによれば、単項式を用いる場合に比べ、導出精度を容易に総合化することができる。
 また、測距装置10Aでは、照射位置影響要因がレンズ交換、測距ユニット交換、画角変更、射出方向の変更、及び製造ばらつき、とされている。従って、測距装置10Aによれば、レンズ交換、測距ユニット交換、画角変更、射出方向の変更、及び製造ばらつきの何れも照射位置影響要因とされていない場合に比べ、適用した要因の影響を考慮した導出精度を導出することができる。
 また、測距装置10Aでは、測距装置10Aの出荷前の段階で要因・精度対応情報が要因・精度テーブル111に格納されている。従って、測距装置10Aによれば、測距装置10Aの出荷後に要因・精度対応情報を作成して要因・精度テーブル111に格納する場合に比べ、導出精度を迅速に導出することができる。
 また、測距装置10Aでは、出力部100Cにより導出された誤差が閾値を超えている場合に照射位置調整推奨画面110が表示部86に表示されることで警報が発せられる(ステップ248,250)。従って、測距装置10Aによれば、誤差が閾値を超えているにも拘らず警報を発しない場合に比べ、誤差が閾値を超えていることをユーザに容易に認識させることができる。
 また、測距装置10Aでは、ライブビュー画像内照射位置が撮像画像内の既定範囲外の場合に(ステップ306:N)、ライブビュー画像内照射位置が枠127内に入るまで、測距制御部68による計測が実行される(ステップ302)。そして、測距制御部68により計測された距離、及び最新の射出角度β等を含む最新の因子に基づいてライブビュー画像内照射位置が導出される(ステップ304)。従って、測距装置10Aによれば、ライブビュー画像内照射位置を枠127内に入れた状態で測距を行うことができる。
 また、測距装置10Aでは、ライブビュー画像内照射位置が撮像画像内の既定範囲外の場合に、ライブビュー画像内照射位置が枠127内に入るまで、測距制御部68による計測が実行され、モータ11B,13B,17を駆動させることで回転機構により射出角度βが変更される。そして、測距制御部68により計測された距離、及び最新の射出角度β等を含む最新の因子に基づいてライブビュー画像内照射位置が導出される。従って、測距装置10Aによれば、モータ11B,13B,17及び回転機構を用いずに射出角度βが変更される場合に比べ、ライブビュー画像内照射位置を枠127内に入れるのに要する手間を軽減することができる。
 また、測距装置10Aでは、本画像内照射位置毎に、照射位置目印116を内包する枠117が指定される。また、枠117毎に、枠117の内側で2つの画素がタッチパネル88を介してユーザによって指定される。そして、導出部100Bにより、枠117内の本画像内照射位置に関して本計測された距離と、指定された2つの画素の間隔と、焦点距離とに基づいて、指定された2つの画素の間隔に対応する区域の長さが導出される(ステップ284)。従って、測距装置10Aによれば、照射位置目印116を内包する枠117が指定されない場合に比べ、複数本のレーザ光のうちのユーザが区域の長さの導出に利用したいレーザ光を基に計測された距離に基づく区域の長さの導出を簡易な構成で実現することができる。
 また、測距装置10Aでは、測距ユニット12により2本のレーザ光が射出される。一方のレーザ光は、撮影方向に対して前後して立設されたオフィスビルの一方の正面側の外壁部に照射され、他方のレーザ光は、撮影方向に対して前後して立設されたオフィスビルの他方の正面側の外壁部に照射される(例えば、図21及び図29~図31参照)。そして、測距制御部68により、各レーザ光を基に距離が計測され、計測された距離毎に、導出部100Bにより、ユーザによって指定された区域の長さが導出される(ステップ284)。従って、測距装置10Aによれば、1本のレーザ光のみがオフィスビルに射出される場合に比べ、2つのオフィスビルを対象として異なる区域の長さを容易に導出することができる。
 なお、上記第1実施形態では、枠127の位置が固定化されている場合について説明したが、本開示の技術はこれに限定されるものではない。例えば、枠127の位置は、タッチパネル88等を介して受け付けられた指示に従って変更されるようにしてもよい。更に、枠127の大きさは、固定化されていてもよいが、例えば、タッチパネル88等を介して受け付けられた指示に従って変更されるようにしてもよい。
 また、上記第1実施形態では、枠127は長方形状とされているが、本開示の技術はこれに限定されるものではなく、例えば、閉じられた領域を形成する楕円形状、四角形状又は三角形状等の他の形状の枠であってもよい。
 また、上記第1実施形態では、単位段測距ユニットの回転に伴って射出角度βが更新される場合を例示したが、本開示の技術はこれに限定されるものではなく、射出角度βと共に基準点間距離dも更新されるようにしてもよい。基準点間距離dも更新された場合は、例えば、図28に示すステップ304にて、更新された基準点間距離dを含めた最新の因子に基づいて本画像内照射位置及び/又はライブビュー画像内照射位置が導出されるようにしてもよい。
 また、上記第1実施形態では、出力部100Cにより要因・精度対応情報に基づいて導出精度が導出される場合を例示したが、本開示の技術はこれに限定されるものではない。例えば、想定要因を独立変数とし、導出精度を従属変数とする演算式に基づいて導出精度が導出されるようにしてもよい。このように、想定要因と導出精度との対応関係が規定された要因・精度対応情報又は演算式に基づいて、出力部100Cにより導出精度が出力されるようにすればよい。
 また、上記第1実施形態では、出力部100Cにより導出された導出精度に基づいて誤差が本開示の技術に係る「導出精度に基づく情報」の一例として導出され、導出された誤差が表示部86に表示される場合を例示したが、本開示の技術はこれに限定されるものではない。例えば、本開示の技術に係る「導出精度に基づく情報」の一例として出力部100Cにより導出された導出精度そのものを表示部86に表示されるようにしてもよい。また、例えば、本開示の技術に係る「導出精度に基づく情報」の一例として各々導出された導出精度及び誤差の両方が表示部86に表示されるようにしてもよい。
 また、上記第1実施形態では、測距装置10Aの出荷前に要因・精度テーブル111が二次記憶部104に予め記憶されている場合を例示したが、本開示の技術はこれに限定されるものではない。すなわち、要因・精度テーブル111は、出力部100Cが初めて稼働するまでに二次記憶部104に記憶されていればよい。例えば、測距装置10Aの出荷後、出力部100Cが初めて稼働するまでに要因・精度テーブル111がダウンロードされるようにしてもよい。
 また、上記第1実施形態では、要因・精度テーブル111に格納されている要因・精度対応情報が固定化されている場合について説明したが、本開示の技術はこれに限定されるものではない。例えば、測距装置10Aの出荷後に、タッチパネル88を介して受け付けられた指示に応じて要因・精度対応情報が書き換えられるようにしてもよい。
 また、上記第1実施形態では、出力部100Cが多項式を用いて複数の導出精度を総合化したが、本開示の技術はこれに限定されるものではなく、出力部100Cが多項式と同様の出力が得られる総合化テーブル(図示省略)を用いて複数の導出精度を総合化してもよい。
 また、上記第1実施形態では、区域の長さが導出される場合を例示したが、本開示の技術はこれに限定されるものではなく、ユーザによって指定された複数画素により画定される画像領域に対応する実空間領域の面積が、寸法導出機能によって導出されるようにしてもよい。なお、ここで、「指定された複数画素により画定される画像領域」とは、例えば、指定された3つ以上の画素によって取り囲まれた画像領域を指す。
 また、上記第1実施形態では、オフィスビルの外壁部が撮像レンズ50に対して正面視で正対していない状態で測距装置10Aによって撮像されることを前提として説明したが、本開示の技術はこれに限定されるものではない。すなわち、オフィスビルの外壁部が撮像レンズ50に対して正面視で正対している状態で測距装置10Aによって撮像されるようにしてもよい。この場合、計測処理に含まれるステップ276,278の処理を省略することができる。
 また、上記第1実施形態では、別体のオフィスビル(離れた位置に建てられたオフィスビル)を例示し、各オフィスビルに対してレーザ光が照射される場合について説明したが、本開示の技術はこれに限定されるものではない。例えば、1つのオフィスビルに対して複数本のレーザ光が照射されてもよい。また、1つのオフィスビルのうち、位置及び向きの少なくとも一方が異なる平面状領域(例えば、外壁面)の各々に対してレーザ光が照射されるようにしてもよい。
 また、上記第1実施形態では、製造ばらつきに基づく誤差が表示部86に表示される場合を例示したが、本開示の技術はこれに限定されるものではなく、製造ばらつきの誤差が表示部86に表示されなくてもよい。
 また、上記第1実施形態では、要因・精度対応情報に、画角変更、レンズ交換、測距ユニット交換、射出方向の変更、及び製造ばらつきが含まれる例を挙げて説明したが本開示の技術はこれに限定されるものではない。例えば、製造ばらつきは、要因・精度対応情報に含まれていなくてもよい。このように、要因・精度対応情報は、画角変更、レンズ交換、測距ユニット交換、射出方向の変更、及び製造ばらつきのうちの少なくとも1つを削除した形態としてもよい。
 また、上記第1実施形態では、照射位置目印116が表示される場合を例示したが、本開示の技術はこれに限定されるものではなく、ステップ240,264の処理が実行されることで導出された因子も表示されるようにしてもよい。
 また、上記第1実施形態では、半画角α、射出角度β、及び基準点間距離dの3つの因子が不確定の因子であることを前提としていたので、仮計測及び仮撮像が3回実行される場合を例示したが、本開示の技術はこれに限定されるものではない。半画角α、射出角度β、及び基準点間距離dの3つの因子が不確定の因子であったとしても、仮計測及び仮撮像が4回以上実行されるようにしてもよく、仮計測及び仮撮像の実行回数が多いほど精度も高くなる。また、不確定の因子が2つの場合は、仮計測及び仮撮像が少なくとも2回実行され、不確定の因子が1つの場合は、仮計測及び仮撮像が少なくとも1回実行されるようにすればよい。
 また、上記第1実施形態では、照射位置影響要因として、レンズ交換、測距ユニット交換、画角変更、射出方向の変更、及び製造ばらつきを例示したが、本開示の技術はこれに限定されるものではなく、これらのうちの少なくとも1つが照射位置影響要因であればよい。また、例えば、前回の因子の導出から予め定められた期間(例えば、30日)が経過したことを照射位置影響要因としてもよい。また、温度及び湿度のうちの少なくとも一方の変化量の絶対値が基準値を超えたことを照射位置影響要因としてもよい。また、測距ユニット12若しくは撮像装置14の特定の構成部材が交換されたこと、又は、特定の構成部材が除去されたことを照射位置影響要因としてもよい。
 また、照射位置影響要因が発生したことを検知する検知部が測距装置10Aに設けられてもよいし、照射位置影響要因が発生したことを示す情報がユーザによってタッチパネル88を介して入力されるようにしてもよい。また、複数の照射位置影響要因が発生したことを検知する検知部が測距装置10Aに設けられてもよいし、複数の照射位置影響要因が発生したことを示す情報がユーザによってタッチパネル88を介して入力されるようにしてもよい。
 また、上記第1実施形態では、測距制御部68が撮像装置本体18に内蔵されている場合について説明したが、測距制御部68は、撮像装置本体18ではなく、測距ユニット12に内蔵されていてもよい。この場合、主制御部62の制御下で、測距ユニット12に内蔵されている測距制御部68によって測距ユニット12の全体が制御されるようにすればよい。
 [第2実施形態]
 上記第1実施形態では、前後して計測された距離の相違度に拘わらずライブビュー画像内照射位置が導出される場合について説明したが、本第2実施形態では、前後して計測された距離の相違度に応じてライブビュー画像内照射位置の導出の要否が決められる場合について説明する。なお、本第2実施形態では、上記第1実施形態で説明した構成要素と同一の構成要素については同一の符号を付して、その説明を省略し、上記第1実施形態と異なる部分のみを説明する。
 本第2実施形態に係る測距装置10B(図1及び図5参照)は、測距装置10Aに比べ、二次記憶部104に照射位置調整プログラム108に代えて照射位置調整プログラム132が記憶されている点が異なる(図10参照)。
 本第2実施形態に係る測距装置10Bは、測距装置10Aに比べ、図28に示す照射位置調整処理に代えて図32に示す照射位置調整処理が実行される点が異なる。
 次に、測距装置10Bの作用として、CPU100が照射位置調整プログラム132を実行することで実現される照射位置調整処理について図32を参照して説明する。なお、図28に示すフローチャートと同一のステップについては、同一のステップ番号を付して、その説明を省略する。また、以下では、説明の便宜上、上記第1実施形態で説明した測距処理のステップ242又はステップ266の処理が既に実行されていることを前提として説明する。
 図32に示す照射位置調整処理は、図28に示す照射位置調整処理に比べ、ステップ302とステップ304との間にステップ303を有する点が異なる。
 ステップ303で、制御部100Aは、距離相違度を導出し、導出した距離相違度が閾値を超えているか否かを判定する。ステップ304の処理が既に実行された場合、距離相違度とは、導出部100Bによるライブビュー画像内照射位置の前回の導出に用いられた距離とステップ302の処理が実行されることで計測された最新の距離との相違度を指す。
 なお、本ステップ303では、ステップ304の処理が既に実行された場合、距離相違度の一例として、導出部100Bによるライブビュー画像内照射位置の前回の導出に用いられた距離とステップ302の処理が実行されることで計測された最新の距離との差の絶対値が採用されている。
 また、ステップ304の処理が未だに実行されていない場合、距離相違度とは、例えば、導出部100Bによる本画像内照射位置の導出に用いられた距離とステップ302の処理が実行されることで計測された最新の距離との相違度を指す。
 なお、本ステップ303では、ステップ304の処理が未だに実行されていない場合、距離相違度の一例として、導出部100Bによる本画像内照射位置の導出に用いられた距離とステップ302の処理が実行されることで計測された最新の距離との差の絶対値が採用されている。
 ここでは、距離相違度の一例として、差の絶対値を採用しているが、本開示の技術はこれに限定されるものではない。例えば、ステップ304の処理が未だに実行されていない場合、導出部100Bによる本画像内照射位置の導出に用いられる距離に対する、ステップ302の処理が実行されることで計測された最新の距離の割合が距離相違度として用いられてもよい。また、例えば、導出部100Bによるライブビュー画像内照射位置の前回の導出に用いられた距離に対する、ステップ302の処理が実行されることで計測された最新の距離の割合が距離相違度として用いられてもよい。
 ステップ303において、距離相違度が閾値を超えている場合は、判定が肯定されて、ステップ304へ移行する。ステップ303において、距離相違度が閾値以下の場合は、判定が否定されて、ステップ300へ移行する。
 以上説明したように、測距装置10Bでは、ステップ300の処理が実行されることで断続的に距離の計測が行われる(ステップ302)。そして、最新の距離相違度が閾値以上の場合に(ステップ303:Y)、ステップ304以降の処理が実行される。
 従って、測距装置10Bによれば、距離相違度が閾値以上の場合にステップ304以降の処理が実行されない場合に比べ、ライブビュー画像内照射位置を枠127内に維持し易くすることができる。
 [第3実施形態]
 上記第2実施形態では、既定時期が到来したことを条件にライブビュー画像内照射位置の調整が可能になる場合について説明したが、本第3実施形態では、レリーズボタンが半押しされたことを条件にライブビュー画像内照射位置の調整が可能になる場合について説明する。なお、本第3実施形態では、上記第1及び第2実施形態で説明した構成要素と同一の構成要素については同一の符号を付して、その説明を省略し、上記第1及び第2実施形態と異なる部分のみを説明する。
 本第3実施形態に係る測距装置10Cは、測距装置10Bに比べ、二次記憶部104に照射位置調整プログラム132に代えて照射位置調整プログラム134が記憶されている点が異なる(図10参照)。
 本第3実施形態に係る測距装置10C(図1及び図5参照)は、測距装置10Bに比べ、図32に示す照射位置調整処理に代えて図33に示す照射位置調整処理が実行される点が異なる。
 次に、測距装置10Cの作用として、CPU100が照射位置調整プログラム134を実行することで実現される照射位置調整処理について図33を参照して説明する。なお、図32に示すフローチャートと同一のステップについては、同一のステップ番号を付して、その説明を省略する。
 図33に示す照射位置調整処理は、図32に示す照射位置調整処理に比べ、ステップ300に代えてステップ350を有する点が異なる。
 ステップ350で、制御部100Aは、レリーズボタンが半押し状態か否かを判定する。ステップ350において、レリーズボタンが半押し状態の場合は、判定が肯定されて、ステップ302へ移行する。ステップ350において、レリーズボタンが半押し状態でない場合は、判定が否定されて、ステップ316へ移行する。
 以上説明したように、測距装置10Cでは、レリーズボタンが半押し状態とされた場合に(ステップ350:Y)、ステップ302以降の処理が実行される。
 従って、測距装置10Cによれば、レリーズボタンが半押し状態とされた場合にステップ302以降の処理が実行されない場合に比べ、本露光の際にライブビュー画像内照射位置が枠127内に入っていない状態になることを抑制することができる。
 [第4実施形態]
 上記第1~第3実施形態では、モータ11B,13B,17により生成される動力により回転機構を作動させることで単位段測距ユニットを回転させる場合について説明したが、本第4実施形態では、単位段測距ユニットを手動で回転させる場合について説明する。なお、本第4実施形態では、上記第1~第3実施形態で説明した構成要素と同一の構成要素については同一の符号を付して、その説明を省略し、上記第1~第3実施形態と異なる部分のみを説明する。
 一例として図34に示すように、本第4実施形態に係る測距装置10Dは、測距装置10Cに比べ、撮像装置14に代えて撮像装置139を有する点が異なる。また、撮像装置139は、撮像装置14に比べ、撮像装置本体18に代えて撮像装置本体180を有する点が異なる。撮像装置本体180は、撮像装置本体18に比べ、モータ17及びモータドライバ25に代えてロータリエンコーダ181を有する点が異なる。撮像装置本体180は、撮像装置本体18に比べ、モータドライバ21,23を有しない点が異なる。
 また、本第4実施形態に係る測距装置10Dは、測距装置10Cに比べ、受付デバイス90に代えて受付デバイス182を有する点が異なる。受付デバイス182は、受付デバイス90に比べ、上段用ロータリスイッチ90H、下段用ロータリスイッチ90I、及び縦回転用ロータリスイッチ90Jを有しない点が異なる。
 また、本第4実施形態に係る測距装置10Dは、測距装置10Cに比べ、測距ユニット12に代えて測距ユニット183を有する点が異なる。測距ユニット183は、測距ユニット12に比べ、上段測距ユニット11に代えて上段測距ユニット184を有する点、及び下段測距ユニット13に代えて下段測距ユニット185を有する点が異なる。なお、本第4実施形態では、上段測距ユニット184及び下段測距ユニット185を区別して説明する必要がない場合、「単位段測距ユニット」と称する。
 一例として図35に示すように、上段測距ユニット184は、上段測距ユニット11に比べ、モータ11Bに代えてロータリエンコーダ187を有する点が異なる。下段測距ユニット185は、下段測距ユニット13に比べ、モータ13Bに代えてロータリエンコーダ186を有する点が異なる。
 ロータリエンコーダ181は、縦回転機構15及びバスライン84に接続されており、縦回転機構15により回転されるホットシュー20の回転方向及び回転量を検出する。主制御部62は、ロータリエンコーダ181により検出された回転方向及び回転量を取得する。
 ロータリエンコーダ187は、上段用横回転機構11Aに接続されている。また、ロータリエンコーダ187は、信号線28Cを介してコネクタ26に接続されており、上段用横回転機構11Aにより回転される上段測距ユニット184の回転方向及び回転量を検出する。主制御部62は、ロータリエンコーダ187により検出された回転方向及び回転量を取得する。
 ロータリエンコーダ186は、下段用横回転機構13Aに接続されている。また、ロータリエンコーダ186は、信号線28Fを介してコネクタ26に接続されており、下段用横回転機構13Aにより回転される下段測距ユニット185の回転方向及び回転量を検出する。主制御部62は、ロータリエンコーダ186により検出された回転方向及び回転量を取得する。
 また、本第4実施形態に係る測距装置10Dは、測距装置10Cに比べ、二次記憶部104に計測プログラム107に代えて計測プログラム136が記憶されている点が異なる(図10参照)。
 また、本第4実施形態に係る測距装置10Dは、測距装置10Cに比べ、二次記憶部104に照射位置調整プログラム134に代えて照射位置調整プログラム137が記憶されている点が異なる(図10参照)。
 また、本第4実施形態に係る測距装置10Dは、測距装置10Cに比べ、図16に示す計測処理に代えて図36に示す計測処理が実行される点が異なる。
 更に、本第4実施形態に係る測距装置10Dは、測距装置10Cに比べ、図33に示す照射位置調整処理に代えて図37に示す照射位置調整処理が実行される点が異なる。
 次に、測距装置10Dの作用として、CPU100が計測プログラム136を実行することで実現される計測処理について図36を参照して説明する。なお、図16に示すフローチャートと同一のステップについては、同一のステップ番号を付して、その説明を省略する。
 また、本第4実施形態では、説明の便宜上、現時点で設定されている画角に実空間照射位置が収まるように、上段測距ユニット184の横方向の回転範囲、及び下段測距ユニット185の横方向の回転範囲が予め制限されていることを前提として説明する。また、本第4実施形態では、現時点で設定されている画角に実空間照射位置が収まるように、測距ユニット183の縦方向の回転範囲も予め制限されていることを前提として説明する。
 図36に示す計測処理は、図16に示す計測処理に比べ、ステップ222,226,230を有しない点が異なる。また、図36に示す計測処理は、図16に示す計測処理に比べ、ステップ220に代えてステップ360を有する点、ステップ224に代えてステップ362を有する点、及びステップ228に代えてステップ364を有する点が異なる。
 ステップ360で、制御部100Aは、上段測距ユニット184が回転されたか否かを判定する。ステップ360において、上段測距ユニット184が回転されていない場合は、判定が否定されて、ステップ362へ移行する。ステップ360において、上段測距ユニット184が回転された場合は、判定が肯定されて、ステップ366へ移行する。
 ステップ362で、制御部100Aは、下段測距ユニット185が回転されたか否かを判定する。ステップ362において、下段測距ユニット185が回転されていない場合は、判定が否定されて、ステップ364へ移行する。ステップ362において、下段測距ユニット185が回転された場合は、判定が肯定されて、ステップ366へ移行する。
 ステップ366で、制御部100Aは、単位段測距ユニットの回転方向及び回転量に従って、射出角度βを更新し、その後、ステップ316へ移行する。
 次に、測距装置10Dの作用として、CPU100が照射位置調整プログラム137を実行することで実現される照射位置調整処理について図37を参照して説明する。なお、図33に示すフローチャートと同一のステップについては、同一のステップ番号を付して、その説明を省略する。
 図37に示す照射位置調整処理は、図33に示す照射位置調整処理に比べ、ステップ310に代えてステップ370を有する点、及びステップ312に代えてステップ372を有する点が異なる。
 ステップ370で、制御部100Aは、単位段測距ユニットが回転されたか否かを判定する。ステップ370において、単位段測距ユニットが回転されていない場合は、判定が否定されて、ステップ316へ移行する。ステップ370において、単位段測距ユニットが回転された場合は、判定が肯定されて、ステップ372へ移行する。
 ステップ372で、制御部100Aは、単位段測距ユニットの回転方向及び回転量に応じて射出角度βを更新し、その後、ステップ350へ移行する。
 以上説明したように、測距装置10Dでは、単位段測距ユニットが手動で回転され、単位段測距ユニットの回転量及び回転方向を基に計測処理が実行される。
 また、測距装置10Dでは、単位段測距ユニットが手動で回転され、ライブビュー画像内照射位置が枠127外の場合に、ライブビュー画像内照射位置が枠127内に入るまで、測距制御部68により距離が計測される。そして、計測された距離と射出角度βとに基づいて導出部100Bによりライブビュー画像内照射位置が導出される。
 従って、測距装置10Dによれば、単位段測距ユニットを手動で回転させることができない場合に比べ、射出角度βの変更に対してユーザの意図を容易に反映させることができる。
 [第5実施形態]
 上記第1実施形態では、因子を導出し、導出した因子に基づいて本画像内照射位置を導出したが、本第5実施形態では、因子を導出せずに本画像内照射位置を導出する場合について説明する。なお、本第5実施形態では、上記第1実施形態で説明した構成要素と同一の構成要素については同一の符号を付して、その説明を省略し、上記第1実施形態と異なる部分のみを説明する。
 本第5実施形態に係る測距装置10E(図1及び図5参照)は、測距装置10Aに比べ、二次記憶部104に計測プログラム107に代えて計測プログラム138が記憶されている点が異なる(図10参照)。
 次に、測距装置10Eの作用として、測距装置10Eの電源スイッチがオン(投入)された場合にCPU100が計測プログラム138を実行することで実現される計測処理について図38及び図39を参照して説明する。なお、図17及び図18と同一のステップについては、同一のステップ番号を付して、その説明を省略する。
 図38に示すフローチャートは、図17に示すフローチャートに比べ、ステップ264,266に代えてステップ380を有する点が異なる。また、図38に示すフローチャートは、図17に示すフローチャートに比べ、ステップ268に代えてステップ382を有する点が異なる。
 図39に示すフローチャートは、図18に示すフローチャートに比べ、ステップ240,242に代えてステップ384を有する点が異なる。また、図39に示すフローチャートは、図18に示すフローチャートに比べ、ステップ246に代えてステップ386を有する点が異なる。
 図38に示すステップ380で、導出部100Bは、単位段測距ユニット毎に、位置・距離対応情報に基づいて本画像内照射位置を導出し、その後、ステップ382へ移行する。
 本ステップ380では、例えば、図40に示すように、単位段測距ユニット毎に、位置・距離対応情報について近似曲線Zが作成される。そして、単位段測距ユニット毎に、ステップ262で本計測が実行されて得られた距離に対応する本画像内照射位置が近似曲線Zから導出される。すなわち、本ステップ380では、本開示の技術に係る第1対応関係を示す情報の一例である位置・距離対応情報により規定された近似曲線Zと本計測が実行されて得られた距離との関係から本画像内照射位置が単位段測距ユニット毎に導出される。
 ステップ382で、導出部100Bは、一例として図25に示すように、単位段測距ユニット毎に、本画像、距離、及び照射位置目印116A、116Bを表示部86に表示させ、その後、ステップ270へ移行する。
 なお、本ステップ382の処理が実行されることで表示部86に表示される照射位置目印116A,116Bは、ステップ380の処理が実行されることで単位段測距ユニット毎に導出された本画像内照射位置を示す目印である。
 一方、図39に示すステップ384で、導出部100Bは、単位段測距ユニット毎に、位置・距離対応情報に基づいて本画像内照射位置を導出し、その後、ステップ244へ移行する。
 本ステップ384では、例えば、図40に示すように、位置・距離対応情報について近似曲線Zが作成される。そして、ステップ238で本計測が実行されて得られた距離に対応する本画像内照射位置が近似曲線Zから導出される。すなわち、本ステップ384では、本開示の技術に係る第1対応関係を示す情報の一例である位置・距離対応情報により規定された近似曲線Zと本計測が実行されて得られた距離との関係から本画像内照射位置が単位段測距ユニット毎に導出される。
 ステップ386で、導出部100Bは、一例として図21に示すように、本画像、距離、誤差、及び照射位置目印116A,116Bを表示部86に表示させ、その後、ステップ248へ移行する。
 なお、本ステップ386の処理が実行されることで表示部86に表示される照射位置目印116A,116Bは、ステップ384の処理が実行されることで単位段測距ユニット毎に導出された本画像内照射位置を示す目印である。
 以上説明したように、測距装置10Eでは、位置・距離対応情報により規定された近似曲線と本計測で得られた距離との関係から本画像内照射位置が単位段測距ユニット毎に導出される。従って、測距装置10Eによれば、位置・距離対応情報により規定された近似曲線を用いずに本画像内照射位置を単位段測距ユニット毎に導出する場合に比べ、本画像内照射位置の導出を簡易な構成で実現することができる。
 [第6実施形態]
 上記第1実施形態では、測距ユニット12及び撮像装置14により実現される測距装置10Aを例示したが、本第6実施形態では、スマートデバイス402を含めて実現される測距装置10F(図41)について説明する。なお、本第6実施形態では、上記各実施形態と同一の構成要素については同一の符号を付して、その説明を省略し、上記各実施形態と異なる部分についてのみ説明する。
 また、本第6実施形態では、説明の便宜上、計測プログラム107,136,137を区別して説明する必要がない場合は、符号を付さずに「計測プログラム」と称する。また、本第6実施形態では、説明の便宜上、照射位置調整プログラム108,132,134,137を区別して説明する必要がない場合は、符号を付さずに「照射位置調整プログラム」と称する。また、本第6実施形態では、要因記憶プログラム106、計測プログラム、及び照射位置調整プログラムを区別して説明する必要がない場合は、単に「プログラム」と称する。
 一例として図41に示すように、本第6実施形態に係る測距装置10Fは、上記第1実施形態に係る測距装置10Aに比べ、撮像装置14に代えて撮像装置400を有する点が異なる。また、測距装置10Fは、測距装置10Aに比べ、スマートデバイス402を有する点が異なる。
 撮像装置400は、撮像装置14に比べ、撮像装置本体18に代えて撮像装置本体403を有する点が異なる。
 撮像装置本体403は、撮像装置本体18に比べ、無線通信部404及び無線通信用アンテナ406を有する点が異なる。
 無線通信部404は、バスライン84及び無線通信用アンテナ406に接続されている。主制御部62は、スマートデバイス402へ送信される対象の情報である送信対象情報を無線通信部404に出力する。
 無線通信部404は、主制御部62から入力された送信対象情報を無線通信用アンテナ406を介してスマートデバイス402へ電波で送信する。また、無線通信部404は、スマートデバイス402からの電波が無線通信用アンテナ406で受信されると、受信された電波に応じた信号を取得し、取得した信号を主制御部62に出力する。
 スマートデバイス402は、CPU408、一次記憶部410、及び二次記憶部412を備えている。CPU408、一次記憶部410、及び二次記憶部412は、バスライン422に接続されている。
 CPU408は、スマートデバイス402を含めて測距装置10Fの全体を制御する。一次記憶部410は、各種プログラムの実行時のワークエリア等として用いられる揮発性のメモリである。一次記憶部410の一例としては、RAMが挙げられる。二次記憶部412は、スマートデバイス402を含めて測距装置10Fの全体の作動を制御する制御プログラム及び/又は各種パラメータ等を予め記憶する不揮発性のメモリである。二次記憶部412の一例としては、フラッシュメモリ及び/又はEEPROM等が挙げられる。
 スマートデバイス402は、表示部414、タッチパネル416、無線通信部418、及び無線通信用アンテナ420を備えている。
 表示部414は、表示制御部(図示省略)を介してバスライン422に接続されており、表示制御部の制御下で各種情報を表示する。なお、表示部414は、例えば、LCDにより実現される。
 タッチパネル416は、表示部414の表示画面に重ねられており、指示体による接触を受け付ける。タッチパネル416は、タッチパネルI/F(図示省略)を介してバスライン422に接続されており、指示体により接触された位置を示す位置情報をタッチパネルI/Fに出力する。タッチパネルI/Fは、CPU408の指示に従ってタッチパネルI/Fを作動させ、タッチパネル416から入力された位置情報をCPU408に出力する。
 表示部414には、上記第1実施形態で説明した本計測・本撮像ボタン90A、仮計測・仮撮像ボタン90B、撮像系動作モード切替ボタン90C、広角指示ボタン90D、及び望遠指示ボタン90Eの各々に相当するソフトキーが表示される。また、表示部414には、上記第1実施形態で説明した計測系動作モード切替ボタン90F及び照射位置調整ボタン90Gの各々に相当するソフトキーが表示される。
 例えば、図42に示すように、表示部414には、本計測・本撮像ボタン90Aとして機能する本計測・本撮像ボタン90A1がソフトキーとして表示され、タッチパネル416を介してユーザによって押下される。また、例えば、表示部414には、仮計測・仮撮像ボタン90Bとして機能する仮計測・仮撮像ボタン90B1がソフトキーとして表示され、タッチパネル416を介してユーザによって押下される。また、例えば、表示部414には、撮像系動作モード切替ボタン90Cとして機能する撮像系動作モード切替ボタン90C1がソフトキーとして表示され、タッチパネル416を介してユーザによって押下される。
 また、例えば、表示部414には、広角指示ボタン90Dとして機能する広角指示ボタン90D1がソフトキーとして表示され、タッチパネル416を介してユーザによって押下される。また、例えば、表示部414には、望遠指示ボタン90Eとして機能する望遠指示ボタン90E1がソフトキーとして表示され、タッチパネル416を介してユーザによって押下される。
 また、例えば、表示部414には、計測系動作モード切替ボタン90Fとして機能する計測系動作モード切替ボタン90F1がソフトキーとして表示され、タッチパネル416を介してユーザによって押下される。また、例えば、表示部414には、照射位置調整ボタン90Gとして機能する照射位置調整ボタン90G1がソフトキーとして表示され、タッチパネル416を介してユーザによって押下される。
 一例として図42に示すように、表示部414には、上段横回転用タッチパッド430、下段横回転用タッチパッド432、及び縦回転用タッチパッド434が表示される。
 上段横回転用タッチパッド430は、上段用ロータリスイッチ90Hとして機能する円状のタッチパッドである。一例として図42に示すように、上段測距ユニット11の横方向の回転量及び回転方向は、タッチパネル416を介して上段横回転用タッチパッド430の表示領域の内側で円弧状の軌跡が描かれることによって定められる。
 すなわち、上段測距ユニット11の横方向の回転量は、上段横回転用タッチパッド430の表示領域の内側に描かれた軌跡の長さに応じて定まる。ここで、上段横回転用タッチパッド430の表示領域の内側に描かれた軌跡の長さは、例えば、タッチパネル416に接触した状態でスライドさせた指示体(例えば、ユーザの指)のスライド量に相当する。
 また、上段測距ユニット11の回転方向は、上段横回転用タッチパッド430の表示領域の内側での軌跡が描かれた方向(図42に示す例では、矢印C方向)に応じて定まる。ここで、上段横回転用タッチパッド430の表示領域の内側での軌跡が描かれた方向は、例えば、タッチパネル416に接触した状態でスライドさせた指示体のスライド方向に相当する。
 下段横回転用タッチパッド432は、下段用ロータリスイッチ90Iとして機能する円状のタッチパッドである。一例として図42に示すように、下段測距ユニット13の横方向の回転量及び回転方向は、タッチパネル416を介して下段横回転用タッチパッド432の表示領域の内側で円弧状の軌跡が描かれることによって定められる。
 すなわち、下段測距ユニット13の横方向の回転量は、下段横回転用タッチパッド432の表示領域の内側に描かれた軌跡の長さに応じて定まる。ここで、下段横回転用タッチパッド432の表示領域の内側に描かれた軌跡の長さは、例えば、タッチパネル416に接触した状態でスライドさせた指示体のスライド量に相当する。
 また、下段測距ユニット13の回転方向は、下段横回転用タッチパッド432の表示領域の内側での軌跡が描かれた方向(図42に示す例では、矢印D方向)に応じて定まる。ここで、下段横回転用タッチパッド432の表示領域の内側での軌跡が描かれた方向は、例えば、タッチパネル416に接触した状態でスライドさせた指示体のスライド方向に相当する。
 縦回転用タッチパッド434は、縦回転用ロータリスイッチ90Jとして機能する円状のタッチパッドである。一例として図42に示すように、測距ユニット12の縦方向の回転量及び回転方向は、タッチパネル416を介して縦回転用タッチパッド434の表示領域の内側で円弧状の軌跡が描かれることによって定められる。
 すなわち、測距ユニット12の縦方向の回転量は、縦回転用タッチパッド434の表示領域の内側に描かれた軌跡の長さに応じて定まる。ここで、縦回転用タッチパッド434の表示領域の内側に描かれた軌跡の長さは、例えば、タッチパネル416に接触した状態でスライドさせた指示体のスライド量に相当する。
 また、測距ユニット12の回転方向は、縦回転用タッチパッド434の表示領域の内側での軌跡が描かれた方向(図42に示す例では、矢印E方向)に応じて定まる。ここで、縦回転用タッチパッド434の表示領域の内側での軌跡が描かれた方向は、例えば、タッチパネル416に接触した状態でスライドさせた指示体のスライド方向に相当する。
 無線通信部418は、バスライン422及び無線通信用アンテナ420に接続されている。無線通信部418は、CPU408から入力された信号を無線通信用アンテナ420を介して撮像装置本体403へ電波で送信する。また、無線通信部418は、撮像装置本体403からの電波が無線通信用アンテナ420で受信されると、受信された電波に応じた信号を取得し、取得した信号をCPU408に出力する。従って、撮像装置本体403は、スマートデバイス402との間で無線通信が行われることで、スマートデバイス402によって制御される。
 二次記憶部412は、プログラムを記憶している。CPU408は、二次記憶部412からプログラムを読み出して一次記憶部410に展開し、プログラムを実行することで、本開示の技術に係る制御部100A、導出部100B、及び出力部100Cとして動作する。例えば、CPU408が要因記憶プログラム106を実行することで、上記第1実施形態で説明した要因記憶処理が実現される。また、CPU408が計測プログラムを実行することで、上記各実施形態で説明した計測処理が実現される。更に、例えば、CPU408が照射位置調整プログラムを実行することで、上記各実施形態で説明した照射位置調整処理が実現される。
 以上説明したように、測距装置10Fでは、CPU408により、要因記憶処理、計測処理、及び照射位置調整処理が実行される。従って、測距装置10Fによれば、撮像装置400によって要因記憶処理、計測処理、及び照射位置調整処理が実行される場合に比べ、上記各実施形態で説明した効果を得るにあたって、撮像装置400にかかる負荷を軽減することができる。
 [第7実施形態]
 上記各実施形態では、単位段ユニット毎にレーザ光が照射される場合について説明したが、本第7実施形態では、1つの測距ユニット450(図43)によりレーザ光が走査される場合について説明する。なお、本第7実施形態では、上記1実施形態と同一の構成要素については同一の符号を付して、その説明を省略し、上記各実施形態と異なる部分についてのみ説明する。
 一例として図43に示すように、本第7実施形態に係る測距装置10Gは、測距装置10Aに比べ、測距ユニット12に代えて測距ユニット450を有する点が異なる。また、測距装置10Gは、測距装置10Aに比べ、撮像装置14に代えて撮像装置452を有する点が異なる。撮像装置452は、撮像装置14に比べ、撮像装置本体18に代えて撮像装置本体454を有する点が異なる。
 一例として図44に示すように、撮像装置本体454は、縦回転機構15を備えている。縦回転機構15は、モータ17によって生成される動力を受けて、ホットシュー20の前端部を回転軸としてホットシュー20を縦方向に回転させる。従って、測距ユニット450が取り付けられた状態のホットシュー20が縦回転機構15によって縦方向に回転されることで、測距ユニット450の向きが縦方向(例えば、図44に示すA2方向)で変更される。図44に示す例では、説明の便宜上、ホットシュー20の後端部が撮像装置本体454内に沈み込むようにホットシュー20を縦方向に回転させる態様が示されているが、本開示の技術はこれに限定されるものではない。例えば、ホットシュー20の後端部を撮像装置本体454から押し上げるようにホットシュー20を縦方向に回転させてもよい。
 一例として図45に示すように、撮像装置本体454は、横回転機構456を備えている。横回転機構456は、後述のモータ458(図47参照)によって生成される動力を受けて、ホットシュー20の平面視中央点を回転軸としてホットシュー20を横方向に回転させる。従って、測距ユニット450が取り付けられた状態のホットシュー20が横回転機構456によって横方向に回転されることで、測距ユニット450の向きが横方向(例えば、図45に示すB2方向)で変更される。
 なお、本第7実施形態では、説明の便宜上、縦回転機構15及び横回転機構456を区別せずに説明する場合、符号を付さずに「回転機構」と称する。
 一例として図46に示すように、測距装置10Gでは、回転機構を作動させることによってレーザ光を走査させることで複数本のレーザ光の各々を異なる方向で被写体に射出することが可能となる。ここで、本第7実施形態において、走査とは、測距ユニット450の向きを横方向に予め定められた速度で変更させつつ、予め定められた時間間隔でレーザ光を射出すること(換言すると、間欠的にレーザ光を照射すること)を意味する。
 なお、以下では、説明の便宜上、測距ユニット450の向きを横方向に変更させることで走査を実現することを前提として説明するが、本開示の技術はこれに限定されるものではない。例えば、縦方向や斜め方向に測距ユニット450の向きを変更させつつ間欠的にレーザ光を射出することで走査を実現するようにしてもよい。
 一例として図47に示すように、測距ユニット450は、射出部460、受光部462、及びコネクタ26を備えている。
 射出部460は、LD464、集光レンズ(図示省略)、対物レンズ465、及びLDドライバ468を有する。例えば、LD464は、LD22Aと同様の機能を有し、集光レンズは、上記第1実施形態で説明した射出部22に含まれる集光レンズと同様の機能を有する。また、例えば、対物レンズ465は、対物レンズ22Bと同様の機能を有し、LDドライバ468は、LDドライバ22Cと同様の機能を有する。
 受光部462は、PD470、対物レンズ472、及び受光信号処理回路474を有する。例えば、PD470は、PD24Aと同様の機能を有し、対物レンズ472は、対物レンズ24Bと同様の機能を有し、受光信号処理回路474は、受光信号処理回路24Cと同様の機能を有する。
 横回転機構456にはモータ458が接続されており、横回転機構456は、モータ458の動力を受けてホットシュー20を横方向に回転させることで、一例として図45に示すように、測距ユニット450を矢印B2方向に回転させる。
 受付デバイス466は、受付デバイス90に比べ、上段用ロータリスイッチ90H、下段用ロータリスイッチ90I、及び縦回転用ロータリスイッチ90Jを有しない点が異なる。
 一例として図10に示すように、二次記憶部104は、要因記憶プログラム140、計測プログラム142、照射位置調整プログラム144、位置・距離テーブル109、及び要因・精度テーブル111を記憶している。要因記憶プログラム140、計測プログラム142、及び照射位置調整プログラム144は、本開示の技術に係る測距プログラムの一例である。
 なお、本第7実施形態では、説明の便宜上、要因記憶プログラム140、計測プログラム142、及び照射位置調整プログラム144を区別して説明する必要がない場合、符号を付さずに「プログラム」と称する。
 一例として図12に示すように、CPU100は、二次記憶部104からプログラムを読み出して一次記憶部102に展開し、プログラムを実行することで、制御部500A、導出部500B、及び出力部500Cとして動作する。
 なお、本第7実施形態では、制御部500Aについては、制御部100Aと異なる点を説明し、導出部500Bについては、導出部100Bと異なる点を説明し、出力部500Cについては、出力部100Cと異なる点を説明する。
 また、上記各実施形態では、位置・距離テーブル109に、対応する単位段測距ユニットに関する位置・距離対応情報が格納されているが、本第7実施形態では、位置・距離テーブル109にレーザ光の方向毎の位置・距離対応情報が格納されている。すなわち、本第7実施形態では、一例として図13に示すように、位置・距離テーブル109に、後述の第1の方向及び第2の方向の各々に関する位置・距離対応情報が格納されている。
 本第7実施形態において、位置・距離対応情報とは、ステップ622Iの処理が実行されることによって特定された仮画像内照射位置毎に、仮画像内照射位置とステップ622D,622Eの処理が実行されることによって得られる距離とを対応付けた情報を指す。
 図13に示す例では、第1の方向に対して仮画像内照射位置X,X,X及び距離D,D,Dが対応付けられており、仮画像内照射位置X,X,X及び距離D,D,Dは、照射位置導出用データ取得処理が実行される毎に更新される。また、図13に示す例では、第2の方向に対して仮画像内照射位置X,X,X及び距離D,D,Dが対応付けられており、仮画像内照射位置X,X,X及び距離D,D,Dは、照射位置導出用データ取得処理が実行される毎に更新される。
 次に、測距装置10Gの作用について説明する。
 先ず、測距装置10Gの電源スイッチがオン(投入)された場合にCPU100が要因記憶プログラム140を実行することで実現される要因記憶処理について図15を参照して説明する。なお、以下、上記第1実施形態に係る要因記憶処理と同一のステップについては、同一のステップ番号を付して、その説明を省略する。
 本第7実施形態に係る要因記憶処理は、上記第1実施形態に係る要因記憶処理に比べ、ステップ202に代えてステップ502を有する点が異なる。
 図15に示すステップ502で、出力部500Cは、要因情報を二次記憶部104に時系列で記憶し、その後、ステップ208へ移行する。
 すなわち、上記第1実施形態では、単位段測距ユニットの各々に関する要因情報が二次記憶部104に記憶されるのに対し、本第7実施形態では、ステップ502の処理が実行されることで、測距ユニット450に関する要因情報が二次記憶部104に記憶される。
 次に、測距装置10Gの電源スイッチがオン(投入)された場合にCPU100が計測プログラム142を実行することで実現される計測処理について図48、図18、及び図19を参照して説明する。なお、以下、上記第1実施形態に係る計測処理と同一のステップについては、同一のステップ番号を付して、その説明を省略する。また、以下では、説明の便宜上、本第7実施形態に係る後述の照射位置導出用データ取得処理において仮計測及び仮撮像が行われる場合を除いて、撮像装置452の位置が固定されていることを前提として説明する。
 図48に示すフローチャートは、図16及び図17に示すフローチャートに比べ、ステップ220~232を有しない点が異なる。また、図48に示すフローチャートは、図16及び図17に示すフローチャートに比べ、ステップ234に代えてステップ600を有する点が異なる。また、図48に示すフローチャートは、図16及び図17に示すフローチャートに比べ、ステップ262~268に代えてステップ602~608を有する点が異なる。
 また、本第7実施形態に係る計測処理は、上記第1実施形態に係る計測処理に比べ、ステップ238~ステップ248に代えてステップ610~620を有する点、及びステップ254に代えてステップ622を有する点が異なる(図18参照)。
 また、本第7実施形態に係る照射位置導出用データ取得処理は、上記第1実施形態に係る照射位置導出用データ取得処理に比べ、ステップ254Dに代えてステップ622Dを有する点が異なる。また、本第7実施形態に係る照射位置導出用データ取得処理は、上記第1実施形態に係る照射位置導出用データ取得処理に比べ、ステップ254Eに代えてステップ622Eを有する点が異なる。また、本第7実施形態に係る照射位置導出用データ取得処理は、上記第1実施形態に係る照射位置導出用データ取得処理に比べ、ステップ254Gに代えてステップ622Gを有する点が異なる。
 また、本第7実施形態に係る照射位置導出用データ取得処理は、上記第1実施形態に係る照射位置導出用データ取得処理に比べ、ステップ254Iに代えてステップ622Iを有する点が異なる。更に、本第7実施形態に係る照射位置導出用データ取得処理は、上記第1実施形態に係る照射位置導出用データ取得処理に比べ、ステップ254Jに代えてステップ622Jを有する点が異なる。
 図48に示す計測処理では、ステップ600で、導出部500Bは、寸法導出モードが設定されているか否かを判定する。ステップ600において、距離導出モードが設定されている場合は、判定が否定されて、図18に示すステップ236へ移行する。ステップ600において、寸法導出モードが設定されている場合は、判定が肯定されて、ステップ258へ移行する。
 ステップ602で、導出部500Bは、測距制御部68を制御することで、第1の方向と第2の方向との各々にレーザ光を射出して、各レーザ光を基に本計測を実行する。また、導出部500Bは、撮像素子ドライバ74及び画像信号処理回路76を制御することで、各レーザ光の射出タイミングに合わせて本撮像を実行し、その後、ステップ604へ移行する。
 なお、第1の方向及び第2の方向へのレーザ光の射出は、回転機構を作動させて測距ユニット450によりレーザ光を被写体に走査することで実現される。
 ここで、第1の方向と第2の方向は、現時点で設定されている画角に実空間照射位置が収まる範囲内で予め定められた角度差(例えば、横方向に10度)を隔てて画定された方向であり、撮像装置452に対して固定化された方向である。例えば、第1の方向とは、上記第1実施形態に係る計測処理のステップ262の処理が実行されることで上段測距ユニット11によりレーザ光が射出された場合のレーザ光の射出方向に相当する方向を指す。また、例えば、第2の方向とは、上記第1実施形態に係る計測処理のステップ262の処理が実行されることで下段測距ユニット13によりレーザ光が射出された場合のレーザ光の射出方向に相当する方向を指す。
 なお、上記の「予め定められた角度差」は、現時点で設定されている画角に実空間照射位置が収まる範囲内で、ユーザによってタッチパネル88を介して指定された角度差であってもよい。
 ステップ604で、導出部500Bは、第1の方向及び第2の方向の各々について、位置・距離テーブル109に格納されている位置・距離対応情報に基づいて因子を導出し、その後、ステップ606へ移行する。
 ステップ606で、導出部500Bは、第1の方向及び第2の方向の各々について、ステップ604で導出した因子に基づいて本画像内照射位置を導出し、その後、ステップ608へ移行する。
 ステップ608で、導出部500Bは、一例として図25に示すように、本画像、距離、及び照射位置目印116A,116Bを表示部86に表示させる。
 図25に示す例において、表示部86に表示される本画像は、ステップ602の処理が実行されることで本撮像が行われて得られた1枚の画像である。なお、本開示の技術はこれに限定されるものではなく、例えば、ステップ602の処理が実行されることで各レーザ光の照射タイミング毎に本撮像が行われて得られた2枚の画像を合成して得た合成画像であってもよい。
 図25に示す例において、照射位置目印116Aは、第1の方向に射出されたレーザ光を基にして、ステップ606の処理が実行されることで導出された本画像内照射位置を示す目印である。図25に示す例において、照射位置目印116Bは、第2の方向に射出されたレーザ光を基にして、ステップ606の処理が実行されることで導出された本画像内照射位置を示す目印である。
 また、本ステップ608の処理が実行されると、第1の方向に射出されたレーザ光を基にして計測された距離と、第2の方向に射出されたレーザ光を基にして計測された距離とが表示部86に表示される。なお、図25に示す例では、「42351.2」との数値が第1の方向に射出されたレーザ光を基にして、ステップ602の処理が実行されることで計測された距離に該当する。また、図25に示す例では、「4361.3」との数値が第2の方向に射出されたレーザ光を基にして、ステップ602の処理が実行されることで計測された距離に該当する。
 図18に示すステップ610で、導出部500Bは、測距制御部68を制御することで、第1の方向と第2の方向との各々にレーザ光を射出して、各レーザ光を基に本計測を実行する。また、導出部500Bは、撮像素子ドライバ74及び画像信号処理回路76を制御することで、各レーザ光の射出タイミングに合わせて本撮像を実行し、その後、ステップ612へ移行する。
 ステップ612で、導出部500Bは、第1の方向及び第2の方向の各々について、位置・距離テーブル109に格納されている位置・距離対応情報に基づいて因子を導出し、その後、ステップ614へ移行する。
 ステップ614で、導出部500Bは、第1の方向及び第2の方向の各々について、ステップ612で導出した因子に基づいて本画像内照射位置を導出し、その後、ステップ616へ移行する。
 ステップ616で、出力部500Cは、第1の方向及び第2の方向の各々について導出された本画像内照射位置毎に、要因・精度対応情報から特定の想定要因に対応付けられた導出精度を導出する。そして、出力部500Cは、第1の方向及び第2の方向の各々について導出された本画像内照射位置毎に、導出した導出精度に基づいて、導出部500Bにより導出された本画像内照射位置の誤差を導出し、その後、ステップ618へ移行する。
 なお、本ステップ616の処理が実行されることで導出される誤差は、上記ステップ614の処理が実行されることで第1の方向及び第2の方向の各々について導出された本画像内照射位置毎に出力部500Cによって導出される。
 本ステップ616では、例えば、上記のように特定の想定要因が画角変更(1)及び製造ばらつきの場合、導出精度δ,λが総合化される。そして、総合化された導出精度に基づいて本画像内照射位置の誤差が、上記ステップ614の処理が実行されることで第1の方向及び第2の方向の各々について導出された本画像内照射位置毎に導出される。
 また、例えば、特定の想定要因が製造ばらつきのみの場合、導出精度λに基づいて本画像内照射位置の誤差が、上記ステップ614の処理が実行されることで第1の方向及び第2の方向の各々について導出された本画像内照射位置毎に導出される。すなわち、測距装置10Gの出荷後に初めて測距装置10Gを稼働させて本計測処理が実行されると、本画像内照射位置の誤差が、第1の方向及び第2の方向の各々について導出された本画像内照射位置毎に、導出精度λに基づいて導出されることになる。
 ステップ618で、導出部500Bは、一例として図21に示すように、本画像、距離、誤差、及び照射位置目印116A,116Bを表示部86に表示させ、その後、ステップ620へ移行する。
 図21に示す例において、表示部86に表示される本画像は、ステップ610の処理が実行されることで本撮像が行われて得られた1枚の画像である。なお、本開示の技術はこれに限定されるものではなく、例えば、ステップ610の処理が実行されることで各レーザ光の照射タイミング毎に本撮像が行われて得られた2枚の画像を合成して得た合成画像であってもよい。
 照射位置目印116Aは、第1の方向に射出されたレーザ光を基にして、ステップ614の処理が実行されることで導出された本画像内照射位置を示す目印である。照射位置目印116Bは、第2の方向に射出されたレーザ光を基にして、ステップ614の処理が実行されることで導出された本画像内照射位置を示す目印である。
 また、本ステップ618の処理が実行されると、一例として図21に示すように、第1の方向及び第2の方向の各々に射出された各レーザ光を基に計測された各距離が表示部86に表示される。
 なお、図21に示す例では、「325414.2」との数値が、上記ステップ610の処理が実行されることで第1の方向に射出されたレーザ光を基に計測された距離に該当する。また、図21に示す例では、「133325.0」との数値が、上記ステップ610の処理が実行されることで第2の方向に射出されたレーザ光を基に計測された距離に該当する。
 また、本ステップ618の処理が実行されると、一例として図21に示すように、第1の方向及び第2の方向の各々について導出された本画像内照射位置毎の誤差が表示部86に表示される。
 なお、図21に示す例では、「±16.3」との数値が、上記ステップ614の処理が実行されることで第1の方向について導出された本画像内照射位置の誤差に該当する。また、図21に示す例では、「±15.2」との数値が、上記ステップ614の処理が実行されることで第2の方向について導出された本画像内照射位置の誤差に該当する。
 ステップ620で、出力部100Cは、ステップ616又はステップ286の処理が実行されることで第1の方向及び第2の方向の各々について導出された誤差の少なくとも1つが閾値を超えたか否かを判定する。閾値は、照射位置導出用データ取得処理(図19参照)が実行されるべき好ましい値として測距装置10Gの実機による試験、及び/又は、測距装置10Gの設計仕様等に基づくコンピュータ・シミュレーション等の結果に基づいて事前に得られた値である。なお、本ステップ620において、ステップ616又はステップ286の処理が実行されることで導出された誤差が閾値を超える場合とは、導出部500Bによる本画像内照射位置の導出精度が予め定められた導出精度未満であることを意味する。
 ステップ620において、ステップ616又はステップ286の処理が実行されることで第1の方向及び第2の方向の各々について導出された誤差の全てが閾値以下の場合は、判定が否定されて、ステップ252へ移行する。ステップ620において、ステップ616又はステップ286の処理が実行されることで導出された誤差の少なくとも1つが閾値を超えた場合は、判定が肯定されて、ステップ250へ移行する。
 ステップ622で、導出部500Bは、一例として図19に示す照射位置導出用データ取得処理を実行し、その後、ステップ256へ移行する。
 図19に示す照射位置導出用データ取得処理では、ステップ622Dで、導出部500Bは、測距制御部68を制御することで、第1の方向と第2の方向との各々にレーザ光を射出して、各レーザ光を基に仮計測を実行する。また、導出部500Bは、撮像素子ドライバ74及び画像信号処理回路76を制御することで、各レーザ光の射出タイミングに合わせて仮撮像を実行し、その後、ステップ622Eへ移行する。なお、仮計測及び仮撮像は、仮計測・仮撮像ボタン90Bがオンされる毎に撮影方向を変えて行われる。撮影方向を変えるには、例えば、測距装置10Gの向きを変えればよい。
 ステップ622Eで、導出部500Bは、第1の方向と第2の方向との各々について、仮撮像を実行して得た画像である仮画像、及び仮計測を実行して得た距離を一次記憶部102に記憶し、その後、ステップ254Fへ移行する。なお、本ステップ622Eの処理が実行されることで、第1の方向について得られた仮画像及び距離と第2の方向について得られた仮画像及び距離とが区別されて一次記憶部102に記憶される。
 ステップ254Fにおいて判定が肯定されると、導出部500Bは、第1の方向と第2の方向との各々について、仮計測された複数の距離(ここでは、一例として3つの距離)の関係が本画像内照射位置の導出に用いる位置・距離対応情報の構築に有効に寄与しない予め定められた関係でないか否かを判定する。すなわち、ステップ622Gで、導出部500Bは、第1の方向と第2の方向との各々について、ステップ622Eで一次記憶部102に記憶した3つの距離が有効な距離か否かを判定する。
 ステップ622Gにおいて、第1の方向と第2の方向との少なくとも1つについて、ステップ622Eで一次記憶部102に記憶した3つの距離が有効な距離でない場合は、判定が否定されて、ステップ254Hへ移行する。ステップ622Gにおいて、第1の方向と第2の方向との両方について、ステップ622Eで一次記憶部102に記憶した3つの距離が有効な距離である場合は、判定が肯定されて、ステップ622Iへ移行する。
 ステップ622Iで、導出部500Bは、第1の方向と第2の方向との各々について、ステップ622Eで一次記憶部102に記憶した仮画像毎に仮画像内照射位置を特定し、その後、ステップ622Jへ移行する。
 ステップ622Jで、導出部500Bは、第1の方向と第2の方向との各々について、位置・距離対応情報を生成して位置・距離テーブル109に上書きすることで、第1の方向と第2の方向との各々について位置・距離テーブル109を更新する。
 次に、表示部86にライブビュー画像が表示されている状態で照射位置調整ボタン90Gが押下された場合にCPU100が照射位置調整プログラム144を実行することで実現される照射位置調整処理について図28を参照して説明する。なお、以下、上記第1実施形態に係る照射位置調整処理と同一のステップについては、同一のステップ番号を付して、その説明を省略する。
 本第7実施形態に係る照射位置調整処理は、上記第1実施形態に係る照射位置調整処理に比べ、ステップ302に代えてステップ632を有する点、及びステップ304に代えてステップ634を有する点が異なる。また、本第7実施形態に係る照射位置調整処理は、上記第1実施形態に係る照射位置調整処理に比べ、ステップ306に代えてステップ636を有する点、及びステップ310に代えてステップ640を有する点が異なる。また、本第7実施形態に係る照射位置調整処理は、上記第1実施形態に係る照射位置調整処理に比べ、ステップ312に代えてステップ642を有する点が異なる。
 ステップ632で、制御部500Aは、測距制御部68を制御することで、第1の方向と第2の方向との各々にレーザ光を射出して、各レーザ光を基に本計測を実行する。また、制御部500Aは、撮像素子ドライバ74及び画像信号処理回路76を制御することで、各レーザ光の射出タイミングに合わせて本撮像を実行し、その後、ステップ306へ移行する。
 ステップ634で、制御部500Aは、第1の方向と第2の方向との各々について、最新の因子に基づいてライブビュー画像内照射位置を導出部500Bに導出させ、その後、ステップ636へ移行する。
 ステップ636で、制御部500Aは、ステップ634の処理が実行されることで導出部500Bによって導出されたライブビュー画像内照射位置の全てが既定範囲内か否かを判定する。
 ステップ636において、ライブビュー画像内照射位置の少なくとも1つが既定範囲外の場合は、判定が否定されて、ステップ308へ移行する。ステップ636において、ライブビュー画像内照射位置の全てが既定範囲内の場合は、判定が肯定されて、ステップ314へ移行する。
 ステップ640で、制御部500Aは、回転機構をモータドライバ25,464を介して制御することで、測距ユニット450を既定方向に向かって既定回転量だけ回転させて走査の開始位置を調整し、その後、ステップ642へ移行する。
 ステップ642で、制御部500Aは、ステップ640の処理が実行されることで回転された測距ユニット450の回転方向及び回転量に従って射出角度βを更新し、その後、ステップ300へ移行する。
 以上説明したように、測距装置10Gでは、測距ユニット450によりレーザ光が被写体に対して走査されることで第1の方向及び第2の方向の各々に射出される(ステップ602)。また、制御部500Aにより、第1の方向及び第2の方向のレーザ光の各々による実空間照射位置が収まる画角で撮像装置14に対して撮像を行わせる制御が行われる(ステップ602)。また、導出部500Bにより、実空間照射位置に対応する位置として本画像内照射位置が第1の方向及び第2の方向の各々について導出される(ステップ606)。そして、本画像内照射位置毎に区域長さ導出対象画像に関連させた2つの画素の間隔に対応する区域の長さが、測距系機能を働かせて計測された距離、指定された2つの画素の間隔、及び撮像装置14での焦点距離に基づいて導出される(ステップ284)。従って、測距装置10Gによれば、撮像及び測距が1回行われる毎に区域が1つのみ指定される場合に比べ、複数の区域の長さを迅速に導出することができる。
 また、測距装置10Gでは、第1の方向及び第2の方向の各々について位置・距離対応情報が生成され(ステップ622J)、生成された位置・距離対応情報に基づいて本画像内照射位置が第1の方向及び第2の方向の各々について導出される(ステップ264,266)。従って、測距装置10Gによれば、位置・距離対応情報を生成することなく本画像内照射位置を第1の方向及び第2の方向の各々について導出する場合に比べ、第1の方向及び第2の方向の各々に関する本画像内照射位置を高精度に導出することができる。
 なお、上記第7実施形態では、上記第1実施形態との相違点を主に説明したが、本第7実施形態に係る測距装置10Gに対して上記第2~第6実施形態を適用することも可能である。この場合、上段測距ユニット11(184)により照射されるレーザ光を第1の方向に照射されるレーザ光と置き換え、下段測距ユニット13(185)により照射されるレーザ光を第2の方向に照射されるレーザ光と置き換えて各実施形態を解すればよい。
 また、上記第7実施形態では、測距ユニット450により第1の方向と第2の方向との2方向にレーザ光が照射される場合について説明したが、本開示の技術はこれに限定されるものではない。例えば、実空間照射位置が画角に収まるように設定された3方向以上の各方向にレーザ光が射出され、各方向に射出された各レーザ光を基に本画像内照射位置、距離、寸法、及び誤差等が方向別に導出されて出力されるようにしてもよい。
 なお、上記各実施形態では、測距系機能による計測可能範囲において、本計測されて得られた距離が位置・距離対応情報から特定される距離の範囲外であるか否かを示す情報が表示されない場合について例示したが、本開示の技術はこれに限定されるものではない。例えば、図49に示すように、計測可能範囲が対応情報距離範囲(本開示の技術に係る第1対応関係により特定される距離の範囲の一例)内であるか否かがCPU100により判定され、判定結果が表示部86に表示されるようにしてもよい。
 この場合、一例として図49に示すように、計測可能範囲は、対応情報距離範囲内及び対応情報距離範囲外に類別される。ここで、対応情報距離範囲内とは、ステップ254J(622J)の処理が実行されることで生成された最新の位置・距離対応情報から特定される距離の範囲内を指す。これに対し、対応情報距離範囲外とは、ステップ254J(622J)の処理が実行されることで生成された最新の位置・距離対応情報から特定される距離の範囲外を指す。
 対応情報距離範囲外は、第1対応情報距離範囲外と第2対応情報距離範囲外に類別される。最新の位置・距離対応情報から特定される距離D,D,Dの大小関係が“D<D<D”の場合、対応情報距離範囲及び対応情報距離範囲外は、次のように定義される。
 すなわち、図49に示す例において、対応情報距離範囲内とは、距離D以上、かつ、距離D以下の範囲を指す。第1対応情報距離範囲外とは、距離D未満の範囲を指す。第2対応情報距離範囲外とは、距離Dを超えた範囲を指す。なお、対応情報距離範囲外は、本開示の技術に係る「第1対応関係により特定される距離の範囲外」の一例である。
 そして、CPU100により、ステップ238又はステップ262等で本計測が実行されて得られた距離が対応情報距離範囲外の場合は、一例として図50に示すように、表示部86に対して警告・推奨メッセージ120を本画像に重畳して表示させてもよい。従って、例えば、上記第1実施形態に係る測距装置10Aによれば、警告・推奨メッセージ120が表示されない場合に比べ、本画像内照射位置の精度を高めることができる。
 なお、CPU100は、本開示の技術に係る実行部の一例である。本開示の技術に係る実行部は、本計測で得られた距離が本開示の技術に係る第1対応関係を示す情報の一例である位置・距離対応情報により特定される距離の範囲外の場合に、本画像内照射位置の精度の低下の抑制に供する処理として予め定められた処理を実行する。
 警告・推奨メッセージ120は、照射位置目印116の位置に相当する実空間上の位置にレーザ光が照射されていない可能性が高いことを警告し、かつ、照射位置導出用データ取得処理の実行をユーザに推奨するためのメッセージである。なお、警告・推奨メッセージ120を表示する処理は、本開示の技術に係る「画像内照射位置の精度の低下の抑制に供する処理として予め定められた処理」の一例である。
 なお、警告・推奨メッセージ120は、照射位置目印116A,116Bの各々の位置に相当する実空間上の位置にレーザ光が照射されていない可能性が高い場合にのみ表示されるようにしてもよい。また、警告・推奨メッセージ120は、照射位置目印116A,116Bの何れかの位置に相当する実空間上の位置にレーザ光が照射されていない可能性が高い場合に表示されるようにしてもよい。
 図50に示す例では、警告・推奨メッセージ120に、「照射位置目印は精度(信頼性)が低いです。」という警告メッセージが含まれる。また、図50に示す例では、警告・推奨メッセージ120に、「○○メートル~△△メートルの範囲で仮計測・仮撮像をお奨めします。」という推奨メッセージが含まれている。
 ここで、推奨メッセージに含まれる「○○メートル~△△メートルの範囲」は、第1対応情報距離範囲外に対応する範囲又は第2対応情報距離範囲外に対応する範囲である。すなわち、ステップ238又はステップ262等で本計測が実行されて得られた距離が第1対応情報距離範囲外の場合、第1対応情報距離範囲外の既定の範囲が採用される。また、ステップ238又はステップ262等で本計測が実行されて得られた距離が第2対応情報距離範囲外の場合、第2対応情報距離範囲外の既定の範囲が採用される。
 既定の範囲とは、ステップ238又はステップ262等で本計測が実行されて得られた距離と対応情報距離範囲との関係に基づいて仮計測で推奨される距離の範囲を指す。例えば、既定の範囲とは、ステップ238又はステップ262等で本計測が実行されて得られた距離と対応情報距離範囲内の特定の値との乖離度に応じて予め定められたテーブル又は演算式から一意に求まる範囲を指す。対応情報距離範囲内の特定の値は、対応情報距離範囲内の中央値又は平均値等であってもよい。また、第1対応情報距離範囲外の既定の範囲は、例えば、図49に示す距離Dとステップ238又はステップ262等で本計測が実行されて得られた距離との差分に応じて一意に求まる範囲であってもよい。
 また、第2対応情報距離範囲外の既定の範囲は、例えば、図49に示す距離Dとステップ238又はステップ262等で本計測が実行されて得られた距離との差分に応じて一意に求まる範囲であってもよい。また、「既定の範囲」ではなく、「既定の複数の距離」であってもよい。既定の複数の距離としては、例えば、上記のように求めた既定の範囲内での等間隔に離れた3つ以上の距離が挙げられ、仮計測で推奨される複数の距離であればよい。
 なお、ここでは、警告・推奨メッセージ120が表示部86に可視表示されることでユーザに提示されるが、本開示の技術はこれに限定されるものではない。例えば、測距装置10Aに搭載されている音声再生装置(図示省略)がメッセージを音声で出力することでユーザに提示するようにしてもよいし、可視表示及び可聴表示の両方が行われるようにしてもよい。
 また、一例として図51に示すように、近似曲線Zを用いて本画像内照射位置が導出される場合にも、計測可能範囲が対応情報距離範囲内及び対応情報距離範囲外とに類別される。
 図51に示す例において、対応情報距離範囲内とは、ステップ254J(622J)の処理が実行されることで生成された最新の位置・距離対応情報により特定される距離の範囲内を指す。これに対し、対応情報距離範囲外とは、ステップ254J(622J)の処理が実行されることで生成された最新の位置・距離対応情報により特定される距離外を指す。対応情報距離範囲外は、第1対応情報距離範囲外と第2対応情報距離範囲外とに類別される。
 例えば、図51に示す例において、第1対応情報距離範囲外とは、最新の位置・距離対応情報により特定される距離の最小値未満の範囲を指す。また、例えば、図51に示す例において、第2対応情報距離範囲外とは、最新の位置・距離対応情報により特定される距離の最大値を超えた範囲を指す。
 図51に示す例では、ステップ238又はステップ262等で本計測が実行されて得られた距離が第2対応情報距離範囲外に属する場合が示されている。従って、図51に示すように、ステップ238又はステップ262等で本計測が実行されて得られた距離が第2対応情報距離範囲外に属する場合、一例として図50に示すように、単位段測距ユニット毎に警告・推奨メッセージ120が表示部86に表示される。従って、上記第5実施形態に係る測距装置10Eによれば、本画像内照射位置の精度の低下の抑制に供する処理を行わない場合に比べ、本画像内照射位置の精度を高めることができる。
 なお、ステップ238又はステップ262等で本計測が実行されて得られた距離が対応情報距離範囲内に属する場合、警告・推奨メッセージ120は表示部86に表示されない。
 また、図50に示す例では、警告メッセージ及び推奨メッセージの両方が表示される場合を例示したが、本開示の技術はこれに限定されるものではなく、例えば、警告メッセージ及び推奨メッセージのうちの警告メッセージのみが表示されるようにしてもよい。
 また、図50に示す例では、下段測距ユニット13についての警告・推奨メッセージ120が表示されているが、上段測距ユニット11についても必要に応じて警告・推奨メッセージ120が下段測距ユニット13と区別可能に表示される。また、第7実施形態で説明した第1の方向及び第2の方向の各々についても警告・推奨メッセージ120が第1の方向と第2の方向とが区別可能に表示される。
 また、図50に示す例では、本計測が実行されて得られた距離が対応情報距離範囲外であっても照射位置目印116が表示されるが、本開示の技術はこれに限定されるものではない。例えば、本計測が実行されて得られた距離が第1対応情報距離範囲外の距離の場合、本計測が実行されて得られた距離と対応情報距離範囲内に含まれる最小の距離との差が閾値以上の場合に照射位置目印116が表示されないようにしてもよい。また、例えば、本計測が実行されて得られた距離が第2対応情報距離範囲外の距離の場合、本計測が実行されて得られた距離と対応情報距離範囲内に含まれる最大の距離との差が閾値以上の場合に照射位置目印116が表示されないようにしてもよい。本構成によれば、本計測が実行されて得られた距離と対応情報距離範囲内に含まれる距離との差が閾値以上であっても照射位置目印116が表示される場合に比べ、精度の低い照射位置目印116がユーザによって参照されることを抑制することができる。
 上記各実施形態では、本画像内照射位置、仮画像内照射位置、及びライブビュー画像内照射位置と区域の長さとをCPU100(408)によって導出される場合を例示したが、本開示の技術はこれに限定されるものではない。例えば、本画像内照射位置、仮画像内照射位置、及びライブビュー画像内照射位置と区域の長さとの一方がCPU100によって導出され、他方が別のCPU(図示省略)によって導出されるようにしてもよい。例えば、ステップ266の処理がCPU100以外のCPUによって実行され、ステップ284の処理がCPU100によって実行されるようにしてもよい。
 また、本画像内照射位置、仮画像内照射位置、及びライブビュー画像内照射位置のうちの1つ又は2つがCPU100によって導出され、残りが別のCPU(図示省略)によって導出されるようにしてもよい。また、本画像内照射位置、仮画像内照射位置、及びライブビュー画像内照射位置のうちの1つ又は2つと区域の長さとがCPU100によって導出され、本画像内照射位置、仮画像内照射位置、及びライブビュー画像内照射位置のうちの残りが別のCPU(図示省略)によって導出されるようにしてもよい。
 また、上記各実施形態では、プログラムを二次記憶部104(412)から読み出す場合を例示したが、必ずしも最初から二次記憶部104(412)に記憶させておく必要はない。例えば、図52に示すように、SSD(Solid State Drive)又はUSB(Universal Serial Bus)メモリなどの任意の可搬型の記憶媒体700に先ずはプログラムを記憶させておいてもよい。この場合、記憶媒体700に記憶されているプログラムが測距装置10A,10B,10C,10D,10E,10D,10G(以下、測距装置10A等という)にインストールされ、インストールされたプログラムがCPU100(408)によって実行される。
 また、通信網(図示省略)を介して測距装置10A等に接続される他のコンピュータ又はサーバ装置等の記憶部にプログラムを記憶させておき、プログラムが測距装置10A等の要求に応じてダウンロードされるようにしてもよい。この場合、ダウンロードされたプログラムがCPU100(408)によって実行される。
 また、上記各実施形態では、本画像、仮画像、距離、区域の長さ、誤差、本画像内照射位置、及び仮計測・仮撮像案内画面112等の各種情報が表示部86(414)に表示される場合を例示したが、本開示の技術はこれに限定されるものではない。例えば、測距装置10A等に接続して使用される外部装置の表示部に各種情報が表示されるようにしてもよい。外部装置の一例としては、パーソナル・コンピュータ、又は眼鏡型若しくは腕時計型のウェアラブル端末装置が挙げられる。
 また、上記各実施形態では、各種情報が表示部86(414)により可視表示される場合を例示したが、本開示の技術はこれに限定されるものではない。例えば、音声再生装置による音声の出力等の可聴表示、又は、プリンタによる印刷物の出力等の永久可視表示を可視表示に代えて行ってもよいし、可視表示、可聴表示、及び永久可視表示の少なくとも2つを併用してもよい。
 また、上記各実施形態では、照射位置調整推奨画面110及び仮計測・仮撮像案内画面112等の各種画面の他に、距離、照射位置目印116、区域の長さ、誤差が表示部86(414)に表示される場合を例示したが、本開示の技術はこれに限定されるものではない。例えば、各種画面が表示部86(414)と異なる表示部(図示省略)に表示されるようにし、距離、区域の長さ、誤差、及び照射位置目印116が表示部86(414)に表示されるようにしてもよい。また、照射位置調整推奨画面110及び仮計測・仮撮像案内画面112等の各種画面の各々が表示部86(414)を含めた複数の表示部に個別に表示されるようにしてもよい。
 また、上記各実施形態では、測距用の光としてレーザ光を例示しているが、本開示の技術はこれに限定されるものではなく、指向性のある光である指向性光であればよい。例えば、発光ダイオード(LED:Light Emitting Diode)又はスーパールミネッセントダイオード(SLD:Super Luminescent Diode)等により得られる指向性光であってもよい。指向性光が有する指向性は、レーザ光が有する指向性と同程度の指向性であることが好ましく、例えば、数メートルから数キロメートルの範囲内における測距で使用可能な指向性であることが好ましい。
 また、上記各実施形態で説明した要因記憶処理、計測処理、及び照射位置調整処理はあくまでも一例である。従って、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよいことは言うまでもない。また、要因記憶処理、計測処理、及び照射位置調整処理に含まれる各処理は、ASIC等のハードウェア構成のみで実現されてもよいし、コンピュータを利用したソフトウェア構成とハードウェア構成との組み合わせで実現されてもよい。
 なお、2015年9月28日に出願された日本国特許出願2015-190355号の開示は、その全体が参照により本明細書に取り込まれる。
 本明細書に記載された全ての文献、特許出願及び技術規格は、個々の文献、特許出願及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。
 以上の実施形態に関し、更に以下の付記を開示する。
 (付記1)
 被写体を示す被写体像を撮像する撮像部と、
 各々指向性のある光である指向性光を被写体に複数本射出し、指向性光の各々の反射光を対応する各受光部で受光することにより被写体までの複数の距離を計測する計測部と、
 計測部による複数の距離の計測に用いられる指向性光の各々による被写体に対する照射位置が収まる画角で撮像部に対して撮像させる制御を行う制御部と、
 計測部により計測された複数の距離のうち、撮像部により撮像されて得られた撮像画像内の、照射位置に相当する位置として導出された画像内照射位置に関する距離と、撮像画像内において距離毎に画像内照射位置に関連させた複数画素の間隔と、撮像部での焦点距離とに基づいて、間隔に対応する実空間領域の寸法を導出する導出部と、
 を含む測距装置。
 (付記2)
 被写体を示す被写体像を撮像する撮像部と、
 指向性のある光である指向性光を被写体に対して走査することで複数の方向の各々に射出し、複数の方向の各々の指向性光の反射光を受光することにより被写体までの複数の距離を計測する計測部と、
 計測部による複数の距離の計測に用いられる指向性光の各々による被写体に対する照射位置が収まる画角で撮像部に対して撮像させる制御を行う制御部と、
 計測部により計測された複数の距離のうち、撮像部により撮像されて得られた撮像画像内の、照射位置に相当する位置として導出された画像内照射位置に関する距離と、撮像画像内において距離毎に画像内照射位置に関連させた複数画素の間隔と、撮像部での焦点距離とに基づいて、間隔に対応する実空間領域の寸法を導出する導出部と、
 を含む測距装置。

Claims (18)

  1.  被写体を撮像する撮像部と、
     各々指向性のある光である指向性光を前記被写体に複数本射出し、前記指向性光の各々の反射光を対応する各受光部で受光することにより前記被写体までの複数の距離を計測する計測部と、
     前記計測部による複数の距離の計測に用いられる前記指向性光の各々による前記被写体に対する照射位置が収まる画角で前記撮像部に対して撮像させる制御を行う制御部と、
     前記計測部により計測された複数の距離のうち、前記撮像部により撮像されて得られた撮像画像内の、前記照射位置に相当する位置として導出された画像内照射位置に関する距離と、前記撮像画像内において前記距離毎に前記画像内照射位置に関連させた複数画素の間隔と、前記撮像部での焦点距離とに基づいて、前記間隔に対応する実空間領域の寸法を導出する導出部と、
     を含む測距装置。
  2.  前記計測部は、前記指向性光を射出する射出部と、対応する前記射出部により射出された前記指向性光の反射光を受光する受光部とを複数組有し、
     組内での前記射出部と前記受光部との位置関係が固定化された状態で、前記指向性光が射出される角度が前記射出部及び前記受光部の組毎に変更可能とされている請求項1に記載の測距装置。
  3.  前記導出部は、前記計測部により複数の距離の各々が仮計測される毎に前記被写体が前記撮像部により仮撮像されて得られた仮画像内の、前記照射位置に相当する仮画像内照射位置と、前記仮画像内照射位置に対応する前記指向性光で前記計測部により仮計測された距離との第1対応関係を前記組毎に求め、求めた前記第1対応関係に基づいて前記画像内照射位置を前記組毎に導出する請求項2に記載の測距装置。
  4.  前記計測部により本計測された距離が、対応する前記組に関する前記第1対応関係により特定される距離の範囲外の場合に、前記画像内照射位置の精度の低下の抑制に供する処理として予め定められた処理を実行する実行部を更に含む請求項3に記載の測距装置。
  5.  被写体を撮像する撮像部と、
     指向性のある光である指向性光を前記被写体に対して走査することで複数の方向の各々に射出し、前記複数の方向の各々の前記指向性光の反射光を受光することにより前記被写体までの複数の距離を計測する計測部と、
     前記計測部による複数の距離の計測に用いられる前記指向性光の各々による前記被写体に対する照射位置が収まる画角で前記撮像部に対して撮像させる制御を行う制御部と、
     前記計測部により計測された複数の距離のうち、前記撮像部により撮像されて得られた撮像画像内の、前記照射位置に相当する位置として導出された画像内照射位置に関する距離と、前記撮像画像内において前記距離毎に前記画像内照射位置に関連させた複数画素の間隔と、前記撮像部での焦点距離とに基づいて、前記間隔に対応する実空間領域の寸法を導出する導出部と、
     を含む測距装置。
  6.  前記導出部は、前記計測部により複数の距離の各々が仮計測される毎に前記被写体が前記撮像部により仮撮像されて得られた仮画像内の、前記照射位置に相当する仮画像内照射位置と、前記仮画像内照射位置に対応する前記指向性光で前記計測部により仮計測された距離との第1対応関係を前記方向毎に求め、求めた前記第1対応関係に基づいて前記画像内照射位置を前記方向毎に導出する請求項5に記載の測距装置。
  7.  前記計測部により本計測された距離が、対応する前記方向に関する前記第1対応関係により特定される距離の範囲外の場合に、前記画像内照射位置の精度の低下の抑制に供する処理として予め定められた処理を実行する実行部を更に含む請求項6に記載の測距装置。
  8.  前記画像内照射位置に影響を及ぼす要因として想定された想定要因と前記導出部による導出精度との第2対応関係に基づいて、実際に存在する前記要因に対応する前記導出精度を導出し、導出した前記導出精度に基づく情報を出力する出力部を更に含む請求項1から請求項7の何れか一項に記載の測距装置。
  9.  前記第2対応関係において、異なる前記想定要因の各々に対して異なる前記導出精度が対応付けられており、
     前記出力部は、実際に存在する前記要因に対応する前記想定要因に対応付けられた前記導出精度を導出する請求項8に記載の測距装置。
  10.  前記出力部は、実際に前記要因が複数存在する場合、実際に存在する複数の前記要因の各々に対応する前記想定要因に対応付けられた前記導出精度を総合化して導出する請求項9に記載の測距装置。
  11.  前記指向性光が射出される角度を変更可能な変更部を更に含み、
     前記制御部は、前記画像内照射位置が前記撮像画像内の既定範囲外の場合に、前記画像内照射位置が前記既定範囲内に入るまで、前記計測部に距離を計測させ、前記計測部により計測された距離、及び前記変更部により変更された角度に基づいて前記導出部に前記画像内照射位置を導出させる制御を更に行う請求項1から請求項10の何れか一項に記載の測距装置。
  12.  前記制御部は、前記画像内照射位置が前記既定範囲外の場合に、前記画像内照射位置が前記既定範囲内に入るまで、前記計測部に距離を計測させ、動力源を駆動させることで前記変更部に角度を変更させ、前記計測部により計測された距離、及び前記変更部に変更させた角度に基づいて前記導出部に前記画像内照射位置を導出させる制御を行う請求項11に記載の測距装置。
  13.  前記撮像画像内で、前記画像内照射位置毎に、前記画像内照射位置を内包する枠が指定され、
     前記枠毎に、前記枠の内側で前記複数画素が指定され、
     前記導出部は、前記枠毎に、前記計測部により計測された複数の距離のうちの、対応する前記画像内照射位置に関する距離と、指定された前記複数画素の前記間隔と、前記焦点距離とに基づいて、前記間隔に対応する実空間領域の寸法を導出する請求項1から請求項12の何れか一項に記載の測距装置。
  14.  前記被写体は、向き及び位置の少なくとも1つが異なる複数の平面状領域を含み、
     前記計測部は、前記複数の平面状領域の各々に対して前記指向性光を射出し、前記複数の平面状領域の各々に対する前記指向性光の各々の反射光を受光することにより前記複数の平面状領域の各々までの距離を計測する請求項1から請求項13の何れか一項に記載の測距装置。
  15.  被写体を撮像する撮像部と、各々指向性のある光である指向性光を前記被写体に複数本射出し、前記指向性光の各々の反射光を対応する各受光部で受光することにより前記被写体までの複数の距離を計測する計測部と、を含む測距装置に含まれる前記計測部による複数の距離の計測に用いられる前記指向性光の各々による前記被写体に対する照射位置が収まる画角で前記撮像部に対して撮像させる制御を行い、
     前記計測部により計測された複数の距離のうち、前記撮像部により撮像されて得られた撮像画像内の、前記照射位置に相当する位置として導出された画像内照射位置に関する距離と、前記撮像画像内において前記距離毎に前記画像内照射位置に関連させた複数画素の間隔と、前記撮像部での焦点距離とに基づいて、前記間隔に対応する実空間領域の寸法を導出することを含む測距方法。
  16.  被写体を撮像する撮像部と、指向性のある光である指向性光を前記被写体に対して走査することで複数の方向の各々に射出し、前記複数の方向の各々の前記指向性光の反射光を受光することにより前記被写体までの複数の距離を計測する計測部と、を含む測距装置に含まれる前記計測部による複数の距離の計測に用いられる前記指向性光の各々による前記被写体に対する照射位置が収まる画角で前記撮像部に対して撮像させる制御を行い、
     前記計測部により計測された複数の距離のうち、前記撮像部により撮像されて得られた撮像画像内の、前記照射位置に相当する位置として導出された画像内照射位置に関する距離と、前記撮像画像内において前記距離毎に前記画像内照射位置に関連させた複数画素の間隔と、前記撮像部での焦点距離とに基づいて、前記間隔に対応する実空間領域の寸法を導出することを含む測距方法。
  17.  コンピュータに、
     被写体を撮像する撮像部と、各々指向性のある光である指向性光を前記被写体に複数本射出し、前記指向性光の各々の反射光を対応する各受光部で受光することにより前記被写体までの複数の距離を計測する計測部と、を含む測距装置に含まれる前記計測部による複数の距離の計測に用いられる前記指向性光の各々による前記被写体に対する照射位置が収まる画角で前記撮像部に対して撮像させる制御を行い、
     前記計測部により計測された複数の距離のうち、前記撮像部により撮像されて得られた撮像画像内の、前記照射位置に相当する位置として導出された画像内照射位置に関する距離と、前記撮像画像内において前記距離毎に前記画像内照射位置に関連させた複数画素の間隔と、前記撮像部での焦点距離とに基づいて、前記間隔に対応する実空間領域の寸法を導出することを含む処理を実行させるための測距プログラム。
  18.  コンピュータに、
     被写体を撮像する撮像部と、指向性のある光である指向性光を前記被写体に対して走査することで複数の方向の各々に射出し、前記複数の方向の各々の前記指向性光の反射光を受光することにより前記被写体までの複数の距離を計測する計測部と、を含む測距装置に含まれる前記計測部による複数の距離の計測に用いられる前記指向性光の各々による前記被写体に対する照射位置が収まる画角で前記撮像部に対して撮像させる制御を行い、
     前記計測部により計測された複数の距離のうち、前記撮像部により撮像されて得られた撮像画像内の、前記照射位置に相当する位置として導出された画像内照射位置に関する距離と、前記撮像画像内において前記距離毎に前記画像内照射位置に関連させた複数画素の間隔と、前記撮像部での焦点距離とに基づいて、前記間隔に対応する実空間領域の寸法を導出することを含む処理を実行させるための測距プログラム。
PCT/JP2016/063584 2015-09-28 2016-05-02 測距装置、測距方法、及び測距プログラム WO2017056544A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017542772A JP6426295B2 (ja) 2015-09-28 2016-05-02 測距装置、測距方法、及び測距プログラム
US15/921,659 US10353070B2 (en) 2015-09-28 2018-03-15 Distance measurement device, distance measurement method, and distance measurement program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015190355 2015-09-28
JP2015-190355 2015-09-28

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/921,659 Continuation US10353070B2 (en) 2015-09-28 2018-03-15 Distance measurement device, distance measurement method, and distance measurement program

Publications (1)

Publication Number Publication Date
WO2017056544A1 true WO2017056544A1 (ja) 2017-04-06

Family

ID=58423400

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/063584 WO2017056544A1 (ja) 2015-09-28 2016-05-02 測距装置、測距方法、及び測距プログラム

Country Status (3)

Country Link
US (1) US10353070B2 (ja)
JP (1) JP6426295B2 (ja)
WO (1) WO2017056544A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115004056A (zh) * 2020-01-15 2022-09-02 华为技术有限公司 固态激光雷达装置的校准
JP2022054750A (ja) * 2020-09-28 2022-04-07 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004205222A (ja) * 2002-12-20 2004-07-22 Matsushita Electric Works Ltd 測距装置
JP2008166482A (ja) * 2006-12-28 2008-07-17 Nikon Corp ディストーションマッチング方法、露光システム、及び計測システム
JP2011232330A (ja) * 2010-04-08 2011-11-17 Casio Comput Co Ltd 撮像装置、長さ測定方法、及びプログラム
JP2013108789A (ja) * 2011-11-18 2013-06-06 Denso Corp 距離計測装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5761549A (en) * 1996-02-05 1998-06-02 Nikon Corporation Distance measuring device for camera
JP3134852B2 (ja) * 1998-08-25 2001-02-13 日本電気株式会社 結晶歪み測定装置および結晶歪み測定方法
JP5141452B2 (ja) * 2008-09-05 2013-02-13 富士通株式会社 姿勢計測装置及び姿勢計測方法
JP5738005B2 (ja) * 2011-03-01 2015-06-17 株式会社トプコン 光波距離測定装置
JP6178127B2 (ja) 2013-05-29 2017-08-09 株式会社Cubic 建造物の計測装置および計測方法
JP6320814B2 (ja) * 2014-03-20 2018-05-09 株式会社日立ハイテクサイエンス X線分析装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004205222A (ja) * 2002-12-20 2004-07-22 Matsushita Electric Works Ltd 測距装置
JP2008166482A (ja) * 2006-12-28 2008-07-17 Nikon Corp ディストーションマッチング方法、露光システム、及び計測システム
JP2011232330A (ja) * 2010-04-08 2011-11-17 Casio Comput Co Ltd 撮像装置、長さ測定方法、及びプログラム
JP2013108789A (ja) * 2011-11-18 2013-06-06 Denso Corp 距離計測装置

Also Published As

Publication number Publication date
JP6426295B2 (ja) 2018-11-21
JPWO2017056544A1 (ja) 2018-03-22
US20180246213A1 (en) 2018-08-30
US10353070B2 (en) 2019-07-16

Similar Documents

Publication Publication Date Title
US11727585B2 (en) Information processing device, information processing method, and program
US11828847B2 (en) Distance measurement device, deriving method for distance measurement, and deriving program for distance measurement
JP6416408B2 (ja) 測距装置、測距方法、及び測距プログラム
US11047980B2 (en) Distance measurement device, control method for distance measurement, and control program for distance measurement
JP6404482B2 (ja) 測距装置、測距用制御方法、及び測距用制御プログラム
WO2017056544A1 (ja) 測距装置、測距方法、及び測距プログラム
JP6534455B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP6494059B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP6534456B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP6494060B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US11181359B2 (en) Information processing device, information processing method, and program

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16850721

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017542772

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16850721

Country of ref document: EP

Kind code of ref document: A1