WO2017149851A1 - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
WO2017149851A1
WO2017149851A1 PCT/JP2016/083993 JP2016083993W WO2017149851A1 WO 2017149851 A1 WO2017149851 A1 WO 2017149851A1 JP 2016083993 W JP2016083993 W JP 2016083993W WO 2017149851 A1 WO2017149851 A1 WO 2017149851A1
Authority
WO
WIPO (PCT)
Prior art keywords
imaging
measurement
unit
range
subject
Prior art date
Application number
PCT/JP2016/083993
Other languages
English (en)
French (fr)
Inventor
智紀 増田
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to CN201680082389.6A priority Critical patent/CN108718532B/zh
Priority to JP2018502524A priority patent/JP6494060B2/ja
Publication of WO2017149851A1 publication Critical patent/WO2017149851A1/ja
Priority to US16/101,527 priority patent/US10591299B2/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • G01C15/02Means for marking measuring points
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • G01C15/002Active optical surveying means
    • G01C15/004Reference lines, planes or sectors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C25/00Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4865Time delay measurement, e.g. time-of-flight measurement, time of arrival measurement or determining the exact position of a peak
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/18Focusing aids
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B37/00Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe
    • G03B37/02Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe with scanning movement of lens or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture

Definitions

  • the technology of the present disclosure relates to an information processing apparatus, an information processing method, and a program.
  • panoramic imaging refers to, for example, imaging a subject included in an imaging range for each of a plurality of imaging ranges continuous in a specific direction such as a vertical direction or a horizontal direction, and a plurality of images obtained by imaging. This refers to a series of operations for generating a panoramic image by connecting captured images.
  • the ranging device equipped with the panoramic imaging function that performs the panoramic imaging is provided.
  • This type of distance measuring device uses a distance measuring function together with a panoramic imaging function to measure a distance to a subject included in an imaging range to be imaged in panoramic imaging.
  • the subject is irradiated with laser light at an angle at which the reflected light cannot be received, or the subject is black, translucent, or glossy. The distance to the subject cannot be measured.
  • the degree of successful measurement can be increased.
  • an unsuitable area for laser light irradiation such as a black area or a translucent area
  • all of the imaging ranges to be imaged in panoramic imaging are compared with the case where the distance to the subject is measured once for each of all imaging ranges to be imaged in panoramic imaging.
  • the information processing apparatus is an imaging range designated as an imaging target before individual imaging is performed among a plurality of imaging ranges that are imaging targets in panoramic imaging of a subject.
  • the measuring unit measures the distance to the subject by emitting directional light that is directional light toward the subject within a specified imaging range and receiving reflected light of the directional light
  • Panorama acquisition is performed when an acquisition unit that acquires measurement success / failure information indicating whether measurement by the measurement unit has succeeded or failed, and measurement success / failure information acquired by the acquisition unit indicates that measurement by the measurement unit has failed.
  • an execution unit that executes a re-measurement process that causes the measurement unit to re-measure the distance to the subject in a state where the position of the designated imaging range is changed within a possible allowable range.
  • the imaging target in the panoramic imaging is compared with the case where the distance to the subject is measured once for each of all the imaging ranges that are the imaging target in the panoramic imaging. It is possible to increase the degree of success in measuring the distance to the subject in each of all the imaging ranges.
  • An information processing apparatus is the information processing apparatus according to the first aspect of the present invention, wherein the re-measurement process is a first change mechanism having a first power source, and the first power It is said that the process includes a first movement process that moves the position of the designated imaging range within an allowable range by operating a first changing mechanism that changes the imaging direction according to the power generated by the source. .
  • the position of the designated imaging range is moved within the allowable range without taking time and effort compared to the case where the position of the designated imaging range is manually moved within the allowable range. Can be made.
  • the information processing apparatus is the information processing apparatus according to the second aspect of the present invention, wherein the re-measurement process is performed by executing the first movement process by the execution unit.
  • the processing includes processing for causing the measurement unit to re-measure the distance to the subject.
  • the position to be measured is changed and the distance to the subject is remeasured with respect to the measurement unit without changing the position of the designated imaging range from the allowable range. Can be made.
  • the information processing apparatus is the information processing apparatus according to the third aspect of the present invention, wherein the re-measurement process is performed by executing the first movement process by the execution unit.
  • the process includes a process for causing the measurement unit to re-measure the distance to the subject when the position is moved within an allowable range and an instruction to start measurement by the measurement unit is received. .
  • the information processing apparatus causes the measurement unit to remeasure the distance to the subject at the timing intended by the user without deviating the position of the designated imaging range from the allowable range. be able to.
  • the re-measurement processing is a first for inducing a change in the allowable range of the position of the designated imaging range.
  • the process includes a first display process for displaying the guidance information on the first display unit.
  • the distance to the subject is re-established with respect to the measurement unit while maintaining the position of the designated imaging range within the allowable range. Occurrence of the situation of measuring can be suppressed.
  • the re-measurement processing is performed in a state where the first guidance information is displayed on the first display unit.
  • the process includes a process of causing the measurement unit to remeasure the distance to the subject. It is said that.
  • the information processing apparatus it is possible to cause the measurement unit to remeasure the distance to the subject at a timing intended by the user.
  • the information processing apparatus is the information processing apparatus according to the fifth aspect of the present invention, wherein the remeasurement processing is performed while the first guidance information is displayed and the position of the designated imaging range is displayed. Is a process including a process of causing the measurement unit to re-measure the distance to the subject when the value is changed within the allowable range.
  • the measurement by the measurement unit is resumed even when the position of the designated imaging range is changed within the allowable range while the first guidance information is displayed. Compared to the case where it is not executed, it is possible to cause the measurement unit to remeasure the distance to the subject without taking time and effort.
  • An information processing apparatus is the information processing apparatus according to any one of the first to seventh aspects of the present invention, wherein the measurement success / failure information acquired by the acquisition unit is measured.
  • a measurement success process predetermined as a process executed in a measurement success state where the measurement by the measurement unit is successful is further executed.
  • the execution of the measurement success process is started more quickly than in the case where the success of the measurement by the measurement unit is artificially determined without using the measurement success / failure information. Can do.
  • the measurement success process is scheduled for the next imaging in the panorama imaging with the position of the designated imaging range.
  • the process includes a process for causing the measurement unit to measure the distance to the subject when the position is changed.
  • the information processing apparatus when the measurement by the measurement unit is not executed even though the position of the designated imaging range is changed to the position where the next imaging in the panorama imaging is scheduled. In comparison, it is possible to cause the measurement unit to measure the distance to the subject without trouble.
  • An information processing device is the information processing device according to the ninth aspect of the present invention, wherein the measurement success process is a second changing mechanism having a second power source, and the second power A second movement process for moving the position of the designated imaging range to a position where the next imaging in the panorama imaging is scheduled by operating a second changing mechanism that changes the imaging direction according to the power generated by the source. It is said that it is a process including.
  • the designated imaging is performed.
  • the position of the range can be moved to a position where the next imaging in the panoramic imaging is scheduled.
  • the information processing apparatus is the information processing apparatus according to the ninth aspect or the tenth aspect of the present invention, wherein the measurement success processing is performed by the next imaging in the panorama imaging where the position of the designated imaging range is
  • the process includes a process for causing the measurement unit to measure the distance to the subject when an instruction to start measurement by the measurement unit is received. .
  • the measurement unit when the position of the designated imaging range is changed to a position where the next imaging in the panorama imaging is scheduled, the measurement unit is notified at a timing intended by the user. On the other hand, the distance to the subject can be measured.
  • the measurement success process schedules the next imaging in the panoramic imaging of the position of the designated imaging range. This is a process including a third display process for displaying the second guidance information for guiding the change to the position on the third display unit.
  • the position of the designated imaging range is changed to the position where the next imaging in the panorama imaging is scheduled at the timing, compared to the case where the second guidance information is not displayed. Can do.
  • the measurement success process is performed while the second guidance information is displayed on the third display unit.
  • measurement start timing information indicating that it is timing to start measurement by the measurement unit is displayed to the fourth display unit.
  • the measurement unit when the position of the designated imaging range is changed to a position where the next imaging in the panorama imaging is scheduled, the measurement unit is notified at a timing intended by the user. On the other hand, the distance to the subject can be measured.
  • the measurement success process is performed in a state where the second guidance information is displayed on the third display unit.
  • This is a process including a process of causing the measurement unit to measure the distance to the subject when the unexecuted imaging range is changed to the designated imaging range.
  • the position of the designated imaging range is changed to the position where the next imaging in the panorama imaging is scheduled in the state where the second guidance information is displayed. Nevertheless, it is possible to cause the measurement unit to measure the distance to the subject without taking time and effort as compared with the case where measurement by the measurement unit is not performed.
  • An information processing device is the information processing device according to any one of the first to fourteenth aspects of the present invention, wherein the execution unit is adjacent in a plurality of imaging ranges. At least four or more pixels that define a polygonal vertex in the first captured image obtained by capturing an image of a subject within one of the adjacent imaging ranges that is the imaging range. A corresponding pixel that is a pixel corresponding to the first multi-vertex pixel in the second captured image obtained by imaging a subject in the other imaging range of the adjacent imaging ranges, including a first multi-vertex pixel.
  • the first captured image is an image obtained by projective transformation based on the first multi-vertex pixel
  • the second captured image is projected based on the corresponding pixel.
  • the second projective change that is the image obtained by conversion Further executes a generation process of generating a panoramic image is an image including a rear image, a, there is a.
  • the vertex of the polygon for each of all the still images obtained by imaging each subject included in each of the plurality of imaging ranges to be imaged in panoramic imaging. Compared to a search for four or more pixels that define the image, it is possible to generate a panoramic image including the post-projection-transformed image without taking time and effort.
  • An information processing device is the information processing device according to the fifteenth aspect of the present invention, wherein the execution unit is configured such that when the other imaging range includes a polygonal vertex, the other imaging range.
  • the fifth display process for displaying on the fifth display unit imaging start timing information indicating that it is the timing to start imaging of the subject is further executed.
  • the information processing apparatus According to the information processing apparatus according to the sixteenth aspect, it is easier for the user to take an imaging timing at which the second captured image that contributes to highly accurate projective transformation can be acquired than when the imaging start timing information is not displayed. Can be recognized.
  • An information processing apparatus is obtained by imaging a subject within a designated imaging range in the information processing apparatus according to any one of the first to sixteenth aspects of the present invention. If the captured image includes a second multi-vertex pixel that is at least four or more pixels that define a polygonal vertex, the allowable range corresponds to the position of the second multi-vertex pixel in the captured image. It is said that it is a range including the position in real space.
  • the allowable range is included in the designated imaging range within the allowable range compared to a case where the allowable range is not a range including a position in the real space corresponding to the position of the second multi-vertex pixel. It is possible to contribute to high-accuracy projective transformation of a captured image obtained by imaging a subject to be captured.
  • An information processing device is the information processing device according to any one of the first to seventeenth aspects of the present invention, wherein the execution unit causes the measurement unit to measure. Further, a derivation process for deriving the size of the real space region corresponding to the interval based on the distance to the subject and the interval between the plurality of pixels designated in the panoramic image obtained by performing panoramic imaging is further executed. It is supposed to be.
  • the panoramic image is used as compared with the case where the distance to the subject is measured once for each of all the imaging required for one panoramic imaging.
  • the dimension of the designated real space region can be derived without taking time and effort.
  • An information processing method is an imaging range designated as an imaging target before individual imaging is performed among a plurality of imaging ranges that are imaging targets in panoramic imaging of a subject.
  • the measuring unit measures the distance to the subject by emitting directional light that is directional light toward the subject within a specified imaging range and receiving reflected light of the directional light, Acquire measurement success / failure information that indicates whether measurement by the measurement unit was successful or failed, and specify within the allowable range where panoramic imaging is possible when the acquired measurement success / failure information indicates that measurement by the measurement unit has failed Including re-measurement processing for causing the measurement unit to re-measure the distance to the subject in a state where the position of the imaging range is changed.
  • the information processing method compared to the case where the distance to the subject is measured once for each of all the imaging ranges to be imaged in panorama imaging, It is possible to increase the degree of success in measuring the distance to the subject in each of all the imaging ranges.
  • a program according to a twentieth aspect of the present invention is directed to an imaging range designated as an imaging target before the individual imaging is performed among a plurality of imaging ranges to be imaged in panoramic imaging of a subject.
  • the measuring unit measures the distance to the subject by emitting directional light that is directional light toward the subject within the specified imaging range and receiving reflected light of the directional light.
  • the measurement success / failure information indicating whether the measurement by the measurement unit has succeeded or failed
  • the panorama imaging is within an allowable range.
  • the imaging target in the panoramic imaging is compared with the case where the distance to the subject is measured once for all the imaging ranges that are the imaging target in the panoramic imaging. It is possible to increase the degree of success in measuring the distance to the subject in each of all the imaging ranges.
  • all imaging to be imaged in panoramic imaging is performed.
  • the effect of increasing the degree of success in measuring the distance to the subject in each of the ranges can be obtained.
  • FIG. 6 is a front view showing an example of an appearance of a distance measuring apparatus according to the first to third embodiments. It is a side view aspect figure which shows an example of the aspect by which the position of the imaging range of the imaging device contained in the ranging apparatus which concerns on 1st and 2nd embodiment was changed to front view downward. It is a side view aspect figure which shows an example of the aspect by which the position of the imaging range of the imaging device contained in the ranging device which concerns on 1st and 2nd embodiment was changed to front view upper direction. It is a top view aspect figure which shows an example of the aspect by which the ranging apparatus main body contained in the ranging apparatus which concerns on 1st and 2nd embodiment is rotated in front view left-right direction.
  • FIG. 10 is a time chart showing an example of a measurement sequence by the distance measuring apparatus according to the first to third embodiments.
  • 6 is a time chart showing an example of a laser trigger, a light emission signal, a light reception signal, and a count signal required for performing one measurement by the distance measuring apparatus according to the first to third embodiments.
  • An example of a histogram of measurement values obtained by the measurement sequence by the distance measuring apparatus according to the first to third embodiments (histogram when the distance to the subject (measurement value) is on the horizontal axis and the number of measurements is on the vertical axis) It is a graph which shows.
  • FIG. 14 is a continuation of the flowchart shown in FIGS. 12 and 13. It is a continuation of the flowchart shown in FIG.
  • FIG. 17 is a schematic screen diagram illustrating an example of a screen on which a live view image indicating a subject in the imaging range illustrated in FIG. 16 and an imaging measurement start message are displayed.
  • FIG. 17 is a schematic screen diagram illustrating an example of a screen on which a live view image indicating a subject within the imaging range illustrated in FIG. 16 and a position change instruction reception screen are displayed.
  • FIG. 17 is a schematic screen diagram illustrating an example of a screen on which a live view image indicating a subject within the imaging range illustrated in FIG. 16 and a measurement failure message are displayed. It is a flowchart which shows an example of the flow of the dimension derivation
  • FIG. It is a schematic screen figure which shows an example of the screen of the state by which the length of the area on real space derived
  • FIG. 17 is a schematic screen diagram illustrating an example of a screen on which a live view image indicating a subject within the imaging range illustrated in FIG. 16 and minute change guidance information is displayed.
  • FIG. 17 is a schematic screen diagram illustrating an example of a screen on which a live view image indicating a subject within the imaging range illustrated in FIG. 16 and position change guidance information is displayed.
  • It is a flowchart which shows the modification of the one part process flow (process flow shown in FIG. 35) of the panorama imaging measurement process which concerns on 2nd Embodiment.
  • the distance from the distance measuring apparatus 10A to the subject to be measured is also simply referred to as “distance” or “distance to the subject”.
  • the angle of view with respect to the subject is also simply referred to as “angle of view”.
  • “ranging” refers to measurement of the distance to the subject.
  • a distance measuring device 10 ⁇ / b> A that is an example of an information processing device according to the technology of the present disclosure includes a distance measuring device main body 10 ⁇ / b> A ⁇ b> 1 and a change mechanism 11, and is supported by a tripod 13.
  • the distance measuring device main body 10A1 includes a distance measuring unit 12 and an imaging device 14.
  • the distance measurement unit 12 and a distance measurement control unit 68 are examples of the measurement unit according to the technique of the present disclosure.
  • the change mechanism 11 which is an example of the first and second change functions according to the technology of the present disclosure, includes a vertical rotation mechanism 15 and a horizontal rotation mechanism 17, and depends on power generated by motors 21 and 23 described later.
  • the imaging direction of the imaging device 14 is changed.
  • the vertical rotation mechanism 15 On the upper surface of the horizontal rotation mechanism 17, the vertical rotation mechanism 15 is disposed so as to overlap.
  • the distance measuring device main body 10A1 On the upper surface of the vertical rotation mechanism 15, the distance measuring device main body 10A1 is placed so as to overlap.
  • the lateral rotation mechanism 17 is detachably attached to the upper surface of the pan head 13A of the tripod 13.
  • a columnar rotation shaft 17A that stands up and down in the front view of the distance measuring device 10A.
  • the vertical rotation mechanism 15 rotates laterally via the rotation shaft 17A. It is rotatably attached to the mechanism 17.
  • a hot shoe 19 is provided on the lower surface of the imaging device 14, and the changing mechanism 11 is detachably attached to the imaging device 14 via the hot shoe 19.
  • the imaging device 14 includes a lens unit 16 and an imaging device body 18, and the lens unit 16 is detachably attached to the imaging device body 18.
  • the hot shoe 20 is provided on the left side of the imaging device main body 18 when viewed from the front, and the distance measuring unit 12 is detachably attached to the hot shoe 20.
  • the distance measuring device 10A includes a distance measuring function for performing distance measurement by emitting a distance measuring laser beam to the distance measuring unit 12, and an image capturing function for obtaining a captured image by causing the image capturing device 14 to capture an image of a subject. ing.
  • the captured image is also simply referred to as “image”.
  • the optical axis L1 (see FIG. 5) of the laser light emitted from the distance measuring unit 12 is the same height as the optical axis L2 (see FIG. 5) of the lens unit 16. It is assumed that this is the case.
  • the distance measuring device 10A performs one measurement sequence (see FIG. 6) in response to one instruction by using a distance measuring system function, and finally one measurement sequence is performed. One distance is output.
  • the ranging device 10A has a panoramic imaging measurement mode and a dimension derivation mode as operation modes of the ranging system function.
  • the panoramic imaging measurement mode is an operation mode in which distance measurement is performed together with panoramic imaging.
  • the dimension derivation mode is an operation mode in which the dimension of the real space area designated by the user is derived using a dimension derivation function described later based on the actually measured distance that is the distance measured by the distance measuring device 10A.
  • the distance measuring device 10A has a still image capturing mode and a moving image capturing mode as operation modes of the image capturing system function.
  • the still image capturing mode is an operation mode for capturing a still image
  • the moving image capturing mode is an operation mode for capturing a moving image.
  • the still image capturing mode and the moving image capturing mode are selectively set according to a user instruction.
  • the vertical rotation mechanism 15 includes power generated by a motor 23 (see FIG. 5) described later in a state where the distance measuring device main body 10 ⁇ / b> A ⁇ b> 1 is attached to the vertical rotation mechanism 15.
  • the distance measuring device main body 10A1 is rotated in the vertical direction when viewed from the front.
  • the distance measuring device main body 10 ⁇ / b> A ⁇ b> 1 is attached to the vertical rotation mechanism 15, and the vertical rotation mechanism 15 rotates counterclockwise around the center point a ⁇ b> 1 on the right side of the distance measurement device main body 10 ⁇ / b> A ⁇
  • the position of the imaging range is changed downward in front view.
  • the laser beam emission direction by the distance measuring unit 12 is also changed downward in the front view.
  • the imaging range refers to a range in real space that is an object of imaging by the imaging device 14.
  • the bottom portion of the vertical rotation mechanism 15 is fixed to the rotation shaft 17 ⁇ / b> A of the horizontal rotation mechanism 17.
  • the rotating shaft 17A is rotated by transmitting power generated by a motor 21 (see FIG. 5) described later as a rotational force.
  • the lateral rotation mechanism 17 receives the power generated by the motor 21 described later in a state in which the distance measuring device main body 10A1 is attached to the vertical rotation mechanism 15, thereby causing the distance measuring device main body 10A1 to move in the left-right direction when viewed from the front.
  • the horizontal rotation mechanism 17 rotates counterclockwise in plan view around the rotation axis 17A of the distance measurement device main body 10A1.
  • the position is changed to the right in the front view.
  • the laser beam emission direction by the distance measuring unit 12 is also changed to the right in the front view.
  • the horizontal rotation mechanism 17 rotates counterclockwise in plan view around the rotation shaft 17A of the distance measurement device main body 10A1.
  • the position is changed to the left in the front view.
  • the laser beam emission direction by the distance measuring unit 12 is also changed to the left in the front view.
  • the distance measuring unit 12 includes an emitting unit 22, a light receiving unit 24, and a connector 26.
  • the connector 26 can be connected to the hot shoe 20, and the distance measuring unit 12 operates under the control of the imaging apparatus main body 18 with the connector 26 connected to the hot shoe 20.
  • the emitting unit 22 includes an LD (Laser Diode) 30, a condenser lens (not shown), an objective lens 32, and an LD driver 34.
  • LD Laser Diode
  • condenser lens not shown
  • objective lens 32 an objective lens
  • LD driver 34 an LD driver
  • the condenser lens and objective lens 32 are provided along the optical axis L1 of the laser light emitted from the LD 30, and are arranged in the order of the condenser lens and objective lens 32 along the optical axis L1 from the LD 30 side. .
  • the LD 30 emits laser light for distance measurement, which is an example of directional light according to the technology of the present disclosure.
  • the laser beam emitted by the LD 30 is a colored laser beam. For example, if the laser beam is within a range of about several meters from the emission unit 22, the irradiation position of the laser beam is visually recognized in real space and imaged. It is also visually recognized from a captured image obtained by imaging by the device 14.
  • the condensing lens condenses the laser light emitted by the LD 30 and passes the condensed laser light.
  • the objective lens 32 faces the subject and emits laser light that has passed through the condenser lens to the subject.
  • the LD driver 34 is connected to the connector 26 and the LD 30 and drives the LD 30 in accordance with an instruction from the imaging apparatus main body 18 to emit laser light.
  • the light receiving unit 24 includes a PD (Photo Diode) 36, an objective lens 38, and a light reception signal processing circuit 40.
  • the objective lens 38 is disposed on the light receiving surface side of the PD 36, and reflected laser light, which is laser light reflected by the laser light emitted by the emission unit 22 when hitting the subject, is incident on the objective lens 38.
  • the objective lens 38 passes the reflected laser light and guides it to the light receiving surface of the PD 36.
  • the PD 36 receives the reflected laser light that has passed through the objective lens 38, and outputs an analog signal corresponding to the amount of received light as a light reception signal.
  • the light reception signal processing circuit 40 is connected to the connector 26 and the PD 36, amplifies the light reception signal input from the PD 36 by an amplifier (not shown), and performs A / D (Analog / Digital) conversion on the amplified light reception signal. I do. Then, the light reception signal processing circuit 40 outputs the light reception signal digitized by A / D conversion to the imaging apparatus body 18.
  • the imaging device 14 includes mounts 42 and 44.
  • the mount 42 is provided in the imaging apparatus main body 18, and the mount 44 is provided in the lens unit 16.
  • the lens unit 16 is attached to the imaging apparatus main body 18 in a replaceable manner by coupling the mount 44 to the mount 42.
  • the lens unit 16 includes a focus lens 50, a zoom lens 52, a focus lens moving mechanism 53, a zoom lens moving mechanism 54, and motors 56 and 57.
  • Subject light that is reflected light from the subject is incident on the focus lens 50.
  • the focus lens 50 passes the subject light and guides it to the zoom lens 52.
  • a focus lens 50 is attached to the focus lens moving mechanism 53 so as to be slidable with respect to the optical axis L2.
  • a motor 57 is connected to the focus lens moving mechanism 53, and the focus lens moving mechanism 53 receives the power of the motor 57 and slides the focus lens 50 along the direction of the optical axis L2.
  • a zoom lens 52 is attached to the zoom lens moving mechanism 54 so as to be slidable with respect to the optical axis L2. Further, a motor 56 is connected to the zoom lens moving mechanism 54, and the zoom lens moving mechanism 54 slides the zoom lens 52 along the optical axis L2 direction by receiving the power of the motor 56.
  • the motors 56 and 57 are connected to the image pickup apparatus main body 18 via mounts 42 and 44, and their driving is controlled in accordance with commands from the image pickup apparatus main body 18.
  • the change mechanism 11 includes a vertical rotation mechanism 15, a horizontal rotation mechanism 17, motors 21 and 23, and a connector 25.
  • the motor 21 and the motor 23 which are examples of the first power source and the second power source according to the technology of the present disclosure are connected to the connector 25.
  • the connector 25 can be connected to the hot shoe 19.
  • the motors 21 and 23 are connected to the imaging device main body 18, and driving is controlled in accordance with a command from the imaging device main body 18.
  • a stepping motor is used as an example of the motors 21, 23, 56, and 57. Therefore, the motors 21, 23, 56, and 57 operate in synchronization with the pulse power in response to a command from the imaging device main body 18.
  • the imaging device main body 18 includes an imaging device 60, a main control unit 62, an image memory 64, an image processing unit 66, a distance measurement control unit 68, motor drivers 29, 31, 72, 73, an imaging device driver 74, and an image signal processing circuit 76. And a display control unit 78.
  • the imaging apparatus main body 18 includes a touch panel I / F (interface) 79, a reception I / F 80, and a media I / F 82.
  • the main control unit 62, the image memory 64, the image processing unit 66, the distance measurement control unit 68, the motor drivers 29, 31, 72, 73, the image sensor driver 74, the image signal processing circuit 76, and the display control unit 78 are bus lines. 84.
  • a touch panel I / F 79, a reception I / F 80, and a media I / F 82 are also connected to the bus line 84.
  • the imaging element 60 is a CMOS (Complementary Metal Oxide Semiconductor) type image sensor, and includes a color filter (not shown).
  • the color filter includes a G filter corresponding to G (green) that contributes most to obtain a luminance signal, an R filter corresponding to R (red), and a B filter corresponding to B (blue).
  • the imaging element 60 includes an imaging pixel group 60A including a plurality of imaging pixels 60A1 arranged in a matrix. Each of the imaging pixels 60A1 is assigned with any one of an R filter, a G filter, and a B filter included in the color filter, and the imaging pixel group 60A captures the subject by receiving the subject light.
  • the subject light that has passed through the zoom lens 52 is imaged on the imaging surface 60B, which is the light receiving surface of the imaging device 60, and charges corresponding to the amount of received light of the subject light are accumulated in the imaging pixel 60A1.
  • the imaging element 60 outputs the electric charge accumulated in each imaging pixel 60A1 as an image signal indicating an image corresponding to a subject image obtained by imaging subject light on the imaging surface 60B.
  • the main control unit 62 controls the entire distance measuring device 10 ⁇ / b> A via the bus line 84.
  • the motor driver 72 is connected to the motor 56 via the mounts 42 and 44, and controls the motor 56 in accordance with instructions from the main control unit 62.
  • the motor driver 73 is connected to the motor 57 via the mounts 42 and 44, and controls the motor 57 in accordance with instructions from the main control unit 62.
  • the imaging device 14 has a view angle changing function.
  • the angle of view changing function is a function of changing the angle of view by moving the zoom lens 52.
  • the angle of view changing function includes the zoom lens 52, the zoom lens moving mechanism 54, the motor 56, and the motor driver 72. , And the main control unit 62.
  • the optical angle-of-view changing function by the zoom lens 52 is illustrated, but the technology of the present disclosure is not limited to this, and an electronic angle of view that does not use the zoom lens 52. It may be a change function.
  • the image sensor driver 74 is connected to the image sensor 60 and supplies drive pulses to the image sensor 60 under the control of the main control unit 62.
  • Each imaging pixel 60A1 included in the imaging pixel group 60A is driven according to a driving pulse supplied to the imaging element 60 by the imaging element driver 74.
  • the image signal processing circuit 76 is connected to the image sensor 60, and reads an image signal for one frame from the image sensor 60 for each imaging pixel 60A1 under the control of the main control unit 62.
  • the image signal processing circuit 76 performs various processes such as correlated double sampling processing, automatic gain adjustment, and A / D conversion on the read image signal.
  • the image signal processing circuit 76 converts the image signal digitized by performing various processes on the image signal into a specific frame rate (for example, several tens frames / s) defined by the clock signal supplied from the main control unit 62. Second) for every frame.
  • the image memory 64 temporarily holds the image signal input from the image signal processing circuit 76.
  • the motor driver 29 is connected to the motor 21 via the hot shoe 19 and the connector 25, and controls the motor 21 in accordance with an instruction from the main control unit 62.
  • the motor driver 31 is connected to the motor 23 via the hot shoe 19 and the connector 25, and controls the motor 23 in accordance with an instruction from the main control unit 62.
  • the power generated by the motor 21 is transmitted to the horizontal rotation mechanism 17, and the power generated by the motor 23 is transmitted to the vertical rotation mechanism 15.
  • the imaging apparatus main body 18 includes a display unit 86, a touch panel 88, a reception device 90, and a memory card 92, which are examples of first to fifth display units according to the technology of the present disclosure.
  • the display unit 86 is connected to the display control unit 78 and displays various information under the control of the display control unit 78.
  • the display unit 86 is realized by, for example, an LCD (Liquid Crystal Display).
  • the touch panel 88 is superimposed on the display screen of the display unit 86, and accepts contact with a user's finger or an indicator such as a touch pen.
  • the touch panel 88 is connected to the touch panel I / F 79 and outputs position information indicating the position touched by the indicator to the touch panel I / F 79.
  • the touch panel I / F 79 operates the touch panel 88 according to an instruction from the main control unit 62 and outputs position information input from the touch panel 88 to the main control unit 62.
  • the touch panel 88 is illustrated, but not limited thereto, a mouse (not shown) connected to the distance measuring device 10A and used instead of the touch panel 88 may be applied.
  • the touch panel 88 and a mouse may be used in combination.
  • the reception device 90 includes an imaging measurement button 90A, an imaging button (not shown), an imaging system operation mode switching button 90B, a wide-angle instruction button 90C, a telephoto instruction button 90D, a panorama imaging measurement button 90E, and a dimension derivation button 90F.
  • the reception device 90 also includes a vertical rotation rotary switch 90G and a horizontal rotation rotary switch 90H, and receives various instructions from the user.
  • the reception device 90 is connected to the reception I / F 80, and the reception I / F 80 outputs an instruction content signal indicating the content of the instruction received by the reception device 90 to the main control unit 62.
  • the imaging measurement button 90A is a press-type button that receives an instruction to start imaging and measurement.
  • the imaging button is a push button that receives an instruction to start imaging.
  • the imaging system operation mode switching button 90B is a push-type button that receives an instruction to switch between the still image capturing mode and the moving image capturing mode.
  • the wide-angle instruction button 90C is a press-type button that receives an instruction to change the angle of view.
  • the amount of change of the angle of view to the wide-angle side is within an allowable range, and the pressure on the wide-angle instruction button 90C is continued. It depends on the pressing time.
  • the telephoto instruction button 90D is a push-type button that accepts an instruction to set the angle of view to telephoto.
  • the amount of change of the angle of view to the telephoto side is within an allowable range, and the press to the telephoto instruction button 90D is continued. It depends on the pressing time.
  • the panorama imaging measurement button 90E is a push button that receives an instruction to start panorama imaging measurement processing described later.
  • the dimension derivation button 90F is a push button that receives an instruction to start a dimension derivation process described later.
  • the rotary switch 90G for vertical rotation is a rotary switch that receives an instruction to operate the vertical rotation mechanism 15 to change the position of the imaging range and the irradiation direction of the laser light in the vertical direction when viewed from the front.
  • the horizontal rotation rotary switch 90H is a rotary switch that accepts an instruction to operate the horizontal rotation mechanism 17 to change the position of the imaging range and the irradiation direction of the laser light in the left-right direction when viewed from the front.
  • the manual focus mode and the autofocus mode are selectively set according to a user instruction via the reception device 90.
  • the release button receives a two-stage pressing operation of an imaging preparation instruction state and an imaging instruction state.
  • the imaging preparation instruction state refers to, for example, a state where the release button is pressed from the standby position to the intermediate position (half-pressed position), and the imaging instruction state refers to the final pressed position (full-pressed when the release button exceeds the intermediate position). The position is pressed down to (position).
  • half-pressed state the state where the release button is pressed from the standby position to the half-pressed position
  • full-pressed state the state where the release button is pressed from the standby position to the full-pressed position”. Is referred to as a “fully pressed state”.
  • the imaging condition is adjusted by pressing the release button halfway, and then the main exposure is performed when the release button is fully pressed.
  • the release button is pressed halfway, the exposure adjustment is performed by the AE (Automatic Exposure) function, and then the focus adjustment is performed by the AF (Auto-Focus) function.
  • the main exposure is performed.
  • the main exposure refers to exposure performed to obtain a still image file described later.
  • exposure means exposure performed for obtaining a live view image described later and exposure performed for obtaining a moving image file described later in addition to the main exposure.
  • exposure means exposure performed for obtaining a live view image described later and exposure performed for obtaining a moving image file described later in addition to the main exposure.
  • the main control unit 62 performs exposure adjustment by the AE function and focus adjustment by the AF function. Moreover, although the case where exposure adjustment and focus adjustment are performed is illustrated in the present embodiment, the technology of the present disclosure is not limited to this, and exposure adjustment or focus adjustment may be performed. .
  • the image processing unit 66 acquires an image signal for each frame from the image memory 64 at a specific frame rate, and performs various processes such as gamma correction, luminance color difference conversion, and compression processing on the acquired image signal.
  • the image processing unit 66 outputs an image signal obtained by performing various processes to the display control unit 78 frame by frame at a specific frame rate. Further, the image processing unit 66 outputs an image signal obtained by performing various processes to the main control unit 62 in response to a request from the main control unit 62.
  • the display control unit 78 outputs the image signal input from the image processing unit 66 to the display unit 86 at a specific frame rate for each frame under the control of the main control unit 62.
  • the display unit 86 displays images, character information, and the like.
  • the display unit 86 displays the image indicated by the image signal input at a specific frame rate from the display control unit 78 as a live view image.
  • the live view image is a continuous frame image obtained by continuously capturing images, and is also referred to as a through image.
  • the display unit 86 also displays a still image that is a single frame image obtained by imaging in a single frame. Further, the display unit 86 displays a playback image, a menu screen, and the like in addition to the live view image.
  • the image processing unit 66 and the display control unit 78 are realized by ASIC (Application Specific Integrated Circuit), but the technology of the present disclosure is not limited to this.
  • each of the image processing unit 66 and the display control unit 78 may be realized by an FPGA (Field-Programmable Gate Array).
  • the image processing unit 66 may be realized by a computer including a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory).
  • the display control unit 78 may also be realized by a computer including a CPU, a ROM, and a RAM.
  • each of the image processing unit 66 and the display control unit 78 may be realized by a combination of a hardware configuration and a software configuration.
  • the main control unit 62 controls the image sensor driver 74 to cause the image sensor 60 to perform exposure for one frame when an instruction to capture a still image is received by the release button in the still image capturing mode.
  • the main control unit 62 acquires an image signal obtained by performing exposure for one frame from the image processing unit 66, performs a compression process on the acquired image signal, and performs still image processing in a specific still image format. Generate an image file.
  • the specific still image format refers to, for example, JPEG (Joint Photographic Experts Group).
  • the main control unit 62 When an instruction to capture a moving image is received by the release button in the moving image capturing mode, the main control unit 62 outputs an image signal output from the image processing unit 66 to the display control unit 78 as a live view image for a specific frame. Get every frame at the rate. Then, the main control unit 62 performs a compression process on the image signal acquired from the image processing unit 66 to generate a moving image file in a specific moving image format.
  • the specific moving image format refers to, for example, MPEG (Moving Picture Experts Group).
  • MPEG Motion Picture Experts Group
  • the media I / F 82 is connected to the memory card 92, and records and reads image files from and to the memory card 92 under the control of the main control unit 62. Note that the image file read from the memory card 92 by the media I / F 82 is decompressed by the main control unit 62 and displayed on the display unit 86 as a reproduced image.
  • the main control unit 62 associates the distance information input from the distance measurement control unit 68 with the image file, and stores it in the memory card 92 via the media I / F 82.
  • the distance information is read from the memory card 92 through the media I / F 82 by the main control unit 62 together with the image file, and the distance indicated by the read distance information is displayed together with the reproduced image by the related image file. Displayed on the part 86.
  • the distance measurement control unit 68 controls the distance measurement unit 12 under the control of the main control unit 62.
  • the ranging control unit 68 is realized by an ASIC, but the technology of the present disclosure is not limited to this.
  • the distance measurement control unit 68 may be realized by an FPGA.
  • the distance measurement control unit 68 may be realized by a computer including a CPU, a ROM, and a RAM. Further, the distance measurement control unit 68 may be realized by a combination of a hardware configuration and a software configuration.
  • the hot shoe 20 is connected to the bus line 84, and the distance measurement control unit 68 controls the LD driver 34 under the control of the main control unit 62 to control the light emission of the laser beam by the LD 30.
  • a light reception signal is acquired from the signal processing circuit 40.
  • the distance measurement control unit 68 derives the distance to the subject based on the timing at which the laser light is emitted and the timing at which the light reception signal is acquired, and outputs distance information indicating the derived distance to the main control unit 62.
  • the measurement of the distance to the subject by the distance measurement control unit 68 will be described in more detail.
  • one measurement sequence by the distance measuring device 10A is defined by a voltage adjustment period, an actual measurement period, and a pause period.
  • the voltage adjustment period is a period for adjusting the drive voltage of the LD 30 and the PD 36.
  • the actual measurement period is a period during which the distance to the subject is actually measured. In the actual measurement period, the operation of causing the LD 30 to emit laser light and causing the PD 36 to receive reflected laser light is repeated several hundred times. Based on the timing at which the laser light is emitted and the timing at which the received light signal is obtained, Is derived.
  • the pause period is a period for stopping the driving of the LD 30 and the PD 36. Therefore, in one measurement sequence, the distance to the subject is measured several hundred times.
  • each of the voltage adjustment period, the actual measurement period, and the rest period is set to several hundred milliseconds.
  • the distance measurement control unit 68 is supplied with a count signal that defines the timing at which the distance measurement control unit 68 gives an instruction to emit laser light and the timing at which a light reception signal is acquired.
  • the count signal is generated by the main control unit 62 and supplied to the distance measurement control unit 68, but is not limited thereto, and is generated by a dedicated circuit such as a time counter connected to the bus line 84. You may make it supply to the ranging control part 68.
  • the ranging control unit 68 outputs a laser trigger for emitting laser light to the LD driver 34 in accordance with the count signal.
  • the LD driver 34 drives the LD 30 to emit laser light according to the laser trigger.
  • the laser light emission time is set to several tens of nanoseconds.
  • the time until the laser light emitted toward the subject several kilometers ahead by the emitting unit 22 is received by the PD 36 as reflected laser light is “several kilometers ⁇ 2 / light speed” ⁇ several microseconds. Therefore, in order to measure the distance to the subject several kilometers away, as shown in FIG. 6 as an example, a minimum required time of several microseconds is required.
  • the measurement time of one time is set to several milliseconds.
  • the round trip time of the laser beam depends on the distance to the subject. Since they are different, the measurement time per time may be varied according to the assumed distance.
  • the distance measurement control unit 68 derives the distance to the subject based on the measurement values obtained from several hundred measurements in one measurement sequence, for example, a histogram of the measurement values obtained from several hundred measurements To derive the distance to the subject.
  • the horizontal axis is the distance to the subject
  • the vertical axis is the number of measurements
  • the number of measurements is derived by the distance measurement control unit 68 as a distance measurement result.
  • the histogram shown in FIG. 8 is merely an example, based on the round trip time of laser light (elapsed time from light emission to light reception) or 1/2 of the round trip time of laser light instead of the distance to the subject. A histogram may be generated.
  • the main control unit 62 includes a CPU 100, a primary storage unit 102, and a secondary storage unit 104, which are examples of an acquisition unit and an execution unit according to the technology of the present disclosure.
  • the CPU 100 controls the entire distance measuring device 10A.
  • the primary storage unit 102 is a volatile memory used as a work area or the like when executing various programs.
  • An example of the primary storage unit 102 is a RAM.
  • the secondary storage unit 104 is a non-volatile memory that stores in advance a control program for controlling the operation of the distance measuring apparatus 10A, various parameters, or the like. Examples of the secondary storage unit 104 include an EEPROM (Electrically Erasable Programmable Read Only Memory) or a flash memory.
  • the CPU 100, the primary storage unit 102, and the secondary storage unit 104 are connected to each other via the bus line 84.
  • the secondary storage unit 104 stores a panorama imaging measurement program 105A and a dimension derivation program 106A.
  • the panorama imaging measurement program 105A is an example of a program according to the technology of the present disclosure.
  • the CPU 100 reads the panorama imaging measurement program 105A from the secondary storage unit 104, and develops the read panorama imaging measurement program 105A in the primary storage unit 102. Then, the CPU 100 executes the panorama imaging measurement program 105A developed in the primary storage unit 102.
  • the CPU 100 operates as the acquisition unit 110A and the execution unit 112A as illustrated in FIG. 10 as an example by executing the panorama imaging measurement program 105A.
  • the designated imaging range refers to an imaging range designated as an imaging target before individual imaging is performed among a plurality of imaging ranges that are imaging targets in panoramic imaging of a subject.
  • Individual imaging refers to one-time imaging for still images in panoramic imaging, for example.
  • the measurement processing refers to processing for causing the distance measurement unit 12 and the distance measurement control unit 68 to measure the distance to the subject.
  • the measurement success / failure information refers to information indicating whether the distance measurement to the subject by the distance measurement unit 12 and the distance measurement control unit 68 has succeeded or failed.
  • the distance measurement unit 12 and the distance measurement control unit 68 are also referred to as “measurement unit” without reference numerals.
  • the measurement of the distance to the subject by the measurement unit is also simply referred to as “measurement by the measurement unit”.
  • re-measurement of the distance to the subject by the measurement unit is also simply referred to as “re-measurement by the measurement unit”.
  • the execution unit 112A re-executes in a state where the position of the designated imaging range is changed within the allowable range where panoramic imaging is possible. Execute the measurement process.
  • the remeasurement process refers to a process including a process of causing the measurement unit to remeasure the distance to the subject.
  • the position of the designated imaging range is changed by operating the change mechanism 11 under the initiative of the main control unit 62, but the technology of the present disclosure is not limited to this, and the user is not limited to this.
  • the position of the designated imaging range may be changed manually by.
  • the CPU 100 reads the dimension derivation program 106A from the secondary storage unit 104, and expands the read dimension derivation program 106A to the primary storage unit 102. Then, the CPU 100 executes the dimension derivation program 106A developed in the primary storage unit 102.
  • the distance measuring device 10A is provided with a dimension deriving function, and the dimension deriving function is a function realized by the CPU 100 executing the dimension deriving program 106A.
  • the dimension derivation function is based on the real space included in the subject based on the addresses u1 and u2 of the designated pixels and the distance L to the subject measured by the measurement unit. It refers to or derive the length L M of the area, a function or to derive an area based on the length L M.
  • the distance L to the subject indicates an actually measured distance.
  • the distance L to the subject is simply referred to as “distance L”.
  • the length L M of the area in the real space included in the subject is simply referred to as “length L M ”.
  • the “designated pixel” refers to a pixel in the image sensor 60 corresponding to, for example, two points designated on the captured image by the user.
  • the length L M is calculated, for example, by the following equation (1).
  • Equation (1) p is a pitch between pixels included in the image pickup device 60, u1, u2 is the address of the pixel that is specified by the user, f 0 is the focal length.
  • Formula (1) is a formula used on the assumption that an object to be derived from a dimension is imaged in a state of facing the focus lens 50 in front view. Therefore, in the distance measuring device 10A, for example, when a subject including an object whose size is to be derived is captured in a state where the subject is not directly facing the focus lens 50 in front view, projective conversion processing is performed. .
  • the projective transformation process is, for example, converting a captured image obtained by imaging into an image corresponding to a front-view image based on a rectangular image included in the captured image using a known technique such as affine transformation. Refers to the process to convert.
  • the directly-facing image refers to an image in a state of facing the focus lens 50 in a front view.
  • the pixel address u1, u2 in the image pickup device 60 is specified via the confronting vision image, the length L M is derived from Equation (1).
  • long press refers to an operation of continuously turning on a button such as the panorama imaging measurement button 90E included in the reception device 90 for a first predetermined time (for example, 3 seconds) or more.
  • first predetermined time for example, 3 seconds
  • normal press refers to an operation of turning on a button within a range less than the first predetermined time.
  • the outer wall surface 121 is formed in a planar shape, and is an example of a planar region according to the technique of the present disclosure.
  • a plurality of rectangular windows 122 are provided on the outer wall surface 121.
  • a laterally long rectangular pattern 124 is drawn on the lower side of each window 122 on the outer wall surface 121, but not limited to this, the outer wall surface 121 is attached to the outer wall surface 121. It may be dirt or wrinkles.
  • the “planar shape” includes not only a flat surface but also a planar shape in a range that allows slight unevenness due to a window or a vent, for example, by visual observation or an existing image. Any plane or plane shape recognized as “planar” by an analysis technique may be used.
  • the distance measurement apparatus 10A will be described on the assumption that the distance to the outer wall surface 121 is measured by irradiating the outer wall surface 121 with laser light.
  • the position of the imaging range 115 is indicated by the direction of arrow A along the center line CL passing through the center of the imaging range 115 in the left-right direction in the front view.
  • the description will be made on the premise that panoramic imaging is performed while changing to.
  • the range R 1 for example, be determined by the stage before execution of the panorama imaging measurement process is started. Determination of the range R 1 is realized by, for example, in the range under determinate is an operation mode for the range R 1 determinable.
  • the panoramic imaging measurement button 90E is normally pressed by the user, the distance measuring device 10A shifts to the range determination mode.
  • the guide screen determined range R 1 is a screen for guiding the operating procedures to complete (not shown), and determines the range R 1 is completed The user performs necessary operations while viewing the guidance screen.
  • the range R 1 is determined by setting the position of the first imaging range 115 and the position of the last imaging range 115 according to the operation of the rotary switch by the user and the instruction received via the touch panel 88. Is done.
  • the first imaging range 115 indicates the imaging range 115 that is the first imaging target in panoramic imaging.
  • the last imaging range 115 refers to the imaging range 115 that is the last imaging in panoramic imaging.
  • the user When the display of the above-described guidance screen is started under the range determination mode, first, the user operates the rotary switch to operate the change mechanism 11 so that the position of the imaging range 115 is changed to the position of the first imaging range 115. To reach the position desired by the user. When a special operation is accepted by the touch panel 88 while the position of the imaging range 115 is maintained at a position desired by the user, the current position of the imaging range 115 is set as the position of the first imaging range 115.
  • the special operation includes, for example, a double tap operation with respect to a specific area of the touch panel 88 (for example, a central part of the touch panel 88).
  • the current imaging range 115 is an imaging range designated as an imaging target before imaging is performed, and is an imaging range 115 that includes a subject that can be imaged by the imaging device 14 at the present time. Point to.
  • the change mechanism 11 is operated to cause the position of the imaging range 115 to reach the position desired by the user as the position of the last imaging range 115.
  • the current position of the imaging range 115 is determined as the position of the last imaging range 115.
  • the range R 1 is determined, by changing mechanism 11 under the control of the main control unit 62 is actuated, the position of the imaging range 115 is returned to the position of the first imaging range 115, CPU 100 is a panoramic A long press standby state for the imaging measurement button 90E is entered.
  • panorama imaging measurement processing shown in FIGS. 12 to 15 is executed.
  • the imaging range 115 to be imaged for a still image in the panoramic imaging in the range R 1 by the panorama imaging measurement process is executed, the specified imaging range according to the techniques of this disclosure It is an example.
  • the first imaging range 115 is referred to as “imaging range 115A” as shown in FIG. 16 as an example.
  • imaging range 115A the imaging range 115 that is the second imaging target in panoramic imaging
  • imaging range 115B the imaging range 115 that is the second imaging target in panoramic imaging
  • imaging range 115C the imaging range 115 that is the third imaging target in panoramic imaging
  • four pixels that can specify four vertices that define a quadrangle are captured in a captured image obtained by capturing a subject in at least one of the plurality of imaging ranges 115. It is assumed that it is included.
  • step 200 the acquisition unit 110 ⁇ / b> A displays an imaging measurement start message 134 in the display area of the live view image as shown in FIG. 19 as an example. Is started, and then the process proceeds to step 202.
  • the imaging measurement start message 134 a message “Please turn on the imaging measurement button” is employed, but this is merely an example, and imaging by the imaging device 14 and measurement start by the measurement unit are started. Any message may be used as long as it prompts the user.
  • FIG. 19 shows a case where the imaging measurement start message 134 is visibly displayed.
  • an audible display such as an audio output by an audio reproduction device (not shown) or a permanent output such as an output of a printed matter by a printer.
  • the visible display may be performed instead of the visible display, or may be used in combination.
  • step 202 the acquisition unit 110A determines whether or not the imaging measurement button 90A is turned on. In step 202, if the imaging measurement button 90A is not turned on, the determination is negative and the determination in step 202 is performed again. If the imaging measurement button 90A is turned on in step 202, the determination is affirmed and the routine proceeds to step 204.
  • the operation for turning on the imaging measurement button 90A is an example of the “instruction to start measurement by the measurement unit” according to the technique of the present disclosure.
  • step 204 the acquisition unit 110A ends the display of the imaging measurement start message on the display unit 86, and then proceeds to step 206.
  • step 206 the execution unit 112A determines whether or not the number of times still image capturing has been performed since the execution of the panorama imaging measurement process is started is zero. Whether or not still image capturing has been performed since the execution of the panorama image capturing measurement process has been started is determined based on whether or not processing in step 268 described later has been performed.
  • step 206 if the number of times of taking a still image after the execution of the panorama imaging measurement process is started is one or more, the determination is negative and the process proceeds to step 256. In step 206, if the number of times still image capturing has been performed since the start of the panorama imaging measurement process is 0, the determination is affirmative and the process proceeds to step 208.
  • step 208 the execution unit 112A searches for a four-vertex corresponding pixel that is an example of the first and second multi-vertex pixels according to the technique of the present disclosure for a live view image that indicates a subject in the imaging range 115, and Thereafter, the process proceeds to step 210.
  • both the first and second multi-vertex pixels indicate at least four or more pixels that define polygonal vertices among pixels included in the captured image.
  • the first multi-vertex pixel refers to at least four or more pixels that define a polygonal vertex among the pixels included in the first captured image.
  • the first captured image refers to a captured image obtained by capturing an image of a subject in one imaging range 115 where imaging is performed earlier in the adjacent imaging range.
  • the adjacent imaging range refers to the adjacent imaging range 115 in the plurality of imaging ranges 115.
  • the four-vertex pixels are cited as examples of the first and second multi-vertex pixels.
  • the technology of the present disclosure is not limited to this, and a polygonal shape is used. Any substitution is possible as long as it is at least four or more pixels defining the vertex.
  • the four-vertex corresponding pixel refers to four pixels that define the four vertices of a square in the captured image.
  • the subject in the imaging range 115 includes four real spaces, which are four vertices that define a quadrangle, and the four real spaces correspond to pixels corresponding to four vertices.
  • vertices 126A, 126B, 126C, and 126D that are the four vertices of the outer frame of the window 122 in the imaging range 115A correspond to the four vertices of the real space.
  • a live view image obtained by imaging the subject in the imaging range 115A is shown.
  • the pixels 128A, 128B, 128C, and 128D which are the four pixels corresponding to the vertices 126A, 126B, 126C, and 126D, correspond to the four-vertex corresponding pixels.
  • Step 210 the execution unit 112A determines whether or not the four-vertex corresponding pixel exists in the live view image indicating the subject in the imaging range 115.
  • pixels 128A, 128B, 128C, and 128D exist as pixels corresponding to four vertices in the live view image that shows the subject in the imaging range 115A.
  • the subject in the imaging range 115B also includes vertices 126A, 126B, 126C, and 126D as the four vertices of the real space. Therefore, the pixels 128A, 128B, 128C, and 128D also exist as pixels corresponding to four vertices in the live view image showing the subject in the imaging range 115B, as in the example shown in FIG.
  • the subject within the imaging range 115C includes vertices 126C, 126D, 126E, and 126F as the four vertices of the real space. Accordingly, in this case, the four-vertex corresponding pixels corresponding to the vertices 126C, 126D, 126E, and 126F exist in the live view image that shows the subject in the imaging range 115C.
  • step 210 if the four-vertex corresponding pixel exists in the live view image indicating the subject in the imaging range 115, the determination is affirmed, and the process proceeds to step 218.
  • step 210 when the four-vertex corresponding pixel does not exist in the live view image indicating the subject in the imaging range 115, the determination is negative and the process proceeds to step 214.
  • step 214 the execution unit 112A determines whether or not an unallocated area exists within the first allowable range.
  • the non-arranged area refers to an area in which the imaging range 115 is not yet arranged within the first allowable range when a search for pixels corresponding to four vertices is performed.
  • the first allowable range refers to a range in which the imaging range 115 is enlarged in the left-right direction of the front view with respect to the imaging range 115 and is allowed as a range where panoramic imaging is possible.
  • the range 130 corresponds to the first allowable range.
  • the range 130 is a range obtained by enlarging the imaging range 115 by 1.5 times as an example in the left-right direction in front view with respect to the imaging range 115A.
  • step 214 if there is an unarranged area within the first allowable range, the determination is affirmed and the process proceeds to step 216.
  • step 214 if there is no unplaced area within the first allowable range, the determination is negative. If the determination in step 214 is negative, the execution unit 112A stores the position specifying information in time series in the first storage area (not shown) of the primary storage unit 102, and then proceeds to step 222.
  • the position specifying information refers to information for specifying the current position of the imaging range 115.
  • the position specifying information is derived based on, for example, the rotation direction and the rotation amount by the vertical rotation mechanism 15 and the horizontal rotation mechanism 17.
  • the rotation direction and rotation amount by the vertical rotation mechanism 15 are specified by, for example, the rotation direction and rotation amount of the motor 23, and the rotation direction and rotation amount by the horizontal rotation mechanism 17 are specified by, for example, the rotation direction and rotation amount of the motor 21. Is done.
  • step 216 the execution unit 112A operates the changing mechanism 11 with the unarranged area within the first allowable range as the change destination, thereby slightly changing the position of the imaging range 115 in the unarranged direction, and then step 208.
  • the non-arranged direction refers to the direction in which the non-arranged area exists.
  • the arrow B direction and the arrow C direction in the range 130 correspond to the non-arranged direction.
  • the minute change refers to a change with a predetermined change amount of the position of the imaging range 115 within the first allowable range.
  • the default change amount is, for example, a change amount for one time derived so that the position of the imaging range 115 is changed dozens of times (for example, 20 times) within the first allowable range so that the non-arranged area disappears. Point to.
  • the “tens of times” referred to here may be a fixed number of times, or may be a number of times that can be changed according to a user instruction.
  • the execution unit 112A stores the first pixel specifying coordinates and the position specifying information in time series in the first storage area of the primary storage unit 102, and then proceeds to step 220.
  • the first pixel specifying coordinates refer to coordinates that specify the positions of the four-vertex corresponding pixels obtained by searching among the pixels in the live view image indicating the subject in the current imaging range 115.
  • step 220 the execution unit 112A turns on the 4 vertex flag indicating that the current imaging range 115 includes 4 vertices in the real space, and then proceeds to step 222.
  • step 222 the execution unit 112A causes the measurement unit to start measuring the distance to the subject by emitting laser light toward the subject in the current imaging range 115, and then proceeds to step 224. .
  • the execution unit 112A determines whether the measurement by the measurement unit is finished.
  • the distance derivation successful state is a state where the derivation of the distance to the subject is successful, that is, the reflected light of the laser beam emitted from the emitting unit 22 is received by the PD 36 of the light receiving unit 24 and the distance measurement control unit 68 reaches the subject. The state where the distance of is derived.
  • the distance derivation failure state is measured because the reflected light of the laser beam emitted from the emitting unit 22 is not received by the PD 36 of the light receiving unit 24 or the amount of light received by the PD 36 does not reach a predetermined amount of received light. This indicates a state in which the distance to the subject has not been derived by the distance control unit 68.
  • the predetermined amount of received light refers to the amount of received light obtained in advance as the amount of received light that is effective in deriving the distance to the subject, for example, by a test using an actual machine or computer simulation.
  • step 224 if the measurement by the measurement unit is not completed, the determination is denied and the determination in step 224 is performed again. In step 224, when the measurement by the measurement unit is completed, the determination is affirmed and the process proceeds to step 226.
  • step 226 the acquisition unit 110A acquires the measurement result by the measurement unit from the distance measurement control unit 68, and then proceeds to step 228.
  • the measurement results are roughly classified into measurement results in the distance derivation success state and measurement results in the distance derivation failure state.
  • the measurement result in the distance derivation successful state indicates the actually measured distance.
  • the measurement result in the distance derivation failure state refers to measurement failure information indicating that measurement by the measurement unit has failed. Note that the measurement result acquired by the acquisition unit 110A by executing the processing of step 226 is an example of measurement success / failure information according to the technique of the present disclosure.
  • step 228, the execution unit 112A determines whether the measurement by the measurement unit is successful using the measurement result acquired by the acquisition unit 110A. That is, in this step 226, the execution unit 112A determines that the measurement by the measurement unit is successful when the measurement result acquired by the acquisition unit 110A is an actual measurement distance. In step 226, the execution unit 112A determines that the measurement by the measurement unit has failed when the measurement result acquired by the acquisition unit 110A is measurement failure information.
  • step 2208 when the measurement by the measurement unit is successful, the determination is affirmed, and the process proceeds to step 262 shown in FIG. If the measurement by the measurement unit fails in step 228, the determination is negative and the process proceeds to step 230 shown in FIG.
  • step 230 shown in FIG. 13 the execution unit 112A causes the display unit 86 to start displaying the position change instruction reception screen 135 as shown in FIG. 20 as an example, and then proceeds to step 232.
  • the position change instruction reception screen 135 includes a message “Distance measurement has failed. Do you want to minutely change the position of the imaging range?”.
  • the position change instruction reception screen 135 includes a “Yes” button and a “No” button.
  • the “Yes” button is a soft key that is turned on via the touch panel 88 when the user expresses his / her willingness to slightly change the position of the imaging range 115.
  • the “No” button is a soft key that is turned on via the touch panel 88 when the user expresses his / her intention not to change the position of the imaging range 115.
  • step 232 the execution unit 112A determines whether or not the “Yes” button in the position change instruction reception screen 135 is turned on. If it is determined in step 232 that the “Yes” button in the position change instruction reception screen 135 is not turned on, the determination is negative and the process proceeds to step 234. If the “No” button in the position change instruction reception screen 135 is turned on in step 232, the determination is affirmed and the process proceeds to step 244.
  • step 234 the execution unit 112A determines whether or not a screen display end condition that is a condition for ending the display of the position change instruction reception screen 135 is satisfied.
  • a screen display end condition is a condition that the “No” button in the position change instruction reception screen 135 is turned on.
  • a condition that a second predetermined time (for example, 1 minute) has elapsed since the display of the position change instruction reception screen 135 is started by executing the process of step 230. Is mentioned.
  • step 234 when the screen display end condition is not satisfied, the determination is denied and the determination in step 232 is performed again. If the screen display end condition is satisfied in step 234, the determination is affirmed and the process proceeds to step 236.
  • step 236 the execution unit 112A ends the display of the position change instruction reception screen 135 on the display unit 86, and then proceeds to step 238.
  • step 238 the execution unit 112A displays a measurement failure message 136 indicating that the measurement by the measurement unit has failed in the display area of the live view image, as shown in FIG. Then, the process proceeds to step 240.
  • the measurement failure message 136 the message “ranging has failed” is shown, but this is merely an example, and the user can recognize that the measurement by the measurement unit has failed. Any message can be used as long as it is possible.
  • the measurement failure message 136 is displayed visually, but it is permanently visible such as an audible display such as sound output by a sound reproducing device (not shown) or a printed matter output by a printer.
  • the display may be performed instead of the visible display, or may be used in combination.
  • the execution unit 112A determines whether or not a display end condition, which is a condition for ending the display of the measurement failure message 136, is satisfied.
  • a display end condition include a condition that a double-tap operation is accepted by the touch panel 88, a condition that a specific button (for example, the imaging measurement button 90A) included in the accepting device 90 is turned on, and the like. .
  • step 240 if the display end condition is not satisfied, the determination is negative and the determination in step 240 is performed again. If the display end condition is satisfied at step 240, the determination is affirmed and the routine proceeds to step 242.
  • step 242 the execution unit 112A ends the display of the measurement failure message 136 on the display unit 86, and then ends the panorama imaging measurement process.
  • step 244 the execution unit 112A ends the display of the position change instruction reception screen 135 on the display unit 86, and then proceeds to step 246.
  • step 246 the execution unit 112A determines whether or not the four-vertex flag is turned on. If it is determined in step 246 that the four-vertex flag is off, the determination is negative and the process proceeds to step 248. If it is determined in step 246 that the four-vertex flag is on, the determination is affirmative and the routine proceeds to step 252.
  • step 248 the execution unit 112A determines whether or not an unallocated area exists within the first allowable range.
  • the non-arranged area refers to an area where the imaging range 115 is not yet arranged within the first allowable range when measurement by the measurement unit is performed.
  • step 248 if there is no non-arranged area within the first allowable range, the determination is denied and the process proceeds to step 238. If it is determined in step 248 that an unarranged area exists within the first allowable range, the determination is affirmed and the process proceeds to step 250.
  • step 250 the execution unit 112A sets the unarranged area within the first allowable range as the change destination, and the execution unit 112A operates the change mechanism 11 to set the position of the imaging range 115 within the first allowable range. By moving in the non-arrangement direction, the position of the imaging range 115 is slightly changed.
  • the panorama imaging measurement process proceeds to step 222 shown in FIG. Note that the process of step 250 is an example of a first movement process according to the technique of the present disclosure.
  • Step 252 the execution unit 112 ⁇ / b> A determines whether or not an unallocated area exists within the second allowable range.
  • the non-arranged area refers to an area where the imaging range 115 is not yet arranged within the second allowable range when measurement by the measurement unit is performed.
  • the second allowable range refers to a range including a position in the real space corresponding to the position of the four-vertex corresponding pixel in the live view image.
  • the “four-vertex corresponding pixel in the live view image” referred to here is an example of a second multi-vertex pixel according to the technique of the present disclosure.
  • the second allowable range is a range that satisfies at least all of the following first to third conditions.
  • the first condition refers to a condition that the imaging range 115 is expanded in the left-right direction of the front view with respect to the imaging range 115.
  • the second condition refers to a condition that the real space 4 vertices included in the current imaging range 115 exist.
  • the third condition refers to a condition that the range is acceptable as a range where panoramic imaging is possible. Thus, since the second allowable range needs to satisfy the second condition, the second allowable range is narrower than the first allowable range.
  • step 252 if there is no non-arranged area within the second allowable range, the determination is negative and the process proceeds to step 238. If it is determined in step 252 that an unarranged area exists within the second allowable range, the determination is affirmed and the process proceeds to step 254.
  • first allowable range and the second allowable range are examples of the allowable range according to the technique of the present disclosure.
  • tolerance range when it is not necessary to distinguish between the first tolerance range and the second tolerance range, they are simply referred to as “tolerance range”.
  • step 254 the execution unit 112A operates the changing mechanism 11 with the unarranged area within the second allowable range as the change destination, and moves the position of the imaging range 115 in the above-described non-arranged direction, thereby capturing the imaging range.
  • the position 115 is slightly changed.
  • Step 256 shown in FIG. 12 the execution unit 112A determines whether or not the four-vertex corresponding pixel is included in the previous still image which is an example of the first captured image according to the technique of the present disclosure.
  • the previous still image is the imaging range 115 used in the imaging for the still image immediately before the current imaging range 115 out of the plurality of imaging ranges 115 (the imaging in the process of step 268 described later).
  • step 256 If it is determined in step 256 that the previous still image does not include the four-vertex corresponding pixel, the determination is negative and the process proceeds to step 208. If it is determined in step 256 that the four-vertex corresponding pixel is included in the previous still image, the determination is affirmed and the process proceeds to step 258.
  • the execution unit 112A determines whether four pixels corresponding to the four-vertex corresponding pixels included in the previous still image (an example of corresponding pixels according to the technology of the present disclosure) are not present in the overlapping region. Determine whether.
  • the overlapping area refers to an area overlapping with the previous still image in the live view image indicating the subject in the current imaging range 115.
  • the live view image indicating the subject in the current imaging range 115 is an example of a second captured image according to the technique of the present disclosure.
  • the second captured image according to the technology of the present disclosure refers to a captured image obtained by capturing an image of a subject in the other imaging range 115 of the adjacent imaging ranges described above.
  • a range 132A hatching area shown in FIG. 17 where the imaging range 115A and the imaging range 115B overlap is shown.
  • the range 132A includes the vertices 126A, 126B, 126C, and 126D of the subject in the imaging range 115A as the four vertices of the real space. Therefore, in this case, there are four pixels corresponding to the vertices 126A, 126B, 126C, and 126D in the live view image showing the subject in the imaging range 115B.
  • the four pixels corresponding to the vertices 126A, 126B, 126C, and 126D illustrated in FIG. 17 are examples of corresponding pixels according to the technology of the present disclosure.
  • the corresponding pixels are, for example, pixels corresponding to four vertices included in the still image indicating the subject in the imaging range 115A among the pixels included in the live view image indicating the subject in the imaging range 115B illustrated in FIG.
  • the imaging range 115A and the imaging range 115B are examples of adjacent imaging ranges according to the technology of the present disclosure.
  • the imaging range 115 ⁇ / b> A is an example of “one imaging range in which imaging is performed earlier in the adjacent imaging range” according to the technique of the present disclosure.
  • the imaging range 115B is an example of “the other imaging range of adjacent imaging ranges” according to the technology of the present disclosure.
  • the pixels 128A, 128B, 128C, and 128D included in the live view image indicating the subject in the imaging range 115A are pixels corresponding to the vertices 126A, 126B, 126C, and 126D. .
  • the pixels 128A, 128B, 128C, and 128D are also included in a still image obtained by capturing an image of a subject in the imaging range 115A by executing a process in step 268 described later.
  • vertices 126A, 126B, 126C, and 126D are included in a range 132A shown in FIG. Accordingly, the four pixels corresponding to the pixels 128A, 128B, 128C, and 128D are also included in the live view image indicating the subject in the imaging range 115B as the corresponding pixels described above.
  • a range 132B hatching area shown in FIG. 18 where the imaging range 115B and the imaging range 115C overlap is shown.
  • the range 132B includes the vertices 126C, 126D, 126E, and 126F of the subject in the imaging range 115B as the four vertices of the real space. Therefore, in this case, there are four pixels corresponding to the vertices 126C, 126D, 126E, and 126F in the live view image showing the subject in the imaging range 115C.
  • the four pixels corresponding to the vertices 126C, 126D, 126E, and 126F illustrated in FIG. 18 are examples of corresponding pixels according to the technology of the present disclosure.
  • the imaging range 115 ⁇ / b> B and the imaging range 115 ⁇ / b> C are examples of adjacent imaging ranges according to the technology of the present disclosure.
  • the imaging range 115B is an example of “one imaging range in which imaging is performed earlier in the adjacent imaging range” according to the technique of the present disclosure.
  • the imaging range 115C is an example of “the other imaging range of the adjacent imaging ranges” according to the technology of the present disclosure.
  • the four-vertex corresponding pixel does not exist in the still image indicating the subject in the imaging range 115A, and the four-vertex corresponding pixel exists in the still image that indicates the subject in the imaging range 115B. This is an example premised on.
  • FIG. 18 includes four pixels corresponding to the vertices 126C, 126D, 126E, and 126F in the still image indicating the subject in the imaging range 115B illustrated in FIG.
  • vertices 126C, 126D, 126E, and 126F are included in a range 132B shown in FIG.
  • the four pixels corresponding to the vertices 126C, 126D, 126E, and 126F are also included in the live view image indicating the subject in the imaging range 115C as the corresponding pixels described above.
  • step 258 when four pixels corresponding to the four-vertex corresponding pixels included in the previous still image exist in the overlapping region (for example, in the case of the example shown in FIG. 17 and the example shown in FIG. 18) ), The determination is denied, and the routine proceeds to step 260. In step 258, if four pixels corresponding to the four-vertex corresponding pixels included in the previous still image are not present in the overlapping region, the determination is affirmative and the routine proceeds to step 208.
  • step 260 the execution unit 112A stores the second pixel specifying coordinates, which are the coordinates specifying the positions of the four pixels included in the overlapping area, and the position specifying information in time series in the first storage area. Then, the process proceeds to step 220.
  • the four pixels at the positions specified by the second pixel specifying coordinates stored in the first storage area by executing this step 260 are examples of corresponding pixels according to the technique of the present disclosure. In the following, for convenience of explanation, when it is not necessary to distinguish between the first and second pixel specific coordinates, they are referred to as “pixel specific coordinates”.
  • step 262 shown in FIG. 14 the execution unit 112A stores the measured distance, which is the measurement result acquired by the acquisition unit 110A, in the second storage area (not shown) of the primary storage unit 102 in time series, and then the step H.264.
  • step 264 the execution unit 112A determines whether or not the four-vertex flag is turned on. If it is determined in step 264 that the four-vertex flag is on, the determination is affirmative and the routine proceeds to step 266. If it is determined in step 264 that the 4 vertex flag is off, the determination is negative, and the process proceeds to step 268.
  • step 266 the execution unit 112A turns off the four vertex flag, and then proceeds to step 268.
  • step 268 the execution unit 112 ⁇ / b> A causes the imaging device 14 to capture a still image, and then proceeds to step 270.
  • step 270 the execution unit 112 ⁇ / b> A acquires a still image obtained by performing the processing in step 268, and stores the acquired still image in a third storage area (not shown) of the primary storage unit 102. It memorize
  • step 272 the execution unit 112A associates the latest position specifying information stored in the first storage area with the latest still image among the still images stored in time series in the third storage area. Further, the execution unit 112A associates the latest measured image stored in the second storage area with the latest still image among the still images stored in time series in the third storage area, and then Control goes to step 274.
  • the latest still image among the still images stored in time series in the third storage area is simply referred to as “latest still image”.
  • the position specifying information associated with the still image is also referred to as “position specifying information corresponding to the still image”.
  • the actually measured distance associated with the still image is also referred to as “measured distance corresponding to the still image”.
  • step 274 the execution unit 112A determines whether or not pixel specifying coordinates are associated with position specifying information corresponding to the latest still image. In step 274, if the pixel specifying coordinates are not associated with the position specifying information corresponding to the latest still image, the determination is negative and the process proceeds to step 290 shown in FIG. In step 274, if the pixel specifying coordinates are associated with the position specifying information corresponding to the latest still image, the determination is affirmed and the process proceeds to step 276.
  • pixel specifying coordinates associated with position specifying information corresponding to a still image are referred to as “pixel specifying coordinates corresponding to a still image”.
  • step 276 the execution unit 112A executes the projective transformation process based on the pixel specific coordinates corresponding to the latest still image, with the latest still image as the processing target, and stores the still image that is the processing target in the third storage area. After erasing, the process proceeds to step 278.
  • a projective transformation coefficient that is a coefficient for the projective transformation is derived based on the quadrangle defined by the pixel specific coordinates. Then, the latest still image is converted into an image corresponding to the above-described facing image using the derived projective transformation coefficient.
  • an image corresponding to a directly-facing image obtained by performing the projective transformation process on a still image is referred to as a “post-projection transformed image”.
  • position specifying information corresponding to the still image to be processed in step 268 is also associated with the post-projection-transformed image.
  • the position specifying information associated with the post-projection converted image is also referred to as “position specifying information corresponding to the post-projection converted image”.
  • the latest post-projection transformation image obtained by executing the processing of step 276 is also simply referred to as “latest projective transformation image”.
  • step 278 the execution unit 112 ⁇ / b> A determines whether or not a still image other than the still image to be processed in step 276 remains in the third storage area. In step 278, if a still image other than the still image to be processed in step 276 does not remain in the third storage area, the determination is affirmed and the process proceeds to step 280. In step 278, if a still image other than the still image to be processed in step 276 remains in the third storage area, the determination is negative and the routine proceeds to step 292 shown in FIG.
  • step 280 the execution unit 112A determines whether a panoramic image is stored in the fourth storage area (not shown) of the primary storage unit 102.
  • the fourth storage area stores a panoramic image when a process in step 286 described later is executed and when a process in step 282 is executed.
  • step 280 if a panoramic image is stored in the fourth storage area, the determination is affirmed and the process proceeds to step 282. If it is determined in step 280 that no panoramic image is stored in the fourth storage area, the determination is negative and the process proceeds to step 284.
  • step 284 the execution unit 112A determines whether a plurality of post-projection-transformed images exist.
  • the first to fourth patterns can be considered as patterns in which a plurality of post-projection-transformed images exist.
  • the first pattern is that the post-projection transformation image is stored in the fifth storage area (not shown) of the primary storage unit 102 by executing the processing of step 288 described later, and the latest projection transformation is performed.
  • This refers to a pattern in which a subsequent image exists.
  • the second pattern is a projective transformation in which the image after projective transformation is stored in the fifth storage area, the latest post-projection transformed image exists, and the processing in step 300 described later is executed. This refers to the pattern from which the back image is obtained.
  • the third pattern is a post-projection conversion image that is not stored in the fifth storage area, but the latest post-projection conversion image exists and the processing in step 300 described later is executed. A pattern in which an image is obtained.
  • the fourth pattern refers to a pattern in which there is no latest post-projection transformation image and a plurality of post-projection transformation images are obtained by executing the processing in step 300 described later.
  • the fifth storage area stores the post-projection-transformed image obtained by executing the process of step 276 when the process of step 288 described later is executed.
  • step 284 If it is determined in step 284 that the post-projection transformation image is stored in the fifth storage area, the determination is affirmed, and the process proceeds to step 286. If it is determined in step 284 that no post-projection transformation image is stored in the fifth storage area, the determination is negative and the process proceeds to step 288.
  • step 288 the execution unit 112A stores the latest post-projection-transformed image obtained by executing the processing in step 276 in the fifth storage area, and then proceeds to step 304.
  • step 286 the execution unit 112A joins the post-projection transformation image obtained by executing at least one of steps 276 and 300 with the post-projection transformation image stored in the fifth storage area. A panoramic image is generated. Then, the execution unit 112A stores the generated panoramic image in the fourth storage area, and then proceeds to step 304. Note that the process of step 286 is an example of a generation process according to the technique of the present disclosure.
  • step 282 the execution unit 112A acquires a panoramic image stored in the fourth storage area.
  • the execution unit 112A updates the panoramic image by joining the acquired panoramic image with the post-projection-transformed image obtained by executing at least one of the processes of step 276 and step 300.
  • the execution unit 112A stores (overwrites) the updated panoramic image in the fourth storage area, and then proceeds to step 304.
  • the process of step 282 is an example of a generation process according to the technique of the present disclosure.
  • step 290 shown in FIG. 15 the execution unit 112A determines whether or not there is a record of the projective transformation process.
  • the actual result of the projective conversion process refers to the fact that the projective conversion process has been executed on a still image since the execution of the panoramic imaging measurement process was disclosed.
  • the presence / absence of the projection conversion process is determined based on whether or not the process of step 276 shown in FIG. 14 has been executed.
  • step 290 if there is no project conversion processing record, the determination is denied, and the routine proceeds to step 304 shown in FIG. In step 290, if there is a record of the projective transformation process, the determination is affirmed and the routine proceeds to step 292.
  • step 292 the execution unit 112A acquires the earliest still image, and then proceeds to step 294.
  • the earliest still image indicates the earliest still image stored in the third storage area, that is, the oldest still image.
  • the earliest still image obtained by executing the processing of step 292 is also simply referred to as “earliest still image”.
  • step 294 the execution unit 112A obtains position specifying information corresponding to the latest post-projection transformed image, and then proceeds to step 296.
  • step 296 the execution unit 112A derives positional relationship information using the two pieces of position specifying information, and then proceeds to step 298.
  • the positional relationship information refers to the imaging range 115 used in the imaging performed to obtain the earliest still image and the imaging performed to obtain the still image corresponding to the latest post-projection transformed image. This is information indicating the positional relationship with the imaging range 115 used.
  • the positional relationship information is information including the distance between the imaging ranges and the imaging range direction.
  • the distance between imaging ranges is used in imaging performed to obtain a still image corresponding to the imaging range 115 used in the imaging performed to obtain the earliest still image and the latest post-projection transformed image.
  • the imaging range direction is used in imaging performed to obtain the earliest still image with respect to the imaging range 115 used in imaging performed to obtain the still image corresponding to the latest post-projection-transformed image.
  • the direction of the imaging range 115 is used in imaging performed to obtain the earliest still image with respect to the imaging range 115 used in imaging performed to obtain the still image corresponding to the latest post-projection-transformed image.
  • step 298 the execution unit 112A, based on the positional relationship information derived in the process of step 296, converts the projection conversion coefficient of the latest post-projection conversion image and the coefficient that can convert the earliest still image into the post-projection conversion image. Then, the process proceeds to step 300.
  • step 300 the execution unit 112A sets the first still image as a processing target, executes a projective conversion process using the projection conversion coefficient adjusted in the process in step 298, and stores the still image that is the processing target in the third storage. After erasing from the area, the process proceeds to step 302.
  • step 302 the execution unit 112A determines whether all the still images stored in the third storage area have been subjected to the projective transformation process in step 300. In step 302, when all the still images stored in the third storage area are not the target of the projective transformation process in step 300, the determination is negative and the process proceeds to step 292. In step 302, when all the still images stored in the third storage area are the targets of the projective transformation process in step 300, the determination is affirmed and the process proceeds to step 280 shown in FIG.
  • the execution unit 112A determines whether or not an imaging measurement end condition, which is a condition for ending the panorama imaging measurement process, is satisfied.
  • an imaging measurement end condition a panoramic image including the post-projection-transformed image obtained based on the still image obtained by imaging the subject in the last imaging range 115 is generated and stored in the fourth storage area.
  • the conditions are as follows.
  • Another example of the imaging measurement end condition is a condition that an instruction to end the panorama imaging measurement process has been received by the touch panel 88 or the reception device 90.
  • step 304 If it is determined in step 304 that the imaging measurement end condition is not satisfied, the determination is negative and the process proceeds to step 306.
  • step 306 the execution unit 112 ⁇ / b> A operates the change mechanism 11 to move the position of the imaging range 115 to a position where imaging for still images is scheduled next as imaging for still images required for panoramic imaging. As a result, the position of the imaging range 115 is changed.
  • the panorama imaging measurement process proceeds to step 200 shown in FIG.
  • the position where imaging for a still image is scheduled next refers to the position of the imaging range 115B when the current imaging range 115 is the imaging range 115A, for example, and the current imaging range 115 is the imaging range 115B. In this case, it indicates the position of the imaging range 115C (see FIGS. 17 and 18).
  • the process of step 306 is an example of a second movement process according to the technique of the present disclosure.
  • step 304 when the imaging measurement end condition is satisfied, the determination is affirmed and the panorama imaging measurement process is ended.
  • the CPU 100 executes the dimension deriving program 106A, thereby causing the dimension deriving function to be realized. Processing will be described with reference to FIG.
  • f 0 in Expression (1) is, for example, a corresponding still image as a focal length used in each of a plurality of still image capturing operations required for panoramic imaging.
  • a description will be made on the assumption that the data is stored in the primary storage unit 102 every time.
  • step 350 the execution unit 112A acquires a panoramic image from the fourth storage area. Then, the execution unit 112A causes the display unit 86 to start displaying a panoramic image as illustrated in FIG. 23 as an example, and then proceeds to step 352.
  • step 352 the execution unit 112A causes the display unit 86 to display the pixel designation guidance message 138 in the display area next to the panoramic image as shown in FIG. 24 as an example, and then proceeds to step 354. .
  • pixel designation guidance message 138 a message “Tap two points in the panorama image and designate the start point and end point of the area whose length is to be measured.” Is displayed. This is just an example.
  • the pixel designation guidance message 138 is not limited to the example shown in FIG. 24, and is any message as long as it prompts the user to designate two pixels that specify the start and end points of the area whose length is to be measured. May be.
  • step 354 the execution unit 112A determines whether or not two pixels are designated via the touch panel 88 by the user. In step 354, when two pixels are not designated by the user via the touch panel 88, the determination is negative and the process proceeds to step 356. In step 354, as shown in FIG. 25 as an example, if two pixels are designated by the user via the touch panel 88, the determination is affirmed and the process proceeds to step 358.
  • the execution unit 112A determines whether or not a dimension derivation end condition that is a condition for ending the dimension derivation process is satisfied.
  • a dimension derivation end condition is a condition that an instruction to end the dimension derivation process is received by the touch panel 88 or the receiving device 90.
  • Another example of the dimension derivation end condition is a condition that a predetermined time (for example, 30 minutes) has elapsed since the execution of the dimension derivation process was started.
  • step 356 when the dimension derivation end condition is not satisfied, the determination is denied and the process proceeds to step 354. If the dimension derivation end condition is satisfied in step 356, the determination is affirmed and the routine proceeds to step 368.
  • step 358 the execution unit 112A ends the display of the pixel designation guide message 138 on the display unit 86, and then proceeds to step 360.
  • step 360 the execution unit 112A derives the length of the area in the real space corresponding to the interval between the two pixels designated by the user via the touch panel 88 by using the dimension deriving function, and then performs step 362.
  • step 360 the length of the area in the real space corresponding to the interval between the two pixels designated by the user via the touch panel 88 is derived by the above equation (1).
  • u1 and u2 in Expression (1) are addresses of two pixels designated by the user via the touch panel 88.
  • L in Expression (1) is a projective transformation including two designated pixels among the measured distances stored in the second storage area by executing the process of step 262 included in the panorama imaging measurement process. This is an actually measured distance corresponding to the still image that is the basis of the subsequent image.
  • “f 0 ” in Expression (1) is a still image that is a base of a post-projection-transformed image including two designated pixels among the focal lengths stored in the primary storage unit 102 for each still image. Is the focal length used in the imaging to obtain.
  • step 362 the execution unit 112A causes the display unit 86 to start displaying the area length and the bidirectional arrow 125A superimposed on the panoramic image, as shown in FIG. Transition.
  • the length of the area displayed on the display unit 86 by executing the process of step 362 is the length of the area derived by the executing unit 112A by executing the process of step 360.
  • the length of “630 mm” corresponds to the length of the area.
  • the bidirectional arrow 125 ⁇ / b> A displayed on the display unit 86 by executing the processing of step 362 is an arrow that specifies between two pixels designated by the user via the touch panel 88.
  • step 364 the execution unit 112A determines whether or not the above-described dimension derivation end condition is satisfied. In step 364, if the dimension derivation end condition is not satisfied, the determination is negative and the process proceeds to step 366. If the dimension derivation end condition is satisfied in step 364, the determination is affirmed and the routine proceeds to step 368.
  • step 366 the execution unit 112A determines whether or not two pixels are further designated through the touch panel 88 by the user. If it is determined in step 366 that two pixels are not further designated by the user via the touch panel 88, the determination is negative and the process proceeds to step 364. In step 366, as shown in FIG. 27 as an example, when two pixels are further designated by the user via the touch panel 88, the determination is affirmed and the process proceeds to step 360.
  • step 366 When the determination in step 366 is affirmative and the processing of step 360 and step 362 is executed again, as shown in FIG. 28 as an example, an area corresponding to the interval between two pixels further designated by the user via the touch panel 88 Is displayed on the display unit 86.
  • the length “705 mm” corresponds to the length of the area corresponding to the interval between two pixels further designated by the user via the touch panel 88.
  • the bidirectional arrow 125 ⁇ / b> B specifies that two pixels further specified by the user via the touch panel 88 can be visually recognized. In the following, for convenience of explanation, when there is no need to distinguish between the bidirectional arrows 125A and 125B, they are simply referred to as “bidirectional arrows 125”.
  • step 368 the execution unit 112A ends the display of the panoramic image or the like on the display unit 86, and then ends the dimension derivation process.
  • the panorama image or the like refers to the panorama image and the pixel designation guidance message 138 when the determination is affirmed in step 356, and the panorama image and the length of the area when the determination is affirmative in step 364. , And a double arrow 125.
  • the measurement result by the measurement unit is acquired by the acquisition unit 110A (step 226). If the obtained measurement result indicates that the measurement by the measurement unit has failed (step 228: N), the current position of the imaging range 115 is changed within the allowable range (step 250 or step 254). Then, remeasurement by the measurement unit is executed (step 222).
  • the distance measuring device 10A as compared with the case where the distance to the subject is measured once for each of all the imaging ranges 115 that are the imaging targets in the panoramic imaging, all the imaging that are the imaging targets in the panoramic imaging.
  • the degree of success in measuring the distance to the subject in each of the ranges 115 can be increased.
  • the position of the current imaging range 115 is changed within the allowable range by operating the changing mechanism 11 according to the power of the motor 21 in the process of performing remeasurement by the measuring unit. Processing (processing of step 250 or step 254) is included.
  • the distance measuring apparatus 10A compared with the case where the current position of the imaging range 115 is manually changed within the allowable range, the current position of the imaging range 115 is changed within the allowable range without much effort. Can be made.
  • Step 222 when the position of the current imaging range 115 is changed within the allowable range by operating the change mechanism 11 (step 250 or step 254), remeasurement is performed by the measurement unit. (Step 222).
  • the distance measuring device 10A it is possible to perform remeasurement by the measurement unit while changing the position to be measured without deviating the position of the imaging range 115 from the allowable range.
  • the “Yes” button in the position change instruction reception screen 135 is turned on (step 232: Y), and the change mechanism 11 is operated so that the position of the imaging range 115 is within the allowable range.
  • the change mechanism 11 is operated so that the position of the imaging range 115 is within the allowable range.
  • the position of the imaging range 115 can be minutely changed at a timing intended by the user.
  • the “Yes” button is turned on while the position change instruction reception screen 135 is displayed in the display area of the live view image, and the position of the imaging range 115 is changed within the allowable range.
  • the measurement is performed, remeasurement by the measurement unit is executed.
  • the measurement unit can be remeasured at a timing intended by the user without deviating the position of the imaging range 115 from the allowable range.
  • the distance measuring device 10A when the measurement result acquired by the acquisition unit 110A indicates the success of measurement by the measurement unit, a process predetermined as a process executed in a measurement success state in which the measurement by the measurement unit is successful The measurement success process is further executed by the execution unit 112A.
  • the process after the determination is affirmed in step 228 corresponds to an example of the measurement success process.
  • the success of the measurement success process can be started more quickly than in the case where the success of the measurement by the measurement unit is artificially determined without using the measurement success / failure information.
  • the distance measuring device 10A when the position of the imaging range 115 is changed to a position where imaging for still images is scheduled next as imaging for still images required for panoramic imaging, The process for measuring the distance to the subject is included in the measurement success process described above.
  • the position of the imaging range 115 is changed to the position where imaging for still images is scheduled to be performed next as imaging for still images required for panoramic imaging. Compared to the case where measurement by is not started, it is possible to cause the measurement unit to measure the distance to the subject without trouble.
  • the change mechanism 11 is operated according to the power of the motor 23, so that the position of the imaging range 115 is set as the still image imaging required for panoramic imaging, and the next still image imaging is scheduled.
  • the process for changing the position to the current position is included in the measurement success process described above.
  • the distance measuring device 10A compared with the case where the position of the imaging range 115 is manually changed to the position where the next still image imaging is scheduled as the still image imaging required for the panoramic imaging. Without taking time and effort, the position of the imaging range 115 can be changed to a position where imaging for still images is scheduled next as imaging for still images required for panoramic imaging.
  • the position of the imaging range 115 is changed to a position where imaging for still images is scheduled next as imaging for still images required for panoramic imaging (step 306), and imaging measurement is performed.
  • the button 90A is turned on (step 202: Y)
  • a process for causing the measurement unit to measure the distance to the subject is included in the measurement success process.
  • the distance measuring device 10A when the position of the imaging range 115 is changed to a position where imaging for still images is scheduled next as imaging for still images required for panoramic imaging, the user intends At this timing, the distance to the subject can be measured by the measurement unit.
  • the first still image that is the previous still image includes the four-vertex corresponding pixels, and the corresponding pixels that are the four pixels corresponding to the four-vertex corresponding pixels are the latest still image.
  • the first still image is projectively transformed based on the four-vertex corresponding pixels (step 276).
  • the second still image is projectively transformed based on the corresponding pixel (step 276).
  • a post-projection transformation image obtained by projective transformation of the first still image an example of a first post-projection transformation image according to the technology of the present disclosure
  • a post-projection transformation obtained by projective transformation of the second still image is generated (steps 286 and 288).
  • the distance measuring device 10A when searching for four-vertex corresponding pixels for each of all still images obtained by imaging each subject included in each of the plurality of imaging ranges 115 to be imaged in panoramic imaging. Compared to the above, it is possible to generate a panoramic image including the post-projection-transformed image without taking time and effort.
  • the second allowable range is a range where there are four vertices of the real space included in the current imaging range 115.
  • the subject included in the imaging range 115 within the second allowable range is larger than that in the case where the second allowable range is a range where the actual space 4 vertex included in the current imaging range 115 does not exist. It is possible to contribute to highly accurate projective transformation of a still image obtained by imaging.
  • the dimension deriving function is activated based on the actually measured distance and the panorama image obtained by executing the panorama imaging measurement process, so that the two pixels designated in the panorama image are operated.
  • the length of the corresponding area in real space is derived (step 360).
  • the distance measuring apparatus the area in the real space designated via the panoramic image is compared with the case where the distance to the subject is measured once for each of all the imaging required for one panoramic imaging.
  • the length can be derived without effort.
  • the range 130 is exemplified as the first allowable range.
  • the technology of the present disclosure is not limited to this, and as an example, as illustrated in FIG. 29, the range as the first allowable range. 140 may be used.
  • a range 140 is a range in which the imaging range 115 is expanded in the vertical direction in front view in addition to the horizontal direction in front view with respect to the imaging range 115.
  • the imaging range 115 is enlarged 1.5 times as an example.
  • the position of the imaging range 115 is slightly changed in the vertical direction in the front view within the first allowable range in the same manner as the minute change described in the first embodiment.
  • the range 140 applied as the first allowable range is shown, but the range corresponding to the range 140 can also be applied to the second allowable range.
  • the measurement unit performs re-measurement when the position of the imaging range 115 is changed within the allowable range after the “Yes” button is turned on.
  • the technology is not limited to this.
  • remeasurement by the measurement unit may be executed.
  • a panoramic image is generated based on a still image obtained by imaging a subject included in each of a plurality of imaging ranges 115 arranged in a front view vertical direction with respect to the subject.
  • the technique of the present disclosure is not limited to this.
  • a panoramic image is generated based on a still image obtained by imaging a subject included in each of the plurality of imaging ranges 115 while moving the position of the imaging range 115 in the left-right direction in front view with respect to the subject. You may make it do.
  • a panoramic image may be generated.
  • the technique of the present disclosure is not limited to this.
  • the process proceeds to step 264 shown in FIG. You may make it do.
  • it is not possible to secure an actually measured distance with respect to a subject in the current imaging range 115 it is possible to execute still image capturing for the subject in the current imaging range 115. That is, the generation of the panoramic image can be completed even if the measured distance cannot be secured.
  • the designated two pixels are activated by using the dimension derivation function. It is possible to derive the length of the area specified by. For example, even if the actual measurement distance to the subject cannot be obtained for a certain imaging range 115, if the actual measurement distance to the subject in any one of the imaging ranges 115 is ensured, the secured actual measurement distance itself is expressed by the formula ( What is necessary is just to employ
  • an interpolation method such as linear interpolation or nonlinear interpolation
  • the disclosed technique is not limited to this.
  • the panorama imaging measurement process may be terminated in accordance with an instruction received via the touch panel 88 or the reception device 90 in the middle of the panorama imaging measurement process without determining the final imaging range 115 in advance.
  • step 222 shown in FIG. 12 when the process of step 254 shown in FIG. 13 is executed is illustrated.
  • the technology of the present disclosure is not limited to this. Absent.
  • the processes of step 650 and step 652 may be executed.
  • step 222 shown in FIG. 12 when the process of step 250 shown in FIG. 13 is executed is illustrated.
  • the technology of the present disclosure is not limited to this. Absent.
  • the processes of step 654 and step 656 may be executed.
  • the execution unit 112A determines whether or not a remeasurement start instruction, which is an instruction for causing the measurement unit to execute remeasurement, has been received by the touch panel 88 or the reception device 90.
  • a remeasurement start instruction accepted by the touch panel 88 is a double tap operation.
  • An example of a remeasurement start instruction accepted by the acceptance device 90 is a normal press of the imaging measurement button 90A.
  • Step 650 if the remeasurement start instruction is not accepted by the touch panel 88 or the accepting device 90, the determination is negative and the process proceeds to Step 652.
  • step 650 when the remeasurement start instruction is received by the touch panel 88 or the receiving device 90, the determination is affirmed and the process proceeds to step 222 shown in FIG.
  • step 652 the execution unit 112A determines whether or not the imaging measurement end condition described above is satisfied. If it is determined in step 652 that the imaging measurement end condition is not satisfied, the determination is negative and the process proceeds to step 650. If the imaging measurement end condition is satisfied in step 652, the determination is affirmed and the panorama imaging measurement process is ended.
  • step 654 shown in FIG. 46 the execution unit 112A determines whether or not the remeasurement start instruction described above has been received by the touch panel 88 or the reception device 90. If it is determined in step 654 that a remeasurement start instruction has not been received by the touch panel 88 or the receiving device 90, the determination is negative and the process proceeds to step 656. In step 654, when the remeasurement start instruction is received by the touch panel 88 or the receiving device 90, the determination is affirmed, and the process proceeds to step 222 shown in FIG.
  • step 656 the execution unit 112A determines whether or not the above-described imaging measurement end condition is satisfied. If it is determined in step 656 that the imaging measurement end condition is not satisfied, the determination is negative and the process proceeds to step 654. In step 656, when the imaging measurement end condition is satisfied, the determination is affirmed, and the panorama imaging measurement process is ended.
  • the position of the imaging range 115 is slightly changed within the allowable range, and a remeasurement start instruction is received by the touch panel 88 or the receiving device 90.
  • the measurement by the measurement unit is re-executed (step 222). Therefore, according to the example shown in FIG. 46, the distance to the subject can be remeasured by the measurement unit at the timing intended by the user.
  • the distance measuring device 10B according to the second embodiment is different from the distance measuring device 10A in that it includes a distance measuring device main body 10B1 instead of the distance measuring device main body 10A1.
  • the distance measuring device main body 10B1 is different from the distance measuring device main body 10A1 in that it includes an imaging device 150 instead of the imaging device 14.
  • the imaging device 150 is different from the imaging device 14 in that an imaging device body 152 is provided instead of the imaging device body 18.
  • the imaging apparatus main body 152 is different from the imaging apparatus main body 18 in that it includes a main control unit 154 instead of the main control unit 62.
  • the main control unit 154 is different from the main control unit 62 in that a panoramic imaging measurement program 105B is stored in the secondary storage unit 104 instead of the panoramic imaging measurement program 105A.
  • the CPU 100 operates as the acquisition unit 110B and the execution unit 112B by executing the panorama imaging measurement program 105B as illustrated in FIG. 10 as an example.
  • the acquisition unit 110B corresponds to the acquisition unit 110A described in the first embodiment
  • the execution unit 112B corresponds to the execution unit 112A described in the first embodiment.
  • the acquisition unit 110B and the execution unit 112B will be described with respect to differences from the acquisition unit 110A and the execution unit 112A described in the first embodiment.
  • panorama imaging measurement processing realized by the CPU 100 executing the panorama imaging measurement program 105B will be described with reference to FIGS. 30 to 35 as an operation of the portion related to the technique of the present disclosure of the distance measuring device 10B.
  • the same steps as those included in the panorama imaging measurement process (FIGS. 12 to 15) described in the first embodiment are denoted by the same step numbers, and description thereof is omitted.
  • the panorama imaging measurement process according to the second embodiment includes steps 398 to 410 instead of steps 214 and 216 as compared with the panorama imaging measurement process according to the first embodiment.
  • the point is different.
  • the panorama imaging measurement process according to the second embodiment is different from the panorama imaging measurement process according to the first embodiment described above in place of steps 248 to 254.
  • the difference is that it has 438.
  • Steps 440 to 450 are provided instead of Steps 304 and 306.
  • step 398 shown in FIG. 31 the execution unit 112B determines whether or not an unallocated area exists within the first allowable range. If it is determined in step 398 that there is no unarranged region within the first allowable range, the determination is negative and the routine proceeds to step 222 shown in FIG. In step 398, if an unplaced area exists within the first allowable range, the determination is affirmed and the process proceeds to step 400.
  • step 400 the execution unit 112B determines whether or not the number of times the position of the imaging range 115 is changed within the first allowable range is less than a predetermined number (for example, 10 times) for the current imaging range 115. .
  • a predetermined number for example, 10 times
  • the determination is negative, and step 222 shown in FIG. 30 is performed.
  • step 400 when the number of times the position of the imaging range 115 is changed within the first allowable range for the current imaging range 115 is less than the predetermined number, the determination is affirmed and the process proceeds to step 402.
  • step 402 the execution unit 112B causes the display unit 86 to start displaying the minute change guide information 142 in the display area of the live view image as shown in FIG. 36 as an example, and then proceeds to step 404. To do.
  • the minute change guide information 142 is an example of first guide information according to the technology of the present disclosure, and is information that guides a change within the allowable range of the position of the current imaging range 115.
  • information including the minute change guidance message 144 and the arrow D is illustrated as the minute change guidance information 142.
  • a message “Please shift the position of the imaging range slightly in the direction of the arrow” is shown as the minute change guidance message 144.
  • the arrow D indicates the non-arrangement direction.
  • the arrow D has an indicator function. That is, the size of the arrow D decreases as the position of the imaging range 115 approaches the limit of the allowable range, and increases as the position of the imaging range 115 increases from the limit of the first allowable range. In other words, the size of the arrow D becomes smaller as the center of the imaging range 115 is farther from the center line CL shown in FIG. 16 within the first allowable range, and the center of the imaging range 115 is shown in FIG. 16 within the allowable range. It becomes larger as it gets closer to the center line CL.
  • the example shown in FIG. 36 shows a case where the minute change guidance information 142 is displayed visually.
  • the audible display such as output of sound by an audio reproduction device (not shown) or the output of printed matter by a printer is permanent.
  • the visible display may be performed instead of the visible display, or may be used in combination.
  • step 404 the execution unit 112B determines whether or not the position of the imaging range 115 has been changed.
  • the change of the position of the imaging range 115 is realized by the change mechanism 11 operating according to the operation of the rotary switch by the user.
  • step 404 if the position of the imaging range 115 has not been changed, the determination is denied and the determination in step 404 is performed again. If the position of the imaging range 115 is changed in step 404, the determination is affirmed and the routine proceeds to step 406.
  • step 406 the execution unit 112B determines whether or not the current position of the imaging range 115 is outside the first allowable range. If the current position of the imaging range 115 is outside the first allowable range in step 406, the determination is affirmed and the routine proceeds to step 410. If it is determined in step 406 that the current position of the imaging range 115 is within the first allowable range, the determination is negative and the process proceeds to step 408.
  • step 408 the execution unit 112B ends the display of the minute change guide information 142 on the display unit 86, and then proceeds to step 208 shown in FIG.
  • step 410 the execution unit 112B ends the display of the minute change guidance information 142 on the display unit 86, and then ends the panorama imaging measurement process.
  • step 412 shown in FIG. 32 the execution unit 112B determines whether or not an unallocated area exists within the first allowable range. If it is determined in step 412 that no non-arranged area exists within the first allowable range, the determination is negative and the routine proceeds to step 238 shown in FIG. If it is determined in step 412 that an unarranged area exists within the first allowable range, the determination is affirmed and the process proceeds to step 414.
  • step 414 the execution unit 112B determines whether or not the number of times the position of the imaging range 115 is changed within the first allowable range for the current imaging range 115 is less than a predetermined number (for example, 10 times). .
  • a predetermined number for example, 10 times.
  • the determination is negative and step 238 shown in FIG. 33 is performed.
  • the determination is affirmed and the process proceeds to step 416.
  • step 416 the execution unit 112B causes the display unit 86 to start displaying the minute change guide information 142 in the display area of the live view image as shown in FIG. 36 as an example, and then proceeds to step 418. To do. Note that the process of step 416 is an example of a first display process according to the technique of the present disclosure.
  • step 418 the execution unit 112B determines whether or not the position of the imaging range 115 has been changed. If the position of the imaging range 115 has not been changed in step 418, the determination is negative and the determination in step 418 is performed again. If the position of the imaging range 115 is changed in step 418, the determination is affirmed and the routine proceeds to step 420.
  • step 420 the execution unit 112B determines whether or not the current position of the imaging range 115 is outside the first allowable range. In step 420, if the current position of the imaging range 115 is outside the first allowable range, the determination is affirmed and the routine proceeds to step 422. In step 420, if the current position of the imaging range 115 is within the first allowable range, the determination is negative and the routine proceeds to step 424.
  • step 422 the execution unit 112B ends the display of the minute change guide information 142 on the display unit 86, and then ends the panorama imaging measurement process.
  • step 424 the execution unit 112B causes the display unit 86 to finish displaying the minute change guidance information 142, and then proceeds to step 222.
  • step 426 the execution unit 112B determines whether or not an unallocated area exists within the second allowable range. If it is determined in step 426 that no non-arranged area exists within the second allowable range, the determination is negative and the process proceeds to step 238 shown in FIG. If it is determined in step 426 that an unarranged area exists within the second allowable range, the determination is affirmed and the process proceeds to step 428.
  • step 428 the execution unit 112B determines whether the number of times the position of the imaging range 115 has been changed within the second allowable range is less than a predetermined number (for example, 10 times) for the current imaging range 115. .
  • a predetermined number for example, 10 times
  • the determination is negative, and step 238 shown in FIG. 33 is performed.
  • step 428 if the number of times the position of the imaging range 115 has been changed within the second allowable range for the current imaging range 115 is less than the predetermined number, the determination is affirmed and the process proceeds to step 430.
  • step 430 the execution unit 112B causes the display unit 86 to start displaying the minute change guidance information 142 in the display area of the live view image as shown in FIG. 36 as an example, and then proceeds to step 432. To do. Note that the process of step 430 is an example of a first display process according to the technique of the present disclosure.
  • step 432 the execution unit 112B determines whether or not the position of the imaging range 115 has been changed. If it is determined in step 432 that the position of the imaging range 115 has not been changed, the determination is negative and the determination in step 432 is performed again. If the position of the imaging range 115 is changed in step 432, the determination is affirmed and the process proceeds to step 434.
  • step 434 the execution unit 112B determines whether or not the current position of the imaging range 115 is outside the second allowable range. If it is determined in step 434 that the current position of the imaging range 115 is outside the second allowable range, the determination is affirmed and the process proceeds to step 436. In step 434, if the current position of the imaging range 115 is within the second allowable range, the determination is negative and the routine proceeds to step 438.
  • step 436 the execution unit 112B ends the display of the minute change guide information 142 on the display unit 86, and then ends the panorama imaging measurement process.
  • step 438 the execution unit 112B causes the display unit 86 to stop displaying the minute change guidance information 142, and then proceeds to step 222.
  • step 440 shown in FIG. 34 the execution unit 112B determines whether or not the imaging measurement end condition is satisfied.
  • the imaging measurement end condition according to the second embodiment may be the same as or different from the imaging measurement end condition described in the first embodiment.
  • step 440 If it is determined in step 440 that the imaging measurement end condition is not satisfied, the determination is negative and the process proceeds to step 442 shown in FIG.
  • step 442 shown in FIG. 35 the execution unit 112B causes the display unit 86 to start displaying the position change guidance information 146 as shown in FIG. 37 as an example, and then proceeds to step 444.
  • the processing in step 442 is an example of third display processing according to the technique of the present disclosure.
  • the position change guidance information 146 is an example of second guidance information according to the technique of the present disclosure, and changes the position of the current imaging range 115 to a position where imaging for the next still image is planned in panoramic imaging.
  • Information to guide In the example illustrated in FIG. 37, information including a position change guidance message 148 and an arrow E is illustrated as the position change guidance information 146.
  • a position change guidance message 148 As the position change guidance message 148, a message “Please shift the position of the imaging range in the direction of the arrow” is shown.
  • an arrow E indicates the direction of the position of the imaging range 115 used in the next scheduled still image imaging as the still image imaging required for the panoramic imaging.
  • the arrow E has an indicator function. That is, the size of the arrow E decreases as the position of the imaging range 115 becomes closer to the limit of the imaging range, and increases as the position of the imaging range 115 becomes farther from the limit of the imaging range.
  • the imageable range refers to a range where panoramic imaging is possible.
  • the range in which panoramic imaging is possible refers to, for example, a range that is within an allowable range and that can maintain continuity with the current imaging range 115 in the direction of arrow A shown in FIG.
  • the position change guidance information 146 is displayed in a visible manner.
  • the audible display such as sound output by a sound reproducing device (not shown) or the output of printed matter by a printer is permanent.
  • the visible display may be performed instead of the visible display, or may be used in combination.
  • step 444 the execution unit 112B determines whether the position of the imaging range 115 has been changed. If the position of the imaging range 115 has not been changed in step 444, the determination is negative and the determination in step 444 is performed again. If the position of the imaging range 115 is changed in step 444, the determination is affirmed and the routine proceeds to step 446.
  • step 446 the execution unit 112B determines whether or not the position of the imaging range 115 is outside the imaging range. If it is determined in step 446 that the position of the imaging range 115 is outside the imageable range, the determination is affirmed and the process proceeds to step 448. If it is determined in step 446 that the position of the imaging range 115 is within the imageable range, the determination is negative and the process proceeds to step 450.
  • step 448 the execution unit 112B ends the display of the position change guide information 146 on the display unit 86, and then ends the panorama imaging measurement process according to the second embodiment.
  • step 450 the execution unit 112B ends the display of the position change guidance information 146 on the display unit 86, and then proceeds to step 200 shown in FIG.
  • step 440 shown in FIG. 34 if the imaging measurement end condition is satisfied, the determination is affirmed, and the panorama imaging measurement process according to the second embodiment is ended.
  • the minute change guidance information 142 is displayed on the display unit 86 (steps 416 and 430).
  • the measurement unit causes the measurement unit to remeasure the distance to the subject while maintaining the position of the imaging range 115 within the allowable range. Can be suppressed.
  • the measurement by the measurement unit is re-executed (step 222).
  • the distance measuring device 10B compared to the case where the measurement by the measurement unit is not re-executed even though the position of the imaging range 115 is changed within the allowable range in a state where the minute change guide information 142 is displayed. Thus, it is possible to cause the measurement unit to re-measure the distance to the subject without trouble.
  • the predetermined process is performed as the process executed in the measurement success state in which the measurement by the measurement unit is successful.
  • the measurement success process is further executed by the execution unit 112B.
  • the position of the imaging range 115 is changed to a position where imaging for still images is scheduled next as imaging for still images required for panoramic imaging (step 444: Y), and
  • the imaging measurement button 90A is turned on (step 202: Y)
  • a process for causing the measurement unit to measure the distance to the subject is included in the measurement success process.
  • the distance measuring device 10B when the position of the imaging range 115 is changed to a position where imaging for still images is scheduled next as imaging for still images required for panoramic imaging, the user intends At this timing, the distance to the subject can be measured by the measurement unit.
  • the process of displaying the position change guidance information 146 on the display unit 86 (step 442) is included in the measurement success process.
  • the position of the imaging range 115 is a still image required for panoramic imaging as compared to the case where the process of displaying the position change guidance information 146 on the display unit 86 is not included in the measurement success process.
  • As an image pickup for the image it is possible to change to a position where the image pickup for the still image is scheduled next at an appropriate timing.
  • the case where measurement by the measurement unit is performed when the imaging measurement button 90A is turned on is illustrated, but the technology of the present disclosure is not limited to this.
  • the position change guidance information 146 is displayed, the position of the imaging range 115 is changed to a position where imaging for still images is scheduled next as imaging for still images required for panoramic imaging.
  • the measurement by the measurement unit may be started without the imaging measurement button 90A being turned on.
  • the distance measuring device 10B in the state where the position change guidance information 146 is displayed, the position of the imaging range 115 is scheduled to be captured next as a still image required for panoramic imaging. Compared to the case where measurement by the measurement unit is not executed despite the change to the position, the measurement unit can be made to measure the distance to the subject without much effort.
  • step 660 to step 670 may be inserted between step 434 and step 438 as shown in FIG.
  • step 660 shown in FIG. 47 the execution unit 112 ⁇ / b> B re-measurement start timing information indicating that it is a timing to start re-execution of measurement by the measurement unit in the display area of the live view image with respect to the display unit 86. Is started, and then the process proceeds to step 662. Note that the process of step 660 is an example of a second display process according to the technique of the present disclosure.
  • the re-measurement start timing information there is a message “Re-measurement timing has arrived”. Any information may be used as long as it allows the user to recognize that the timing of remeasurement has arrived. Also, here, the case where the re-measurement start timing information is displayed visually is shown, but the audible display such as the output of sound by an audio reproduction device (not shown) or the permanent visible display such as the output of printed matter by the printer is visible. It may replace with a display and may carry out together.
  • the execution unit 112B displays a reception waiting message indicating that the remeasurement start instruction is waiting to be received. You may make it display.
  • the reception waiting message there is a message “When re-measurement, please double-tap the touch panel or turn on the imaging measurement button”.
  • step 662 the execution unit 112 ⁇ / b> B determines whether the remeasurement start instruction described above has been received by the touch panel 88 or the reception device 90. If a remeasurement start instruction is accepted by the touch panel 88 or the accepting device 90 in step 662, the determination is affirmed and the process proceeds to step 664. If it is determined in step 662 that a remeasurement start instruction has not been received by the touch panel 88 or the receiving device 90, the determination is negative and the process proceeds to step 666.
  • step 664 the execution unit 112B ends the display of the remeasurement start timing information on the display unit 86, and then proceeds to step 438.
  • step 666 the execution unit 112B determines whether or not the position of the imaging range 115 has been changed. If it is determined in step 662 that the position of the imaging range 115 has not been changed, the determination is negative and the routine proceeds to step 662. If the determination in step 666 is affirmative, the process proceeds to step 668.
  • step 668 the execution unit 112B ends the display of the remeasurement start timing information on the display unit 86, and then proceeds to step 670.
  • step 670 the execution unit 112B ends the display of the minute change guide information 142 on the display unit 86, and then proceeds to step 426.
  • the distance measuring device 10B starts remeasurement when the position of the imaging range 115 is changed within the second allowable range while the minute change guide information 142 is displayed.
  • Timing information is displayed on the display unit 86 (step 660).
  • a remeasurement start instruction is received in a state where the remeasurement start timing information is displayed on the display unit 86 (step 662: Y)
  • measurement by the measurement unit is re-executed (step 222).
  • the distance to the subject can be remeasured by the measurement unit at a timing intended by the user.
  • steps 660 to 670 are inserted between step 434 and step 438 is shown, but the technology of the present disclosure is not limited to this.
  • steps corresponding to steps 660 to 670 may be inserted between step 420 and step 424.
  • the distance to the subject can be remeasured by the measurement unit at a timing intended by the user.
  • steps 460 to 486 may be applied instead of steps 446 to 450 shown in FIG.
  • steps 256 and 258 shown in FIG. 30 may be left as they are or may be removed.
  • step 460 shown in FIG. 38 the execution unit 112B determines whether or not the position of the imaging range 115 is within the imaging range. If it is determined in step 460 that the position of the imaging range 115 is outside the imageable range, the determination is negative and the routine proceeds to step 462. If it is determined in step 460 that the position of the imaging range 115 is within the imageable range, the determination is affirmed and the process proceeds to step 466.
  • step 462 the execution unit 112B determines whether or not the position change guidance information 146 is in a display state. If the position change guidance information 146 is in the display state at step 462, the determination is affirmed and the routine proceeds to step 464. If it is determined in step 462 that the position change guidance information 146 is not in the display state, the determination is negative and the panorama imaging measurement process ends.
  • step 464 the execution unit 112B ends the display of the position change guidance information 146 on the display unit 86, and then ends the panorama imaging measurement process.
  • step 466 the execution unit 112B determines whether or not the four-vertex corresponding pixel described in the first embodiment is included in the previous still image described in the first embodiment. If it is determined in step 466 that the four-vertex corresponding pixel is not included in the previous still image, the determination is negative and the process proceeds to step 470. If it is determined in step 466 that the four-vertex corresponding pixel is included in the previous still image, the determination is affirmed and the process proceeds to step 468.
  • step 468 the execution unit 112B determines whether the four pixels corresponding to the four-vertex corresponding pixels included in the previous still image are not present in the overlapping region described in the first embodiment. .
  • step 468 when four pixels corresponding to the four-vertex corresponding pixels included in the previous still image are not present in the overlapping region, the determination is affirmed, and the process proceeds to step 470. If it is determined in step 468 that four pixels corresponding to the four-vertex corresponding pixels included in the previous still image are present in the overlapping region, the determination is negative and the processing proceeds to step 474.
  • step 470 the execution unit 112B determines whether or not the position change guidance information 146 is in a display state. If the position change guidance information 146 is in the display state at step 470, the determination is affirmed and the routine proceeds to step 472. In step 470, when the position change guide information 146 is not in the display state, the determination is negative, and the process proceeds to step 200 shown in FIG.
  • step 472 the execution unit 112B ends the display of the position change guidance information 146 on the display unit 86, and then proceeds to step 200 shown in FIG.
  • step 474 the execution unit 112B determines whether or not the position change guidance information 146 is in a display state. If the position change guidance information 146 is in the display state at step 474, the determination is affirmed and the routine proceeds to step 476. If it is determined in step 474 that the position change guidance information 146 is not in the display state, the determination is negative and the process proceeds to step 478.
  • step 476 the execution unit 112B ends the display of the position change guide information 146 on the display unit 86, and then proceeds to step 478.
  • step 478 the execution unit 112B causes the display unit 86 to start displaying the imaging measurement start message 134 in the display area of the live view image as shown in FIG. 19 as an example, and then proceeds to step 480. To do.
  • step 478 is an example of fourth display processing and fifth display processing according to the technology of the present disclosure.
  • the imaging measurement start message 134 is exemplified, but the technique of the present disclosure is not limited to this, and imaging start that is information indicating that it is timing to start imaging of the subject. Any information may be used as long as it is timing information.
  • step 480 the execution unit 112B determines whether or not the imaging measurement button 90A is turned on. If the imaging measurement button 90A is not turned on at step 480, the determination is negative and the routine proceeds to step 484. If the imaging measurement button 90A is turned on in step 480, the determination is affirmed and the routine proceeds to step 482.
  • the case where the determination in step 480 is affirmative is an example of “when an instruction to start measurement by the measurement unit is received in a state where the measurement start timing information is displayed” according to the technique of the present disclosure. .
  • step 482 the execution unit 112B ends the display of the imaging measurement start message 134 on the display unit 86, and then proceeds to step 260 shown in FIG.
  • step 484 the execution unit 112B determines whether or not the position of the imaging range 115 has been changed. If it is determined in step 484 that the position of the imaging range 115 has not been changed, the determination is negative and the process proceeds to step 480. If the position of the imaging range 115 is changed in step 484, the determination is affirmed and the routine proceeds to step 486.
  • step 486 the execution unit 112B ends the display of the imaging measurement start message 134 on the display unit 86, and then proceeds to step 460.
  • the position of the imaging range 115 is changed to a position where imaging for still images is scheduled next as imaging for still images required for panoramic imaging.
  • the distance to the subject can be measured by the measurement unit at the timing intended by the user.
  • the captured image contributing to highly accurate projective transformation that is, the captured image including four pixels corresponding to the four-vertex corresponding pixels. Can be easily recognized by the user.
  • the distance measuring device 10B is illustrated.
  • the technology of the present disclosure is not limited to this, and as an example, as shown in FIGS. 1 and 39, the distance measuring device 10B is used.
  • the distance measuring device 10C may be employed.
  • the distance measuring device 10C has a distance measuring device main body 10C1 instead of the distance measuring device main body 10B1 and a change mechanism 11 as compared with the distance measuring device 10B.
  • the difference is that a change mechanism 164 is provided.
  • the distance measuring device main body 10C1 is different from the distance measuring device main body 10B1 in that it includes an imaging device 160 instead of the imaging device 150.
  • the imaging device 160 is different from the imaging device 150 in that it has an imaging device body 162 instead of the imaging device body 152.
  • the imaging apparatus main body 162 is different from the imaging apparatus main body 152 in that it includes a reception device 166 instead of the reception device 90.
  • the receiving device 166 is different from the receiving device 90 in that it does not have the vertical rotation rotary switch 90G and the horizontal rotation rotary switch 90H.
  • the imaging device main body 162 is different from the imaging device main body 152 in that the motor drivers 29 and 31 are not provided.
  • the changing mechanism 164 is different from the changing mechanism 11 in that it has a rotary encoder 168 instead of the motor 21 and a rotary encoder 170 instead of the motor 23.
  • the rotary encoder 168 is connected to the horizontal rotation mechanism 17.
  • the rotary encoder 168 is connected to the bus line 84 via the connector 25 and the hot shoe 19.
  • the rotary encoder 168 detects the rotation direction and the rotation amount of the vertical rotation mechanism 15 rotated by the horizontal rotation mechanism 17.
  • the main control unit 154 acquires the rotation direction and the rotation amount detected by the rotary encoder 168.
  • the rotary encoder 170 is connected to the vertical rotation mechanism 15.
  • the rotary encoder 170 is connected to the bus line 84 via the connector 25 and the hot shoe 19.
  • the rotary encoder 170 detects the rotation direction and the rotation amount of the distance measuring device main body 10C1 rotated by the vertical rotation mechanism 15.
  • the main control unit 154 acquires the rotation direction and the rotation amount detected by the rotary encoder 170.
  • the rotation direction and rotation amount by the vertical rotation mechanism 15 are specified by the rotation direction and rotation amount of the motor 23, and the rotation direction and rotation amount by the horizontal rotation mechanism 17 are the rotation direction and rotation amount of the motor 21, respectively. Specified by.
  • the rotation direction and the rotation amount by the vertical rotation mechanism 15 are specified based on the detection result by the rotary encoder 170, and the rotation direction and the rotation amount by the horizontal rotation mechanism 17 are determined by the rotary encoder 168. It is specified based on the detection result.
  • the position specifying information is derived based on the rotation direction and the amount of rotation by the vertical rotation mechanism 15 and the horizontal rotation mechanism 17, similarly to the distance measurement device 10B.
  • the position specifying information is derived based on the detection results of the rotary encoders 168 and 170, but the technology of the present disclosure is not limited to this, and instead of the distance measuring device 10C.
  • the distance measuring device 10D shown in FIGS. 40 and 41 may be employed.
  • the distance measuring device 10D is different from the distance measuring device 10C in that the changing mechanism 164 is not provided.
  • the distance measuring device 10D is different from the distance measuring device 10C in that an imaging device 172 is provided instead of the imaging device 160.
  • the imaging device 172 is different from the imaging device 160 in that it has an imaging device body 174 instead of the imaging device body 162.
  • the imaging device main body 174 is different from the imaging device main body 162 in that it has a gyro sensor 176.
  • the gyro sensor 176 is connected to the bus line 84, and the detection result by the gyro sensor 176 is acquired by the main control unit 154.
  • the position specifying information is derived based on the detection results of the rotary encoders 168 and 170, whereas in the distance measuring device 10D, the position specifying information is derived based on the detection result of the gyro sensor 176. This is different from the distance measuring device 10C.
  • the distance measuring device 10A is realized by the distance measuring unit 12 and the imaging device 14 is illustrated, but in the third embodiment, the distance measuring realized by further including the smart device 500.
  • the device 10E will be described.
  • the same components as those in the above-described embodiments are denoted by the same reference numerals, description thereof is omitted, and only different portions from those in the above-described embodiments will be described.
  • a distance measuring device 10E according to the third embodiment is different from the distance measuring device 10A according to the first embodiment in that a distance measuring device main body 10E1 is used instead of the distance measuring device main body 10A1.
  • a smart device 500 is different.
  • the smart device 500 is an example of an information processing apparatus according to the technology of the present disclosure.
  • the smart device 500 is illustrated, but a PC (Personal Computer) may be used instead of the smart device.
  • the distance measuring device main body 10E1 is different from the distance measuring device main body 10A1 in that it includes an imaging device 502 instead of the imaging device 14.
  • the imaging device 502 is different from the imaging device 14 in that it has an imaging device body 504 instead of the imaging device body 18.
  • the imaging apparatus main body 504 is different from the imaging apparatus main body 18 in that it has a wireless communication unit 506 and a wireless communication antenna 508.
  • the wireless communication unit 506 is connected to the bus line 84 and the wireless communication antenna 508.
  • the main control unit 62 outputs transmission target information, which is information to be transmitted to the smart device 500, to the wireless communication unit 506.
  • the wireless communication unit 506 transmits the transmission target information input from the main control unit 62 to the smart device 500 by radio waves via the wireless communication antenna 508.
  • the radio communication unit 506 acquires a signal corresponding to the received radio wave and outputs the acquired signal to the main control unit 62.
  • the smart device 500 includes a CPU 510, a primary storage unit 512, and a secondary storage unit 514.
  • the CPU 510, the primary storage unit 512, and the secondary storage unit 514 are connected to the bus line 516.
  • the CPU 510 controls the entire distance measuring device 10E including the smart device 500.
  • the primary storage unit 512 is a volatile memory used as a work area or the like when executing various programs.
  • An example of the primary storage unit 512 is a RAM.
  • the secondary storage unit 514 is a non-volatile memory that stores in advance a control program for controlling the overall operation of the distance measuring device 10E including the smart device 500, various parameters, or the like.
  • An example of the secondary storage unit 514 is a flash memory or an EEPROM.
  • the smart device 500 includes a display unit 518, a touch panel 520, a wireless communication unit 522, and a wireless communication antenna 524.
  • the display unit 518 is connected to the bus line 516 via a display control unit (not shown), and displays various information under the control of the display control unit.
  • the display unit 518 is realized by an LCD, for example.
  • the touch panel 520 is superimposed on the display screen of the display unit 518, and accepts contact by an indicator.
  • Touch panel 520 is connected to bus line 516 via a touch panel I / F (not shown), and outputs position information indicating the position touched by the indicator to touch panel I / F.
  • the touch panel I / F operates the touch panel I / F in accordance with an instruction from the CPU 510, and outputs position information input from the touch panel 520 to the CPU 510.
  • Display unit 518 displays soft keys corresponding to imaging measurement button 90A, imaging system operation mode switching button 90B, wide-angle instruction button 90C, telephoto instruction button 90D, panorama imaging measurement button 90E, dimension derivation button 90F, and the like. (See FIG. 41).
  • an imaging measurement button 90A1 that functions as the imaging measurement button 90A is displayed as a soft key on the display unit 518, and is pressed by the user via the touch panel 520.
  • an imaging button (not shown) that functions as the imaging button described in the first embodiment is displayed as a soft key on the display unit 518 and pressed by the user via the touch panel 520.
  • an imaging system operation mode switching button 90B1 that functions as the imaging system operation mode switching button 90B is displayed as a soft key, and is pressed by the user via the touch panel 520.
  • a wide-angle instruction button 90C1 that functions as the wide-angle instruction button 90C is displayed as a soft key on the display unit 518, and is pressed by the user via the touch panel 520.
  • a telephoto instruction button 90D1 that functions as the telephoto instruction button 90D is displayed as a soft key on the display unit 518 and is pressed by the user via the touch panel 520.
  • the display unit 518 is displayed as a panorama imaging measurement button 90E1 soft key that functions as the panorama imaging measurement button 90E, and is pressed by the user via the touch panel 520.
  • a dimension derivation button 90F1 that functions as the dimension derivation button 90F is displayed as a soft key on the display unit 518, and is pressed by the user via the touch panel 520.
  • the display unit 518 displays a vertical rotation touch pad 90G1 and a horizontal rotation touch pad 90H1.
  • the vertical rotation touch pad 90G1 is a circular touch pad that functions as the vertical rotation rotary switch 90G.
  • the rotation amount and the rotation direction by the vertical rotation mechanism 15 are determined by drawing an arc-shaped locus inside the display area of the vertical rotation touchpad 90G1 via the touch panel 520.
  • the amount of rotation by the vertical rotation mechanism 15 is determined according to the length of the locus drawn inside the display area of the vertical rotation touch pad 90G1.
  • the length of the locus drawn inside the display area of the vertical rotation touchpad 90G1 corresponds to, for example, the sliding amount of the indicator (for example, the user's finger) slid while being in contact with the touch panel 520. To do.
  • the rotation direction by the vertical rotation mechanism 15 is determined according to the direction in which the locus inside the display area of the vertical rotation touchpad 90G1 is drawn (in the example shown in FIG. 43, the direction of the arrow G).
  • the direction in which the locus inside the display area of the touch pad 90G1 for vertical rotation is drawn corresponds to, for example, the sliding direction of the indicator that is slid in contact with the touch panel 520.
  • the horizontal rotation touch pad 90H1 is a circular touch pad that functions as the horizontal rotation rotary switch 90H.
  • the rotation amount and the rotation direction by the horizontal rotation mechanism 17 are determined by drawing an arc-shaped locus inside the display area of the horizontal rotation touchpad 90H1 via the touch panel 520.
  • the amount of rotation by the horizontal rotation mechanism 17 is determined according to the length of the locus drawn inside the display area of the horizontal rotation touchpad 90H1.
  • the length of the locus drawn inside the display area of the laterally rotating touch pad 90H1 corresponds to, for example, the sliding amount of the indicator that is slid while being in contact with the touch panel 520.
  • the rotation direction by the horizontal rotation mechanism 17 is determined according to the direction in which the locus inside the display area of the horizontal rotation touchpad 90H1 is drawn (in the example shown in FIG. 43, the direction of the arrow H).
  • the direction in which the locus inside the display area of the touch pad 90H1 for horizontal rotation is drawn corresponds to, for example, the sliding direction of the indicator that is slid in contact with the touch panel 520.
  • the wireless communication unit 522 is connected to the bus line 516 and the wireless communication antenna 524.
  • the wireless communication unit 522 transmits the signal input from the CPU 510 to the image pickup apparatus body 504 via the wireless communication antenna 524 by radio waves.
  • the radio communication unit 522 acquires a signal corresponding to the received radio wave, and outputs the acquired signal to the CPU 510. Accordingly, the imaging device main body 504 is controlled by the smart device 500 by performing wireless communication with the smart device 500.
  • the secondary storage unit 514 stores a panorama imaging measurement program 105A and a dimension derivation program 106A.
  • the CPU 510 reads the panorama imaging measurement program 105A from the secondary storage unit 514, develops it in the primary storage unit 512, and executes the panorama imaging measurement program 105A.
  • the CPU 510 reads the dimension derivation program 106A from the secondary storage unit 514, expands it in the primary storage unit 512, and executes the dimension derivation program 106A.
  • the CPU 510 operates as the acquisition unit 110A and the execution unit 112A by executing the panorama imaging measurement program 105A. Further, the dimension derivation program 106A is executed by the CPU 510, thereby realizing the dimension derivation process described in the first embodiment.
  • the smart device 500 executes the panoramic imaging measurement program 105A and the dimension derivation program 106A, so that the same operations and effects as those of the above embodiments can be obtained.
  • the panorama imaging measurement program 105A (105B) and the dimension derivation program 106A are read from the secondary storage unit 104 (514). It is just an example.
  • the program may first be stored in an arbitrary portable storage medium 600 such as an SSD (Solid State Drive) or a USB (Universal Serial Bus) memory.
  • the program of the storage medium 600 is installed in the distance measuring device 10A (10B, 10C, 10D, 10E) (hereinafter referred to as “the distance measuring device 10A etc.”), and the installed program is executed by the CPU 100 (510). Is done.
  • a program is stored in a storage unit such as another computer or a server device connected to the distance measuring device 10A or the like via a communication network (not shown), and the program responds to a request from the distance measuring device 10A or the like. It may be downloaded. In this case, the downloaded derivation program is executed by the CPU 100 (510).
  • various information such as a panoramic image, the length of the area, and various messages is displayed on the display unit 86 is illustrated, but the technology of the present disclosure is not limited to this.
  • various types of information may be displayed on a display unit of an external device used by connecting to the distance measuring device 10A or the like.
  • the external device there is a PC or a glasses-type or watch-type wearable terminal device.
  • each of the above embodiments the case where various information such as a panoramic image, the length of the area, and various messages is displayed on the display unit 86 is illustrated, but the technology of the present disclosure is not limited to this.
  • at least one of the imaging measurement start message 134, the minute change guidance information 142, the position change guidance information 146, and the like is displayed on a display unit (not shown) different from the display unit 86, and the rest is displayed on the display unit 86. May be displayed.
  • each of the imaging measurement start message 134, the minute change guidance information 142, the position change guidance information 146, and the like may be individually displayed on a plurality of display units including the display unit 86.
  • laser light is exemplified as distance measurement light.
  • the technology of the present disclosure is not limited to this, and any directional light that is directional light may be used.
  • the light may be directional light obtained by a light emitting diode (LED) or a super luminescent diode (SLD).
  • the directivity of the directional light is preferably the same as the directivity of the laser light.
  • the directivity can be used for ranging within a range of several meters to several kilometers. preferable.
  • panorama imaging measurement process and the dimension derivation process described in the above embodiments are merely examples. Therefore, it goes without saying that unnecessary steps may be deleted, new steps may be added, and the processing order may be changed within a range not departing from the spirit.
  • Each process included in the panorama imaging measurement process and the dimension derivation process may be realized only by a hardware configuration such as an ASIC, or may be realized by a combination of a software configuration using a computer and a hardware configuration. Good.
  • the distance measuring unit 12 may be attached to the upper surface or the lower surface of the imaging apparatus main body 18.
  • a distance measuring device 10F may be applied instead of the distance measuring device 10A or the like.
  • the distance measuring device 10F has a distance measuring unit 12A instead of the distance measuring unit 12 as compared with the distance measuring device 10A and the like, and an image pickup device main body 18A instead of the image pickup device main body 18. Is different.
  • the distance measuring unit 12A is housed in the housing 18A1 of the imaging apparatus main body 18A, and the objective lenses 32 and 38 are on the front side of the distance measuring apparatus 10E (the focus lens 50 is exposed). Side) is exposed from the housing 18A1.
  • the distance measuring unit 12A is preferably arranged so that the optical axes L1 and L2 are set at the same height in the vertical direction. Note that an opening (not shown) through which the distance measuring unit 12A can be inserted into and removed from the housing 18A1 may be formed in the housing 18A1.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Signal Processing (AREA)
  • Manufacturing & Machinery (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Automatic Focus Adjustment (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Focusing (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)

Abstract

情報処理装置は、指定撮像範囲内の被写体に向けて、指向性のある光である指向性光を射出させ、指向性光の反射光を受光させることにより被写体までの距離を計測部に計測させた場合に、計測部による計測が成功したか、失敗したかを示す計測成否情報を取得する取得部と、取得部により取得された計測成否情報が計測部による計測が失敗したことを示す場合に、パノラマ撮像が可能な許容範囲内で指定撮像範囲の位置が変更された状態で計測部に対して被写体までの距離を再計測させる再計測処理を実行する実行部と、を含む。

Description

情報処理装置、情報処理方法、及びプログラム
 本開示の技術は、情報処理装置、情報処理方法、及びプログラムに関する。
 特開2013-92456号公報、特開2012-185053号公報、及び特開2000-99740号公報には、被写体に対してパノラマ撮像を行う装置が開示されている。なお、本明細書において、パノラマ撮像とは、例えば、鉛直方向又は水平方向等の特定方向に連続する複数の撮像範囲の各々について撮像範囲に含まれる被写体を撮像し、撮像して得た複数の撮像画像を繋ぎ合わせてパノラマ画像を生成する一連の動作を指す。
 ところで、計測対象にレーザ光を射出し、レーザ光の反射光を受光することにより計測対象までの距離を計測する測距機能に加え、パノラマ撮像を行うパノラマ撮像機能が搭載された測距装置が知られている。この種の測距装置は、パノラマ撮像機能と共に測距機能を働かせて、パノラマ撮像における撮像対象となる撮像範囲に含まれる被写体までの距離を計測する。
 しかしながら、上記の測距装置では、反射光を受光することができない角度でレーザ光が被写体に照射されたり、被写体が、黒色であったり、透光性を有していたり、光沢を有していたりすると、被写体までの距離を計測することができない。
 そこで、被写体までの距離の計測を成功させる度合いを高めるために、パノラマ撮像で要する全ての撮像の各々について1回ずつ被写体までの距離を計測する、という方法が考えられる。
 この方法によれば、1回のパノラマ撮像における撮像対象となる全ての撮像範囲のうちの1つの撮像範囲に含まれる被写体のみを計測対象として被写体までの距離を計測する場合に比べ、1回のパノラマ撮像において、計測を成功させる度合いを高めることができる。しかし、1回のパノラマ撮像における撮像対象となる全ての撮像範囲の各々で、黒色領域又は透光性領域等のレーザ光の照射領域として不向きな領域にレーザ光が照射されると、1回のパノラマ撮像において、計測が1回も成功しないという事態が発生し得る。
 本発明の一つの実施形態は、パノラマ撮像における撮像対象となる全ての撮像範囲の各々について被写体までの距離の計測を1回ずつ行う場合に比べ、パノラマ撮像における撮像対象となる全ての撮像範囲の各々での被写体までの距離の計測を成功させる度合いを高めることができる情報処理装置、情報処理方法、及びプログラムを提供する。
 本発明の第1の態様に係る情報処理装置は、被写体に対するパノラマ撮像における撮像対象となる複数の撮像範囲のうち、個々の撮像が実施される前に撮像の実施対象として指定された撮像範囲である指定撮像範囲内の被写体に向けて、指向性のある光である指向性光を射出させ、指向性光の反射光を受光させることにより被写体までの距離を計測部に計測させた場合に、計測部による計測が成功したか、失敗したかを示す計測成否情報を取得する取得部と、取得部により取得された計測成否情報が計測部による計測が失敗したことを示す場合に、パノラマ撮像が可能な許容範囲内で指定撮像範囲の位置が変更された状態で計測部に対して被写体までの距離を再計測させる再計測処理を実行する実行部と、を含む。
 従って、第1の態様に係る情報処理装置によれば、パノラマ撮像における撮像対象となる全ての撮像範囲の各々について被写体までの距離の計測を1回ずつ行う場合に比べ、パノラマ撮像における撮像対象となる全ての撮像範囲の各々での被写体までの距離の計測を成功させる度合いを高めることができる。
 本発明の第2の態様に係る情報処理装置は、本発明の第1の態様に係る情報処理装置において、再計測処理は、第1動力源を有する第1変更機構であって、第1動力源で生成された動力に応じて撮像方向を変更する第1変更機構を作動させることで、指定撮像範囲の位置を許容範囲内で移動させる第1移動処理を含む処理である、とされている。
 従って、第2の態様に係る情報処理装置によれば、手動で指定撮像範囲の位置を許容範囲内で移動させる場合に比べ、手間をかけずに、指定撮像範囲の位置を許容範囲内で移動させることができる。
 本発明の第3の態様に係る情報処理装置は、本発明の第2の態様に係る情報処理装置において、再計測処理は、実行部により第1移動処理が実行されることで指定撮像範囲の位置を許容範囲内で移動させた場合に、計測部に対して被写体までの距離を再計測させる処理を含む処理である、とされている。
 従って、第3の態様に係る情報処理装置によれば、指定撮像範囲の位置を許容範囲から逸脱させることなく、計測対象とされる箇所を変えて計測部に対して被写体までの距離を再計測させることができる。
 本発明の第4の態様に係る情報処理装置は、本発明の第3の態様に係る情報処理装置において、再計測処理は、実行部により第1移動処理が実行されることで指定撮像範囲の位置を許容範囲内で移動させ、かつ、計測部による計測を開始する指示が受けられた場合に、計測部に対して被写体までの距離を再計測させる処理を含む処理である、とされている。
 従って、第4の態様に係る情報処理装置によれば、指定撮像範囲の位置を許容範囲内から逸脱させることなく、ユーザが意図するタイミングで、計測部に対して被写体までの距離を再計測させることができる。
 本発明の第5の態様に係る情報処理装置は、本発明の第1の態様に係る情報処理装置において、再計測処理は、指定撮像範囲の位置の許容範囲内での変更を誘導する第1誘導情報を第1表示部に対して表示させる第1表示処理を含む処理である、とされている。
 従って、第5の態様に係る情報処理装置によれば、第1誘導情報が表示されない場合に比べ、許容範囲内で指定撮像範囲の位置を維持したまま計測部に対して被写体までの距離を再計測させるという事態の発生を抑制することができる。
 本発明の第6の態様に係る情報処理装置は、本発明の第5の態様に係る情報処理装置において、再計測処理は、第1誘導情報が第1表示部に表示されている状態で、指定撮像範囲の位置が許容範囲内で変更された場合に、計測部による再計測を開始するタイミングであることを示す再計測開始タイミング情報を第2表示部に対して表示させる第2表示処理を更に含み、再計測開始タイミング情報が表示されている状態で計測部による計測を開始する指示が受け付けられた場合に、計測部に対して被写体までの距離を再計測させる処理を含む処理である、とされている。
 従って、第6の態様に係る情報処理装置によれば、ユーザが意図するタイミングで、計測部に対して被写体までの距離を再計測させることができる。
 本発明の第7の態様に係る情報処理装置は、本発明の第5の態様に係る情報処理装置において、再計測処理は、第1誘導情報が表示されている状態で、指定撮像範囲の位置が許容範囲内で変更された場合に、計測部に対して被写体までの距離を再計測させる処理を含む処理である、とされている。
 従って、第7の態様に係る情報処理装置によれば、第1誘導情報が表示されている状態で、指定撮像範囲の位置が許容範囲内で変更されたにも拘らず計測部による計測が再実行されない場合に比べ、手間をかけずに、計測部に対して被写体までの距離を再計測させることができる。
 本発明の第8の態様に係る情報処理装置は、本発明の第1の態様から第7の態様の何れか1つの態様に係る情報処理装置において、取得部により取得された計測成否情報が計測部による計測が成功したことを示す場合に、計測部による計測が成功した計測成功状態で実行される処理として予め定められた計測成功処理を更に実行する、とされている。
 従って、第8の態様に係る情報処理装置によれば、計測部による計測の成功が計測成否情報を用いずに人為的に判断される場合に比べ、計測成功処理の実行を迅速に開始することができる。
 本発明の第9の態様に係る情報処理装置は、本発明の第8の態様に係る情報処理装置において、計測成功処理は、指定撮像範囲の位置がパノラマ撮像における次の撮像を予定している位置に変更された場合に、計測部に対して被写体までの距離を計測させる処理を含む処理である、とされている。
 従って、第9の態様に係る情報処理装置によれば、指定撮像範囲の位置がパノラマ撮像における次の撮像を予定している位置に変更されたにも拘らず計測部による計測が実行されない場合に比べ、手間をかけずに、計測部に対して被写体までの距離を計測させることができる。
 本発明の第10の態様に係る情報処理装置は、本発明の第9の態様に係る情報処理装置において、計測成功処理は、第2動力源を有する第2変更機構であって、第2動力源で生成された動力に応じて撮像方向を変更する第2変更機構を作動させることで、指定撮像範囲の位置をパノラマ撮像における次の撮像を予定している位置に移動させる第2移動処理を含む処理である、とされている。
 従って、第10の態様に係る情報処理装置によれば、指定撮像範囲の位置をパノラマ撮像における次の撮像を予定している位置に手動で移動させる場合に比べ、手間をかけずに、指定撮像範囲の位置をパノラマ撮像における次の撮像を予定している位置に移動させることができる。
 本発明の第11の態様に係る情報処理装置は、本発明の第9の態様又は第10の態様に係る情報処理装置において、計測成功処理は、指定撮像範囲の位置がパノラマ撮像における次の撮像を予定している位置に変更され、かつ、計測部による計測を開始する指示が受けられた場合に、計測部に対して被写体までの距離を計測させる処理を含む処理である、とされている。
 従って、第11の態様に係る情報処理装置によれば、指定撮像範囲の位置がパノラマ撮像における次の撮像を予定している位置に変更された場合に、ユーザが意図するタイミングで、計測部に対して被写体までの距離を計測させることができる。
 本発明の第12の態様に係る情報処理装置は、本発明の第8の態様に係る情報処理装置において、計測成功処理は、指定撮像範囲の位置のパノラマ撮像における次の撮像を予定している位置への変更を誘導する第2誘導情報を第3表示部に対して表示させる第3表示処理を含む処理である、とされている。
 従って、第12の態様に係る情報処理装置によれば、第2誘導情報が表示されない場合に比べ、指定撮像範囲の位置をパノラマ撮像における次の撮像を予定している位置にタイミングで変更させることができる。
 本発明の第13の態様に係る情報処理装置は、本発明の第12の態様に係る情報処理装置において、計測成功処理は、第2誘導情報が第3表示部に表示されている状態で、指定撮像範囲の位置がパノラマ撮像における次の撮像を予定している位置に変更された場合に、計測部による計測を開始するタイミングであることを示す計測開始タイミング情報を第4表示部に対して表示させる第4表示処理、及び計測開始タイミング情報が表示されている状態で計測部による計測を開始する指示が受け付けられた場合に、計測部に対して被写体までの距離を計測させる処理を含む処理である、とされている。
 従って、第13の態様に係る情報処理装置によれば、指定撮像範囲の位置がパノラマ撮像における次の撮像を予定している位置に変更された場合に、ユーザが意図するタイミングで、計測部に対して被写体までの距離を計測させることができる。
 本発明の第14の態様に係る情報処理装置は、本発明の第12の態様に係る情報処理装置において、計測成功処理は、第2誘導情報が第3表示部に表示されている状態で、未実施撮像範囲が指定撮像範囲に変更された場合に、計測部に対して被写体までの距離を計測させる処理を含む処理である、とされている。
 従って、第14の態様に係る情報処理装置によれば、第2誘導情報が表示されている状態で、指定撮像範囲の位置がパノラマ撮像における次の撮像を予定している位置に変更されたにも拘らず、計測部による計測が実行されない場合に比べ、手間をかけずに、計測部に対して被写体までの距離を計測させることができる。
 本発明の第15の態様に係る情報処理装置は、本発明の第1の態様から第14の態様の何れか1つの態様に係る情報処理装置において、実行部は、複数の撮像範囲における隣接する撮像範囲である隣接撮像範囲のうちの先に撮像が実施される一方の撮像範囲内の被写体が撮像されて得られた第1撮像画像に多角形の頂点を規定する少なくとも4つ以上の画素である第1多頂点画素が含まれており、隣接撮像範囲のうちの他方の撮像範囲内の被写体が撮像されて得られた第2撮像画像に第1多頂点画素に対応する画素である対応画素が含まれている場合に、第1撮像画像が第1多頂点画素に基づいて射影変換されて得られた画像である第1射影変換後画像と、第2撮像画像が対応画素に基づいて射影変換されて得られた画像である第2射影変換後画像と、を含む画像であるパノラマ画像を生成する生成処理を更に実行する、とされている。
 従って、第15の態様に係る情報処理装置によれば、パノラマ撮像における撮像対象となる複数の撮像範囲の各々に含まれる各被写体を撮像して得た全ての静止画像の各々について多角形の頂点を規定する4つ以上の画素を探索する場合に比べ、手間をかけずに、射影変換後画像を含むパノラマ画像を生成することができる。
 本発明の第16の態様に係る情報処理装置は、本発明の第15の態様に係る情報処理装置において、実行部は、他方の撮像範囲が多角形の頂点を含む場合に、他方の撮像範囲内の被写体の撮像を開始するタイミングであることを示す撮像開始タイミング情報を第5表示部に表示させる第5表示処理を更に実行する、とされている。
 従って、第16の態様に係る情報処理装置によれば、撮像開始タイミング情報が表示されない場合に比べ、高精度な射影変換に寄与する第2撮像画像を取得可能な撮像のタイミングをユーザに容易に認識させることができる。
 本発明の第17の態様に係る情報処理装置は、本発明の第1の態様から第16の態様の何れか1つの態様に係る情報処理装置において、指定撮像範囲内の被写体が撮像されて得られた撮像画像に多角形の頂点を規定する少なくとも4つ以上の画素である第2多頂点画素が含まれている場合、許容範囲は、撮像画像内の第2多頂点画素の位置に対応する実空間上の位置を含む範囲である、とされている。
 従って、第17の態様に係る情報処理装置によれば、許容範囲が第2多頂点画素の位置に対応する実空間上の位置を含む範囲でない場合に比べ、許容範囲内の指定撮像範囲に含まれる被写体が撮像されて得られた撮像画像の高精度な射影変換に寄与することができる。
 本発明の第18の態様に係る情報処理装置は、本発明の第1の態様から第17の態様の何れか1つの態様に係る情報処理装置において、実行部は、計測部に対して計測させた被写体までの距離と、パノラマ撮像が行われることによって得られたパノラマ画像内において指定された複数画素の間隔とに基づいて、間隔に対応する実空間領域の寸法を導出する導出処理を更に実行する、とされている。
 従って、本発明の第18の態様に係る情報処理装置によれば、1回のパノラマ撮像で要する全ての撮像の各々について1回ずつ被写体までの距離を計測する場合に比べ、パノラマ画像を介して指定された実空間領域の寸法を、手間をかけずに導出することができる。
 本発明の第19の態様に係る情報処理方法は、被写体に対するパノラマ撮像における撮像対象となる複数の撮像範囲のうち、個々の撮像が実施される前に撮像の実施対象として指定された撮像範囲である指定撮像範囲内の被写体に向けて、指向性のある光である指向性光を射出させ、指向性光の反射光を受光させることにより被写体までの距離を計測部に計測させた場合に、計測部による計測が成功したか、失敗したかを示す計測成否情報を取得し、取得した計測成否情報が計測部による計測が失敗したことを示す場合に、パノラマ撮像が可能な許容範囲内で指定撮像範囲の位置が変更された状態で計測部に対して被写体までの距離を再計測させる再計測処理を実行することを含む。
 従って、第19の態様に係る情報処理方法によれば、パノラマ撮像における撮像対象となる全ての撮像範囲の各々について被写体までの距離の計測を1回ずつ行う場合に比べ、パノラマ撮像における撮像対象となる全ての撮像範囲の各々での被写体までの距離の計測を成功させる度合いを高めることができる。
 本発明の第20の態様に係るプログラムは、コンピュータに、被写体に対するパノラマ撮像における撮像対象となる複数の撮像範囲のうち、個々の撮像が実施される前に撮像の実施対象として指定された撮像範囲である指定撮像範囲内の被写体に向けて、指向性のある光である指向性光を射出させ、指向性光の反射光を受光させることにより被写体までの距離を計測部に計測させた場合に、計測部による計測が成功したか、失敗したかを示す計測成否情報を取得し、取得した計測成否情報が計測部による計測が失敗したことを示す場合に、パノラマ撮像が可能な許容範囲内で指定撮像範囲の位置が変更された状態で計測部に対して被写体までの距離を再計測させる再計測処理を実行することを含む処理を実行させるためのプログラムとされている。
 従って、第20の態様に係る情報処理装置によれば、パノラマ撮像における撮像対象となる全ての撮像範囲の各々について被写体までの距離の計測を1回ずつ行う場合に比べ、パノラマ撮像における撮像対象となる全ての撮像範囲の各々での被写体までの距離の計測を成功させる度合いを高めることができる。
 本発明の一つの実施形態によれば、パノラマ撮像における撮像対象となる全ての撮像範囲の各々について被写体までの距離の計測を1回ずつ行う場合に比べ、パノラマ撮像における撮像対象となる全ての撮像範囲の各々での被写体までの距離の計測を成功させる度合いを高めることができる、という効果が得られる。
第1~第3実施形態に係る測距装置の外観の一例を示す正面図である。 第1及び第2実施形態に係る測距装置に含まれる撮像装置の撮像範囲の位置が正面視下方に変更された態様の一例を示す側面視態様図である。 第1及び第2実施形態に係る測距装置に含まれる撮像装置の撮像範囲の位置が正面視上方に変更された態様の一例を示す側面視態様図である。 第1及び第2実施形態に係る測距装置に含まれる測距装置本体が正面視左右方向に回転される態様の一例を示す平面視態様図である。 第1及び第2実施形態に係る測距装置のハードウェア構成の一例を示すブロック図である。 第1~第3実施形態に係る測距装置による計測シーケンスの一例を示すタイムチャートである。 第1~第3実施形態に係る測距装置による1回の計測を行う場合に要するレーザトリガ、発光信号、受光信号、及びカウント信号の一例を示すタイムチャートである。 第1~第3実施形態に係る測距装置による計測シーケンスで得られた計測値のヒストグラム(被写体までの距離(計測値)を横軸とし、計測回数を縦軸とした場合のヒストグラム)の一例を示すグラフである。 第1及び第2実施形態に係る測距装置に含まれる主制御部のハードウェア構成の一例を示すブロック図である。 第1及び第2実施形態に係るCPUの要部機能の一例を示すブロック図である。 指定された区域の寸法(長さ)を計測する方法の説明に供する説明図である。 第1実施形態に係るパノラマ撮像計測処理の流れの一例を示すフローチャートである。 図12に示すフローチャートの続きである。 図12及び図13に示すフローチャートの続きである。 図14に示すフローチャートの続きである。 パノラマ撮像における最初の撮像対象となる撮像範囲及び許容範囲の一例を示す概念図である。 パノラマ撮像における2番目の撮像対象となる撮像範囲及び許容範囲の一例を示す概念図である。 パノラマ撮像における3番目の撮像対象となる撮像範囲及び許容範囲の一例を示す概念図である。 図16に示す撮像範囲内の被写体を示すライブビュー画像及び撮像計測開始メッセージが表示された画面の一例を示すが概略画面図である。 図16に示す撮像範囲内の被写体を示すライブビュー画像及び位置変更指示受付画面が表示された画面の一例を示すが概略画面図である。 図16に示す撮像範囲内の被写体を示すライブビュー画像及び計測失敗メッセージが表示された画面の一例を示すが概略画面図である。 第1及び第2実施形態に係る寸法導出処理の流れの一例を示すフローチャートである。 第1及び第2実施形態に係る寸法導出処理が実行されることで表示部に表示されたパノラマ画像を含む画面の一例を示す概略画面図である。 第1及び第2実施形態に係る寸法導出処理が実行されることで表示部に表示されたパノラマ画像及び画素指定案内メッセージを含む画面の一例を示す概略画面図である。 第1及び第2実施形態に係る寸法導出処理が実行されることで表示部に表示されたパノラマ画像及び画素指定案内メッセージ、並びに、画素指定案内メッセージに従って指定された2つの画素を含む画面の一例を示す概略画面図である。 第1及び第2実施形態に係る寸法導出処理が実行されることで導出された実空間上の区域の長さがパノラマ画像に重畳表示された状態の画面の一例を示す概略画面図である。 第1及び第2実施形態に係る寸法導出処理が実行されることで実空間上の区域の長さがパノラマ画像に重畳表示された状態で更に2つの画素が指定された場合の画面の一例を示す概略画面図である。 第1及び第2実施形態に係る寸法導出処理が実行されることで実空間上の2つの区域の各々の長さがパノラマ画像に重畳表示された状態の画面の一例を示す概略画面図である。 第1実施形態に係るパノラマ撮像計測処理が実行されることで用いられる許容範囲の変形例を示す概念図である。 第2実施形態に係るパノラマ撮像計測処理の流れの一例を示すフローチャートである。 図30に示すフローチャートの続きである。 図30に示すフローチャートの続きである。 図32に示すフローチャートの続きである。 図30~図33に示すフローチャートの続きである。 図34に示すフローチャートの続きである。 図16に示す撮像範囲内の被写体を示すライブビュー画像及び微小変更誘導情報が表示された画面の一例を示すが概略画面図である。 図16に示す撮像範囲内の被写体を示すライブビュー画像及び位置変更誘導情報が表示された画面の一例を示すが概略画面図である。 第2実施形態に係るパノラマ撮像計測処理の一部の処理の流れ(図35に示す処理の流れ)の変形例を示すフローチャートである。 第2実施形態に係る測距装置のハードウェア構成の第1変形例を示すブロック図である。 第2実施形態に係る測距装置の第2変形例の外観を示す正面図である。 図40に示す測距装置のハードウェア構成の一例を示すブロック図である。 第3実施形態に係る測距装置のハードウェア構成の一例を示すブロック図である。 第3実施形態に係る測距装置に含まれるスマートデバイスの表示部にソフトキーとして表示された各種ボタンを含む画面の一例を示す画面図である。 第1~第3実施形態に係るパノラマ撮像計測プログラム及び寸法導出プログラムが測距装置にインストールされる態様の一例を示す概念図である。 第1実施形態に係る測距装置本体の外観の変形例を示す正面図である。 第1実施形態に係るパノラマ撮像計測処理の一部の処理の流れ(図13に示す処理の流れ)の変形例を示すフローチャートである。 第2実施形態に係るパノラマ撮像計測処理の一部の処理の流れ(図32に示す処理の流れ)の変形例を示すフローチャートである。
 以下、添付図面に従って本開示の技術に係る実施形態の一例について説明する。
 なお、本実施形態では、説明の便宜上、測距装置10Aから計測対象となる被写体までの距離を単に「距離」又は「被写体までの距離」とも称する。また、本実施形態では、被写体に対する画角を単に「画角」とも称する。また、本実施形態において、「測距」とは、被写体までの距離の計測を指す。
 [第1実施形態]
 一例として図1に示すように、本開示の技術に係る情報処理装置の一例である測距装置10Aは、測距装置本体10A1及び変更機構11を備えており、三脚13によって支持されている。
 測距装置本体10A1は、測距ユニット12及び撮像装置14を備えている。なお、本実施形態では、測距ユニット12及び後述の測距制御部68(図5参照)が本開示の技術に係る計測部の一例である。
 本開示の技術に係る第1及び第2変更機能の一例である変更機構11は、縦回転機構15及び横回転機構17を備えており、後述のモータ21,23で生成される動力に応じて撮像装置14の撮像方向を変更する。横回転機構17の上面には、縦回転機構15が重ねられて配置されている。縦回転機構15の上面には、測距装置本体10A1が重ねられて配置されている。横回転機構17は、三脚13の雲台13Aの上面に着脱自在に取り付けられている。
 横回転機構17の平面視中央部には、測距装置10Aの正面視上下方向に起立した支柱状の回転軸17Aが設けられており、縦回転機構15は、回転軸17Aを介して横回転機構17に対して回転自在に取り付けられている。
 撮像装置14の下面にはホットシュー(Hot Shoe)19が設けられており、撮像装置14には、ホットシュー19を介して変更機構11が着脱自在に取り付けられている。
 撮像装置14は、レンズユニット16及び撮像装置本体18を備えており、レンズユニット16は、撮像装置本体18に対して着脱自在に取り付けられる。
 撮像装置本体18の正面視左側面にはホットシュー20が設けられており、測距ユニット12は、ホットシュー20に対して着脱自在に取り付けられる。
 測距装置10Aは、測距ユニット12に測距用のレーザ光を射出させて測距を行う測距系機能と、撮像装置14に被写体を撮像させて撮像画像を得る撮像系機能とを備えている。なお、以下では、撮像画像を単に「画像」とも称する。また、以下では、説明の便宜上、鉛直方向において、測距ユニット12から射出されるレーザ光の光軸L1(図5参照)が、レンズユニット16の光軸L2(図5参照)と同一の高さであることを前提として説明する。
 測距装置10Aは、測距系機能を働かせることで、原則として1回の指示に応じて1回の計測シーケンス(図6参照)を行い、1回の計測シーケンスが行われることで最終的に1つの距離が出力される。
 測距装置10Aは、測距系機能の動作モードとしてパノラマ撮像計測モードと寸法導出モードとを有する。パノラマ撮像計測モードは、パノラマ撮像と共に測距を行う動作モードである。寸法導出モードは、測距装置10Aにより計測された距離である実測距離に基づいて、ユーザによって指定された実空間領域の寸法を、後述の寸法導出機能を働かせて導出する動作モードである。
 なお、以下では、説明の便宜上、実空間領域の寸法として、実空間における2点間の長さを導出する場合を例に挙げて説明する。また、以下では、説明の便宜上、「実空間における2点間」を「実空間上の区域」又は単に「区域」とも称する。
 測距装置10Aは、撮像系機能の動作モードとして、静止画撮像モード及び動画撮像モードを有する。静止画撮像モードは、静止画像を撮像する動作モードであり、動画撮像モードは、動画像を撮像する動作モードである。静止画撮像モード及び動画撮像モードは、ユーザの指示に応じて選択的に設定される。
 一例として図2及び図3に示すように、縦回転機構15は、測距装置本体10A1が縦回転機構15に取り付けられている状態で、後述のモータ23(図5参照)によって生成された動力を受けることで、測距装置本体10A1を正面視上下方向に回転させる。
 一例として図2に示すように、測距装置本体10A1が縦回転機構15に取り付けられている状態で縦回転機構15によって測距装置本体10A1の右側面視中央点aを中心として反時計周りに回転されると、撮像範囲の位置が正面視下方に変更される。この場合、測距ユニット12によるレーザ光の射出方向も正面視下方に変更される。なお、本実施形態において、撮像範囲とは、撮像装置14による撮像の対象とされる実空間上の範囲を指す。
 一例として図3に示すように、測距装置本体10A1が縦回転機構15に取り付けられている状態で縦回転機構15によって測距装置本体10A1の右側面視中央点aを中心として時計周りに回転されると、撮像範囲の位置が正面視上方に変更される。この場合、測距ユニット12によるレーザ光の射出方向も正面視上方に変更される。
 一例として図4に示すように、横回転機構17の回転軸17Aには、縦回転機構15の底面視中央部が固定されている。回転軸17Aは、後述のモータ21(図5参照)によって生成された動力が回転力として伝達されることによって回転される。従って、横回転機構17は、測距装置本体10A1が縦回転機構15に取り付けられている状態で、後述のモータ21によって生成された動力を受けることで、測距装置本体10A1を正面視左右方向に回転させる。
 すなわち、測距装置本体10A1が縦回転機構15に取り付けられている状態で横回転機構17により測距装置本体10A1の回転軸17Aを中心として平面視反時計周りに回転されると、撮像範囲の位置が正面視右方向に変更される。この場合、測距ユニット12によるレーザ光の射出方向も正面視右方向に変更される。
 また、測距装置本体10A1が縦回転機構15に取り付けられている状態で横回転機構17によって測距装置本体10A1の回転軸17Aを中心として平面視反時計周りに回転されると、撮像範囲の位置が正面視左方向に変更される。この場合、測距ユニット12によるレーザ光の射出方向も正面視左方向に変更される。
 一例として図5に示すように、測距ユニット12は、射出部22、受光部24、及びコネクタ26を備えている。
 コネクタ26は、ホットシュー20に接続可能とされており、コネクタ26がホットシュー20に接続された状態で、測距ユニット12は、撮像装置本体18の制御下で動作する。
 射出部22は、LD(レーザダイオード;Laser Diode)30、集光レンズ(図示省略)、対物レンズ32、及びLDドライバ34を有する。
 集光レンズ及び対物レンズ32は、LD30により射出されるレーザ光の光軸L1に沿って設けられており、LD30側から光軸L1に沿って集光レンズ及び対物レンズ32の順に配置されている。
 LD30は、本開示の技術に係る指向性光の一例である測距用のレーザ光を発光する。LD30により発光されるレーザ光は、有色のレーザ光であり、例えば、射出部22から数メートル程度の範囲内であれば、レーザ光の照射位置は、実空間上で視覚的に認識され、撮像装置14によって撮像されて得られた撮像画像からも視覚的に認識される。
 集光レンズは、LD30により発光されたレーザ光を集光し、集光したレーザ光を通過させる。対物レンズ32は、被写体に対向しており、集光レンズを通過したレーザ光を被写体に対して射出する。
 LDドライバ34は、コネクタ26及びLD30に接続されており、撮像装置本体18の指示に従ってLD30を駆動させてレーザ光を発光させる。
 受光部24は、PD(フォトダイオード;Photo Diode)36、対物レンズ38、及び受光信号処理回路40を有する。対物レンズ38は、PD36の受光面側に配置されており、射出部22により射出されたレーザ光が被写体に当たって反射したレーザ光である反射レーザ光は対物レンズ38に入射される。対物レンズ38は、反射レーザ光を通過させ、PD36の受光面に導く。PD36は、対物レンズ38を通過した反射レーザ光を受光し、受光量に応じたアナログ信号を受光信号として出力する。
 受光信号処理回路40は、コネクタ26及びPD36に接続されており、PD36から入力された受光信号を増幅器(図示省略)で増幅し、増幅した受光信号に対してA/D(Analog/Digital)変換を行う。そして、受光信号処理回路40は、A/D変換によってデジタル化された受光信号を撮像装置本体18に出力する。
 撮像装置14は、マウント42,44を備えている。マウント42は、撮像装置本体18に設けられており、マウント44は、レンズユニット16に設けられている。レンズユニット16は、マウント42にマウント44が結合されることにより撮像装置本体18に交換可能に装着される。
 レンズユニット16は、フォーカスレンズ50、ズームレンズ52、フォーカスレンズ移動機構53、ズームレンズ移動機構54、及びモータ56,57を備えている。
 被写体からの反射光である被写体光は、フォーカスレンズ50に入射される。フォーカスレンズ50は、被写体光を通過させ、ズームレンズ52に導く。
 フォーカスレンズ移動機構53には、光軸L2に対してスライド可能にフォーカスレンズ50が取り付けられている。また、フォーカスレンズ移動機構53にはモータ57が接続されており、フォーカスレンズ移動機構53は、モータ57の動力を受けてフォーカスレンズ50を光軸L2方向に沿ってスライドさせる。
 ズームレンズ移動機構54には、光軸L2に対してスライド可能にズームレンズ52が取り付けられている。また、ズームレンズ移動機構54にはモータ56が接続されており、ズームレンズ移動機構54は、モータ56の動力を受けてズームレンズ52を光軸L2方向に沿ってスライドさせる。
 モータ56,57は、マウント42,44を介して撮像装置本体18に接続されており、撮像装置本体18からの命令に従って駆動が制御される。
 変更機構11は、縦回転機構15、横回転機構17、モータ21,23、及びコネクタ25を備えている。本開示の技術に係る第1動力源及び第2動力源の一例であるモータ21及びモータ23は、コネクタ25に接続されている。
 コネクタ25は、ホットシュー19と接続可能とされている。コネクタ25がホットシュー19に接続されると、モータ21,23は、撮像装置本体18に接続され、撮像装置本体18からの命令に従って駆動が制御される。
 なお、本実施形態では、モータ21,23,56,57の一例としてステッピングモータを適用している。従って、モータ21,23,56,57は、撮像装置本体18からの命令によりパルス電力に同期して動作する。
 撮像装置本体18は、撮像素子60、主制御部62、画像メモリ64、画像処理部66、測距制御部68、モータドライバ29,31,72,73、撮像素子ドライバ74、画像信号処理回路76、及び表示制御部78を備えている。また、撮像装置本体18は、タッチパネルI/F(インタフェース;Interface)79、受付I/F80、及びメディアI/F82を備えている。
 主制御部62、画像メモリ64、画像処理部66、測距制御部68、モータドライバ29,31,72,73、撮像素子ドライバ74、画像信号処理回路76、及び表示制御部78は、バスライン84に接続されている。また、タッチパネルI/F79、受付I/F80、及びメディアI/F82も、バスライン84に接続されている。
 撮像素子60は、CMOS(Complementary Metal Oxide Semicondutor)型のイメージセンサであり、カラーフィルタ(図示省略)を備えている。カラーフィルタは、輝度信号を得るために最も寄与するG(緑;Green)に対応するGフィルタ、R(赤;Red)に対応するRフィルタ、及びB(青;Blue)に対応するBフィルタを含む。撮像素子60は、マトリクス状に配置された複数の撮像画素60A1を含む撮像画素群60Aを有する。各撮像画素60A1には、カラーフィルタに含まれるRフィルタ、Gフィルタ、及びBフィルタの何れかのフィルタが割り当てられており、撮像画素群60Aは、被写体光を受光することにより被写体を撮像する。
 すなわち、ズームレンズ52を通過した被写体光は、撮像素子60の受光面である撮像面60Bに結像され、被写体光の受光量に応じた電荷が撮像画素60A1に蓄積される。撮像素子60は、各撮像画素60A1に蓄積された電荷を、被写体光が撮像面60Bで結像されて得られた被写体像に相当する画像を示す画像信号として出力する。
 主制御部62は、バスライン84を介して測距装置10Aの全体を制御する。
 モータドライバ72は、マウント42,44を介してモータ56に接続されており、主制御部62の指示に従ってモータ56を制御する。モータドライバ73は、マウント42,44を介してモータ57に接続されており、主制御部62の指示に従ってモータ57を制御する。
 撮像装置14は、画角変更機能を有する。画角変更機能は、ズームレンズ52を移動させることで画角を変更する機能であり、本実施形態において、画角変更機能は、ズームレンズ52、ズームレンズ移動機構54、モータ56、モータドライバ72、及び主制御部62によって実現される。なお、本実施形態では、ズームレンズ52による光学式の画角変更機能を例示しているが、本開示の技術はこれに限定されるものではなく、ズームレンズ52を利用しない電子式の画角変更機能であってもよい。
 撮像素子ドライバ74は、撮像素子60に接続されており、主制御部62の制御下で、撮像素子60に駆動パルスを供給する。撮像画素群60Aに含まれる各撮像画素60A1は、撮像素子ドライバ74によって撮像素子60に供給された駆動パルスに従って駆動する。
 画像信号処理回路76は、撮像素子60に接続されており、主制御部62の制御下で、撮像素子60から1フレーム分の画像信号を撮像画素60A1毎に読み出す。画像信号処理回路76は、読み出した画像信号に対して、相関二重サンプリング処理、自動利得調整、及びA/D変換等の各種処理を行う。画像信号処理回路76は、画像信号に対して各種処理を行うことでデジタル化した画像信号を、主制御部62から供給されるクロック信号で規定される特定のフレームレート(例えば、数十フレーム/秒)で1フレーム毎に画像メモリ64に出力する。画像メモリ64は、画像信号処理回路76から入力された画像信号を一時的に保持する。
 モータドライバ29は、ホットシュー19及びコネクタ25を介してモータ21に接続されており、主制御部62の指示に従ってモータ21を制御する。モータドライバ31は、ホットシュー19及びコネクタ25を介してモータ23に接続されており、主制御部62の指示に従ってモータ23を制御する。モータ21によって生成された動力は横回転機構17に伝達され、モータ23によって生成された動力は縦回転機構15に伝達される。
 撮像装置本体18は、本開示の技術に係る第1~第5表示部の一例である表示部86、タッチパネル88、受付デバイス90、及びメモリカード92を備えている。
 表示部86は、表示制御部78に接続されており、表示制御部78の制御下で各種情報を表示する。表示部86は、例えば、LCD(Liquid Crystal Display)により実現される。
 タッチパネル88は、表示部86の表示画面に重ねられており、ユーザの指又はタッチペン等の指示体による接触を受け付ける。タッチパネル88は、タッチパネルI/F79に接続されており、指示体により接触された位置を示す位置情報をタッチパネルI/F79に出力する。タッチパネルI/F79は、主制御部62の指示に従ってタッチパネル88を作動させ、タッチパネル88から入力された位置情報を主制御部62に出力する。なお、本実施形態では、タッチパネル88を例示しているが、これに限らず、タッチパネル88に代えて、測距装置10Aに接続して使用されるマウス(図示省略)を適用してもよいし、タッチパネル88及びマウスを併用してもよい。
 受付デバイス90は、撮像計測ボタン90A、撮像ボタン(図示省略)、撮像系動作モード切替ボタン90B、広角指示ボタン90C、望遠指示ボタン90D、パノラマ撮像計測ボタン90E、及び寸法導出ボタン90Fを有する。また、受付デバイス90は、縦回転用ロータリスイッチ90G及び横回転用ロータリスイッチ90H等も有しており、ユーザによる各種指示を受け付ける。受付デバイス90は、受付I/F80に接続されており、受付I/F80は、受付デバイス90によって受け付けられた指示の内容を示す指示内容信号を主制御部62に出力する。
 撮像計測ボタン90Aは、撮像及び計測の開始の指示を受け付ける押圧式のボタンである。撮像ボタンは、撮像の開始の指示を受け付ける押圧式のボタンである。撮像系動作モード切替ボタン90Bは、静止画撮像モードと動画撮像モードとを切り替える指示を受け付ける押圧式のボタンである。
 広角指示ボタン90Cは、画角を広角にする指示を受け付ける押圧式のボタンであり、広角側への画角の変更量は、許容される範囲内で、広角指示ボタン90Cへの押圧が継続して行われる押圧時間に応じて定まる。
 望遠指示ボタン90Dは、画角を望遠にする指示を受け付ける押圧式のボタンであり、望遠側への画角の変更量は、許容される範囲内で、望遠指示ボタン90Dへの押圧が継続して行われる押圧時間に応じて定まる。
 パノラマ撮像計測ボタン90Eは、後述のパノラマ撮像計測処理の開始の指示を受け付ける押圧式のボタンである。寸法導出ボタン90Fは、後述の寸法導出処理の開始の指示を受け付ける押圧式のボタンである。縦回転用ロータリスイッチ90Gは、縦回転機構15を作動させて撮像範囲の位置及びレーザ光の照射方向を正面視上下方向に変更する指示を受け付ける回転式のスイッチである。横回転用ロータリスイッチ90Hは、横回転機構17を作動させて撮像範囲の位置及びレーザ光の照射方向を正面視左右方向に変更する指示を受け付ける回転式のスイッチである。
 なお、以下では、説明の便宜上、縦回転用ロータリスイッチ90G及び横回転用ロータリスイッチ90Hを区別して説明する必要がない場合、符号を付さずに「ロータリスイッチ」と称する。
 また、以下では、説明の便宜上、撮像計測ボタン90A及び撮像ボタンを区別して説明する必要がない場合、符号を付さずに「レリーズボタン」と称する。また、以下では、説明の便宜上、広角指示ボタン90C及び望遠指示ボタン90Dを区別して説明する必要がない場合、符号を付さずに「画角指示ボタン」と称する。
 なお、本実施形態に係る測距装置10Aでは、マニュアルフォーカスモードとオートフォーカスモードとが受付デバイス90を介したユーザの指示に応じて選択的に設定される。レリーズボタンは、撮像準備指示状態と撮像指示状態との2段階の押圧操作を受け付ける。撮像準備指示状態とは、例えば、レリーズボタンが待機位置から中間位置(半押し位置)まで押下される状態を指し、撮像指示状態とは、レリーズボタンが中間位置を超えた最終押下位置(全押し位置)まで押下される状態を指す。なお、以下では、説明の便宜上、「レリーズボタンが待機位置から半押し位置まで押下された状態」を「半押し状態」と称し、「レリーズボタンが待機位置から全押し位置まで押下された状態」を「全押し状態」と称する。
 オートフォーカスモードでは、レリーズボタンが半押し状態にされることで撮像条件の調整が行われ、その後、引き続き全押し状態にすると本露光が行われる。つまり、本露光に先立ってレリーズボタンが半押し状態にされることでAE(Automatic Exposure)機能が働いて露出調整が行われた後、AF(Auto-Focus)機能が働いて焦点調整が行われ、レリーズボタンが全押し状態にされると本露光が行われる。
 ここで、本露光とは、後述の静止画像ファイルを得るために行われる露光を指す。また、本実施形態において、露光とは、本露光の他に、後述のライブビュー画像を得るために行われる露光、及び後述の動画像ファイルを得るために行われる露光も意味する。以下では、説明の便宜上、これらの露光を区別して説明する必要がない場合、単に「露光」と称する。
 なお、本実施形態では、主制御部62がAE機能による露出調整及びAF機能による焦点調整を行う。また、本実施形態では、露出調整及び焦点調整が行われる場合を例示しているが、本開示の技術はこれに限定されるものではなく、露出調整又は焦点調整が行われるようにしてもよい。
 画像処理部66は、画像メモリ64から特定のフレームレートで1フレーム毎に画像信号を取得し、取得した画像信号に対して、ガンマ補正、輝度色差変換、及び圧縮処理等の各種処理を行う。
 画像処理部66は、各種処理を行って得た画像信号を特定のフレームレートで1フレーム毎に表示制御部78に出力する。また、画像処理部66は、各種処理を行って得た画像信号を、主制御部62の要求に応じて、主制御部62に出力する。
 表示制御部78は、主制御部62の制御下で、画像処理部66から入力された画像信号を1フレーム毎に特定のフレームレートで表示部86に出力する。
 表示部86は、画像及び文字情報等を表示する。表示部86は、表示制御部78から特定のフレームレートで入力された画像信号により示される画像をライブビュー画像として表示する。ライブビュー画像は、連続的に撮像されて得られた連続フレーム画像であり、スルー画像とも称される。また、表示部86は、単一フレームで撮像されて得られた単一フレーム画像である静止画像も表示する。更に、表示部86は、ライブビュー画像の他に、再生画像及びメニュー画面等も表示する。
 なお、本実施形態では、画像処理部66及び表示制御部78は、ASIC(Application Specific Integrated Circuit)によって実現されているが、本開示の技術はこれに限定されるものではない。例えば、画像処理部66及び表示制御部78の各々は、FPGA(Field-Programmable Gate Array)によって実現されてもよい。また、画像処理部66は、CPU(中央処理装置;Central Processing Unit)、ROM(Read Only Memory)、及びRAM(Random Access Memory)を含むコンピュータによって実現されてもよい。また、表示制御部78も、CPU、ROM、及びRAMを含むコンピュータによって実現されてもよい。更に、画像処理部66及び表示制御部78の各々は、ハードウェア構成及びソフトウェア構成の組み合わせによって実現されてもよい。
 主制御部62は、静止画撮像モード下でレリーズボタンによって静止画像の撮像の指示が受け付けられた場合、撮像素子ドライバ74を制御することで、撮像素子60に1フレーム分の露光を行わせる。主制御部62は、1フレーム分の露光が行われることによって得られた画像信号を画像処理部66から取得し、取得した画像信号に対して圧縮処理を施して特定の静止画像用フォーマットの静止画像ファイルを生成する。なお、ここで、特定の静止画像用フォーマットとは、例えば、JPEG(Joint Photographic Experts Group)を指す。
 主制御部62は、動画撮像モード下でレリーズボタンによって動画像の撮像の指示が受け付けられた場合、画像処理部66によりライブビュー画像用として表示制御部78に出力される画像信号を特定のフレームレートで1フレーム毎に取得する。そして、主制御部62は、画像処理部66から取得した画像信号に対して圧縮処理を施して特定の動画像用フォーマットの動画像ファイルを生成する。なお、ここで、特定の動画像用フォーマットとは、例えば、MPEG(Moving Picture Experts Group)を指す。また、以下では、説明の便宜上、静止画像ファイル及び動画像ファイルを区別して説明する必要がない場合、画像ファイルと称する。
 メディアI/F82は、メモリカード92に接続されており、主制御部62の制御下で、メモリカード92に対する画像ファイルの記録及び読み出しを行う。なお、メディアI/F82によってメモリカード92から読み出された画像ファイルは、主制御部62によって伸長処理が施されて表示部86に再生画像として表示される。
 なお、主制御部62は、測距制御部68から入力された距離情報を画像ファイルに関連付けて、メディアI/F82を介してメモリカード92に保存する。そして、距離情報は、メモリカード92からメディアI/F82を介して主制御部62によって画像ファイルと共に読み出され、読み出された距離情報により示される距離は、関連する画像ファイルによる再生画像と共に表示部86に表示される。
 測距制御部68は、主制御部62の制御下で、測距ユニット12を制御する。なお、本実施形態において、測距制御部68は、ASICによって実現されているが、本開示の技術はこれに限定されるものではない。例えば、測距制御部68は、FPGAによって実現されてもよい。また、測距制御部68は、CPU、ROM、及びRAMを含むコンピュータによって実現されてもよい。更に、測距制御部68は、ハードウェア構成及びソフトウェア構成の組み合わせによって実現されてもよい。
 ホットシュー20は、バスライン84に接続されており、測距制御部68は、主制御部62の制御下で、LDドライバ34を制御することで、LD30によるレーザ光の発光を制御し、受光信号処理回路40から受光信号を取得する。測距制御部68は、レーザ光を発光させたタイミングと受光信号を取得したタイミングとを基に、被写体までの距離を導出し、導出した距離を示す距離情報を主制御部62に出力する。
 ここで、測距制御部68による被写体までの距離の計測について更に詳細に説明する。
 一例として図6に示すように、測距装置10Aによる1回の計測シーケンスは、電圧調整期間、実計測期間、及び休止期間で規定される。
 電圧調整期間は、LD30及びPD36の駆動電圧を調整する期間である。実計測期間は、被写体までの距離を実際に計測する期間である。実計測期間では、LD30にレーザ光を発光させ、PD36に反射レーザ光を受光させる動作が数百回繰り返され、レーザ光を発光させたタイミングと受光信号を取得したタイミングとを基に、被写体までの距離が導出される。休止期間は、LD30及びPD36の駆動を休止させるための期間である。よって、1回の計測シーケンスでは、被写体までの距離の計測が数百回行われることになる。
 なお、本実施形態では、電圧調整期間、実計測期間、及び休止期間の各々を数百ミリ秒としている。
 一例として図7に示すように、測距制御部68には、測距制御部68がレーザ光の発光の指示を与えるタイミング、及び受光信号を取得するタイミングを規定するカウント信号が供給される。本実施形態では、カウント信号は、主制御部62によって生成されて測距制御部68に供給されるが、これに限らず、バスライン84に接続されたタイムカウンタ等の専用回路によって生成されて測距制御部68に供給されるようにしてもよい。
 測距制御部68は、カウント信号に応じて、レーザ光を発光させるためのレーザトリガをLDドライバ34に出力する。LDドライバ34は、レーザトリガに応じて、LD30を駆動してレーザ光を発光させる。
 図7に示す例では、レーザ光の発光時間が数十ナノ秒とされている。この場合、射出部22により数キロメートル先の被写体に向けて射出されたレーザ光が反射レーザ光としてPD36で受光されるまでの時間は、“数キロメートル×2/光速”≒数マイクロ秒となる。従って、数キロメートル先の被写体までの距離を計測するためには、一例として図6に示すように、最低必要時間として、数マイクロ秒の時間を要する。
 なお、本実施形態では、レーザ光の往復時間等を考慮して、一例として図6に示すように、1回の計測時間を数ミリ秒としているが、被写体までの距離によりレーザ光の往復時間は異なるので、想定する距離に応じて1回あたりの計測時間を異ならせてもよい。
 測距制御部68は、1回の計測シーケンスにおける数百回の計測から得た計測値を基に、被写体までの距離を導出する場合、例えば、数百回の計測から得た計測値のヒストグラムを解析して被写体までの距離を導出する。
 一例として図8に示すように、1回の計測シーケンスにおける数百回の計測から得られた計測値のヒストグラムでは、横軸が被写体までの距離であり、縦軸が計測回数であり、計測回数の最大値に対応する距離が測距結果として測距制御部68によって導出される。なお、図8に示すヒストグラムはあくまでも一例であり、被写体までの距離に代えて、レーザ光の往復時間(発光から受光までの経過時間)、又はレーザ光の往復時間の1/2等に基づいてヒストグラムが生成されてもよい。
 一例として図9に示すように、主制御部62は、本開示の技術に係る取得部及び実行部の一例であるCPU100、一次記憶部102、及び二次記憶部104を備えている。CPU100は、測距装置10Aの全体を制御する。一次記憶部102は、各種プログラムの実行時のワークエリア等として用いられる揮発性のメモリである。一次記憶部102の一例としては、RAMが挙げられる。二次記憶部104は、測距装置10Aの作動を制御する制御プログラム又は各種パラメータ等を予め記憶する不揮発性のメモリである。二次記憶部104の一例としては、EEPROM(Electrically Erasable Programmable Read Only Memory)又はフラッシュメモリが挙げられる。CPU100、一次記憶部102、及び二次記憶部104は、バスライン84を介して相互に接続されている。
 測距装置10Aでは、一例として図9に示すように、二次記憶部104が、パノラマ撮像計測プログラム105A及び寸法導出プログラム106Aを記憶している。なお、パノラマ撮像計測プログラム105Aは、本開示の技術に係るプログラムの一例である。
 CPU100は、二次記憶部104からパノラマ撮像計測プログラム105Aを読み出し、読み出したパノラマ撮像計測プログラム105Aを一次記憶部102に展開する。そして、CPU100は、一次記憶部102に展開したパノラマ撮像計測プログラム105Aを実行する。
 CPU100は、パノラマ撮像計測プログラム105Aを実行することで、一例として図10に示すように、取得部110A及び実行部112Aとして動作する。
 取得部110Aは、指定撮像範囲内の被写体を計測対象として測距系機能を働かせて計測処理が実行された場合に、計測成否情報を取得する。ここで、指定撮像範囲とは、被写体に対するパノラマ撮像における撮像対象となる複数の撮像範囲のうち、個々の撮像が実施される前に撮像の実施対象として指定された撮像範囲を指す。個々の撮像とは、例えば、パノラマ撮像における静止画像用の1回分の撮像を指す。また、計測処理とは、測距ユニット12及び測距制御部68に対して被写体までの距離を計測させる処理を指す。更に、計測成否情報とは、測距ユニット12及び測距制御部68による被写体までの距離の計測が成功したか、失敗したかを示す情報を指す。
 なお、以下では、説明の便宜上、測距ユニット12及び測距制御部68を、符号を付さずに「計測部」とも称する。また、以下では、説明の便宜上、計測部による被写体までの距離の計測を、単に「計測部による計測」とも称する。また、以下では、説明の便宜上、計測部による被写体までの距離の再計測を、単に「計測部による再計測」とも称する。
 実行部112Aは、取得部110Aにより取得された計測成否情報が計測部による計測が失敗したことを示す場合に、パノラマ撮像が可能な許容範囲内で指定撮像範囲の位置を変更させた状態で再計測処理を実行する。ここで、再計測処理とは、計測部に対して被写体までの距離を再計測させる処理を含む処理を指す。
 なお、第1実施形態では、主制御部62の主導下で変更機構11を作動させることによって指定撮像範囲の位置が変更されるが、本開示の技術はこれに限定されるものではなく、ユーザによる手動で指定撮像範囲の位置が変更されるようにしてもよい。
 また、CPU100は、二次記憶部104から寸法導出プログラム106Aを読み出し、読み出した寸法導出プログラム106Aを一次記憶部102に展開する。そして、CPU100は、一次記憶部102に展開した寸法導出プログラム106Aを実行する。
 測距装置10Aには、寸法導出機能が備えられており、寸法導出機能は、CPU100が寸法導出プログラム106Aを実行することにより実現される機能である。
 寸法導出機能とは、一例として図11に示すように、指定された画素のアドレスu1,u2、並びに、計測部により計測された被写体までの距離L等に基づいて、被写体に含まれる実空間上の区域の長さLを導出したり、長さLに基づく面積を導出したりする機能を指す。
 ここで、被写体までの距離Lとは、実測距離を指す。なお、以下では、説明の便宜上、被写体までの距離Lを単に「距離L」と称する。また、以下では、説明の便宜上、被写体に含まれる実空間上の区域の長さLを単に「長さL」と称する。また、「指定された画素」とは、例えば、ユーザによって撮像画像上で指定された2点に対応する撮像素子60における画素を指す。
 長さLは、例えば、下記の数式(1)により算出される。数式(1)において、pは、撮像素子60に含まれる画素間のピッチであり、u1,u2は、ユーザによって指定された画素のアドレスであり、fは、焦点距離である。
Figure JPOXMLDOC01-appb-M000001

 
 数式(1)は、寸法の導出対象とされる対象物がフォーカスレンズ50に対して正面視で正対している状態で撮像されることを前提として用いられる数式である。従って、測距装置10Aでは、例えば、寸法の導出対象とされる対象物を含む被写体が、フォーカスレンズ50に対して正面視で正対していない状態で撮像された場合、射影変換処理が行われる。射影変換処理とは、例えば、撮像されて得られた撮像画像を、アフィン変換等の公知技術を利用して、撮像画像に含まれる四角形状の画像に基づいて正対視画像に相当する画像に変換する処理を指す。正対視画像とは、フォーカスレンズ50に対して正面視で正対している状態の画像を指す。そして、正対視画像を介して撮像素子60における画素のアドレスu1,u2が指定され、数式(1)より長さLが導出される。
 次に、測距装置10Aの本開示の技術に係る部分の作用について説明する。
 先ず、パノラマ撮像計測ボタン90Eが長押しされた場合にCPU100がパノラマ撮像計測プログラム105Aを実行することで実現されるパノラマ撮像計測処理について図12~図15を参照して説明する。
 なお、上記の「長押し」とは、例えば、受付デバイス90に含まれるパノラマ撮像計測ボタン90E等のボタンを第1既定時間(例えば、3秒間)以上継続してオンする操作を指す。ここで、ボタンをオンする操作は、「長押し」と「通常押し」とに大別される。「通常押し」とは、ボタンに対して上記の第1既定時間未満の範囲内でオンする操作を指す。
 また、以下では、説明の便宜上、一例として図16に示すように、オフィスビル120の外壁面121がパノラマ撮像の被写体であり、かつ、レーザ光の照射対象であることを前提として説明する。
 また、外壁面121は、平面状に形成されており、本開示の技術に係る平面状領域の一例である。また、一例として図16に示すように、外壁面121には、四角形状の複数の窓122が設けられている。また、一例として図16に示すように、外壁面121には、各窓122の下側に横長の長方形状の模様124が描かれているが、これに限らず、外壁面121に付された汚れ又は皹などであってもよい。
 なお、本実施形態において、「平面状」には、平面のみならず、窓又は換気口等による若干の凹凸を許容する範囲での平面形状も含まれ、例えば、目視により、又は、既存の画像解析技術により、「平面状」と認識される平面又は平面形状であればよい。
 また、以下では、説明の便宜上、測距装置10Aにより、外壁面121にレーザ光が照射されることで外壁面121までの距離が計測されることを前提として説明する。
 また、以下では、説明の便宜上、ライブビュー画像が表示部86に表示されている状態を前提として説明する。
 また、以下では、説明の便宜上、一例として図16に示すように、撮像範囲115の正面視左右方向の中心を正面視上下方向に通る中心線CLに沿って撮像範囲115の位置を矢印A方向に変化させながらパノラマ撮像が行われることを前提として説明する。
 また、以下では、説明の便宜上、一例として図16に示すように、中心線CLに沿った範囲R内で撮像範囲115の位置が正面視上方から下方にかけて変更されることを前提として説明する。
 なお、範囲Rは、例えば、パノラマ撮像計測処理の実行が開始される前段階で確定される。範囲Rの確定は、例えば、範囲Rを確定可能にする動作モードである範囲確定モード下で実現される。測距装置10Aは、ユーザによってパノラマ撮像計測ボタン90Eが通常押しされると、範囲確定モードに移行する。測距装置10Aが範囲確定モードに移行すると、範囲Rの確定が完了するまでの操作の手順を案内する画面である案内画面(図示省略)が、範囲Rの確定が完了するまでの間、表示部86の一部領域に表示され、ユーザは案内画面を見ながら必要な操作を行う。
 範囲確定モード下では、ユーザによるロータリスイッチの操作及びタッチパネル88を介して受け付けられた指示に従って最初の撮像範囲115の位置と最後の撮像範囲115の位置とが設定されることによって範囲Rが確定される。ここで、最初の撮像範囲115とは、パノラマ撮像における最初の撮像対象となる撮像範囲115を指す。また、最後の撮像範囲115とは、パノラマ撮像における最後の撮像となる撮像範囲115を指す。
 範囲確定モード下で上記の案内画面の表示が開始されると、先ず、ユーザがロータリスイッチを操作することにより変更機構11を作動させて、撮像範囲115の位置を、最初の撮像範囲115の位置としてユーザが望む位置に到達させる。そして、ユーザが望む位置に撮像範囲115の位置が維持された状態で、タッチパネル88によって特殊な操作が受け付けられると、現在の撮像範囲115の位置が最初の撮像範囲115の位置として設定される。
 なお、特殊な操作とは、例えば、タッチパネル88の特定の領域(例えば、タッチパネル88の中央部)に対するダブルタップ操作が挙げられる。また、現在の撮像範囲115とは、撮像が実施される前に撮像対象として指定された撮像範囲であって、現時点において、撮像装置14による撮像が可能な被写体が含まれている撮像範囲115を指す。
 次に、ユーザがロータリスイッチを操作することにより変更機構11を作動させて、撮像範囲115の位置を、最後の撮像範囲115の位置としてユーザが望む位置に到達させる。そして、ユーザが望む位置に撮像範囲115の位置が維持された状態で、タッチパネル88によって上記の特殊な操作が受け付けられると、現在の撮像範囲115の位置が最後の撮像範囲115の位置として確定され、上記の案内画面の表示が終了する。
 このように、範囲Rが確定されると、主制御部62の制御下で変更機構11が作動されて、撮像範囲115の位置が最初の撮像範囲115の位置に戻され、CPU100は、パノラマ撮像計測ボタン90Eに対する長押しの待機状態となる。この状態でパノラマ撮像計測ボタン90Eが長押しされると、図12~図15に示すパノラマ撮像計測処理が実行される。なお、本第1実施形態において、パノラマ撮像計測処理が実行されることによって範囲R内でのパノラマ撮像で静止画像用の撮像対象となる撮像範囲115は、本開示の技術に係る指定撮像範囲の一例である。
 また、以下では、説明の便宜上、最初の撮像範囲115を、一例として図16に示すように、「撮像範囲115A」と称する。また、以下では、説明の便宜上、一例として図17に示すように、パノラマ撮像における2番目の撮像対象となる撮像範囲115を「撮像範囲115B」と称する。また、以下では、説明の便宜上、一例として図18に示すように、パノラマ撮像における3番目の撮像対象となる撮像範囲115を「撮像範囲115C」と称する。
 更に、以下では、説明の便宜上、複数の撮像範囲115のうちの少なくとも1つの撮像範囲115内の被写体が撮像されて得られた撮像画像に、四角形を規定する4頂点を特定可能な4画素が含まれていることを前提として説明する。
 図12に示すパノラマ撮像計測処理では、先ず、ステップ200で、取得部110Aは、表示部86に対して、一例として図19に示すように、ライブビュー画像の表示領域内に撮像計測開始メッセージ134の表示を開始させ、その後、ステップ202へ移行する。ここでは、撮像計測開始メッセージ134の一例として、「撮像計測ボタンをオンして下さい。」とのメッセージが採用されているが、あくまでも一例であり、撮像装置14による撮像及び計測部による計測の開始の指示をユーザに促すメッセージであればよい。
 また、図19に示す例では、撮像計測開始メッセージ134が可視表示される場合を示しているが、音声再生装置(図示省略)による音声の出力等の可聴表示又はプリンタによる印刷物の出力等の永久可視表示を可視表示に代えて行ってもよいし、併用してもよい。
 ステップ202で、取得部110Aは、撮像計測ボタン90Aがオンされたか否かを判定する。ステップ202において、撮像計測ボタン90Aがオンされていない場合は、判定が否定されて、ステップ202の判定が再び行われる。ステップ202において、撮像計測ボタン90Aがオンされた場合は、判定が肯定されて、ステップ204へ移行する。
 なお、本第1実施形態において、撮像計測ボタン90Aがオンされる操作は、本開示の技術に係る「計測部による計測を開始する指示」の一例である。
 ステップ204で、取得部110Aは、表示部86に対して、撮像計測開始メッセージの表示を終了させ、その後、ステップ206へ移行する。
 ステップ206で、実行部112Aは、パノラマ撮像計測処理の実行が開始されてから静止画像用の撮像が行われた回数が0回か否かを判定する。パノラマ撮像計測処理の実行が開始されてから静止画像用の撮像が行われたか否かは、後述のステップ268の処理が実行されたか否かによって判定される。
 ステップ206において、パノラマ撮像計測処理の実行が開始されてから静止画像用の撮像が行われた回数が1回以上の場合は、判定が否定されて、ステップ256へ移行する。ステップ206において、パノラマ撮像計測処理の実行が開始されてから静止画像用の撮像が行われた回数が0回の場合は、判定が肯定されて、ステップ208へ移行する。
 ステップ208で、実行部112Aは、撮像範囲115内の被写体を示すライブビュー画像を対象として、本開示の技術に係る第1及び第2多頂点画素の一例である4頂点対応画素を探索し、その後、ステップ210へ移行する。
 ここで、第1及び第2多頂点画素とは、共に、撮像画像に含まれる画素のうちの多角形の頂点を規定する少なくとも4つ以上の画素を指す。特に、第1多頂点画素とは、第1撮像画像に含まれる画素のうちの多角形の頂点を規定する少なくとも4つ以上の画素を指す。第1撮像画像とは、隣接撮像範囲のうちの先に撮像が実施される一方の撮像範囲115内の被写体が撮像されて得られた撮像画像を指す。隣接撮像範囲とは、複数の撮像範囲115における隣接する撮像範囲115を指す。なお、本第1実施形態では、説明の便宜上、4頂点画素を第1及び第2多頂点画素の一例として挙げているが、本開示の技術はこれに限定されるものではなく、多角形の頂点を規定する少なくとも4つ以上の画素であれば代替が可能である。
 4頂点対応画素とは、撮像画像内の四角形の4頂点を規定する4つの画素を指す。図16に示す例では、撮像範囲115内の被写体に、四角形を規定する4頂点である実空間4頂点が含まれており、実空間4頂点が4頂点対応画素に対応している。図16に示す例では、撮像範囲115A内の窓122の外枠の4頂点である頂点126A,126B,126C,126Dが実空間4頂点に該当する。
 一方、図19に示す例では、撮像範囲115A内の被写体が撮像されて得られたライブビュー画像が示されている。図19に示す例では、ライブビュー画像に含まれる画素のうち、頂点126A,126B,126C,126Dに対応する4画素である画素128A,128B,128C,128Dが4頂点対応画素に該当する。
 ステップ210で、実行部112Aは、撮像範囲115内の被写体を示すライブビュー画像に4頂点対応画素が存在するか否かを判定する。
 なお、図19に示す例では、撮像範囲115A内の被写体を示すライブビュー画像に画素128A,128B,128C,128Dが4頂点対応画素として存在している。
 また、図17に示す例では、撮像範囲115B内の被写体にも、実空間4頂点として頂点126A,126B,126C,126Dが含まれている。従って、撮像範囲115B内の被写体を示すライブビュー画像にも、図19に示す例と同様に、画素128A,128B,128C,128Dが4頂点対応画素として存在している。
 更に、図18に示す例では、撮像範囲115C内の被写体に、実空間4頂点として頂点126C,126D,126E,126Fが含まれている。従って、この場合、撮像範囲115C内の被写体を示すライブビュー画像には、頂点126C,126D,126E,126Fに対応する4頂点対応画素が存在している。
 ステップ210において、撮像範囲115内の被写体を示すライブビュー画像に4頂点対応画素が存在する場合は、判定が肯定されて、ステップ218へ移行する。ステップ210において、撮像範囲115内の被写体を示すライブビュー画像に4頂点対応画素が存在しない場合は、判定が否定されて、ステップ214へ移行する。
 ステップ214で、実行部112Aは、第1許容範囲内に未配置領域が存在するか否かを判定する。
 なお、本ステップ214において、未配置領域とは、4頂点対応画素の探索が行われる場合において、第1許容範囲内で撮像範囲115が未だに配置されていない領域を指す。また、第1許容範囲とは、例えば、撮像範囲115に対する正面視左右方向に撮像範囲115を拡大させた範囲であって、パノラマ撮像が可能な範囲として許容される範囲を指す。
 図16に示す例では、範囲130が第1許容範囲に該当する。範囲130は、撮像範囲115Aに対する正面視左右方向に撮像範囲115を、一例として1.5倍拡大させた範囲である。
 ステップ214において、第1許容範囲内に未配置領域が存在する場合は、判定が肯定されて、ステップ216へ移行する。ステップ214において、第1許容範囲内に未配置領域が存在しない場合は、判定が否定される。ステップ214において判定が否定されると、実行部112Aは、一次記憶部102の第1記憶領域(図示省略)に位置特定情報を時系列で記憶し、その後、ステップ222へ移行する。
 ここで、位置特定情報とは、現在の撮像範囲115の位置を特定する情報を指す。位置特定情報は、例えば、縦回転機構15及び横回転機構17による回転方向及び回転量に基づいて導出される。縦回転機構15による回転方向及び回転量は、例えば、モータ23の回転方向及び回転量により特定され、横回転機構17による回転方向及び回転量は、例えば、モータ21の回転方向及び回転量により特定される。
 ステップ216で、第1許容範囲内の未配置領域を変更先として、実行部112Aは、変更機構11を作動させることで、撮像範囲115の位置を未配置方向に微小変更させ、その後、ステップ208へ移行する。
 ここで、未配置方向とは、未配置領域が存在する方向を指す。図16~図18に示す例では、範囲130内の矢印B方向及び矢印C方向が未配置方向に該当する。
 また、微小変更とは、第1許容範囲内における撮像範囲115の位置の既定の変更量での変更を指す。既定の変更量は、例えば、第1許容範囲内で撮像範囲115の位置の変更が数十回(例えば、20回)行われることで未配置領域が無くなるように導出された1回分の変更量を指す。なお、ここで言う「数十回」は、固定された回数であってもよいし、ユーザの指示に応じて変更可能な回数であってもよい。
 ステップ218で、実行部112Aは、第1画素特定座標と位置特定情報とを対応付けた状態で一次記憶部102の第1記憶領域に時系列で記憶し、その後、ステップ220へ移行する。なお、ここで、第1画素特定座標とは、現在の撮像範囲115内の被写体を示すライブビュー画像内の画素のうち、探索して得た4頂点対応画素の位置を特定する座標を指す。
 ステップ220で、実行部112Aは、現在の撮像範囲115内に実空間4頂点が含まれていることを示す4頂点フラグをオンし、その後、ステップ222へ移行する。
 ステップ222で、実行部112Aは、計測部に対して、現在の撮像範囲115内の被写体に向けてレーザ光を射出させることで被写体までの距離の計測を開始させ、その後、ステップ224へ移行する。
 ステップ224で、実行部112Aは、計測部による計測が終了したか否かを判定する。ここで、計測部による計測が終了した場合は、距離導出成功状態の場合と距離導出失敗状態の場合とに大別される。距離導出成功状態とは、被写体までの距離の導出が成功した状態、すなわち、射出部22から射出されたレーザ光の反射光が受光部24のPD36により受光され、測距制御部68により被写体までの距離が導出された状態を指す。距離導出失敗状態とは、射出部22から射出されたレーザ光の反射光が受光部24のPD36により受光されなかった又はPD36による受光量が既定の受光量に達しなかったことに起因して測距制御部68により被写体までの距離が導出されなかった状態を指す。なお、既定の受光量とは、例えば、実機による試験又はコンピュータ・シミュレーション等により、被写体までの距離の導出で有効とされる受光量として予め得られた受光量を指す。
 ステップ224において、計測部による計測が終了していない場合は、判定が否定されて、ステップ224の判定が再び行われる。ステップ224において、計測部による計測が終了した場合は、判定が肯定されて、ステップ226へ移行する。
 ステップ226で、取得部110Aは、計測部による計測結果を測距制御部68から取得し、その後、ステップ228へ移行する。計測結果は、距離導出成功状態の場合の計測結果と、距離導出失敗状態の場合の計測結果とに大別される。距離導出成功状態の場合の計測結果とは、実測距離を指す。距離導出失敗状態の場合の計測結果とは、計測部による計測が失敗したことを示す計測失敗情報を指す。なお、本ステップ226の処理が実行されることで取得部110Aにより取得される計測結果は、本開示の技術に係る計測成否情報の一例である。
 ステップ228で、実行部112Aは、取得部110Aにより取得された計測結果を用いて計測部による計測が成功したか否かを判定する。すなわち、本ステップ226において、実行部112Aは、取得部110Aにより取得された計測結果が実測距離の場合は計測部による計測が成功したと判定する。また、本ステップ226において、実行部112Aは、取得部110Aにより取得された計測結果が計測失敗情報の場合は計測部による計測が失敗したと判定する。
 ステップ228において、計測部による計測が成功した場合は、判定が肯定されて、図14に示すステップ262へ移行する。ステップ228において、計測部による計測が失敗した場合は、判定が否定されて、図13に示すステップ230へ移行する。
 図13に示すステップ230で、実行部112Aは、表示部86に対して、一例として図20に示すように、位置変更指示受付画面135の表示を開始させ、その後、ステップ232へ移行する。
 一例として図20に示すように、位置変更指示受付画面135には、「測距失敗しました。撮像範囲の位置を微小変更しますか?」とのメッセージが含まれている。また、位置変更指示受付画面135には、「はい」ボタンと「いいえ」ボタンとが含まれている。「はい」ボタンは、撮像範囲115の位置を微小変更することについてユーザが了解したことの意思を表明する場合にタッチパネル88を介してオンされるソフトキーである。「いいえ」ボタンは、撮像範囲115の位置を微小変更することについてユーザが了解しないことの意思を表明する場合にタッチパネル88を介してオンされるソフトキーである。
 ステップ232で、実行部112Aは、位置変更指示受付画面135内の「はい」ボタンがオンされたか否かを判定する。ステップ232において、位置変更指示受付画面135内の「はい」ボタンがオンされていない場合は、判定が否定されて、ステップ234へ移行する。ステップ232において、位置変更指示受付画面135内の「いいえ」ボタンがオンされた場合は、判定が肯定されて、ステップ244へ移行する。
 ステップ234で、実行部112Aは、位置変更指示受付画面135の表示を終了する条件である画面表示終了条件を満足しているか否かを判定する。画面表示終了条件の一例としては、位置変更指示受付画面135内の「いいえ」ボタンがオンされたとの条件が挙げられる。画面表示終了条件の他の一例としては、ステップ230の処理が実行されることで位置変更指示受付画面135の表示が開始されてから第2既定時間(例えば、1分)が経過したとの条件が挙げられる。
 ステップ234において、画面表示終了条件を満足していない場合は、判定が否定されて、ステップ232の判定が再び行われる。ステップ234において、画面表示終了条件を満足した場合は、判定が肯定されて、ステップ236へ移行する。
 ステップ236で、実行部112Aは、表示部86に対して、位置変更指示受付画面135の表示を終了させ、その後、ステップ238へ移行する。
 ステップ238で、実行部112Aは、表示部86に対して、一例として図21に示すように、ライブビュー画像の表示領域内に、計測部による計測が失敗したことを示す計測失敗メッセージ136の表示を開始させ、その後、ステップ240へ移行する。ここでは、計測失敗メッセージ136の一例として、「測距が失敗しました。」とのメッセージが示されているが、あくまでも一例であり、計測部による計測が失敗したことをユーザに認識させることができるメッセージであれば如何なるメッセージであってもよい。
 また、図21に示す例では、計測失敗メッセージ136が可視表示される場合を示しているが、音声再生装置(図示省略)による音声の出力等の可聴表示又はプリンタによる印刷物の出力等の永久可視表示を可視表示に代えて行ってもよいし、併用してもよい。
 ステップ240で、実行部112Aは、計測失敗メッセージ136の表示を終了する条件である表示終了条件を満足したか否かを判定する。表示終了条件の一例としては、タッチパネル88によってダブルタップ操作が受け付けられたとの条件、又は、受付デバイス90に含まれる特定のボタン(例えば、撮像計測ボタン90A)がオンされたとの条件等が挙げられる。
 ステップ240において、表示終了条件を満足していない場合は、判定が否定されて、ステップ240の判定が再び行われる。ステップ240において、表示終了条件を満足した場合は、判定が肯定されて、ステップ242へ移行する。
 ステップ242で、実行部112Aは、表示部86に対して、計測失敗メッセージ136の表示を終了させ、その後、パノラマ撮像計測処理を終了する。
 ステップ244で、実行部112Aは、表示部86に対して、位置変更指示受付画面135の表示を終了させ、その後、ステップ246へ移行する。
 ステップ246で、実行部112Aは、4頂点フラグがオンされているか否かを判定する。ステップ246において、4頂点フラグがオフされている場合は、判定が否定されて、ステップ248へ移行する。ステップ246において、4頂点フラグがオンされている場合は、判定が肯定されて、ステップ252へ移行する。
 ステップ248で、実行部112Aは、上記の第1許容範囲内に未配置領域が存在するか否かを判定する。なお、本ステップ248において、未配置領域とは、計測部による計測が行われる場合において、第1許容範囲内で撮像範囲115が未だに配置されていない領域を指す。
 ステップ248において、第1許容範囲内に未配置領域が存在しない場合は、判定が否定されて、ステップ238へ移行する。ステップ248において、第1許容範囲内に未配置領域が存在する場合は、判定が肯定されて、ステップ250へ移行する。
 ステップ250で、実行部112Aは、第1許容範囲内の未配置領域を変更先として、実行部112Aは、変更機構11を作動させて、撮像範囲115の位置を第1許容範囲内で上述した未配置方向に移動させることで、撮像範囲115の位置を微小変更させる。そして、本ステップ250の処理の実行が終了すると、パノラマ撮像計測処理は、図12に示すステップ222へ移行する。なお、本ステップ250の処理は、本開示の技術に係る第1移動処理の一例である。
 ステップ252で、実行部112Aは、第2許容範囲内に未配置領域が存在するか否かを判定する。なお、本ステップ252において、未配置領域とは、計測部による計測が行われる場合において、第2許容範囲内で撮像範囲115が未だに配置されていない領域を指す。
 また、第2許容範囲とは、ライブビュー画像内の4頂点対応画素の位置に対応する実空間上の位置を含む範囲を指す。ここで言う「ライブビュー画像内の4頂点対応画素」は、本開示の技術に係る第2多頂点画素の一例である。
 本ステップ252において、第2許容範囲は、少なくとも次の第1~第3条件の全てを満足する範囲である。第1条件とは、撮像範囲115に対する正面視左右方向に撮像範囲115を拡大させた範囲であるとの条件を指す。第2条件とは、現在の撮像範囲115に含まれる実空間4頂点が存在する範囲であるとの条件を指す。第3条件とは、パノラマ撮像が可能な範囲として許容される範囲であるとの条件を指す。このように、第2許容範囲は、第2条件を満足する必要があるため、第1許容範囲に比べ、狭小な範囲となる。
 ステップ252において、第2許容範囲内に未配置領域が存在しない場合は、判定が否定されて、ステップ238へ移行する。ステップ252において、第2許容範囲内に未配置領域が存在する場合は、判定が肯定されて、ステップ254へ移行する。
 なお、第1許容範囲及び第2許容範囲は、本開示の技術に係る許容範囲の一例である。また、以下では、説明の便宜上、第1許容範囲及び第2許容範囲を区別して説明する必要がない場合、単に「許容範囲」と称する。
 ステップ254で、実行部112Aは、第2許容範囲内の未配置領域を変更先として、変更機構11を作動させて、撮像範囲115の位置を上述した未配置方向に移動させることで、撮像範囲115の位置を微小変更させる。そして、本ステップ254の処理の実行が終了すると、パノラマ撮像計測処理は、図12に示すステップ222へ移行する。
 図12に示すステップ256で、実行部112Aは、本開示の技術に係る第1撮像画像の一例である前回の静止画像に4頂点対応画素が含まれているか否かを判定する。ここで、前回の静止画像とは、複数の撮像範囲115のうち、現在の撮像範囲115の1つ手前の静止画像用の撮像で用いられた撮像範囲115(後述のステップ268の処理での撮像で用いられた撮像範囲115)内の被写体を示す静止画像を指す。
 ステップ256において、前回の静止画像に4頂点対応画素が含まれていない場合は、判定が否定されて、ステップ208へ移行する。ステップ256において、前回の静止画像に4頂点対応画素が含まれている場合は、判定が肯定されて、ステップ258へ移行する。
 ステップ258で、実行部112Aは、前回の静止画像に含まれている4頂点対応画素に対応する4つの画素(本開示の技術に係る対応画素の一例)が重複領域に存在していないか否かを判定する。ここで、重複領域とは、現在の撮像範囲115内の被写体を示すライブビュー画像のうち、前回の静止画像と重複した領域を指す。なお、現在の撮像範囲115内の被写体を示すライブビュー画像は、本開示の技術に係る第2撮像画像の一例である。本開示の技術に係る第2撮像画像とは、上述した隣接撮像範囲のうちの他方の撮像範囲115内の被写体が撮像されて得られた撮像画像を指す。
 図17に示す例では、撮像範囲115Aと撮像範囲115Bとが重複した範囲132A(図17に示すハッチング領域)が示されている。図17に示す例において、範囲132A内には、撮像範囲115A内の被写体における頂点126A,126B,126C,126Dが実空間4頂点として含まれている。従って、この場合、撮像範囲115B内の被写体を示すライブビュー画像には、頂点126A,126B,126C,126Dに対応する4つの画素が存在する。
 撮像範囲115B内の被写体を示すライブビュー画像において、図17に示す頂点126A,126B,126C,126Dに対応する4つの画素は、本開示の技術に係る対応画素の一例である。対応画素とは、例えば、図17に示す撮像範囲115B内の被写体を示すライブビュー画像に含まれる画素のうち、撮像範囲115A内の被写体を示す静止画像に含まれる4頂点対応画素(本開示の技術に係る第1多頂点画素の一例)に対応する4つの画素を指す。
 また、図17に示す例において、撮像範囲115A及び撮像範囲115Bは、本開示の技術に係る隣接撮像範囲の一例である。図17に示す例において、撮像範囲115Aは、本開示の技術に係る「隣接撮像範囲のうちの先に撮像が実施される一方の撮像範囲」の一例である。撮像範囲115Bは、本開示の技術に係る「隣接撮像範囲のうちの他方の撮像範囲」の一例である。
 ここで、一例として図19に示すように、撮像範囲115A内の被写体を示すライブビュー画像に含まれる画素128A,128B、128C,128Dは、頂点126A,126B,126C,126Dに対応する画素である。画素128A,128B、128C,128Dは、後述のステップ268の処理が実行されることで撮像範囲115A内の被写体が撮像されて得られる静止画像にも含まれる。この場合、図17に示す範囲132A内に頂点126A,126B,126C,126Dが含まれる。従って、画素128A,128B、128C,128Dに対応する4つの画素は、上述した対応画素として、撮像範囲115B内の被写体を示すライブビュー画像にも含まれる。
 図18に示す例では、撮像範囲115Bと撮像範囲115Cとが重複した範囲132B(図18に示すハッチング領域)が示されている。図18に示す例において、範囲132B内には、撮像範囲115B内の被写体における頂点126C,126D,126E,126Fが実空間4頂点として含まれている。従って、この場合、撮像範囲115C内の被写体を示すライブビュー画像には、頂点126C,126D,126E,126Fに対応する4つの画素が存在する。
 撮像範囲115C内の被写体を示すライブビュー画像において、図18に示す頂点126C,126D,126E,126Fに対応する4つの画素は、本開示の技術に係る対応画素の一例である。また、図18に示す例において、撮像範囲115B及び撮像範囲115Cは、本開示の技術に係る隣接撮像範囲の一例である。図18に示す例において、撮像範囲115Bは、本開示の技術に係る「隣接撮像範囲のうちの先に撮像が実施される一方の撮像範囲」の一例である。撮像範囲115Cは、本開示の技術に係る「隣接撮像範囲のうちの他方の撮像範囲」の一例である。なお、図18に示す例は、撮像範囲115A内の被写体を示す静止画像内に4頂点対応画素が存在せず、かつ、撮像範囲115B内の被写体を示す静止画像内に4頂点対応画素が存在することを前提とした例である。
 図18に示す撮像範囲115B内の被写体を示す静止画像には、頂点126C,126D,126E,126Fに対応する4つの画素が存在する。また、この場合、図18に示す範囲132B内に頂点126C,126D,126E,126Fが含まれる。従って、頂点126C,126D,126E,126Fに対応する4つの画素は、上述した対応画素として、撮像範囲115C内の被写体を示すライブビュー画像にも含まれる。
 ステップ258において、前回の静止画像に含まれている4頂点対応画素に対応する4つの画素が重複領域に存在している場合(例えば、図17に示す例の場合及び図18に示す例の場合)は、判定が否定されて、ステップ260へ移行する。ステップ258において、前回の静止画像に含まれている4頂点対応画素に対応する4つの画素が重複領域に存在していない場合は、判定が肯定されて、ステップ208へ移行する。
 ステップ260で、実行部112Aは、重複領域に含まれる4つの画素の位置を特定する座標である第2画素特定座標と位置特定情報とを対応付けた状態で第1記憶領域に時系列で記憶し、その後、ステップ220へ移行する。なお、本ステップ260が実行されることで第1記憶領域に記憶された第2画素特定座標により特定される位置の4つの画素は、本開示の技術に係る対応画素の一例である。また、以下では、説明の便宜上、第1及び第2画素特定座標を区別して説明する必要がない場合、「画素特定座標」と称する。
 図14に示すステップ262で、実行部112Aは、取得部110Aにより取得された計測結果である実測距離を一次記憶部102の第2記憶領域(図示省略)に時系列で記憶し、その後、ステップ264へ移行する。
 ステップ264で、実行部112Aは、4頂点フラグがオンされているか否かを判定する。ステップ264において、4頂点フラグがオンされている場合は、判定が肯定されて、ステップ266へ移行する。ステップ264において、4頂点フラグがオフされている場合は、判定が否定されて、ステップ268へ移行する。
 ステップ266で、実行部112Aは、4頂点フラグをオフし、その後、ステップ268へ移行する。
 ステップ268で、実行部112Aは、撮像装置14に対して、静止画像用の撮像を行わせ、その後、ステップ270へ移行する。
 ステップ270で、実行部112Aは、ステップ268の処理が実行されることで撮像されて得られた静止画像を取得し、取得した静止画像を一次記憶部102の第3記憶領域(図示省略)に時系列で記憶し、その後、ステップ272へ移行する。
 ステップ272で、実行部112Aは、第3記憶領域に時系列で記憶された静止画像のうちの最新の静止画像に対して、第1記憶領域に記憶されている最新の位置特定情報を対応付ける。また、実行部112Aは、第3記憶領域に時系列で記憶された静止画像のうちの最新の静止画像に対して、第2記憶領域に記憶されている最新の実測距離を対応付け、その後、ステップ274へ移行する。
 なお、以下では、説明の便宜上、第3記憶領域に時系列で記憶された静止画像のうちの最新の静止画像を、単に「最新の静止画像」と称する。また、以下では、説明の便宜上、静止画像に対応付けられている位置特定情報を「静止画像に対応する位置特定情報」とも称する。更に、以下では、説明の便宜上、静止画像に対応付けられている実測距離を「静止画像に対応する実測距離」とも称する。
 ステップ274で、実行部112Aは、最新の静止画像に対応する位置特定情報に対して画素特定座標が対応付けられているか否かを判定する。ステップ274において、最新の静止画像に対応する位置特定情報に対して画素特定座標が対応付けられていない場合は、判定が否定されて、図15に示すステップ290へ移行する。ステップ274において、最新の静止画像に対応する位置特定情報に対して画素特定座標が対応付けられている場合は、判定が肯定されて、ステップ276へ移行する。なお、以下では、説明の便宜上、静止画像に対応する位置特定情報に対して対応付けられている画素特定座標を、「静止画像に対応する画素特定座標」と称する。
 ステップ276で、実行部112Aは、最新の静止画像を処理対象として、最新の静止画像に対応する画素特定座標に基づいて射影変換処理を実行し、処理対象とされた静止画像を第3記憶領域から消去した後、ステップ278へ移行する。本ステップ276で射影変換処理が実行されると、画素特定座標により画定される四角形に基づいて射影変換用の係数である射影変換係数が導出される。そして、導出された射影変換係数を用いて最新の静止画像が上述の正対視画像に相当する画像に変換される。
 なお、以下では、説明の便宜上、静止画像に対して射影変換処理が実行されることで得られる正対視画像に相当する画像を「射影変換後画像」と称する。また、射影変換後画像には、ステップ268で処理対象とされた静止画像に対応する位置特定情報が射影変換後画像に対しても対応付けられる。また、以下では、説明の便宜上、射影変換後画像に対応付けられている位置特定情報を「射影変換後画像に対応する位置特定情報」とも称する。また、以下では、説明の便宜上、ステップ276の処理が実行されて得られた最新の射影変換後画像を、単に「最新の射影変換後画像」とも称する。
 ステップ278で、実行部112Aは、ステップ276で処理対象とされた静止画像以外の静止画像が第3記憶領域に残存していないか否かを判定する。ステップ278において、ステップ276で処理対象とされた静止画像以外の静止画像が第3記憶領域に残存していない場合は、判定が肯定されて、ステップ280へ移行する。ステップ278において、ステップ276で処理対象とされた静止画像以外の静止画像が第3記憶領域に残存している場合は、判定が否定されて、図15に示すステップ292へ移行する。
 ステップ280で、実行部112Aは、一次記憶部102の第4記憶領域(図示省略)にパノラマ画像が記憶されているか否かを判定する。なお、第4記憶領域には、後述のステップ286の処理が実行された場合及びステップ282の処理が実行された場合に、パノラマ画像が記憶される。
 ステップ280において、第4記憶領域にパノラマ画像が記憶されている場合は、判定が肯定されて、ステップ282へ移行する。ステップ280において、第4記憶領域にパノラマ画像が記憶されていない場合は、判定が否定されて、ステップ284へ移行する。
 ステップ284で、実行部112Aは、複数の射影変換後画像が存在しているか否かを判定する。ここで、複数の射影変換後画像が存在するパターンとしては、第1~第4のパターンが考えられる。
 第1のパターンとは、既に後述のステップ288の処理が実行されることによって一次記憶部102の第5記憶領域(図示省略)に射影変換後画像が記憶されており、かつ、最新の射影変換後画像が存在するパターンを指す。第2のパターンとは、第5記憶領域に射影変換後画像が記憶されており、かつ、最新の射影変換後画像が存在し、かつ、後述のステップ300の処理が実行されることで射影変換後画像が得られているパターンを指す。第3のパターンとは、第5記憶領域に射影変換後画像が記憶されていないものの、最新の射影変換後画像が存在し、かつ、後述のステップ300の処理が実行されることで射影変換後画像が得られているパターンを指す。第4のパターンとは、最新の射影変換後画像が存在せず、かつ、後述のステップ300の処理が実行されることで複数の射影変換後画像が得られているパターンを指す。なお、第5記憶領域には、後述のステップ288の処理が実行された場合に、ステップ276の処理が実行されて得られた射影変換後画像が記憶される。
 ステップ284において、第5記憶領域に射影変換後画像が記憶されている場合は、判定が肯定されて、ステップ286へ移行する。ステップ284において、第5記憶領域に射影変換後画像が記憶されていない場合は、判定が否定されて、ステップ288へ移行する。
 ステップ288で、実行部112Aは、ステップ276の処理が実行されて得られた最新の射影変換後画像を第5記憶領域に記憶し、その後、ステップ304へ移行する。
 ステップ286で、実行部112Aは、ステップ276及びステップ300の少なくとも一方の処理が実行されることで得られた射影変換後画像と第5記憶領域に記憶されている射影変換後画像とを繋ぎ合わせることでパノラマ画像を生成する。そして、実行部112Aは、生成したパノラマ画像を第4記憶領域に記憶し、その後、ステップ304へ移行する。なお、ステップ286の処理は、本開示の技術に係る生成処理の一例である。
 ステップ282で、実行部112Aは、第4記憶領域に記憶されているパノラマ画像を取得する。次いで、実行部112Aは、取得したパノラマ画像に対して、ステップ276及びステップ300の少なくとも一方の処理が実行されることで得られた射影変換後画像を繋ぎ合わせることでパノラマ画像を更新する。そして、実行部112Aは、更新したパノラマ画像を第4記憶領域に記憶(上書き保存)し、その後、ステップ304へ移行する。なお、ステップ282の処理は、本開示の技術に係る生成処理の一例である。
 図15に示すステップ290で、実行部112Aは、射影変換処理の実績があるか否かを判定する。射影変換処理の実績とは、パノラマ撮像計測処理の実行が開示されてから現時点までに静止画像に対して射影変換処理が実行された事実を指す。射影変換処理の実績の有無は、図14に示すステップ276の処理が実行されたか否かによって判定される。
 ステップ290において、射影変換処理の実績がない場合は、判定が否定されて、図14に示すステップ304へ移行する。ステップ290において、射影変換処理の実績がある場合は、判定が肯定されて、ステップ292へ移行する。
 ステップ292で、実行部112Aは、最先の静止画像を取得し、その後、ステップ294へ移行する。ここで、最先の静止画像とは、第3記憶領域に記憶されている静止画像のうち、最も先に記憶された静止画像、すなわち、最も古い静止画像を指す。なお、以下では、説明の便宜上、本ステップ292の処理が実行されることで得られた最先の静止画像を、単に「最先の静止画像」とも称する。
 ステップ294で、実行部112Aは、最新の射影変換後画像に対応する位置特定情報を取得し、その後、ステップ296へ移行する。
 ステップ296で、実行部112Aは、2つの位置特定情報を用いて位置関係情報を導出し、その後、ステップ298へ移行する。
 ここで、位置関係情報とは、最先の静止画像を得るために行われた撮像で用いられた撮像範囲115と最新の射影変換後画像に対応する静止画像を得るために行われた撮像で用いられた撮像範囲115との位置関係を示す情報である。位置関係情報は、撮像範囲間距離と撮像範囲方向とを含む情報である。撮像範囲間距離とは、最先の静止画像を得るために行われた撮像で用いられた撮像範囲115と最新の射影変換後画像に対応する静止画像を得るために行われた撮像で用いられた撮像範囲115との距離を指す。撮像範囲方向とは、最新の射影変換後画像に対応する静止画像を得るために行われた撮像で用いられた撮像範囲115に対する、最先の静止画像を得るために行われた撮像で用いられた撮像範囲115の方向を指す。
 ステップ298で、実行部112Aは、ステップ296の処理で導出した位置関係情報に基づいて、最新の射影変換後画像の射影変換係数を、最先の静止画像を射影変換後画像に変換可能な係数に調整し、その後、ステップ300へ移行する。
 ステップ300で、実行部112Aは、最先の静止画像を処理対象として、ステップ298の処理で調整した射影変換係数を用いて射影変換処理を実行し、処理対象とされた静止画像を第3記憶領域から消去した後、ステップ302へ移行する。
 ステップ302で、実行部112Aは、第3記憶領域に記憶されている全ての静止画像がステップ300の射影変換処理の処理対象とされたか否かを判定する。ステップ302において、第3記憶領域に記憶されている全ての静止画像がステップ300の射影変換処理の処理対象とされていない場合は、判定が否定されて、ステップ292へ移行する。ステップ302において、第3記憶領域に記憶されている全ての静止画像がステップ300の射影変換処理の処理対象とされた場合は、判定が肯定されて、図14に示すステップ280へ移行する。
 図14に示すステップ304で、実行部112Aは、パノラマ撮像計測処理を終了する条件である撮像計測終了条件を満足したか否かを判定する。撮像計測終了条件の一例としては、最後の撮像範囲115内の被写体に対する撮像によって得られた静止画像を基に得られた射影変換後画像を含むパノラマ画像が生成されて第4記憶領域に記憶された、との条件が挙げられる。撮像計測終了条件の他の一例としては、タッチパネル88又は受付デバイス90によって、パノラマ撮像計測処理を終了する指示が受け付けられた、との条件が挙げられる。
 ステップ304において、撮像計測終了条件を満足していない場合は、判定が否定されて、ステップ306へ移行する。
 ステップ306で、実行部112Aは、変更機構11を作動させて、撮像範囲115の位置を、パノラマ撮像で要する静止画像用の撮像として次に静止画像用の撮像を予定している位置に移動させることで、撮像範囲115の位置を変更させる。ステップ306の処理の実行が終了すると、パノラマ撮像計測処理は図12に示すステップ200へ移行する。
 なお、次に静止画像用の撮像を予定している位置とは、例えば、現在の撮像範囲115が撮像範囲115Aの場合は撮像範囲115Bの位置を指し、現在の撮像範囲115が撮像範囲115Bの場合は撮像範囲115Cの位置を指す(図17及び図18参照)。また、ステップ306の処理は、本開示の技術に係る第2移動処理の一例である。
 ステップ304において、撮像計測終了条件を満足した場合は、判定が肯定されて、パノラマ撮像計測処理を終了する。
 次に、第4記憶領域にパノラマ画像が記憶されている状態で寸法導出ボタン90Fがオンされた場合にCPU100が寸法導出プログラム106Aを実行することにより寸法導出機能を働かせることで実現される寸法導出処理について図22を参照して説明する。
 なお、以下では、説明の便宜上、パノラマ画像の生成に要した全ての静止画像の各々に対応する実測距離が第2記憶領域に記憶されていることを前提として説明する。また、以下では、説明の便宜上、パノラマ撮像計測処理が実行されてから測距装置10Aがシャットダウンされることなく寸法導出ボタン90Fがオンされたことを前提として説明する。
 また、以下では、説明の便宜上、数式(1)の“f”が、パノラマ撮像で要した複数回に及ぶ静止画像用の撮像の各々で用いられた焦点距離として、例えば、対応する静止画像毎に一次記憶部102に記憶されていることを前提として説明する。
 図22に示す寸法導出処理では、先ず、ステップ350で、実行部112Aは、第4記憶領域からパノラマ画像を取得する。そして、実行部112Aは、表示部86に対して、一例として図23に示すように、パノラマ画像の表示を開始させ、その後、ステップ352へ移行する。
 ステップ352で、実行部112Aは、表示部86に対して、一例として図24に示すように、パノラマ画像の横の表示領域内に画素指定案内メッセージ138を表示させ、その後、ステップ354へ移行する。
 図24に示す例では、画素指定案内メッセージ138として、「パノラマ画像内で2点をタップして、長さを計測したい区域の始点と終点を指定して下さい。」とのメッセージが示されているが、これはあくまでも一例である。画素指定案内メッセージ138は、図24に示す例に限定されるものではなく、長さを計測したい区域の始点と終点とを特定する2画素の指定をユーザに促すメッセージであれば如何なるメッセージであってもよい。
 ステップ354で、実行部112Aは、ユーザによりタッチパネル88を介して2つの画素が指定されたか否かを判定する。ステップ354において、ユーザによりタッチパネル88を介して2つの画素が指定されていない場合は、判定が否定されて、ステップ356へ移行する。ステップ354において、一例として図25に示すように、ユーザによりタッチパネル88を介して2つの画素が指定された場合は、判定が肯定されて、ステップ358へ移行する。
 ステップ356で、実行部112Aは、寸法導出処理を終了する条件である寸法導出終了条件を満足したか否かを判定する。寸法導出終了条件の一例としては、タッチパネル88又は受付デバイス90によって寸法導出処理を終了する指示が受け付けられた、との条件が挙げられる。寸法導出終了条件の他の一例としては、寸法導出処理の実行が開始されてから予め定められた時間(例えば、30分)が経過した、との条件が挙げられる。
 ステップ356において、寸法導出終了条件を満足していない場合は、判定が否定されて、ステップ354へ移行する。ステップ356において、寸法導出終了条件を満足した場合は、判定が肯定されて、ステップ368へ移行する。
 ステップ358で、実行部112Aは、表示部86に対して、画素指定案内メッセージ138の表示を終了させ、その後、ステップ360へ移行する。
 ステップ360で、実行部112Aは、ユーザによりタッチパネル88を介して指定された2つの画素の間隔に対応する実空間上の区域の長さを、寸法導出機能を働かせて導出し、その後、ステップ362へ移行する。
 本ステップ360では、ユーザによってタッチパネル88を介して指定された2つの画素の間隔に対応する実空間上の区域の長さが、上記の数式(1)により導出される。なお、この場合、数式(1)のu1,u2は、ユーザによりタッチパネル88を介して指定された2つの画素のアドレスである。また、数式(1)のLは、パノラマ撮像計測処理に含まれるステップ262の処理が実行されることで第2記憶領域に記憶された実測距離のうち、指定された2つの画素を含む射影変換後画像の基になった静止画像に対応する実測距離である。また、数式(1)の“f”は、静止画像毎に一次記憶部102に記憶されている焦点距離のうち、指定された2つの画素を含む射影変換後画像の基になった静止画像を得るための撮像で用いられた焦点距離である。
 ステップ362で、実行部112Aは、一例として図26に示すように、表示部86に対して、区域の長さ及び双方向矢印125Aをパノラマ画像に重畳した表示を開始させ、その後、ステップ364へ移行する。
 本ステップ362の処理が実行されることで表示部86に表示される区域の長さは、ステップ360の処理が実行されることで実行部112Aにより導出された区域の長さである。なお、図26に示す例では、「630mm」との長さが区域の長さに該当する。また、本ステップ362の処理が実行されることで表示部86に表示される双方向矢印125Aは、ユーザによりタッチパネル88を介して指定された2つの画素間を特定する矢印である。
 ステップ364で、実行部112Aは、上述した寸法導出終了条件を満足したか否かを判定する。ステップ364において、寸法導出終了条件を満足していない場合は、判定が否定されて、ステップ366へ移行する。ステップ364において、寸法導出終了条件を満足した場合は、判定が肯定されて、ステップ368へ移行する。
 ステップ366で、実行部112Aは、ユーザによりタッチパネル88を介して2つの画素が更に指定されたか否かを判定する。ステップ366において、ユーザによりタッチパネル88を介して2つの画素が更に指定されていない場合は、判定が否定されて、ステップ364へ移行する。ステップ366において、一例として図27に示すように、ユーザによりタッチパネル88を介して2つの画素が更に指定された場合は、判定が肯定されて、ステップ360へ移行する。
 ステップ366において判定が肯定されてステップ360及びステップ362の処理が再び実行されると、一例として図28に示すように、ユーザによりタッチパネル88を介して更に指定された2つの画素間に対応する区域の長さが表示部86に表示される。なお、図28に示す例では、「705mm」との長さが、ユーザによりタッチパネル88を介して更に指定された2つの画素間に対応する区域の長さに該当する。また、図28に示す例では、双方向矢印125Bが、ユーザによりタッチパネル88を介して更に指定された2つの画素間を視認可能に特定している。なお、以下では、説明の便宜上、双方向矢印125A,125Bを区別して説明する必要がない場合、単に「双方向矢印125」と称する。
 ステップ368で、実行部112Aは、表示部86に対して、パノラマ画像等の表示を終了させ、その後、寸法導出処理を終了する。なお、ここで、パノラマ画像等とは、ステップ356において判定が肯定された場合は、パノラマ画像及び画素指定案内メッセージ138を指し、ステップ364において判定が肯定された場合、パノラマ画像、区域の長さ、及び双方向矢印125を指す。
 以上説明したように、測距装置10Aでは、取得部110Aにより計測部による計測結果が取得される(ステップ226)。そして、取得された計測結果が計測部による計測が失敗したことを示す場合(ステップ228:N)、許容範囲内で現在の撮像範囲115の位置を変更させた状態で(ステップ250又はステップ254)、計測部による再計測が実行される(ステップ222)。
 従って、測距装置10Aによれば、パノラマ撮像における撮像対象となる全ての撮像範囲115の各々について被写体までの距離の計測を1回ずつ行う場合に比べ、パノラマ撮像における撮像対象となる全ての撮像範囲115の各々での被写体までの距離の計測を成功させる度合いを高めることができる。
 また、測距装置10Aでは、計測部による再計測が実行される処理に、モータ21の動力に応じて変更機構11を作動させることで、現在の撮像範囲115の位置を許容範囲内で変更させる処理(ステップ250又はステップ254の処理)が含まれる。
 従って、測距装置10Aによれば、現在の撮像範囲115の位置が手動で許容範囲内で変更される場合に比べ、手間をかけずに、現在の撮像範囲115の位置を許容範囲内で変更させることができる。
 また、測距装置10Aでは、変更機構11を作動させることで、現在の撮像範囲115の位置が許容範囲内で変更された場合に(ステップ250又はステップ254)、計測部による再計測が実行される(ステップ222)。
 従って、測距装置10Aによれば、撮像範囲115の位置を許容範囲から逸脱させることなく、計測対象とされる箇所を変えて計測部による再計測を実行することができる。
 また、測距装置10Aでは、位置変更指示受付画面135内の「はい」ボタンがオンされ(ステップ232:Y)、かつ、変更機構11を作動させることで、撮像範囲115の位置が許容範囲内で変更された場合に、計測部による再計測が実行される。
 従って、測距装置10Aによれば、ユーザが意図するタイミングで撮像範囲115の位置を微小変更させることができる。
 また、測距装置10Aでは、ライブビュー画像の表示領域内に位置変更指示受付画面135が表示されている状態で「はい」ボタンがオンされ、かつ、撮像範囲115の位置が許容範囲内で変更された場合に、計測部による再計測が実行される。
 従って、測距装置10Aによれば、撮像範囲115の位置を許容範囲内から逸脱することなく、ユーザが意図するタイミングで、計測部に対して再計測させることができる。
 また、測距装置10Aでは、取得部110Aにより取得された計測結果が計測部による計測の成功を示す場合に、計測部による計測が成功した計測成功状態で実行される処理として予め定められた処理である計測成功処理が実行部112Aにより更に実行される。なお、図12~図15に示す例では、ステップ228において判定が肯定された以降の処理が計測成功処理の一例に該当する。
 従って、測距装置10Aによれば、計測部による計測の成功が計測成否情報を用いずに人為的に判断される場合に比べ、計測成功処理の実行を迅速に開始することができる。
 また、測距装置10Aでは、撮像範囲115の位置が、パノラマ撮像で要する静止画像用の撮像として次に静止画像用の撮像を予定している位置に変更された場合に、計測部に対して被写体までの距離を計測させる処理が上述した計測成功処理に含まれる。
 従って、測距装置10Aによれば、撮像範囲115の位置が、パノラマ撮像で要する静止画像用の撮像として次に静止画像用の撮像を予定している位置に変更されたにも拘らず計測部による計測が開始されない場合に比べ、手間をかけずに、計測部に対して被写体までの距離を計測させることができる。
 また、測距装置10Aでは、モータ23の動力に応じて変更機構11を作動させることで、撮像範囲115の位置を、パノラマ撮像で要する静止画像用の撮像として次に静止画像用の撮像を予定している位置に変更させる処理が上述した計測成功処理に含まれる。
 従って、測距装置10Aによれば、撮像範囲115の位置が、パノラマ撮像で要する静止画像用の撮像として次に静止画像用の撮像を予定している位置に手動で変更される場合に比べ、手間をかけずに、撮像範囲115の位置を、パノラマ撮像で要する静止画像用の撮像として次に静止画像用の撮像を予定している位置に変更させることができる。
 また、測距装置10Aでは、撮像範囲115の位置が、パノラマ撮像で要する静止画像用の撮像として次に静止画像用の撮像を予定している位置に変更され(ステップ306)、かつ、撮像計測ボタン90Aがオンされた場合に(ステップ202:Y)、計測部に対して被写体までの距離を計測させる処理(ステップ222)が計測成功処理に含まれている。
 従って、測距装置10Aによれば、撮像範囲115の位置が、パノラマ撮像で要する静止画像用の撮像として次に静止画像用の撮像を予定している位置に変更された場合に、ユーザが意図するタイミングで、計測部に対して被写体までの距離を計測させることができる。
 また、測距装置10Aでは、前回の静止画像である第1静止画像に4頂点対応画素が含まれており、かつ、4頂点対応画素に対応する4つの画素である対応画素が最新の静止画像である第2静止画像に含まれている場合に(ステップ258:N)、第1静止画像は4頂点対応画素に基づいて射影変換される(ステップ276)。また、第2静止画像は、対応画素に基づいて射影変換される(ステップ276)。そして、第1静止画像が射影変換されて得られた射影変換後画像(本開示の技術に係る第1射影変換後画像の一例)と第2静止画像が射影変換されて得られた射影変換後画像(本開示の技術に係る第2射影変換後画像)とを含む画像であるパノラマ画像が生成される(ステップ286,288)。
 従って、測距装置10Aによれば、パノラマ撮像における撮像対象となる複数の撮像範囲115の各々に含まれる各被写体を撮像して得た全ての静止画像の各々について4頂点対応画素を探索する場合に比べ、手間をかけずに、射影変換後画像を含むパノラマ画像を生成することができる。
 また、測距装置10Aでは、第2許容範囲が現在の撮像範囲115に含まれる実空間4頂点が存在する範囲とされている。
 従って、測距装置10Aによれば、第2許容範囲が現在の撮像範囲115に含まれる実空間4頂点が存在しない範囲の場合に比べ、第2許容範囲内の撮像範囲115に含まれる被写体が撮像されて得られた静止画像の高精度な射影変換に寄与することができる。
 更に、測距装置10Aでは、パノラマ撮像計測処理が実行されることで得られた実測距離とパノラマ画像とに基づいて寸法導出機能を働かせることで、パノラマ画像内で指定された2つの画素間に対応する実空間上の区域の長さが導出される(ステップ360)。
 従って、測距装置によれば、1回のパノラマ撮像で要する全ての撮像の各々について1回ずつ被写体までの距離を計測する場合に比べ、パノラマ画像を介して指定された実空間上の区域の長さを、手間をかけずに導出することができる。
 なお、上記第1実施形態では、第1許容範囲として範囲130を例示したが、本開示の技術はこれに限定されるものではなく、一例として図29に示すように、第1許容範囲として範囲140を用いてもよい。範囲140は、撮像範囲115に対する正面視左右方向に加えて正面視上下方向にも撮像範囲115を拡大させた範囲であり、図29に示す例では、撮像範囲115に対する正面視左右方向及び左右方向ともに撮像範囲115を、一例として1.5倍拡大させたものである。この場合、撮像範囲115の位置は、上記第1実施形態で説明した微小変更と同様の要領で、第1許容範囲内で正面視上下方向にも微小変更される。図29に示す例では、第1許容範囲として適用される範囲140が示されているが、第2許容範囲についても範囲140に相当する範囲を適用することは可能である。
 また、上記第1実施形態では、「はい」ボタンがオンされてから撮像範囲115の位置が許容範囲内で変更された場合に、計測部による再計測が実行されるようにしたが、本開示の技術はこれに限定されるものではない。例えば、撮像範囲115の位置が許容範囲内で変更されてから撮像計測ボタン90Aがオンされた場合に、計測部による再計測が実行されるようにしてもよい。
 また、上記第1実施形態では、被写体に対して正面視上下方向に配置された複数の撮像範囲115の各々に含まれる被写体が撮像されることで得られた静止画像に基づいてパノラマ画像が生成される場合を例示したが、本開示の技術はこれに限定されるものではない。例えば、被写体に対して正面視左右方向に撮像範囲115の位置を動かしながら、複数の撮像範囲115の各々に含まれる被写体が撮像されることで得られた静止画像に基づいてパノラマ画像が生成されるようにしてもよい。また、被写体に対して正面視上下方向及び左右方向に予め定められたルートに従って撮像範囲115の位置を動かしながら、各撮像範囲115内の被写体が撮像されることで得られた静止画像に基づいてパノラマ画像が生成されるようにしてもよい。
 また、上記第1実施形態では、撮像範囲の位置を第1許容範囲又は第2許容範囲内で微小変更して計測部による再計測が失敗し続けて未配置領域が存在しなくなった場合にパノラマ撮像計測処理を終了するようにしたが、本開示の技術はこれに限定されるものではない。例えば、撮像範囲の位置を第1許容範囲又は第2許容範囲内で微小変更して計測部による再計測が失敗し続けて未配置領域が存在しなくなった場合に図14に示すステップ264へ移行するようにしてもよい。この場合、現在の撮像範囲115内の被写体に対する実測距離を確保することはできないものの、現在の撮像範囲115内の被写体を対象とした静止画像用の撮像を実行することはできる。つまり、実測距離を確保できなくても、パノラマ画像の生成を完遂することはできる。
 なお、この場合、パノラマ撮像における撮像対象となる全ての撮像範囲のうちの少なくとも1つの撮像範囲について被写体に対する実測距離が確保されていれば、寸法導出機能を働かせることで、指定された2つの画素により特定された区域の長さを導出することは可能である。例えば、ある撮像範囲115について被写体に対する実測距離が得られない場合であっても、何れかの撮像範囲115内の被写体に対する実測距離が確保されていれば、確保されている実測距離そのものを数式(1)の“L”として採用すればよい。また、複数の実測距離が確保されているのであれば、線形補間又は非線形補間等の補間法で得られた実測距離を数式(1)の“L”として採用することも可能である。
 また、上記第1実施形態では、範囲R内で定められた最後の撮像範囲115内の被写体に対する静止画像用の撮像が終了するまでパノラマ撮像計測処理が継続される場合を例示したが、本開示の技術はこれに限定されるものではない。最後の撮像範囲115を事前に確定することなく、パノラマ撮像計測処理の途中でタッチパネル88又は受付デバイス90を介して受け付けられた指示に従ってパノラマ撮像計測処理を終了してもよい。
 また、上記第1実施形態では、図13に示すステップ254の処理が実行されると、図12に示すステップ222へ移行する場合を例示したが、本開示の技術はこれに限定されるものではない。例えば、図46に示すようにステップ254の処理が実行された後、ステップ650及びステップ652の処理が実行されるようにしてもよい。
 また、上記第1実施形態では、図13に示すステップ250の処理が実行されると、図12に示すステップ222へ移行する場合を例示したが、本開示の技術はこれに限定されるものではない。例えば、図46に示すようにステップ250の処理が実行された後、ステップ654及びステップ656の処理が実行されるようにしてもよい。
 図46に示すステップ650で、実行部112Aは、計測部に対して再計測を実行させる指示である再計測開始指示がタッチパネル88又は受付デバイス90によって受け付けられたか否かを判定する。タッチパネル88によって受け付けられる再計測開始指示の一例としては、ダブルタップ操作が挙げられる。また、受付デバイス90によって受け付けられる再計測開始指示の一例としては、撮像計測ボタン90Aの通常押しが挙げられる。
 ステップ650において、再計測開始指示がタッチパネル88又は受付デバイス90によって受け付けられていない場合は、判定が否定されて、ステップ652へ移行する。ステップ650において、再計測開始指示がタッチパネル88又は受付デバイス90によって受け付けられた場合は、判定が肯定されて、図12に示すステップ222へ移行する。
 ステップ652で、実行部112Aは、上述した撮像計測終了条件を満足したか否かを判定する。ステップ652において、撮像計測終了条件を満足していない場合は、判定が否定されて、ステップ650へ移行する。ステップ652において、撮像計測終了条件を満足した場合は、判定が肯定されて、パノラマ撮像計測処理を終了する。
 一方、図46に示すステップ654で、実行部112Aは、上述した再計測開始指示がタッチパネル88又は受付デバイス90によって受け付けられたか否かを判定する。ステップ654において、再計測開始指示がタッチパネル88又は受付デバイス90によって受け付けられていない場合は、判定が否定されて、ステップ656へ移行する。ステップ654において、再計測開始指示がタッチパネル88又は受付デバイス90によって受け付けられた場合は、判定が肯定されて、図12に示すステップ222へ移行する。
 ステップ656で、実行部112Aは、上述した撮像計測終了条件を満足したか否かを判定する。ステップ656において、撮像計測終了条件を満足していない場合は、判定が否定されて、ステップ654へ移行する。ステップ656において、撮像計測終了条件を満足した場合は、判定が肯定されて、パノラマ撮像計測処理を終了する。
 このように、図46に示す例において、測距装置10Aでは、許容範囲内で撮像範囲115の位置が微小変更され、かつ、再計測開始指示がタッチパネル88又は受付デバイス90によって受け付けられた場合に、計測部による計測が再実行される(ステップ222)。従って、図46に示す例によれば、ユーザが意図するタイミングで、計測部に対して被写体までの距離を再計測させることができる。
 [第2実施形態]
 上記第1実施形態では、撮像範囲115の位置の変更がユーザによる手動に依らずとも実現される場合を例示したが、本第2実施形態では、撮像範囲115の位置の変更がユーザによる手動に従って行われる場合について説明する。なお、本第2実施形態では、上記第1実施形態で説明した構成要素と同一の構成要素については同一の符号を付し、その説明を省略する。
 本第2実施形態に係る測距装置10Bは、一例として図1~図4に示すように、測距装置10Aに比べ、測距装置本体10A1に代えて測距装置本体10B1を有する点が異なる。測距装置本体10B1は、測距装置本体10A1に比べ、撮像装置14に代えて撮像装置150を有する点が異なる。撮像装置150は、撮像装置14に比べ、撮像装置本体18に代えて撮像装置本体152を有する点が異なる。
 一例として図5に示すように、撮像装置本体152は、撮像装置本体18に比べ、主制御部62に代えて主制御部154を有する点が異なる。一例として図9に示すように、主制御部154は、主制御部62に比べ、二次記憶部104にパノラマ撮像計測プログラム105Aに代えてパノラマ撮像計測プログラム105Bが記憶されている点が異なる。
 CPU100は、パノラマ撮像計測プログラム105Bを実行することで、一例として図10に示すように、取得部110B及び実行部112Bとして動作する。取得部110Bは、上記第1実施形態で説明した取得部110Aに対応し、実行部112Bは、上記第1実施形態で説明した実行部112Aに対応する。なお、本第2実施形態では、説明の便宜上、取得部110B及び実行部112Bについては、上記第1実施形態で説明した取得部110A及び実行部112Aと異なる部分について説明する。
 次に、測距装置10Bの本開示の技術に係る部分の作用として、CPU100がパノラマ撮像計測プログラム105Bを実行することで実現されるパノラマ撮像計測処理について図30~図35を参照して説明する。なお、上記第1実施形態で説明したパノラマ撮像計測処理(図12~図15)に含まれるステップと同一のステップについては、同一のステップ番号を付して、その説明を省略する。
 一例として図31に示すように、本第2実施形態に係るパノラマ撮像計測処理は、上記第1実施形態に係るパノラマ撮像計測処理に比べ、ステップ214,216に代えてステップ398~ステップ410を有する点が異なる。また、一例として図32に示すように、本第2実施形態に係るパノラマ撮像計測処理は、上記第1実施形態に係るパノラマ撮像計測処理に比べ、ステップ248~ステップ254に代えてステップ412~ステップ438を有する点が異なる。更に、一例として図34及び図35に示すように、ステップ304,306に代えてステップ440~ステップ450を有する点が異なる。
 図31に示すステップ398で、実行部112Bは、第1許容範囲内に未配置領域が存在するか否かを判定する。ステップ398において、第1許容範囲内に未配置領域が存在しない場合は、判定が否定されて、図30に示すステップ222へ移行する。ステップ398において、第1許容範囲内に未配置領域が存在する場合は、判定が肯定されて、ステップ400へ移行する。
 ステップ400で、実行部112Bは、現在の撮像範囲115を対象として、第1許容範囲内で撮像範囲115の位置が変更された回数が既定回数(例えば、10回)未満か否かを判定する。ステップ400において、現在の撮像範囲115を対象として、第1許容範囲内で撮像範囲115の位置が変更された回数が既定回数に到達した場合は、判定が否定されて、図30に示すステップ222へ移行する。ステップ400において、現在の撮像範囲115を対象として、第1許容範囲内で撮像範囲115の位置が変更された回数が既定回数未満の場合は、判定が肯定されて、ステップ402へ移行する。
 ステップ402で、実行部112Bは、表示部86に対して、一例として図36に示すように、ライブビュー画像の表示領域内に微小変更誘導情報142の表示を開始させ、その後、ステップ404へ移行する。
 微小変更誘導情報142は、本開示の技術に係る第1誘導情報の一例であり、現在の撮像範囲115の位置の許容範囲内での変更を誘導する情報である。図36に示す例では、微小変更誘導情報142として、微小変更誘導メッセージ144と矢印Dとを含む情報が例示されている。図36に示す例では、微小変更誘導メッセージ144として、「撮像範囲の位置を矢印方向に少しだけずらして下さい。」とのメッセージが示されている。また、図36に示す例では、矢印Dが未配置方向を指し示している。
 また、矢印Dは、インジケータの機能を有している。すなわち、矢印Dの大きさは、撮像範囲115の位置が許容範囲の限界に近くなるに従って小さくなり、撮像範囲115の位置が第1許容範囲の限界から遠くなるに従って大きくなる。換言すると、矢印Dの大きさは、第1許容範囲内で撮像範囲115の中心が図16に示す中心線CLから遠くなるに従って小さくなり、許容範囲内で撮像範囲115の中心が図16に示す中心線CLに近くなるに従って大きくなる。
 また、図36に示す例では、微小変更誘導情報142が可視表示される場合を示しているが、音声再生装置(図示省略)による音声の出力等の可聴表示又はプリンタによる印刷物の出力等の永久可視表示を可視表示に代えて行ってもよいし、併用してもよい。
 ステップ404で、実行部112Bは、撮像範囲115の位置が変更されたか否かを判定する。なお、本第2実施形態では、撮像範囲115の位置の変更は、ユーザによるロータリスイッチの操作に従って変更機構11が作動することによって実現される。
 ステップ404において、撮像範囲115の位置が変更されていない場合は、判定が否定されて、ステップ404の判定が再び行われる。ステップ404において、撮像範囲115の位置が変更された場合は、判定が肯定されて、ステップ406へ移行する。
 ステップ406で、実行部112Bは、現在の撮像範囲115の位置が第1許容範囲外か否かを判定する。ステップ406において、現在の撮像範囲115の位置が第1許容範囲外の場合は、判定が肯定されて、ステップ410へ移行する。ステップ406において、現在の撮像範囲115の位置が第1許容範囲内の場合は、判定が否定されて、ステップ408へ移行する。
 ステップ408で、実行部112Bは、表示部86に対して、微小変更誘導情報142の表示を終了させ、その後、図30に示すステップ208へ移行する。
 ステップ410で、実行部112Bは、表示部86に対して、微小変更誘導情報142の表示を終了させ、その後、パノラマ撮像計測処理を終了する。
 図32に示すステップ412で、実行部112Bは、第1許容範囲内に未配置領域が存在するか否かを判定する。ステップ412において、第1許容範囲内に未配置領域が存在しない場合は、判定が否定されて、図33に示すステップ238へ移行する。ステップ412において、第1許容範囲内に未配置領域が存在する場合は、判定が肯定されて、ステップ414へ移行する。
 ステップ414で、実行部112Bは、現在の撮像範囲115を対象として、第1許容範囲内で撮像範囲115の位置が変更された回数が既定回数(例えば、10回)未満か否かを判定する。ステップ414において、現在の撮像範囲115を対象として、第1許容範囲内で撮像範囲115の位置が変更された回数が既定回数に到達した場合は、判定が否定されて、図33に示すステップ238へ移行する。ステップ414において、現在の撮像範囲115を対象として、第1許容範囲内で撮像範囲115の位置が変更された回数が既定回数未満の場合は、判定が肯定されて、ステップ416へ移行する。
 ステップ416で、実行部112Bは、表示部86に対して、一例として図36に示すように、ライブビュー画像の表示領域内に微小変更誘導情報142の表示を開始させ、その後、ステップ418へ移行する。なお、本ステップ416の処理は、本開示の技術に係る第1表示処理の一例である。
 ステップ418で、実行部112Bは、撮像範囲115の位置が変更されたか否かを判定する。ステップ418において、撮像範囲115の位置が変更されていない場合は、判定が否定されて、ステップ418の判定が再び行われる。ステップ418において、撮像範囲115の位置が変更された場合は、判定が肯定されて、ステップ420へ移行する。
 ステップ420で、実行部112Bは、現在の撮像範囲115の位置が第1許容範囲外か否かを判定する。ステップ420において、現在の撮像範囲115の位置が第1許容範囲外の場合は、判定が肯定されて、ステップ422へ移行する。ステップ420において、現在の撮像範囲115の位置が第1許容範囲内の場合は、判定が否定されて、ステップ424へ移行する。
 ステップ422で、実行部112Bは、表示部86に対して、微小変更誘導情報142の表示を終了させ、その後、パノラマ撮像計測処理を終了する。
 ステップ424で、実行部112Bは、表示部86に対して、微小変更誘導情報142の表示を終了させ、その後、ステップ222へ移行する。
 ステップ426で、実行部112Bは、第2許容範囲内に未配置領域が存在するか否かを判定する。ステップ426において、第2許容範囲内に未配置領域が存在しない場合は、判定が否定されて、図33に示すステップ238へ移行する。ステップ426において、第2許容範囲内に未配置領域が存在する場合は、判定が肯定されて、ステップ428へ移行する。
 ステップ428で、実行部112Bは、現在の撮像範囲115を対象として、第2許容範囲内で撮像範囲115の位置が変更された回数が既定回数(例えば、10回)未満か否かを判定する。ステップ428において、現在の撮像範囲115を対象として、第2許容範囲内で撮像範囲115の位置が変更された回数が既定回数に到達した場合は、判定が否定されて、図33に示すステップ238へ移行する。ステップ428において、現在の撮像範囲115を対象として、第2許容範囲内で撮像範囲115の位置が変更された回数が既定回数未満の場合は、判定が肯定されて、ステップ430へ移行する。
 ステップ430で、実行部112Bは、表示部86に対して、一例として図36に示すように、ライブビュー画像の表示領域内に微小変更誘導情報142の表示を開始させ、その後、ステップ432へ移行する。なお、本ステップ430の処理は、本開示の技術に係る第1表示処理の一例である。
 ステップ432で、実行部112Bは、撮像範囲115の位置が変更されたか否かを判定する。ステップ432において、撮像範囲115の位置が変更されていない場合は、判定が否定されて、ステップ432の判定が再び行われる。ステップ432において、撮像範囲115の位置が変更された場合は、判定が肯定されて、ステップ434へ移行する。
 ステップ434で、実行部112Bは、現在の撮像範囲115の位置が第2許容範囲外か否かを判定する。ステップ434において、現在の撮像範囲115の位置が第2許容範囲外の場合は、判定が肯定されて、ステップ436へ移行する。ステップ434において、現在の撮像範囲115の位置が第2許容範囲内の場合は、判定が否定されて、ステップ438へ移行する。
 ステップ436で、実行部112Bは、表示部86に対して、微小変更誘導情報142の表示を終了させ、その後、パノラマ撮像計測処理を終了する。
 ステップ438で、実行部112Bは、表示部86に対して、微小変更誘導情報142の表示を終了させ、その後、ステップ222へ移行する。
 図34に示すステップ440で、実行部112Bは、撮像計測終了条件を満足したか否かを判定する。なお、本第2実施形態に係る撮像計測終了条件は、上記第1実施形態で説明した撮像計測終了条件と同一であってもよいし、異なっていてもよい。
 ステップ440において、撮像計測終了条件を満足していない場合は、判定が否定されて、図35に示すステップ442へ移行する。
 図35に示すステップ442で、実行部112Bは、表示部86に対して、一例として図37に示すように、位置変更誘導情報146の表示を開始させ、その後、ステップ444へ移行する。なお、本ステップ442の処理は、本開示の技術に係る第3表示処理の一例である。
 位置変更誘導情報146は、本開示の技術に係る第2誘導情報の一例であり、現在の撮像範囲115の位置のパノラマ撮像における次の静止画像用の撮像を予定している位置への変更を誘導する情報である。図37に示す例では、位置変更誘導情報146として、位置変更誘導メッセージ148と矢印Eとを含む情報が例示されている。図37に示す例では、位置変更誘導メッセージ148として、「撮像範囲の位置を矢印方向にずらして下さい。」とのメッセージが示されている。また、図37に示す例において、矢印Eは、パノラマ撮像で要する静止画像用の撮像として次に予定している静止画像用の撮像で用いられる撮像範囲115の位置の方向を指し示している。
 また、矢印Eは、インジケータの機能を有している。すなわち、矢印Eの大きさは、撮像範囲115の位置が撮像可能範囲の限界が近くなるに従って小さくなり、撮像範囲115の位置が撮像可能範囲の限界から遠くなるに従って大きくなる。なお、撮像可能範囲とは、パノラマ撮像が可能な範囲を指す。パノラマ撮像が可能な範囲とは、例えば、許容範囲内であり、かつ、図16に示す矢印A方向で現在の撮像範囲115との連続性が確保される範囲を指す。
 また、図37に示す例では、位置変更誘導情報146が可視表示される場合を示しているが、音声再生装置(図示省略)による音声の出力等の可聴表示又はプリンタによる印刷物の出力等の永久可視表示を可視表示に代えて行ってもよいし、併用してもよい。
 ステップ444で、実行部112Bは、撮像範囲115の位置が変更されたか否かを判定する。ステップ444において、撮像範囲115の位置が変更されていない場合は、判定が否定されて、ステップ444の判定が再び行われる。ステップ444において、撮像範囲115の位置が変更された場合は、判定が肯定されて、ステップ446へ移行する。
 ステップ446で、実行部112Bは、撮像範囲115の位置が撮像可能範囲外か否かを判定する。ステップ446において、撮像範囲115の位置が撮像可能範囲外の場合は、判定が肯定されて、ステップ448へ移行する。ステップ446において、撮像範囲115の位置が撮像可能範囲内の場合は、判定が否定されて、ステップ450へ移行する。
 ステップ448で、実行部112Bは、表示部86に対して、位置変更誘導情報146の表示を終了させ、その後、本第2実施形態に係るパノラマ撮像計測処理を終了する。
 ステップ450で、実行部112Bは、表示部86に対して、位置変更誘導情報146の表示を終了させ、その後、図30に示すステップ200へ移行する。
 図34に示すステップ440において、撮像計測終了条件を満足した場合は、判定が肯定されて、本第2実施形態に係るパノラマ撮像計測処理を終了する。
 以上説明したように、測距装置10Bでは、微小変更誘導情報142が表示部86に表示される(ステップ416,430)。
 従って、測距装置10Bによれば、微小変更誘導情報142が表示されない場合に比べ、許容範囲内で撮像範囲115の位置を維持したまま計測部に対して被写体までの距離を再計測させるという事態の発生を抑制することができる。
 また、測距装置10Bでは、微小変更誘導情報142が表示されている状態で、許容範囲内で撮像範囲115の位置が変更された場合に、計測部による計測が再実行される(ステップ222)。
 従って、測距装置10Bによれば、微小変更誘導情報142が表示されている状態で許容範囲内で撮像範囲115の位置が変更されたにも拘わらず計測部による計測が再実行されない場合に比べ、手間をかけずに、計測部に対して被写体までの距離の再計測を実行させることができる。
 また、測距装置10Bでは、取得部110Aにより取得された計測結果が計測部による計測の成功を示す場合に、計測部による計測が成功した計測成功状態で実行される処理として予め定められた処理である計測成功処理が実行部112Bにより更に実行される。
 ここで、測距装置10Bでは、撮像範囲115の位置が、パノラマ撮像で要する静止画像用の撮像として次に静止画像用の撮像を予定している位置に変更され(ステップ444:Y)、かつ、撮像計測ボタン90Aがオンされた場合に(ステップ202:Y)、計測部に対して被写体までの距離を計測させる処理(ステップ222)が計測成功処理に含まれている。
 従って、測距装置10Bによれば、撮像範囲115の位置が、パノラマ撮像で要する静止画像用の撮像として次に静止画像用の撮像を予定している位置に変更された場合に、ユーザが意図するタイミングで、計測部に対して被写体までの距離を計測させることができる。
 更に、測距装置10Bでは、表示部86に対して位置変更誘導情報146を表示させる処理(ステップ442)が計測成功処理に含まれる。
 従って、測距装置10Bによれば、表示部86に対して位置変更誘導情報146を表示させる処理が計測成功処理に含まれない場合に比べ、撮像範囲115の位置を、パノラマ撮像で要する静止画像用の撮像として次に静止画像用の撮像を予定している位置に適切なタイミングで変更させることができる。
 なお、上記第2実施形態では、撮像計測ボタン90Aがオンされた場合に計測部による計測が実行される場合を例示したが、本開示の技術はこれに限定されるものではない。例えば、位置変更誘導情報146が表示されている状態で、撮像範囲115の位置が、パノラマ撮像で要する静止画像用の撮像として次に静止画像用の撮像を予定している位置に変更された場合に(ステップ444:Y)、撮像計測ボタン90Aがオンされることなく、計測部による計測が開始されるようにしてもよい。
 従って、測距装置10Bによれば、位置変更誘導情報146が表示されている状態で、撮像範囲115の位置が、パノラマ撮像で要する静止画像用の撮像として次に静止画像用の撮像を予定している位置に変更されたにも拘わらず、計測部による計測が実行されない場合に比べ、手間をかけずに、計測部に対して被写体までの距離の計測を実行させることができる。
 また、上記第2実施形態では、図32に示すステップ438の処理が実行されると、図30に示すステップ222へ移行する場合を例示したが、本開示の技術はこれに限定されるものではない。例えば、図47に示すように、ステップ434とステップ438との間にステップ660~ステップ670を挿入してもよい。
 図47に示すステップ660で、実行部112Bは、表示部86に対して、ライブビュー画像の表示領域内に、計測部による計測の再実行を開始するタイミングであることを示す再計測開始タイミング情報の表示を開始させ、その後、ステップ662へ移行する。なお、本ステップ660の処理は、本開示の技術に係る第2表示処理の一例である。
 ここで、再計測開始タイミング情報の一例としては、「再計測のタイミングが到来しました。」とのメッセージが挙げられる。このように再計測のタイミングが到来したことをユーザに認識させることができる情報であれば如何なる情報であってもよい。また、ここでは、再計測開始タイミング情報が可視表示される場合を示しているが、音声再生装置(図示省略)による音声の出力等の可聴表示又はプリンタによる印刷物の出力等の永久可視表示を可視表示に代えて行ってもよいし、併用してもよい。
 なお、実行部112Bは、表示部86に対して、「再計測のタイミングが到来しました。」とのメッセージに加え、上述した再計測開始指示の受付待ち状態であることを示す受付待ちメッセージを表示させるようにしてもよい。受付待ちメッセージの一例としては、「再計測を行う場合は、タッチパネルに対してダブルタップ操作を行うか、又は、撮像計測ボタンをオンして下さい。」とのメッセージが挙げられる。
 ステップ662で、実行部112Bは、タッチパネル88又は受付デバイス90によって上述した再計測開始指示が受け付けられたか否かを判定する。ステップ662において、タッチパネル88又は受付デバイス90によって再計測開始指示が受け付けられた場合は、判定が肯定されて、ステップ664へ移行する。ステップ662において、タッチパネル88又は受付デバイス90によって再計測開始指示が受け付けられていない場合は、判定が否定されて、ステップ666へ移行する。
 ステップ664で、実行部112Bは、表示部86に対して、再計測開始タイミング情報の表示を終了させ、その後、ステップ438へ移行する。
 ステップ666で、実行部112Bは、撮像範囲115の位置が変更されたか否かを判定する。ステップ662において、撮像範囲115の位置が変更されていない場合は、判定が否定されて、ステップ662へ移行する。ステップ666において、判定が肯定された場合は、ステップ668へ移行する。
 ステップ668で、実行部112Bは、表示部86に対して、再計測開始タイミング情報の表示を終了させ、その後、ステップ670へ移行する。
 ステップ670で、実行部112Bは、表示部86に対して、微小変更誘導情報142の表示を終了させ、その後、ステップ426へ移行する。
 このように、図47に示す例において、測距装置10Bでは、微小変更誘導情報142が表示されている状態で撮像範囲115の位置が第2許容範囲内で変更された場合に、再計測開始タイミング情報が表示部86に表示される(ステップ660)。そして、再計測開始タイミング情報が表示部86に表示されている状態で再計測開始指示が受け付けられた場合(ステップ662:Y)、計測部による計測が再実行される(ステップ222)。
 従って、図47に示す例によれば、撮像範囲115の位置が第2許容範囲内の場合に、ユーザが意図するタイミングで、計測部に対して被写体までの距離を再計測させることができる。
 なお、図47に示す例では、ステップ434とステップ438との間にステップ660~ステップ670を挿入する場合のみ示されているが、本開示の技術はこれに限定されるものではない。例えば、図32において、ステップ420とステップ424との間にステップ660~ステップ670に相当するステップを挿入してもよい。この場合、撮像範囲115の位置が第1許容範囲内の場合に、ユーザが意図するタイミングで、計測部に対して被写体までの距離を再計測させることができる。
 また、上記第2実施形態では、図35に示すステップ450の処理の実行が終了すると単に図30に示すステップ200へ移行する場合を例示したが、本開示の技術はこれに限定されるものではない。一例として図38に示すように、図35に示すステップ446~450に代えてステップ460~ステップ486を適用してもよい。なお、図35に示すステップ446~450に代えて図38に示すステップ460~ステップ486を適用する場合、図30に示すステップ256,258はそのまま残してもよいし、除去してもよい。
 図38に示すステップ460で、実行部112Bは、撮像範囲115の位置が撮像可能範囲内か否かを判定する。ステップ460において、撮像範囲115の位置が撮像可能範囲外の場合は、判定が否定されて、ステップ462へ移行する。ステップ460において、撮像範囲115の位置が撮像可能範囲内の場合は、判定が肯定されて、ステップ466へ移行する。
 ステップ462で、実行部112Bは、位置変更誘導情報146が表示状態か否かを判定する。ステップ462において、位置変更誘導情報146が表示状態の場合は、判定が肯定されて、ステップ464へ移行する。ステップ462において、位置変更誘導情報146が表示状態でない場合は、判定が否定されて、パノラマ撮像計測処理を終了する。
 ステップ464で、実行部112Bは、表示部86に対して、位置変更誘導情報146の表示を終了させ、その後、パノラマ撮像計測処理を終了する。
 ステップ466で、実行部112Bは、上記第1実施形態で説明した前回の静止画像に上記第1実施形態で説明した4頂点対応画素が含まれているか否かを判定する。ステップ466において、前回の静止画像に4頂点対応画素が含まれていない場合は、判定が否定されて、ステップ470へ移行する。ステップ466において、前回の静止画像に4頂点対応画素が含まれている場合は、判定が肯定されて、ステップ468へ移行する。
 ステップ468で、実行部112Bは、前回の静止画像に含まれている4頂点対応画素に対応する4つの画素が上記第1実施形態で説明した重複領域に存在していないか否かを判定する。ステップ468において、前回の静止画像に含まれている4頂点対応画素に対応する4つの画素が重複領域に存在していない場合は、判定が肯定されて、ステップ470へ移行する。ステップ468において、前回の静止画像に含まれている4頂点対応画素に対応する4つの画素が重複領域に存在している場合は、判定が否定されて、ステップ474へ移行する。
 ステップ470で、実行部112Bは、位置変更誘導情報146が表示状態か否かを判定する。ステップ470において、位置変更誘導情報146が表示状態の場合は、判定が肯定されて、ステップ472へ移行する。ステップ470において、位置変更誘導情報146が表示状態でない場合は、判定が否定されて、図30に示すステップ200へ移行する。
 ステップ472で、実行部112Bは、表示部86に対して、位置変更誘導情報146の表示を終了させ、その後、図30に示すステップ200へ移行する。
 ステップ474で、実行部112Bは、位置変更誘導情報146が表示状態か否かを判定する。ステップ474おいて、位置変更誘導情報146が表示状態の場合は、判定が肯定されて、ステップ476へ移行する。ステップ474において、位置変更誘導情報146が表示状態でない場合は、判定が否定されて、ステップ478へ移行する。
 ステップ476で、実行部112Bは、表示部86に対して、位置変更誘導情報146の表示を終了させ、その後、ステップ478へ移行する。
 ステップ478で、実行部112Bは、表示部86に対して、一例として図19に示すように、ライブビュー画像の表示領域内に撮像計測開始メッセージ134の表示を開始させ、その後、ステップ480へ移行する。
 なお、本ステップ478の処理は、本開示の技術に係る第4表示処理及び第5表示処理の一例である。また、本ステップ478では、撮像計測開始メッセージ134を例示しているが、本開示の技術はこれに限定されるものではなく、被写体の撮像を開始するタイミングであることを示す情報である撮像開始タイミング情報であれば如何なる情報であってもよい。
 ステップ480で、実行部112Bは、撮像計測ボタン90Aがオンされたか否かを判定する。ステップ480において、撮像計測ボタン90Aがオンされていない場合は、判定が否定されて、ステップ484へ移行する。ステップ480において、撮像計測ボタン90Aがオンされた場合は、判定が肯定されて、ステップ482へ移行する。なお、本ステップ480において判定が肯定される場合は、本開示の技術に係る「計測開始タイミング情報が表示されている状態で計測部による計測を開始する指示が受け付けられた場合」の一例である。
 ステップ482で、実行部112Bは、表示部86に対して、撮像計測開始メッセージ134の表示を終了させ、その後、図30に示すステップ260へ移行する。
 ステップ484で、実行部112Bは、撮像範囲115の位置が変更されたか否かを判定する。ステップ484において、撮像範囲115の位置が変更されていない場合は、判定が否定されて、ステップ480へ移行する。ステップ484において、撮像範囲115の位置が変更された場合は、判定が肯定されて、ステップ486へ移行する。
 ステップ486で、実行部112Bは、表示部86に対して、撮像計測開始メッセージ134の表示を終了させ、その後、ステップ460へ移行する。
 以上のように、図38に示す例によれば、撮像範囲115の位置が、パノラマ撮像で要する静止画像用の撮像として次に静止画像用の撮像を予定している位置に変更された場合に、ユーザが意図するタイミングで、計測部に対して被写体までの距離を計測させることができる。
 また、図38に示す例によれば、撮像計測開始メッセージ134が表示されない場合に比べ、高精度な射影変換に寄与する撮像画像、すなわち、4頂点対応画素に対応する4つの画素を含む撮像画像を取得可能なタイミングをユーザに容易に認識させることができる。
 また、上記第2実施形態では、測距装置10Bを例示したが、本開示の技術はこれに限定されるものではなく、一例として図1及び図39に示すように、測距装置10Bに代えて測距装置10Cが採用されてもよい。
 一例として図1及び図39に示すように、測距装置10Cは、測距装置10Bに比べ、測距装置本体10B1に代えて測距装置本体10C1を有する点、及び、変更機構11に代えて変更機構164を有する点が異なる。測距装置本体10C1は、測距装置本体10B1に比べ、撮像装置150に代えて撮像装置160を有する点が異なる。撮像装置160は、撮像装置150に比べ、撮像装置本体152に代えて撮像装置本体162を有する点が異なる。
 一例として図39に示すように、撮像装置本体162は、撮像装置本体152に比べ、受付デバイス90に代えて受付デバイス166を有する点が異なる。受付デバイス166は、受付デバイス90に比べ、縦回転用ロータリスイッチ90G及び横回転用ロータリスイッチ90Hを有していない点が異なる。また、撮像装置本体162は、撮像装置本体152に比べ、モータドライバ29,31を有していない点が異なる。
 一例として図39に示すように、変更機構164は、変更機構11に比べ、モータ21に代えてロータリエンコーダ168を有する点、及び、モータ23に代えてロータリエンコーダ170を有する点が異なる。
 ロータリエンコーダ168は、横回転機構17に接続されている。また、ロータリエンコーダ168は、コネクタ25及びホットシュー19を介してバスライン84に接続されている。ロータリエンコーダ168は、横回転機構17により回転される縦回転機構15の回転方向及び回転量を検出する。主制御部154は、ロータリエンコーダ168により検出された回転方向及び回転量を取得する。
 ロータリエンコーダ170は、縦回転機構15に接続されている。また、ロータリエンコーダ170は、コネクタ25及びホットシュー19を介してバスライン84に接続されている。ロータリエンコーダ170は、縦回転機構15により回転される測距装置本体10C1の回転方向及び回転量を検出する。主制御部154は、ロータリエンコーダ170により検出された回転方向及び回転量を取得する。
 測距装置10Bでは、縦回転機構15による回転方向及び回転量は、モータ23の回転方向及び回転量により特定され、横回転機構17による回転方向及び回転量は、モータ21の回転方向及び回転量により特定される。これに対し、測距装置10Cでは、縦回転機構15による回転方向及び回転量は、ロータリエンコーダ170による検出結果に基づいて特定され、横回転機構17による回転方向及び回転量は、ロータリエンコーダ168による検出結果に基づいて特定される。そして、測距装置10Cでも、位置特定情報は、測距装置10Bと同様に、縦回転機構15及び横回転機構17による回転方向及び回転量に基づいて導出される。
 図39に示す測距装置10Cは、ロータリエンコーダ168,170の検出結果に基づいて位置特定情報が導出されるが、本開示の技術はこれに限定されるものではなく、測距装置10Cに代えて、一例として図40及び図41に示す測距装置10Dが採用されてもよい。 一例として図40及び図41に示すように、測距装置10Dは、測距装置10Cに比べ、変更機構164を有していない点が異なる。また、測距装置10Dは、測距装置10Cに比べ、撮像装置160に代えて撮像装置172を有する点が異なる。撮像装置172は、撮像装置160に比べ、撮像装置本体162に代えて撮像装置本体174を有する点が異なる。撮像装置本体174は、撮像装置本体162に比べ、ジャイロセンサ176を有する点が異なる。ジャイロセンサ176はバスライン84に接続されており、ジャイロセンサ176による検出結果は、主制御部154によって取得される。
 測距装置10Cでは、ロータリエンコーダ168,170の検出結果に基づいて位置特定情報が導出されるのに対し、測距装置10Dでは、ジャイロセンサ176による検出結果に基づいて位置特定情報が導出される点が測距装置10Cと異なる。
 [第3実施形態]
 上記第1実施形態では、測距ユニット12及び撮像装置14により測距装置10Aが実現される場合を例示したが、本第3実施形態では、更にスマートデバイス500を備えることによって実現される測距装置10Eについて説明する。なお、本第3実施形態では、上記各実施形態と同一の構成要素については同一の符号を付して、その説明を省略し、上記各実施形態と異なる部分についてのみ説明する。
 一例として図42に示すように、本第3実施形態に係る測距装置10Eは、上記第1実施形態に係る測距装置10Aに比べ、測距装置本体10A1に代えて測距装置本体10E1を有する点、スマートデバイス500を有する点が異なる。なお、スマートデバイス500は、本開示の技術に係る情報処理装置の一例である。また、本第3実施形態では、スマートデバイス500を例示しているが、スマートデバイスに代えてPC(パーソナル・コンピュータ;Personal Computer)であってもよい。
 測距装置本体10E1は、測距装置本体10A1に比べ、撮像装置14に代えて撮像装置502を有する点が異なる。撮像装置502は、撮像装置14に比べ、撮像装置本体18に代えて撮像装置本体504を有する点が異なる。
 撮像装置本体504は、撮像装置本体18に比べ、無線通信部506及び無線通信用アンテナ508を有する点が異なる。
 無線通信部506は、バスライン84及び無線通信用アンテナ508に接続されている。主制御部62は、スマートデバイス500へ送信される対象の情報である送信対象情報を無線通信部506に出力する。
 無線通信部506は、主制御部62から入力された送信対象情報を無線通信用アンテナ508を介してスマートデバイス500へ電波で送信する。また、無線通信部506は、スマートデバイス500からの電波が無線通信用アンテナ508で受信されると、受信された電波に応じた信号を取得し、取得した信号を主制御部62に出力する。
 スマートデバイス500は、CPU510、一次記憶部512、及び二次記憶部514を備えている。CPU510、一次記憶部512、及び二次記憶部514は、バスライン516に接続されている。
 CPU510は、スマートデバイス500を含めて測距装置10Eの全体を制御する。一次記憶部512は、各種プログラムの実行時のワークエリア等として用いられる揮発性のメモリである。一次記憶部512の一例としては、RAMが挙げられる。二次記憶部514は、スマートデバイス500を含めて測距装置10Eの全体の作動を制御する制御プログラム又は各種パラメータ等を予め記憶する不揮発性のメモリである。二次記憶部514の一例としては、フラッシュメモリ又はEEPROMが挙げられる。
 スマートデバイス500は、表示部518、タッチパネル520、無線通信部522、及び無線通信用アンテナ524を備えている。
 表示部518は、表示制御部(図示省略)を介してバスライン516に接続されており、表示制御部の制御下で各種情報を表示する。なお、表示部518は、例えば、LCDにより実現される。
 タッチパネル520は、表示部518の表示画面に重ねられており、指示体による接触を受け付ける。タッチパネル520は、タッチパネルI/F(図示省略)を介してバスライン516に接続されており、指示体により接触された位置を示す位置情報をタッチパネルI/Fに出力する。タッチパネルI/Fは、CPU510の指示に従ってタッチパネルI/Fを作動させ、タッチパネル520から入力された位置情報をCPU510に出力する。
 表示部518には、撮像計測ボタン90A、撮像系動作モード切替ボタン90B、広角指示ボタン90C、望遠指示ボタン90D、パノラマ撮像計測ボタン90E、及び寸法導出ボタン90F等に相当するソフトキーが表示される(図41参照)。
 例えば、図43に示すように、表示部518には、撮像計測ボタン90Aとして機能する撮像計測ボタン90A1がソフトキーとして表示され、タッチパネル520を介してユーザによって押下される。また、例えば、表示部518には、上記第1実施形態で説明した撮像ボタンとして機能する撮像ボタン(図示省略)がソフトキーとして表示され、タッチパネル520を介してユーザによって押下される。また、例えば、表示部518には、撮像系動作モード切替ボタン90Bとして機能する撮像系動作モード切替ボタン90B1がソフトキーとして表示され、タッチパネル520を介してユーザによって押下される。
 また、例えば、表示部518には、広角指示ボタン90Cとして機能する広角指示ボタン90C1がソフトキーとして表示され、タッチパネル520を介してユーザによって押下される。更に、例えば、表示部518には、望遠指示ボタン90Dとして機能する望遠指示ボタン90D1がソフトキーとして表示され、タッチパネル520を介してユーザによって押下される。
 また、例えば、表示部518には、パノラマ撮像計測ボタン90Eとして機能するパノラマ撮像計測ボタン90E1ソフトキーとして表示され、タッチパネル520を介してユーザによって押下される。また、例えば、表示部518には、寸法導出ボタン90Fとして機能する寸法導出ボタン90F1がソフトキーとして表示され、タッチパネル520を介してユーザによって押下される。
 一例として図43に示すように、表示部518には、縦回転用タッチパッド90G1及び横回転用タッチパッド90H1が表示される。
 縦回転用タッチパッド90G1は、縦回転用ロータリスイッチ90Gとして機能する円状のタッチパッドである。一例として図43に示すように、縦回転機構15による回転量及び回転方向は、タッチパネル520を介して縦回転用タッチパッド90G1の表示領域の内側で円弧状の軌跡が描かれることによって定められる。
 すなわち、縦回転機構15による回転量は、縦回転用タッチパッド90G1の表示領域の内側に描かれた軌跡の長さに応じて定まる。ここで、縦回転用タッチパッド90G1の表示領域の内側に描かれた軌跡の長さは、例えば、タッチパネル520に接触した状態でスライドさせた指示体(例えば、ユーザの指)のスライド量に相当する。
 また、縦回転機構15による回転方向は、縦回転用タッチパッド90G1の表示領域の内側での軌跡が描かれた方向(図43に示す例では、矢印G方向)に応じて定まる。ここで、縦回転用タッチパッド90G1の表示領域の内側での軌跡が描かれた方向は、例えば、タッチパネル520に接触した状態でスライドさせた指示体のスライド方向に相当する。
 横回転用タッチパッド90H1は、横回転用ロータリスイッチ90Hとして機能する円状のタッチパッドである。一例として図43に示すように、横回転機構17による回転量及び回転方向は、タッチパネル520を介して横回転用タッチパッド90H1の表示領域の内側で円弧状の軌跡が描かれることによって定められる。
 すなわち、横回転機構17による回転量は、横回転用タッチパッド90H1の表示領域の内側に描かれた軌跡の長さに応じて定まる。ここで、横回転用タッチパッド90H1の表示領域の内側に描かれた軌跡の長さは、例えば、タッチパネル520に接触した状態でスライドさせた指示体のスライド量に相当する。
 また、横回転機構17による回転方向は、横回転用タッチパッド90H1の表示領域の内側での軌跡が描かれた方向(図43に示す例では、矢印H方向)に応じて定まる。ここで、横回転用タッチパッド90H1の表示領域の内側での軌跡が描かれた方向は、例えば、タッチパネル520に接触した状態でスライドさせた指示体のスライド方向に相当する。
 無線通信部522は、バスライン516及び無線通信用アンテナ524に接続されている。無線通信部522は、CPU510から入力された信号を無線通信用アンテナ524を介して撮像装置本体504へ電波で送信する。また、無線通信部522は、撮像装置本体504からの電波が無線通信用アンテナ524で受信されると、受信された電波に応じた信号を取得し、取得した信号をCPU510に出力する。従って、撮像装置本体504は、スマートデバイス500との間で無線通信が行われることで、スマートデバイス500によって制御される。
 二次記憶部514は、パノラマ撮像計測プログラム105A及び寸法導出プログラム106Aを記憶している。CPU510は、二次記憶部514からパノラマ撮像計測プログラム105Aを読み出して一次記憶部512に展開し、パノラマ撮像計測プログラム105Aを実行する。また、CPU510は、二次記憶部514から寸法導出プログラム106Aを読み出して一次記憶部512に展開し、寸法導出プログラム106Aを実行する。
 CPU510は、パノラマ撮像計測プログラム105Aを実行することで、取得部110A及び実行部112Aとして動作する。また、寸法導出プログラム106AがCPU510によって実行されることで、上記第1実施形態で説明した寸法導出処理が実現される。
 従って、測距装置10Eでは、スマートデバイス500がパノラマ撮像計測プログラム105A及び寸法導出プログラム106Aを実行することで、上記各実施形態と同様の作用及び効果が得られる。
 なお、上記各実施形態では、パノラマ撮像計測プログラム105A(105B)及び寸法導出プログラム106A(以下、単に「プログラム」と称する)を二次記憶部104(514)から読み出す場合を例示したが、これはあくまでも一例である。例えば、図44に示すように、SSD(Solid State Drive)又はUSB(Universal Serial Bus)メモリなどの任意の可搬型の記憶媒体600に先ずはプログラムを記憶させておいてもよい。この場合、記憶媒体600のプログラムが測距装置10A(10B,10C,10D,10E)(以下、「測距装置10A等」と称する)にインストールされ、インストールされたプログラムがCPU100(510)によって実行される。
 また、通信網(図示省略)を介して測距装置10A等に接続される他のコンピュータ又はサーバ装置等の記憶部にプログラムを記憶させておき、プログラムが測距装置10A等の要求に応じてダウンロードされるようにしてもよい。この場合、ダウンロードされた導出プログラムがCPU100(510)によって実行される。
 また、上記各実施形態では、パノラマ画像、区域の長さ、及び各種メッセージ等の各種情報が表示部86に表示される場合を例示したが、本開示の技術はこれに限定されるものではない。例えば、測距装置10A等に接続して使用される外部装置の表示部に各種情報が表示されるようにしてもよい。外部装置の一例としては、PC、又は眼鏡型若しくは腕時計型のウェアラブル端末装置が挙げられる。
 また、上記各実施形態では、パノラマ画像、区域の長さ、及び各種メッセージ等の各種情報が表示部86に表示される場合を例示したが、本開示の技術はこれに限定されるものではない。例えば、撮像計測開始メッセージ134、微小変更誘導情報142、及び位置変更誘導情報146等のうちの少なくとも1つが表示部86と異なる表示部(図示省略)に表示されるようにし、残りが表示部86に表示されるようにしてもよい。また、撮像計測開始メッセージ134、微小変更誘導情報142、及び位置変更誘導情報146等の各々が表示部86を含めた複数の表示部に個別に表示されるようにしてもよい。
 また、上記各実施形態では、測距用の光としてレーザ光を例示しているが、本開示の技術はこれに限定されるものではなく、指向性のある光である指向性光であればよい。例えば、発光ダイオード(LED;Light Emitting Diode)又はスーパールミネッセントダイオード(SLD;Super Luminescent Diode)等により得られる指向性光であってもよい。指向性光が有する指向性は、レーザ光が有する指向性と同程度の指向性であることが好ましく、例えば、数メートルから数キロメートルの範囲内における測距で使用可能な指向性であることが好ましい。
 また、上記各実施形態で説明したパノラマ撮像計測処理及び寸法導出処理はあくまでも一例である。従って、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよいことは言うまでもない。また、パノラマ撮像計測処理及び寸法導出処理に含まれる各処理は、ASIC等のハードウェア構成のみで実現されてもよいし、コンピュータを利用したソフトウェア構成とハードウェア構成との組み合わせで実現されてもよい。
 また、上記各実施形態では、説明の便宜上、測距装置10A等に含まれる撮像装置本体18の側面に測距ユニット12が取り付けられる場合について説明したが、本開示の技術はこれに限定されるものではない。例えば、撮像装置本体18の上面又は下面に測距ユニット12が取り付けられてもよい。また、例えば、図45に示すように、測距装置10A等に代えて測距装置10Fを適用してもよい。一例として図45に示すように、測距装置10Fは、測距装置10A等に比べ、測距ユニット12に代えて測距ユニット12Aを有する点、及び撮像装置本体18に代えて撮像装置本体18Aを有する点が異なる。
 図45に示す例において、測距ユニット12Aは、撮像装置本体18Aの筐体18A1に収容されており、対物レンズ32,38は、測距装置10Eの正面側(フォーカスレンズ50が露出している側)に筐体18A1から露出している。また、測距ユニット12Aは、光軸L1,L2が鉛直方向において同一の高さに設定されるように配置されることが好ましい。なお、筐体18A1に対して測距ユニット12Aが挿脱可能な開口(図示省略)が筐体18A1に形成されていてもよい。
 本明細書に記載された全ての文献、特許出願及び技術規格は、個々の文献、特許出願及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。

Claims (20)

  1.  被写体に対するパノラマ撮像における撮像対象となる複数の撮像範囲のうち、個々の撮像が実施される前に前記撮像の実施対象として指定された撮像範囲である指定撮像範囲内の前記被写体に向けて、指向性のある光である指向性光を射出させ、前記指向性光の反射光を受光させることにより前記被写体までの距離を計測部に計測させた場合に、前記計測部による計測が成功したか、失敗したかを示す計測成否情報を取得する取得部と、
     前記取得部により取得された前記計測成否情報が前記計測部による計測が失敗したことを示す場合に、前記パノラマ撮像が可能な許容範囲内で前記指定撮像範囲の位置が変更された状態で前記計測部に対して前記被写体までの距離を再計測させる再計測処理を実行する実行部と、
     を含む情報処理装置。
  2.  前記再計測処理は、第1動力源を有する第1変更機構であって、前記第1動力源で生成された動力に応じて撮像方向を変更する第1変更機構を作動させることで、前記指定撮像範囲の位置を前記許容範囲内で移動させる第1移動処理を含む処理である請求項1に記載の情報処理装置。
  3.  前記再計測処理は、前記実行部により前記第1移動処理が実行されることで前記指定撮像範囲の位置を前記許容範囲内で移動させた場合に、前記計測部に対して前記被写体までの距離を再計測させる処理を含む処理である請求項2に記載の情報処理装置。
  4.  前記再計測処理は、前記実行部により前記第1移動処理が実行されることで前記指定撮像範囲の位置を前記許容範囲内で移動させ、かつ、前記計測部による計測を開始する指示が受けられた場合に、前記計測部に対して前記被写体までの距離を再計測させる処理を含む処理である請求項3に記載の情報処理装置。
  5.  前記再計測処理は、前記指定撮像範囲の位置の前記許容範囲内での変更を誘導する第1誘導情報を第1表示部に対して表示させる第1表示処理を含む処理である請求項1に記載の情報処理装置。
  6.  前記再計測処理は、前記第1誘導情報が前記第1表示部に表示されている状態で、前記指定撮像範囲の位置が前記許容範囲内で変更された場合に、前記計測部による再計測を開始するタイミングであることを示す再計測開始タイミング情報を第2表示部に対して表示させる第2表示処理を更に含み、前記再計測開始タイミング情報が表示されている状態で前記計測部による計測を開始する指示が受け付けられた場合に、前記計測部に対して前記被写体までの距離を再計測させる処理を含む処理である請求項5に記載の情報処理装置。
  7.  前記再計測処理は、前記第1誘導情報が表示されている状態で、前記指定撮像範囲の位置が前記許容範囲内で変更された場合に、前記計測部に対して前記被写体までの距離を再計測させる処理を含む処理である請求項5に記載の情報処理装置。
  8.  前記取得部により取得された前記計測成否情報が前記計測部による計測が成功したことを示す場合に、前記計測部による計測が成功した計測成功状態で実行される処理として予め定められた計測成功処理を更に実行する請求項1から請求項7の何れか一項に記載の情報処理装置。
  9.  前記計測成功処理は、前記指定撮像範囲の位置が前記パノラマ撮像における次の撮像を予定している位置に変更された場合に、前記計測部に対して前記被写体までの距離を計測させる処理を含む処理である請求項8に記載の情報処理装置。
  10.  前記計測成功処理は、第2動力源を有する第2変更機構であって、前記第2動力源で生成された動力に応じて撮像方向を変更する第2変更機構を作動させることで、前記指定撮像範囲の位置を前記パノラマ撮像における次の撮像を予定している位置に移動させる第2移動処理を含む処理である請求項9に記載の情報処理装置。
  11.  前記計測成功処理は、前記指定撮像範囲の位置が前記パノラマ撮像における次の撮像を予定している位置に変更され、かつ、前記計測部による計測を開始する指示が受けられた場合に、前記計測部に対して前記被写体までの距離を計測させる処理を含む処理である請求項9又は請求項10に記載の情報処理装置。
  12.  前記計測成功処理は、前記指定撮像範囲の位置の前記パノラマ撮像における次の撮像を予定している位置への変更を誘導する第2誘導情報を第3表示部に対して表示させる第3表示処理を含む処理である請求項8に記載の情報処理装置。
  13.  前記計測成功処理は、前記第2誘導情報が前記第3表示部に表示されている状態で、前記指定撮像範囲の位置が前記パノラマ撮像における次の撮像を予定している位置に変更された場合に、前記計測部による計測を開始するタイミングであることを示す計測開始タイミング情報を第4表示部に対して表示させる第4表示処理、及び前記計測開始タイミング情報が表示されている状態で前記計測部による計測を開始する指示が受け付けられた場合に、前記計測部に対して前記被写体までの距離を計測させる処理を含む処理である請求項12に記載の情報処理装置。
  14.  前記計測成功処理は、前記第2誘導情報が前記第3表示部に表示されている状態で、前記指定撮像範囲の位置が前記パノラマ撮像における次の撮像を予定している位置に変更された場合に、前記計測部に対して前記被写体までの距離を計測させる処理を含む処理である請求項12に記載の情報処理装置。
  15.  前記実行部は、前記複数の撮像範囲における隣接する撮像範囲である隣接撮像範囲のうちの先に撮像が実施される一方の撮像範囲内の前記被写体が撮像されて得られた第1撮像画像に多角形の頂点を規定する少なくとも4つ以上の画素である第1多頂点画素が含まれており、前記隣接撮像範囲のうちの他方の撮像範囲内の前記被写体が撮像されて得られた第2撮像画像に前記第1多頂点画素に対応する画素である対応画素が含まれている場合に、前記第1撮像画像が前記第1多頂点画素に基づいて射影変換されて得られた画像である第1射影変換後画像と、前記第2撮像画像が前記対応画素に基づいて射影変換されて得られた画像である第2射影変換後画像と、を含む画像であるパノラマ画像を生成する生成処理を更に実行する請求項1から請求項14の何れか一項に記載の情報処理装置。
  16.  前記実行部は、前記他方の撮像範囲が前記多角形の頂点を含む場合に、前記他方の撮像範囲内の前記被写体の撮像を開始するタイミングであることを示す撮像開始タイミング情報を第5表示部に表示させる第5表示処理を更に実行する請求項15に記載の情報処理装置。
  17.  前記指定撮像範囲内の前記被写体が撮像されて得られた撮像画像に多角形の頂点を規定する少なくとも4つ以上の画素である第2多頂点画素が含まれている場合、前記許容範囲は、前記撮像画像内の前記第2多頂点画素の位置に対応する実空間上の位置を含む範囲である請求項1から請求項16の何れか一項に記載の情報処理装置。
  18.  前記実行部は、前記計測部に対して計測させた前記被写体までの距離と、前記パノラマ撮像が行われることによって得られたパノラマ画像内において指定された複数画素の間隔とに基づいて、前記間隔に対応する実空間領域の寸法を導出する導出処理を更に実行する請求項1から請求項17の何れか一項に記載の情報処理装置。
  19.  被写体に対するパノラマ撮像における撮像対象となる複数の撮像範囲のうち、個々の撮像が実施される前に前記撮像の実施対象として指定された撮像範囲である指定撮像範囲内の前記被写体に向けて、指向性のある光である指向性光を射出させ、前記指向性光の反射光を受光させることにより前記被写体までの距離を計測部に計測させた場合に、前記計測部による計測が成功したか、失敗したかを示す計測成否情報を取得し、
     取得した前記計測成否情報が前記計測部による計測が失敗したことを示す場合に、前記パノラマ撮像が可能な許容範囲内で前記指定撮像範囲の位置が変更された状態で前記計測部に対して前記被写体までの距離を再計測させる再計測処理を実行することを含む情報処理方法。
  20.  コンピュータに、
     被写体に対するパノラマ撮像における撮像対象となる複数の撮像範囲のうち、個々の撮像が実施される前に前記撮像の実施対象として指定された撮像範囲である指定撮像範囲内の前記被写体に向けて、指向性のある光である指向性光を射出させ、前記指向性光の反射光を受光させることにより前記被写体までの距離を計測部に計測させた場合に、前記計測部による計測が成功したか、失敗したかを示す計測成否情報を取得し、
     取得した前記計測成否情報が前記計測部による計測が失敗したことを示す場合に、前記パノラマ撮像が可能な許容範囲内で前記指定撮像範囲の位置が変更された状態で前記計測部に対して前記被写体までの距離を再計測させる再計測処理を実行することを含む処理を実行させるためのプログラム。
PCT/JP2016/083993 2016-02-29 2016-11-16 情報処理装置、情報処理方法、及びプログラム WO2017149851A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201680082389.6A CN108718532B (zh) 2016-02-29 2016-11-16 信息处理装置、信息处理方法及记录介质
JP2018502524A JP6494060B2 (ja) 2016-02-29 2016-11-16 情報処理装置、情報処理方法、及びプログラム
US16/101,527 US10591299B2 (en) 2016-02-29 2018-08-13 Information processing device, information processing method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016038144 2016-02-29
JP2016-038144 2016-02-29

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/101,527 Continuation US10591299B2 (en) 2016-02-29 2018-08-13 Information processing device, information processing method, and program

Publications (1)

Publication Number Publication Date
WO2017149851A1 true WO2017149851A1 (ja) 2017-09-08

Family

ID=59743689

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/083993 WO2017149851A1 (ja) 2016-02-29 2016-11-16 情報処理装置、情報処理方法、及びプログラム

Country Status (4)

Country Link
US (1) US10591299B2 (ja)
JP (1) JP6494060B2 (ja)
CN (1) CN108718532B (ja)
WO (1) WO2017149851A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019031244A1 (ja) * 2017-08-07 2019-02-14 キヤノン株式会社 情報処理装置、撮影システム、撮影システムの制御方法、及びプログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021024713A1 (ja) * 2019-08-02 2021-02-11

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001124522A (ja) * 1999-10-25 2001-05-11 Nikon Corp 画像処理を用いたひび割れ評価装置
JP2007278743A (ja) * 2006-04-04 2007-10-25 Nikon Vision Co Ltd 測距装置
JP2009053126A (ja) * 2007-08-29 2009-03-12 Topcon Corp 画像測定装置
JP2012185053A (ja) * 2011-03-07 2012-09-27 Topcon Corp パノラマ画像作成方法及び3次元レーザスキャナ
JP2012199752A (ja) * 2011-03-22 2012-10-18 Sony Corp 画像処理装置と画像処理方法およびプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6442293B1 (en) * 1998-06-11 2002-08-27 Kabushiki Kaisha Topcon Image forming apparatus, image forming method and computer-readable storage medium having an image forming program
JP4340722B2 (ja) 1998-09-25 2009-10-07 財団法人電磁応用研究所 画像合成方法、画像入力装置、及び画像合成プログラムを記録した記録媒体
JP2007038459A (ja) * 2005-08-01 2007-02-15 Ricoh Co Ltd 画像処理方法
US8059183B2 (en) 2007-11-16 2011-11-15 Canon Kabushiki Kaisha Image sensing apparatus and method for controlling the same
JP5210121B2 (ja) * 2007-11-16 2013-06-12 キヤノン株式会社 撮像装置およびその制御方法
WO2011162209A1 (ja) * 2010-06-25 2011-12-29 富士フイルム株式会社 画像出力装置、方法およびプログラム
JP6009753B2 (ja) 2011-10-26 2016-10-19 株式会社トプコン 画像測定装置
KR101804205B1 (ko) * 2012-03-15 2017-12-04 삼성전자주식회사 영상 처리 장치 및 방법
CN104967843A (zh) * 2015-07-02 2015-10-07 上海斐讯数据通信技术有限公司 一种检测移动终端设备摄像头的方法及系统
CN104954695B (zh) * 2015-07-14 2018-03-30 厦门美图之家科技有限公司 一种视频拍摄的对焦锁定方法和系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001124522A (ja) * 1999-10-25 2001-05-11 Nikon Corp 画像処理を用いたひび割れ評価装置
JP2007278743A (ja) * 2006-04-04 2007-10-25 Nikon Vision Co Ltd 測距装置
JP2009053126A (ja) * 2007-08-29 2009-03-12 Topcon Corp 画像測定装置
JP2012185053A (ja) * 2011-03-07 2012-09-27 Topcon Corp パノラマ画像作成方法及び3次元レーザスキャナ
JP2012199752A (ja) * 2011-03-22 2012-10-18 Sony Corp 画像処理装置と画像処理方法およびプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019031244A1 (ja) * 2017-08-07 2019-02-14 キヤノン株式会社 情報処理装置、撮影システム、撮影システムの制御方法、及びプログラム
US11381733B2 (en) 2017-08-07 2022-07-05 Canon Kabushiki Kaisha Information processing apparatus, image capturing system, method of controlling image capturing system, and non-transitory storage medium

Also Published As

Publication number Publication date
JPWO2017149851A1 (ja) 2018-08-09
CN108718532A (zh) 2018-10-30
US20180347981A1 (en) 2018-12-06
US10591299B2 (en) 2020-03-17
JP6494060B2 (ja) 2019-04-03
CN108718532B (zh) 2020-05-15

Similar Documents

Publication Publication Date Title
JP5361528B2 (ja) 撮像装置およびプログラム
JP6335394B2 (ja) 撮像システム及び撮像制御方法
JP6464281B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2008233462A (ja) プロジェクタおよびプロジェクタの投写方法
JP6505234B2 (ja) 測距装置、測距用導出方法、及び測距用導出プログラム
JP6494060B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP6494059B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP6404483B2 (ja) 測距装置、測距用制御方法、及び測距用制御プログラム
JP6404482B2 (ja) 測距装置、測距用制御方法、及び測距用制御プログラム
CN108603745B (zh) 信息处理装置、信息处理方法及程序
JP6416408B2 (ja) 測距装置、測距方法、及び測距プログラム
JP6426295B2 (ja) 測距装置、測距方法、及び測距プログラム
JP2003348418A (ja) 電子虫眼鏡
TW201219963A (en) Computing device with imaging function and projection auto-focus method thereof
KR101438810B1 (ko) 빔 프로젝터의 화면 자동 보정 장치 및 방법
JP5938269B2 (ja) 撮像装置およびその制御方法
JP6534457B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2008294954A (ja) カメラシステム及び遠隔操作装置
WO2016113997A1 (ja) 撮像装置及び撮像装置の表示方法
JP2016208275A (ja) 画像撮影装置およびその制御方法

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2018502524

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16892687

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 16892687

Country of ref document: EP

Kind code of ref document: A1