WO2015166715A1 - 測距装置、測距法、及び測距プログラム - Google Patents

測距装置、測距法、及び測距プログラム Download PDF

Info

Publication number
WO2015166715A1
WO2015166715A1 PCT/JP2015/056877 JP2015056877W WO2015166715A1 WO 2015166715 A1 WO2015166715 A1 WO 2015166715A1 JP 2015056877 W JP2015056877 W JP 2015056877W WO 2015166715 A1 WO2015166715 A1 WO 2015166715A1
Authority
WO
WIPO (PCT)
Prior art keywords
distance
unit
subject
light
control unit
Prior art date
Application number
PCT/JP2015/056877
Other languages
English (en)
French (fr)
Inventor
智紀 増田
宏 玉山
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to DE112015002102.7T priority Critical patent/DE112015002102T5/de
Priority to JP2016515890A priority patent/JP6224232B2/ja
Publication of WO2015166715A1 publication Critical patent/WO2015166715A1/ja
Priority to US15/333,151 priority patent/US10551186B2/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/484Transmitters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/487Extracting wanted echo signals, e.g. pulse detection
    • G01S7/4876Extracting wanted echo signals, e.g. pulse detection by removing unwanted signals
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/40Systems for automatic generation of focusing signals using time delay of the reflected waves, e.g. of ultrasonic waves
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B7/00Control of exposure by setting shutters, diaphragms or filters, separately or conjointly
    • G03B7/08Control effected solely on the basis of the response, to the intensity of the light received by the camera, of a built-in light-sensitive device
    • G03B7/091Digital circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method

Definitions

  • the technology of the present disclosure relates to a distance measuring device, a distance measuring method, and a distance measuring program.
  • Japanese Patent Application Laid-Open No. 2008-96181 discloses a time detection unit that detects a time from when measurement light is emitted until it is received by a light receiving unit, and a shake amount of a housing when the measurement light is emitted from a light emitting unit. And a distance determining means for determining the distance to the object to be measured based on the time detected by the time detecting means and the amount of shake detected by the shake detecting means. , An apparatus is disclosed.
  • Japanese Patent Application Laid-Open No. 2002-207163 includes a function for performing focus adjustment, and a distance measuring function for measuring a subject distance by irradiating a subject with laser light along the optical axis of the lens and detecting the reflected light.
  • a distance-measuring device having a photographing function for photographing a subject is disclosed.
  • the timing of shooting and ranging is not appropriate, and there is a concern that the captured image may be disturbed when the captured image is read.
  • One embodiment of the present invention has been proposed in view of such a situation, and provides a distance measuring device, a distance measuring method, and a distance measuring program capable of suppressing disturbance of a captured image. Objective.
  • the distance measuring apparatus is obtained by photographing a subject image formed by an imaging optical system that forms a subject image showing the subject.
  • An imaging unit that generates an image signal, an emission unit that emits directional light that is directional light and emits the directional light along the optical axis direction of the imaging optical system, and reflected light from the subject of the directional light
  • a light receiving unit that receives light, a timing at which directional light is emitted by the emitting unit, a derivation unit that derives a distance to the subject based on timing at which reflected light is received by the light receiving unit, and a timing at which directional light is emitted
  • a control unit that controls the emission unit to have a predetermined period for suppressing the influence on the image signal due to the emission of directional light.
  • the predetermined period is a period in which readout between pixel rows is not performed when an image signal for each pixel row is read out. it can.
  • the predetermined period is read before and after the period in which reading between the pixel rows is not performed when the image signal for each pixel row is read.
  • the derivation unit performs the derivation of the distance a plurality of times, Of the distances obtained by derivation, a distance having a high frequency can be derived as a final distance.
  • a distance measuring apparatus includes, in the fourth aspect of the present invention, an execution unit that performs at least one of focus adjustment and exposure adjustment on the subject of the imaging optical system.
  • the deriving unit derives the distance from the distance range used for obtaining the frequency or the emission of directional light based on the focus state specifying information when deriving the distance.
  • a time range until light reception can be determined, and a final distance can be derived within a predetermined distance range or time range.
  • the derivation unit when the derivation unit derives the distance, the derivation unit is finally determined with a resolution determined according to a result of determining the distance range or the time range. Metric distance can be derived.
  • the distance measuring apparatus is the distance measuring device according to any one of the first to sixth aspects of the present invention, wherein the emission section is capable of adjusting the emission intensity of the directional light.
  • Directional light can be emitted by adjusting the emission intensity based on at least one of the focus state specifying information and the subject brightness or exposure state specifying information.
  • the emission unit can reduce the emission intensity as the focal length indicated by the focus state specifying information is shorter.
  • the emission unit decreases the emission intensity as the subject luminance is lower, and is indicated by the exposure state specifying information. The higher the exposure, the smaller the injection strength.
  • the light receiving unit can adjust the light reception sensitivity, and the focusing state specifying information The reflected light can be received by adjusting the light receiving sensitivity based on the above.
  • the light receiving unit can lower the light receiving sensitivity as the focal length indicated by the focus state specifying information is shorter.
  • a distance measuring apparatus further includes a display unit that displays an image according to any one of the first to eleventh aspects of the present invention, and the control unit is included in the display unit.
  • the control unit is included in the display unit.
  • the distance measuring device in any one of the first aspect to the twelfth aspect of the present invention, is subject luminance or This is performed a predetermined number of times according to the exposure state specifying information.
  • the distance measuring device is a distance measuring device in which the influence of ambient light noise is reduced compared to the case where the number of directional light emissions is fixed regardless of the subject brightness. The result can be obtained.
  • the distance measuring device in the thirteenth aspect of the present invention, the distance measurement by the emitting unit, the light receiving unit, and the deriving unit is indicated as the subject luminance is higher or by the exposure state specifying information. Do more with lower exposure.
  • the distance measuring apparatus is less influenced by ambient light noise than when the number of directional light emissions is fixed despite the subject brightness being high. A ranging result with reduced can be obtained.
  • a distance measuring apparatus further includes a storage unit that stores the distance derived by the derivation unit according to any one of the first to fourteenth aspects of the present invention, If the distance cannot be derived by the unit, the storage by the storage unit is stopped.
  • the distance measuring device can prevent incomplete distance data from being stored.
  • the memory setting for setting whether or not to stop the storage by the storage unit when the derivation unit cannot derive the distance Further comprising a portion.
  • the distance measuring device according to the sixteenth aspect of the present invention can set whether or not to store in the storage unit according to the user's intention when the distance cannot be derived.
  • the derivation unit performs a focus adjustment to adjust the focus on the subject of the imaging optical system.
  • the distance is derived when there is no focus adjustment error by the adjustment unit and no exposure adjustment error by the exposure adjustment unit that adjusts the exposure when the photographing unit captures an image.
  • the directivity along the optical axis direction of the imaging optical system that emits directional light that is directional light to form a subject image showing the subject Deriving the distance to the subject based on the timing at which the directional light is emitted by the emitting unit that emits light and the timing at which the reflected light is received by the light receiving unit that receives the reflected light from the subject of the directional light,
  • the timing for emitting directional light is generated by a shooting unit that takes a subject image formed by an imaging optical system in which the shooting unit forms a subject image showing the subject and generates an image signal obtained by shooting. Including controlling the emission unit to have a predetermined period for suppressing the influence of directional light emission on the image signal.
  • a distance measuring program is directed along the optical axis direction of an imaging optical system that causes a computer to emit directional light, which is directional light, to form a subject image representing a subject.
  • the distance to the subject is determined based on the timing at which the directional light is emitted by the emitting unit that emits directional light and the timing at which the reflected light is received by the light receiving unit that receives the reflected light from the subject.
  • Derivation and shooting timing to emit directional light shooting the subject image formed by the imaging optical system where the shooting unit forms a subject image showing the subject, and generating an image signal obtained by shooting This is for causing the emission unit to execute processing including performing a control for a predetermined period to suppress the influence of the directional light emission on the image signal generated by the unit.
  • ranging refers to measuring the distance to the subject to be measured.
  • FIG. 1 is a block diagram illustrating an example of a configuration of a main part of a distance measuring device 10 according to the present embodiment.
  • the distance measuring device 10 has a function of measuring a distance and a function of generating a photographed image obtained by photographing a subject.
  • the distance measuring device 10 according to the present embodiment includes a control unit 20, a light emitting lens 30, a laser diode 32, a light receiving lens 34, a photodiode 36, an imaging optical system 40, an image sensor 42, an operation unit 44, and a viewfinder 46. And a storage unit 48.
  • the control unit 20 includes a time counter 22, a distance measurement control unit 24, and a main control unit 26.
  • the time counter 22 has a function of generating a count signal at predetermined intervals in accordance with a signal (for example, a clock pulse) input from the main control unit 26 via the distance measurement control unit 24.
  • the distance measurement control unit 24 has a function of measuring a distance according to the control of the main control unit 26.
  • the distance measurement control unit 24 of the present embodiment performs distance measurement by controlling the driving of the laser diode 32 at a timing according to the count signal generated by the time counter 22.
  • the ranging control unit 24 functions as a derivation unit according to the technique of the present disclosure.
  • Specific implementation examples of the distance measurement control unit 24 include ASIC (Application Specific Specific Integrated Circuit) and FPGA (Field-Programmable Gate Array).
  • the distance measurement control unit 24 of the present embodiment has a storage unit (not shown). Specific examples of the storage unit included in the distance measurement control unit 24 include a nonvolatile storage unit such as a ROM (Read Only Memory) and a volatile storage unit such as a RAM (Random Access Memory).
  • the main control unit 26 has a function of controlling the entire distance measuring device 10.
  • the main control unit 26 of the present embodiment has a function of controlling the imaging optical system 40 and the image sensor 42 to photograph a subject and generating a photographed image (subject image).
  • the main control unit 26 functions as a control unit, a luminance detection unit, a focus adjustment unit, and an exposure adjustment unit according to the technique of the present disclosure.
  • Specific examples of the main control unit 26 include a CPU (Central Processing Unit).
  • the distance measurement control unit 24 of the present embodiment has a storage unit (not shown).
  • Specific examples of the storage unit included in the distance measurement control unit 24 include a nonvolatile storage unit such as a ROM and a volatile storage unit such as a RAM.
  • the ROM stores a control program described later in advance.
  • control processing program is not necessarily stored in the main control unit 26 from the beginning.
  • the control program may first be stored in an arbitrary portable storage medium such as an SSD (Solid State Drive), a CD-ROM, a DVD, a magneto-optical disk, and an IC card.
  • the distance measuring device 10 may acquire the control program from the portable storage medium in which the control program is stored and store it in the main control unit 26 or the like.
  • the distance measuring device 10 may acquire a control program from another external device via the Internet, a LAN (Local Area Network), or the like, and store it in the main control unit 26 or the like.
  • LAN Local Area Network
  • the operation unit 44 is a user interface operated by the user when giving various instructions to the distance measuring device 10.
  • the operation unit 44 includes a release button, a distance measurement instruction button, and buttons and keys used when the user gives various instructions (all not shown).
  • Various instructions received by the operation unit 44 are output as operation signals to the main control unit 26, and the main control unit 26 executes processing according to the operation signals input from the operation unit 44.
  • the release button of the operation unit 44 detects a two-stage pressing operation of a shooting preparation instruction state and a shooting instruction state.
  • the shooting preparation instruction state refers to, for example, a state where the image is pressed from the standby position to the intermediate position (half-pressed position), and the shooting instruction state refers to a state where the image is pressed to the final pressed position (full-pressed position) exceeding the intermediate position. Point to.
  • “a state where the button is pressed from the standby position to the half-pressed position” is referred to as “half-pressed state”
  • “a state where the button is pressed from the standby position to the fully-pressed position” is referred to as “full-pressed state”.
  • the manual focus mode and the autofocus mode are selectively set according to a user instruction.
  • the shooting conditions are adjusted by pressing the release button of the operation unit 44 halfway, and then exposure (shooting) is performed when the release button is fully pressed.
  • the AE (Automatic Exposure) function works to adjust the exposure
  • the AF (Auto-Focus) function works to control the focus. Shooting is performed when is fully pressed.
  • the main control unit 26 transmits exposure state specifying information for specifying the current exposure state, which is a result obtained by performing AE, to the distance measurement control unit 24. Further, the main control unit 26 transmits focus state specifying information for specifying the current focus state, which is a result obtained by performing AF, to the distance measurement control unit 24.
  • An example of the exposure state specifying information includes an F value and a shutter speed derived from a so-called AE evaluation value that is uniquely determined according to the subject brightness. Another example of the exposure state specifying information is an AE evaluation value.
  • An example of the focus state specifying information is a subject distance obtained by AF.
  • the storage unit 48 mainly stores image data obtained by photographing, and uses a non-volatile memory.
  • Specific examples of the storage unit 48 include a flash memory and an HDD (Hard Disk Drive).
  • the viewfinder 46 has a function of displaying image and character information.
  • the viewfinder 46 according to the present embodiment is an electronic viewfinder (hereinafter referred to as “EVF”), and is a live view image (through image) that is an example of a continuous frame image obtained by capturing a continuous frame at the time of shooting. Used for display.
  • the viewfinder 46 is also used to display a still image that is an example of a single frame image obtained by shooting a single frame when a still image shooting instruction is given.
  • the viewfinder 46 is also used for displaying a playback image and a menu screen in the playback mode.
  • the imaging optical system 40 includes a photographing lens including a focus lens, a motor, a slide mechanism, and a shutter (all not shown).
  • the slide mechanism moves the focus lens along the optical axis direction (not shown) of the imaging optical system 40.
  • a focus lens is attached to the slide mechanism so as to be slidable along the optical axis direction.
  • a motor is connected to the slide mechanism, and the slide mechanism slides the focus lens along the optical axis direction under the power of the motor.
  • the motor is connected to the main control unit 26 of the control unit 20, and driving is controlled in accordance with a command from the main control unit 26.
  • a stepping motor is applied as a specific example of the motor. Accordingly, the motor operates in synchronization with the pulse power according to a command from the main control unit 26.
  • the main control unit 26 sets the motor of the imaging optical system 40 so that the contrast value of the image obtained by imaging with the imaging element 42 is maximized. Focus control is performed by driving control.
  • the main control unit 26 calculates AE information that is a physical quantity indicating the brightness of an image obtained by imaging.
  • the main control unit 26 derives a shutter speed and an F value (aperture value) corresponding to the brightness of the image indicated by the AE information. Then, the main control unit 26 performs exposure adjustment by controlling each related unit so that the derived shutter speed and F value are obtained.
  • the image sensor 42 is an image sensor provided with a color filter (not shown), and functions as an imaging unit according to the technique of the present disclosure.
  • a CMOS image sensor is used as an example of the image sensor 42.
  • the image sensor 42 is not limited to a CMOS image sensor, and may be a CCD image sensor, for example.
  • the color filter includes a G filter corresponding to G (green) that contributes most to obtain a luminance signal, an R filter corresponding to R (red), and a B filter corresponding to B (blue).
  • Each pixel (not shown) of the image sensor 42 is assigned one of the filters “R”, “G”, and “B” included in the color filter.
  • the image sensor 42 has a plurality of pixels (not shown) arranged in a matrix in the horizontal direction and the vertical direction, and signal charges corresponding to image light are accumulated in the pixels of the image sensor 42.
  • the signal charges accumulated in the pixels of the image sensor 42 are sequentially read out as digital signals corresponding to the signal charges (voltage) based on the control of the main control unit 26.
  • signal charges are sequentially read out in units of pixels for each horizontal direction, that is, for each pixel row.
  • horizontal blanking period There is a period (hereinafter referred to as “horizontal blanking period”) in which signal charges are not read after the charges are read from the pixels of one pixel row and before the charges are read from the pixels of the next pixel row. .
  • the imaging element 42 has a so-called electronic shutter function, and controls the charge accumulation time (shutter speed) of each photosensor at a timing based on the control of the main control unit 26 by using the electronic shutter function. .
  • the image sensor 42 outputs a digital signal indicating the pixel value of the photographed image from each pixel.
  • the photographed image output from each pixel is a chromatic image, for example, a color image having the same color array as the pixel array.
  • the captured image (frame) output from the image sensor 42 is stored in the main control unit 26 via the main control unit 26 or a predetermined RAW (raw) image storage area (not shown) in the storage unit 48. Is temporarily stored (overwritten).
  • the main control unit 26 performs various image processing on the frame.
  • the main control unit 26 includes a WB (White Balance) gain unit, a gamma correction unit, and a synchronization processing unit (all not shown), and the original digital signal (RAW image) temporarily stored in the main control unit 26 or the like. ) Sequentially performs signal processing in each processing unit. That is, the WB gain unit performs white balance (WB) adjustment by adjusting the gains of the R, G, and B signals.
  • the gamma correction unit performs gamma correction on the R, G, and B signals that have been subjected to WB adjustment by the WB gain unit.
  • the synchronization processing unit performs color interpolation processing corresponding to the color filter array of the image sensor 42 and generates synchronized R, G, and B signals.
  • the main control unit 26 performs image processing on the RAW image in parallel every time a RAW image for one screen is acquired by the image sensor 42.
  • the main control unit 26 outputs the generated image data of the recorded image for recording to an encoder (not shown) that converts the input signal into a signal of another format.
  • the R, G, and B signals processed by the main control unit 26 are converted (encoded) into recording signals by the encoder and recorded in the storage unit 48.
  • the captured image for display processed by the main control unit 26 is output to the viewfinder 46.
  • the term “for recording” and “for display” are used when it is not necessary to distinguish between the above “recorded image for recording” and “captured image for display”. Is referred to as a “photographed image”.
  • the main control unit 26 of the present embodiment displays the live view image on the viewfinder 46 by performing control to continuously display the captured image for display as a moving image.
  • the light emitting lens 30 and the laser diode 32 function as an example of an emission unit according to the technique of the present disclosure.
  • the laser diode 32 is driven based on an instruction from the distance measurement control unit 24, and emits laser light toward the subject to be measured via the light emitting lens 30 in the optical axis direction of the imaging optical system 40. It has a function.
  • a specific example of the light emitting lens 30 of the present embodiment includes an objective lens.
  • the laser light emitted from the laser diode 32 is an example of directional light according to the technique of the present disclosure.
  • the light receiving lens 34 and the photodiode 36 function as an example of a light receiving unit according to the technique of the present disclosure.
  • the photodiode 36 has a function of receiving laser light emitted from the laser diode 32 and reflected by the subject through the light receiving lens 34 and outputting an electric signal corresponding to the amount of received light to the distance measurement control unit 24.
  • the main control unit 26 causes the ranging control unit 24 to perform ranging.
  • the main control unit 26 instructs the distance measurement control unit 24 to perform distance measurement by transmitting a distance measurement instruction signal to the distance measurement control unit 24.
  • the main control unit 26 transmits a synchronization signal for synchronizing the distance measurement operation and the photographing operation to the distance measurement control unit 24 when measuring the distance to the subject and photographing the subject in parallel.
  • the distance measurement control unit 24 When receiving the synchronization signal and the distance measurement instruction signal, the distance measurement control unit 24 emits laser light toward the subject by controlling the light emission of the laser diode 32 at a timing according to the count signal of the time counter 22. Control timing. In addition, the distance measurement control unit 24 samples an electrical signal corresponding to the amount of received light output from the photodiode 36 at a timing corresponding to the count signal of the time counter 22.
  • the distance measurement control unit 24 derives the distance to the subject based on the light emission timing at which the laser diode 32 emits the laser light and the light reception timing at which the photodiode 36 receives the laser light, and the distance representing the derived distance Data is output to the main control unit 26.
  • the main control unit 26 causes the viewfinder 46 to display information related to the distance to the subject based on the distance data. Further, the main control unit 26 stores the distance data in the storage unit 48.
  • FIG. 2 is a timing chart showing an example of the timing of the distance measuring operation in the measurement of the distance to the subject in the distance measuring device 10.
  • a single distance measurement (measurement) sequence includes a voltage adjustment period, an actual measurement period, and a pause period.
  • the voltage adjustment period is a period during which the drive voltages of the laser diode 32 and the photodiode 36 are adjusted to appropriate voltage values.
  • the voltage adjustment period is set to several hundreds msec (milliseconds).
  • the actual measurement period is a period during which the distance to the subject is actually measured.
  • the operation of emitting (emitting) laser light and receiving the laser light reflected by the subject is repeated several hundred times to emit light (emitted).
  • the distance to the subject is measured by measuring the elapsed time from) to light reception. That is, in the distance measuring apparatus 10 of the present embodiment, the distance to the subject is measured several hundred times in one measurement sequence.
  • FIG. 3 shows an example of a timing chart showing the timing from light emission to light reception in one measurement.
  • the distance measurement control unit 24 outputs a laser trigger for causing the laser diode 32 to emit light to the laser diode 32 in accordance with the count signal of the time counter 22.
  • the laser diode 32 emits light in response to the laser trigger.
  • the light emission time of the laser diode 32 is set to several tens of nsec (nanoseconds).
  • the emitted laser light is emitted in the optical axis direction of the imaging optical system 40 toward the subject via the light emitting lens 30.
  • the laser light emitted from the distance measuring device 10 is reflected by the subject and reaches the distance measuring device 10.
  • the photodiode 36 of the distance measuring device 10 receives the reflected laser light via the light receiving lens 34.
  • a distance measuring apparatus that performs distance measurement on a subject within a distance of 1 km from the distance measuring apparatus 10 is used.
  • the time until the laser beam emitted from the laser diode 32 through the light emitting lens 30 toward the subject 1 km ahead returns (receives) is 1 km ⁇ 2 / light speed ⁇ several microseconds (microseconds). Therefore, in order to measure the distance to the subject 1 km away, it takes at least several ⁇ sec as shown in FIG.
  • the actual measurement time for one time is set to several msec as shown in FIG. Since the round trip time of the laser light varies depending on the distance to the subject, the actual measurement time per time may be varied according to the distance assumed by the distance measuring device 10.
  • the distance measurement control unit 24 derives the distance to the subject based on the measurement value measured several hundred times as described above.
  • the distance measurement control unit 24 of the present embodiment derives the distance to the subject by analyzing a histogram of measured values for several hundred times.
  • FIG. 4 is a graph showing an example of a histogram of measured values when the distance to the subject is on the horizontal axis and the number of measurements is on the vertical axis.
  • the distance measurement control unit 24 derives the distance to the subject corresponding to the maximum number of times of measurement in the histogram as a measurement result, and outputs distance data indicating the derived measurement result to the main control unit 26.
  • a histogram may be generated based on the round trip time of laser light (elapsed time from light emission to light reception), 1/2 of the round trip time of laser light, or the like.
  • the pause period is a period for stopping the driving of the laser diode 32 and the photodiode 36.
  • the rest period is set to several hundred msec.
  • one measurement period is set to several hundreds msec.
  • the main control unit 26 of the distance measuring device 10 displays the live view image on the viewfinder 46 as described above, when shooting is not performed.
  • the main control unit 26 displays a live view image by displaying, on the viewfinder 46, a captured image captured at several tens of fps (several tens of milliseconds / image) as a moving image. Therefore, during one measurement period, live view images of measurement period / fps are displayed on the viewfinder 46.
  • the photographing operation and the ranging operation when the photographing operation and the ranging operation in the distance measuring device 10 of the present embodiment are synchronized will be described.
  • a shooting operation and a distance measuring operation when a shooting operation for shooting a still image and a distance measuring operation are synchronized will be described.
  • FIG. 5 is a flowchart showing an example of the flow of control processing executed by the main control unit 26 of the distance measuring device 10 of the present embodiment.
  • FIG. 6 shows an example of a timing chart showing the timing of the photographing operation and the distance measuring operation. The flowchart shown in FIG. 5 is executed when the distance measuring device 10 is turned on.
  • step 100 the main control unit 26 starts a live view operation.
  • the main control unit 26 displays the live view image on the viewfinder 46 by performing control to continuously display the captured images captured by the imaging optical system 40 and the image sensor 42 as moving images. .
  • step 102 the main control unit 26 determines whether or not the release button of the operation unit 44 is half-pressed. When it is not half-pressed, for example, when the release button is not pressed at all, the process proceeds to step 132. On the other hand, if it is half pressed, the routine proceeds to step 104.
  • step 104 the main control unit 26 controls the imaging optical system 40 to perform AE and AF as described above.
  • exposure adjustment is performed by performing AE
  • focus control is performed by performing AF
  • image light indicating a subject is focused on the light receiving surface of the image sensor 42.
  • step 106 the main control unit 26 determines whether or not the release button of the operation unit 44 has been fully pressed. If it is not fully pressed, the process proceeds to step 108. In step 108, the main control unit 26 determines whether or not the pressing operation on the release button of the operation unit 44 has been released. If the press has not been released, the process returns to step 104 and this process is repeated. On the other hand, if the press is released, the process proceeds to step 132.
  • step 110 the main control unit 26 transmits a synchronization signal to the distance measurement control unit 24.
  • photographing main exposure to the image sensor 42
  • a synchronization signal is transmitted from the main control unit 26 to the distance measurement control unit 24.
  • the distance measurement control unit 24 starts the distance measurement operation (measurement of the distance to the subject) when the synchronization signal is received.
  • the main control unit 26 starts main exposure (photographing).
  • the pixels of the image sensor 42 are irradiated with light (image light is imaged on the light receiving surface of the image sensor 42), and each pixel has a signal charge corresponding to the irradiated light. Accumulated.
  • the main control unit 26 detects whether or not the main exposure is completed. The process waits until the main exposure is completed. If the main exposure is completed, the process proceeds to step 116.
  • the method for determining whether or not the main exposure has ended is not limited, but a specific example is a method for determining whether or not the main exposure time determined by various conditions has elapsed. .
  • step 116 the main control unit 26 starts reading the signal charges accumulated in each pixel of the image sensor 42.
  • step 118 the main control unit 26 outputs a reading start signal indicating that reading has started to the distance measurement control unit 24.
  • the signal charge read from each pixel is transmitted to the main control unit 26 as an electric signal (image signal) that is a digital signal corresponding to the signal charge.
  • the main control unit 26 determines whether or not it is a horizontal blanking period. As described above, when signal charges are read out from the pixels of the image sensor 42, the pixel charges are read out on a pixel-by-pixel basis. Therefore, the horizontal blanking period in which signal charges are not read out between the pixel rows. Occurs. The main control unit 26 determines whether or not it is the horizontal blanking period. If it is not the horizontal blanking period, for example, the process proceeds to step 124 while signal charges are being read from the pixels in one pixel row. On the other hand, in the case of the horizontal blanking period, the process proceeds to step 122. In step 122, the main control unit 26 transmits a light emission instruction signal to the distance measurement control unit 24. As will be described in detail later, the distance measurement control unit 24, when receiving a light emission instruction signal, causes the laser diode 32 to emit light based on the received light emission instruction signal.
  • step 124 the main control unit 26 determines whether or not to end reading. If signal charges have not yet been read from all the pixels of the image sensor 42, the process returns to step 120 and this process is repeated. On the other hand, if signal charges have been read from all the pixels of the image sensor 42, the process proceeds to step 126.
  • step 126 the main control unit 26 transmits to the distance measurement control unit 24 a reading end signal indicating that reading has ended.
  • the main control unit 26 determines whether or not distance data has been received. As will be described in detail later, the distance measurement control unit 24, when measuring the distance to the subject (ranging), transmits distance data indicating the measurement result to the main control unit 26. The system waits until the distance data transmitted by the distance measurement control unit 24 is received. If distance data is received, the process proceeds to step 130.
  • step 130 the main control unit 26 displays information on the distance to the subject on the viewfinder 46 based on the received distance data.
  • the main control unit 26 stores the received distance data in the storage unit 48 in association with the captured image.
  • the captured image obtained by capturing the subject image data indicating the captured image
  • the distance to the subject distance data
  • step 132 the main control unit 26 determines whether or not a power switch (not shown) is turned off. If the switch is not turned off, the process returns to step 102 and this process is repeated. On the other hand, if the power switch is turned off, the process proceeds to step 134.
  • a power switch not shown
  • step 134 the main control unit 26 stops the live view operation, and then ends this process. Further, the main control unit 26 turns off the power of the distance measuring device 10.
  • FIG. 7 shows a flowchart showing an example of the flow of distance measurement processing executed by the distance measurement control unit 24 of the distance measuring apparatus 10 of the present embodiment.
  • the flowchart shown in FIG. 7 is executed when the distance measuring device 10 is turned on.
  • the distance measurement control unit 24 determines whether or not a synchronization signal has been received. Specifically, the distance measurement control unit 24 determines whether or not the synchronization signal transmitted from the main control unit 26 is received in step 110 of the control process in the main control unit 26 described above. The process waits until a synchronization signal is received.
  • step 202 the distance measurement control unit 24 shifts to the voltage adjustment period shown in FIG. 6 and adjusts the drive voltages of the laser diode 32 and the photodiode 36.
  • the distance measurement control unit 24 determines whether or not the voltage adjustment is completed.
  • the voltage adjustment period is set to several hundred msec. For this reason, the distance measurement control unit 24 determines that the voltage adjustment is completed when several hundred msec have elapsed since the transition to the voltage adjustment period. Therefore, the distance measurement control unit 24 is in a standby state, assuming that the voltage adjustment is not completed until several hundreds of milliseconds have elapsed since the transition to the voltage adjustment period, and when several hundreds of milliseconds have elapsed, the voltage adjustment has been completed. Proceed to step 206.
  • step 206 the distance measurement control unit 24 shifts to the actual measurement period and starts measuring the distance to the subject.
  • the distance measurement control unit 24 determines whether or not a read start signal has been received. Specifically, the distance measurement control unit 24 determines whether or not the readout start signal transmitted from the main control unit 26 is received in step 118 of the control process in the main control unit 26 described above. In the distance measurement control unit 24 of the distance measuring device 10 according to the present embodiment, the distance to the subject is measured during the period in which the charge signal is read from the pixel (hereinafter referred to as “reading period”) and outside the reading period. Since the control is different, the readout start signal is received from the main control unit 26, and the control in measurement, more specifically, the emission control of the laser diode 32 is varied depending on whether or not the readout start signal is received. .
  • a driving voltage for driving the laser diode 32 is applied to the laser diode 32.
  • the distance measuring device 10 causes a voltage fluctuation, and the voltage is read from the pixel due to the generated voltage fluctuation. Noise may be superimposed on the charge signal. In this way, noise may be superimposed on the charge signal, which may cause disturbance in the captured image.
  • the distance measurement control unit 24 of the distance measuring device 10 controls the laser diode 32 to emit light during the horizontal blanking period described above, which is a period during which no charge signal is read from the pixel during the reading period. To do. That is, the distance measurement control unit 24 performs control to emit light from the laser diode 32 in synchronization with the photographing operation during the readout period.
  • the laser diode 32 since there is no problem of noise superposition due to voltage fluctuation as described above outside the readout period, the laser diode 32 does not have to emit light in synchronization with the photographing operation. Accordingly, light may be emitted every several milliseconds.
  • the control by the distance measurement control unit 24 outside the reading period is referred to as “normal control”.
  • the control in measuring the distance to the subject differs between the reading period and outside the reading period.
  • step 208 if the distance measurement control unit 24 has not received the readout start signal, the routine proceeds to step 216 to perform normal control. On the other hand, when the distance measurement control unit 24 receives the reading start signal, the process proceeds to step 210.
  • step 210 the distance measurement control unit 24 determines whether or not a read end signal has been received.
  • the distance measurement control unit 24 determines whether or not the readout end signal transmitted from the main control unit 26 is received in step 126 of the control process in the main control unit 26 described above.
  • step 216 the process proceeds to step 216 for normal control during the subsequent period.
  • the process proceeds to step 212.
  • step 212 it is determined whether or not the distance measurement control unit 24 has received the light emission instruction signal. Specifically, the distance measurement control unit 24 determines whether or not the light emission instruction signal transmitted from the main control unit 26 is received in step 122 of the control process in the main control unit 26 described above.
  • step S214 it is determined whether measurement is in progress.
  • the interval from the horizontal blanking period to the horizontal blanking period charge signal from the pixels in one pixel row
  • one measurement time severe msec in the above-described specific example. Read time
  • the laser diode 32 when the light emission instruction signal is received during the measurement, the laser diode 32 is not caused to emit light by ignoring the received light emission instruction signal. Therefore, if the measurement is being performed, the process proceeds to step 226. On the other hand, if the measurement is not in progress, the process proceeds to step 216.
  • the distance measurement control unit 24 causes the laser diode 32 to emit light.
  • the distance measurement control unit 24 determines whether or not a predetermined time has elapsed. Specifically, the distance measurement control unit 24 determines whether or not several milliseconds have elapsed since one measurement time is set to several milliseconds as described above. If the predetermined time (in this embodiment, several msec, which is one measurement time) has not elapsed, the process enters a standby state. If the predetermined time has elapsed, the process proceeds to step 220.
  • the laser diode 32 When the laser diode 32 emits light in the process of step 216, the laser light is emitted toward the subject through the light emitting lens 30. The laser light reflected by the subject is received by the photodiode 36 through the light receiving lens 34 until the predetermined time elapses.
  • the distance measurement control unit 24 acquires the elapsed time from light emission to light reception, and stores it in a storage unit (for example, RAM in the distance measurement control unit 24). deep.
  • the distance measurement control unit 24 stores that fact in a storage unit (for example, a RAM in the distance measurement control unit 24) and responds to the number of times the measurement error has occurred. For example, if the number of times is not negligible in deriving the distance to the subject using the histogram, the fact that a measurement error has occurred may be displayed on the viewfinder 46 or the like.
  • the main control unit 26 may not store the captured image in the storage unit 48.
  • the user may be allowed to set whether to store the captured image via the operation unit 44 (an example of a storage setting unit according to the technique of the present disclosure).
  • step 220 it is determined whether or not the distance measurement control unit 24 has finished the predetermined number of measurements. If the predetermined number of measurements has not been completed, the process returns to step 208 to repeat the measurement. On the other hand, if the predetermined number of measurements has been completed, the process proceeds to step 222.
  • the distance to the subject is derived based on the time from when the photodiode 36 emits the laser light until the photodiode 36 receives the laser light by the processing of step 216.
  • the distance measurement control unit 24 generates a histogram of the distance to the subject, as shown in FIG. 4, and derives the distance to the subject corresponding to the maximum number of measurement times from the histogram as a measurement result. To do.
  • a histogram relating to time such as the round trip time of laser light
  • the time corresponding to the maximum value of the number of times of measurement may be derived, and the distance to the subject may be derived based on the derived time.
  • the distance to the subject may be derived by 1 ⁇ 2 of the round trip time of the laser beam corresponding to the maximum value of the number of measurements ⁇ light velocity.
  • step S224 the distance measurement control unit 24 transmits distance data indicating the distance derived in step 222 to the main control unit 26, and then proceeds to step 226.
  • step 226 the distance measurement control unit 24 determines whether or not to end the distance measurement process. For example, when the main control unit 26 determines that a predetermined end condition is satisfied, for example, when the main control unit 26 determines that the power switch is turned off, the distance measurement process is ended. On the other hand, if the end condition is not satisfied, the process returns to step 200 and the distance measurement process is repeated.
  • the main control unit 26 when performing distance measurement, causes the laser diode 32 to emit light during the horizontal blanking period in which charges are read from the pixels of the image sensor 42.
  • a light emission instruction signal is transmitted to the distance measurement control unit 24.
  • the distance measurement control unit 24 causes the laser diode 32 to emit light based on the received light emission instruction signal, irradiates the subject with laser light through the light emitting lens 30, and performs distance measurement.
  • the main control unit 26 of the distance measuring device 10 does not read out charges from the pixels during the horizontal blanking period.
  • the distance measurement control unit 24 causes the laser diode 32 to emit light during a period in which no charge is read. Thereby, the influence which the light emission of the laser diode 32 has on the readout of electric charges can be reduced. Therefore, according to the distance measuring device 10 of the present embodiment, it is possible to suppress disturbance of the captured image.
  • the distance measurement control unit 24 performs control for causing the laser diode 32 to emit light during the horizontal blanking period, but the timing for causing the laser diode 32 to emit light is applied to the image signal by the emission of the laser light.
  • the predetermined period may be, for example, a period that does not affect the readout state of the image signal or has a degree of influence that is equal to or less than a predetermined allowable level.
  • the degree of influence in which the degree of influence is set in advance is, for example, within an allowable range when image disturbance that does not cause a problem (not noticed) occurs when the user visually recognizes a captured image. Is mentioned.
  • light may be emitted at the readout timing of a pixel from which charges are read out immediately before the start of the horizontal blanking period.
  • FIG. 8B light may be emitted at the timing of reading out charges from a pixel within a predetermined range before the start of the horizontal blanking period (in the pixel of FIG. 8B, as an example, within 3 pixels).
  • FIG. 8C the light emission time overlaps with the timing of reading out charges from pixels within a predetermined range after the end of the horizontal blanking period (in the pixel of FIG. 8B, one pixel as an example). You may make it light-emit.
  • light may be emitted at the timing of reading out charges from pixels within a predetermined range after the end of the horizontal blanking period.
  • the light emission time of the laser diode 32 is preferably included in the horizontal blanking period as shown in FIGS. 8A to 8C. Further, as shown in FIGS. 8A and 8B, it is more preferable to emit light before the start of the horizontal blanking period.
  • the laser diode 32 may be caused to emit light not in the horizontal blanking period but in a period in which charge reading is not performed (so-called vertical blanking period or the like) between frames in charge reading.
  • the clock signal of the time counter 22 may be controlled by the main control unit 26 as a method of synchronizing the distance measurement operation by the distance measurement control unit 24 and the photographing operation by the main control unit 26.
  • the distance measurement control unit 24 has described an example in which the distance to the subject is derived by performing measurement by laser light emission and light reception a plurality of times (for example, several hundred times).
  • the focus adjustment result may be used when deriving.
  • FIG. 9A the measurement result other than the subject distance range based on AF (the hatched portion in FIG. 9A) is not used, and the distance to the subject is derived using only the measurement result of the subject distance range based on AF. You may make it do.
  • the resolution of the distance range when calculating the frequency can be increased rather than using all measured values, and the distance to the subject can be determined in precise numerical units.
  • FIG. 9A an example is shown in which measured values of a distance shorter and a longer distance than the subject distance range based on AF are not used, but only one of them may not be used. That is, the distance to the subject is measured without using the measured value of the distance less than the subject distance based on AF (the hatched portion in FIG. 9B) or the measured value longer than the subject distance based on AF (the shaded portion in FIG. 9C). May be derived. Further, the result of manual focus adjustment in the manual focus mode may be used instead of AF.
  • focusing state specifying information for specifying an AF result (or manual focus adjustment result) from the main control unit 26 or Exposure state specification information for specifying the AE result may be acquired, and at least one of the laser diode 32 and the photodiode 36 may be driven and adjusted based on the acquired focus state specification information and exposure state specification information. That is, since the distance from the focus adjustment result (focal length) to the approximate subject is known, the emission intensity of the laser light emitted from the laser diode 32 is adjusted based on the focus state specifying information for specifying the AF result. May be. For example, the shorter the focal length, the smaller the emission intensity.
  • the distance to the subject can be derived with an appropriate emission intensity of the laser light that is not affected by the ambient light noise.
  • the light receiving sensitivity of the photodiode 36 may be adjusted based on the focus state specifying information for specifying the AF result. For example, the light receiving sensitivity is lowered as the focal length is shorter. As a result, the distance to the subject can be derived with an appropriate light receiving sensitivity that is not affected by ambient light noise.
  • strength of a laser beam is known from an exposure adjustment result, you may make it adjust the injection
  • the distance measuring device 10 captures a still image
  • the main control unit 26 performs control similarly to the above. Good.
  • the measurement may be repeatedly performed during moving image shooting. Further, it is possible to repeatedly take still images during one measurement.
  • step 202 and step 204 may be performed prior to step 200.
  • the voltage adjustment may not be performed.
  • the case where the information related to the distance to the subject is superimposed on the live view image and displayed on the viewfinder 46 is exemplified, but the technology of the present disclosure is not limited to this.
  • information regarding the distance to the subject may be displayed in a display area different from the display area of the live view image. In this way, information regarding the distance to the subject may be displayed on the viewfinder 46 in parallel with the display of the live view image.
  • the distance measurement control unit 24 may perform the distance derivation as described above when no AF error occurs, and may not perform the distance derivation when an AF error occurs.
  • the distance measurement control unit 24 may perform the distance derivation as described above when no AE error occurs, and may not perform the distance derivation when an AE error occurs.
  • focus adjustment and exposure adjustment by AF and AE are exemplified, but the technology of the present disclosure is not limited to this, and focus adjustment by manual focus and exposure adjustment by manual exposure. May be.
  • AE and AF are started in accordance with a shooting preparation instruction received by a UI (user interface) unit of an external device that is connected to the distance measuring device 10 and used in accordance with a shooting instruction received by the UI unit of the external device.
  • the main exposure may be started.
  • an external device connected to the distance measuring device 10 there is a smart device, a personal computer (PC), or a spectacle-type or watch-type wearable terminal device.
  • the live view image and the distance measurement result (information on the distance to the subject) are displayed on the viewfinder 46 is illustrated, but the technology of the present disclosure is not limited to this.
  • at least one of the live view image and the distance measurement result may be displayed on a display unit of an external device that is connected to the distance measuring device 10 and used.
  • a display unit of an external device connected to the distance measuring device 10 a smart device display, a PC display, or a wearable terminal device display can be cited.
  • control process see FIG. 5
  • distance measurement process see FIGS. 5A and 5B
  • each process included in the control process and the distance measurement process described in the above embodiment may be realized by a software configuration using a computer by executing a program, or by other hardware configurations. It may be realized. Further, it may be realized by a combination of a hardware configuration and a software configuration.
  • the technology of the present disclosure can also be applied to a digital camera.
  • the number of times of laser light emission is fixed is exemplified, but the technology of the present disclosure is not limited to this. Since the ambient light becomes noise for the laser light, the number of light emission times of the laser light may be a light emission number determined according to the subject brightness.
  • the number of times of laser light emission is derived from the light emission number determination table 300 shown in FIG. 12 as an example.
  • the subject brightness and the laser light emission count are associated with each other so that the higher the subject brightness, the greater the laser light emission count. That is, in the light-emitting times determination table 300, the object luminance, L 1 ⁇ L 2 ⁇ ⁇ and magnitude of L n is satisfied, emission number, N 1 ⁇ N 2 ⁇ ⁇ N n The magnitude relationship is established.
  • the number of times of light emission is exemplified by 100 times. However, the number of times of light emission is not limited to this. Good.
  • luminance information transmission processing (see FIG. 13) is executed by the main control unit 26, and light emission by the distance measurement control unit 24
  • the number determination process is executed.
  • luminance information transmission processing executed by the main control unit 26 when the power switch of the distance measuring device 10 is turned on will be described with reference to FIG.
  • step 400 the main control unit 26 determines whether or not a luminance acquisition start condition that is a condition for starting acquisition of subject luminance is satisfied.
  • a luminance acquisition start condition is a condition that the release button is half-pressed.
  • Another example of the luminance acquisition start condition is a condition that a captured image is output from the image sensor 42.
  • step 400 if the luminance acquisition start condition is satisfied, the determination is affirmed and the routine proceeds to step 402. If the luminance acquisition start condition is not satisfied at step 400, the determination is negative and the routine proceeds to step 406.
  • step 402 the main control unit 26 acquires the subject brightness from the photographed image, and then proceeds to step 404.
  • the subject brightness is acquired from the captured image is illustrated, but the technology of the present disclosure is not limited to this.
  • the main control unit 26 may acquire the subject brightness from the brightness sensor.
  • step 404 the main control unit 26 transmits the luminance information indicating the subject luminance acquired in step 402 to the distance measurement control unit 24, and then proceeds to step 406.
  • step 406 the main control unit 26 determines whether or not an end condition that is a condition for ending the luminance information transmission process is satisfied.
  • An example of the end condition is a condition that the power switch of the distance measuring device 10 is turned off. If the termination condition is not satisfied at step 406, the determination is negative and the routine proceeds to step 400. In step 406, if the end condition is satisfied, the determination is affirmed, and the luminance information transmission process ends.
  • step 410 the distance measurement control unit 24 determines whether or not the luminance information transmitted by executing the process of step 404 has been received. In step 410, when the luminance information transmitted by executing the process of step 404 is not received, the determination is negative and the process proceeds to step 416. In step 410, when the luminance information transmitted by executing the process of step 404 is received, the determination is affirmed and the process proceeds to step 412.
  • step 412 the distance measurement control unit 24 derives the number of times of light emission corresponding to the subject luminance indicated by the luminance information received in step 410 from the light emission number determination table 300, and then proceeds to step 414.
  • step 414 the distance measurement control unit 24 stores the number of times of light emission derived in the process of step 412 in the storage unit 48, and then proceeds to step 416.
  • the number of times of light emission stored in the storage unit 48 by the process of step 416 means the “predetermined number of times” in step 220 of the distance measurement process shown in FIG.
  • step 416 the main control unit 26 determines whether or not an end condition that is a condition for ending the main light emission number determination process is satisfied.
  • An example of the end condition is a condition that the power switch of the distance measuring device 10 is turned off. If the termination condition is not satisfied at step 416, the determination is negative and the routine proceeds to step 410. In step 416, if the end condition is satisfied, the determination is affirmed and the main light emission number determination process is ended.
  • the number of times of laser light emission is derived according to the light emission number determination table 500 shown in FIG. 15 as an example.
  • exposure state specifying information E 1 , E 2 ,... E n
  • subject brightness the number of times of laser light emission
  • N 1 , N 2 , etc N n the number of times of laser light emission
  • the exposure state specifying information uniquely determined according to the subject brightness means, for example, exposure state specifying information indicating exposure that decreases as the subject brightness increases.
  • the main control unit 26 executes the exposure state specifying information transmission process (see FIG. 16), and the distance measurement control unit 24 determines the light emission frequency determination process (see FIG. 16). 17) is executed.
  • step 600 the main control unit 26 determines whether or not the release button is half-pressed. If it is determined in step 600 that the release button has not been pressed halfway, the determination is negative and the process proceeds to step 606. If the release button is pressed halfway in step 600, the determination is affirmed and the routine proceeds to step 602.
  • a release button is provided in the operation unit 44 will be described as an example, but the technology of the present disclosure is not limited to this.
  • step 600 may be omitted, and the process of step 602 may be started when the power is turned on.
  • step 602 the main control unit 26 performs AE based on the subject brightness acquired from the captured image, and then proceeds to step 604.
  • step 604 the main control unit 26 transmits the exposure state specifying information to the distance measurement control unit 24, and then proceeds to step 606.
  • step 606 the main control unit 26 determines whether or not an end condition that is a condition for ending the exposure state specifying information transmission process is satisfied.
  • An example of the end condition is a condition that the power switch of the distance measuring device 10 is turned off. If it is determined in step 606 that the termination condition is not satisfied, the determination is negative and the process proceeds to step 600. In step 606, when the end condition is satisfied, the determination is affirmed, and the exposure state specifying information transmission process is ended.
  • step 610 the distance measurement control unit 24 determines whether or not the exposure state specifying information transmitted by executing the process of step 604 has been received. If it is determined in step 610 that the exposure state specifying information transmitted by executing the process of step 604 has not been received, the determination is negative and the routine proceeds to step 616. In step 610, when the exposure state specifying information transmitted by executing the process of step 604 is received, the determination is affirmed and the process proceeds to step 612.
  • step 612 the distance measurement control unit 24 derives the number of times of light emission corresponding to the exposure state specifying information received in step 610 from the light emission number determination table 500, and then proceeds to step 614.
  • step 614 the distance measurement control unit 24 stores the number of times of light emission derived in the process of step 612 in the storage unit 48, and then proceeds to step 616.
  • the number of times of light emission stored in the storage unit 48 by the processing of step 616 means the “predetermined number of times” in step 220 of the distance measuring process shown in FIG.
  • step 616 the main control unit 26 determines whether or not an end condition that is a condition for ending the exposure state specifying information transmission process is satisfied.
  • An example of the end condition is a condition that the power switch of the distance measuring device 10 is turned off. If it is determined in step 616 that the termination condition is not satisfied, the determination is negative and the process proceeds to step 610. In step 616, if the end condition is satisfied, the determination is affirmed, and the exposure state specifying information transmission process is ended.
  • the distance measuring device 10 increases the number of times of laser light emission (distance measurement) as the subject luminance increases, the number of times of laser light emission (distance measurement) is fixed regardless of the subject luminance. Compared to the case where the measurement is performed, it is possible to obtain a distance measurement result in which the influence of ambient light noise is reduced.
  • laser light is exemplified as distance measurement light.
  • the technology of the present disclosure is not limited to this, and any directional light that is directional light may be used. .
  • it may be directional light obtained by a light emitting diode (LED: Light Emitting Diode) or a super luminescent diode (SLD: Super Luminescent Diode).
  • the directivity of the directional light is preferably the same as the directivity of the laser light.
  • the directivity can be used for ranging within a range of several meters to several kilometers. preferable.
  • a photographing unit for photographing a subject image formed by an imaging optical system that forms a subject image indicating a subject, and generating an image signal obtained by the photographing;
  • An emission unit that emits laser light and emits the laser beam along the optical axis direction of the imaging optical system;
  • a light receiving unit for receiving reflected light from the subject of the laser light;
  • a deriving unit for deriving a distance to the subject based on a timing at which the laser beam is emitted by the emitting unit and a timing at which the reflected light is received by the light receiving unit;
  • a control unit that controls the emission unit to emit light of the laser light for a predetermined period that suppresses the influence of the light emission of the laser light on the image signal;
  • Ranging device equipped with.
  • (Appendix 2) Timing at which the laser light is emitted by an emitting unit that emits laser light along an optical axis direction of an imaging optical system that emits laser light to form a subject image showing the subject, and the subject of the laser light Deriving the distance to the subject based on the timing at which the reflected light is received by the light receiving unit that receives the reflected light from
  • the timing at which the laser light is emitted is determined by a photographing unit that photographs a subject image formed by an imaging optical system that forms a subject image indicating a subject and generates an image signal obtained by the photographing.
  • a distance measurement method comprising: performing control for the emission unit to have a predetermined period for suppressing an influence of laser light emission on the generated image signal.
  • the timing at which the laser light is emitted is determined by a photographing unit that photographs a subject image formed by an imaging optical system that forms a subject image indicating a subject and generates an image signal obtained by the photographing.
  • a distance measurement program for executing processing including performing control on the emission unit for a predetermined period to suppress the influence of laser light emission on the generated image signal.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Measurement Of Optical Distance (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

 測距装置は、被写体を示す被写体像を結像する結像光学系により結像された被写体像を撮影し、当該撮影によって得られた画像信号を生成する撮影部と、指向性のある光である指向性光を発光させて結像光学系の光軸方向に沿って射出する射出部と、指向性光の被写体からの反射光を受光する受光部と、射出部により指向性光が発光されたタイミング及び受光部により反射光が受光されたタイミングに基づいて被写体までの距離を導出する導出部と、指向性光を発光させるタイミングを、指向性光の発光による画像信号への影響を抑える所定の期間とする制御を射出部に行う制御部と、を含む。

Description

測距装置、測距法、及び測距プログラム
 本開示の技術は、測距装置、測距方法、及び測距プログラムに関する。
 特開2008-96181号公報には、計測光が射出されたときから受光手段で受光されるまでの時間を検出する時間検出手段と、発光手段から計測光を射出したときの筐体のぶれ量を計測光の発光時に検出するぶれ量検出手段と、時間検出手段によって検出された時間とぶれ量検出手段によって検出されたぶれ量とに基づいて被計測物までの距離を決定する距離決定手段と、を含む装置が開示されている。
 特開2002-207163号公報には、焦点調整を行う機能と、レーザ光をレンズの光軸に沿って被写体に照射し、その反射光を検出することにより被写体距離を測距する測距機能と、被写体を撮影する撮影機能とを有する測距撮影装置が開示されている。
 しかしながら、従来の技術では、撮影と測距とのタイミングが適切ではなく、撮影画像を読み出す際に、撮影画像に乱れが発生する懸念があった。
 本発明の一つの実施形態は、このような実情を鑑みて提案されたものであり、撮影画像の乱れを抑制することができる測距装置、測距方法、及び測距プログラムを提供することを目的とする。
 上記目的を達成するために、本発明の第1の態様に係る測距装置は、被写体を示す被写体像を結像する結像光学系により結像された被写体像を撮影し、撮影によって得られた画像信号を生成する撮影部と、指向性のある光である指向性光を発光させて結像光学系の光軸方向に沿って射出する射出部と、指向性光の被写体からの反射光を受光する受光部と、射出部により指向性光が発光されたタイミング及び受光部により反射光が受光されたタイミングに基づいて被写体までの距離を導出する導出部と、指向性光を発光させるタイミングを、指向性光の発光による画像信号への影響を抑える所定の期間とする制御を射出部に行う制御部と、を備える。
 本発明の第2の態様に係る測距装置は、本発明の第1の態様において、所定の期間は、画素行毎の画像信号を読み出す場合の画素行間の読み出しを行わない期間とすることができる。
 本発明の第2の態様に係る測距装置は、本発明の第1の態様において、所定の期間は、画素行毎の画像信号を読み出す場合の画素行間の読み出しを行わない期間の前後に読み出される所定個数の画素を読み出すタイミングを含む期間とすることができる。
 本発明の第4の態様に係る測距装置は、本発明の第1の態様から第3の態様のいずれか1つにおいて、導出部は、距離の導出を複数回行い、複数回の距離の導出によって得られる距離のうちの頻度が高い距離を最終的な距離として導出することができる。
 本発明の第5の態様に係る測距装置は、本発明の第4の態様において、結像光学系の被写体への焦点調整、及び露出調整の少なくとも一方を実行する実行部を備え、実行部が、焦点調整を実行するものである場合に、導出部は、距離を導出する場合に、合焦状態特定情報に基づいて、頻度を求める際に使用する距離範囲、又は指向性光の射出から受光までの時間範囲を定め、定めた距離範囲又は時間範囲の範囲内で最終的な距離を導出することができる。
 本発明の第6の態様に係る測距装置は、本発明の第5の態様において、導出部は、距離を導出する場合に、距離範囲又は時間範囲を定めた結果に応じて定まる分解能で最終的な距離を導出することができる。
 本発明の第7の態様に係る測距装置は、本発明の第1の態様から第6の態様のいずれか1つにおいて、射出部は、指向性光の射出強度が調整可能であり、合焦状態特定情報と被写体輝度又は露出状態特定情報との少なくとも一方に基づいて射出強度を調整して指向性光を射出することができる。
 本発明の第8の態様に係る測距装置は、本発明の第7の態様において、射出部は、合焦状態特定情報により示される焦点距離が短いほど射出強度を小さくすることができる。
 本発明の第9の態様に係る測距装置は、本発明の第7の態様又は第9の態様において、射出部は、被写体輝度が低いほど射出強度を小さくし、露出状態特定情報により示される露出が高いほど射出強度を小さくすることができる。
 本発明の第10の態様に係る測距装置は、本発明の第1の態様から第9の態様のいずれか1つにおいて、受光部は、受光感度が調整可能であり、合焦状態特定情報に基づいて受光感度を調整して反射光を受光することができる。
 本発明の第11の態様に係る測距装置は、本発明の第10の態様において、受光部は、合焦状態特定情報により示される焦点距離が短いほど受光感度を下げることができる。
 本発明の第12の態様に係る測距装置は、本発明の第1の態様から第11の態様のいずれか1つにおいて、画像を表示する表示部を更に含み、制御部は、表示部に対して、撮影部により撮影されて得られた動画像を表示させ、かつ、導出部により導出された被写体までの距離に関する情報を表示させる制御を行うことができる。
 本発明の第13の態様に係る測距装置では、本発明の第1の態様から第12の態様の何れか1つにおいて、射出部、受光部、及び導出部による測距は、被写体輝度又は露出状態特定情報に応じて予め定めた回数行う。これにより、本発明の第13の態様に係る測距装置は、被写体輝度に拘わらず指向性光の発光回数が固定化されている場合に比べ、環境光のノイズの影響が緩和された測距結果を得ることができる。
 本発明の第14の態様に係る測距装置では、本発明の第13の態様において、射出部、受光部、及び導出部による測距は、被写体輝度が高いほど又は露出状態特定情報により示される露出が低いほど多く行う。これにより、本発明の第14の態様に係る測距装置は、被写体輝度が高くなっているにも拘わらず指向性光の発光回数が固定化されている場合に比べ、環境光のノイズの影響が緩和された測距結果を得ることができる。
 本発明の第15の態様に係る測距装置では、本発明の第1の態様から第14の態様の何れか1つにおいて、導出部によって導出された距離を記憶する記憶部を更に含み、導出部によって距離の導出が不可能な場合、記憶部による記憶を中止する。これにより、本発明の第15の態様に係る測距装置は、不完全な距離データの記憶を防止することができる。
 本発明の第16の態様に係る測距装置では、本発明の第15の態様において、導出部による距離の導出が不可能な場合に記憶部による記憶を中止するか否かを設定する記憶設定部を更に含む。これにより、本発明の第16の態様に係る測距装置は、距離の導出が不可能な場合に記憶部への記憶を行うか否かをユーザの意思に応じて設定することができる。
 本発明の第17の態様に係る測距装置では、本発明の第1の態様から第16の態様の何れか1つにおいて、導出部は、結像光学系の被写体への焦点調整を行う焦点調整部による焦点調整エラー、及び撮影部が撮影する場合の露出を調整する露出調整部による露出調整エラーがない場合に、距離を導出する。これにより、本発明の第17の態様に係る測距装置は、合焦及び露出調整された画像と共に測距結果を得ることができる。
 本発明の第18の態様に係る測距方法は、指向性のある光である指向性光を発光させて被写体を示す被写体像を結像する結像光学系の光軸方向に沿って指向性光を射出する射出部により指向性光が射出されたタイミング、及び指向性光の被写体からの反射光を受光する受光部により反射光が受光されたタイミングに基づいて被写体までの距離を導出し、指向性光を発光させるタイミングを、撮影部が被写体を示す被写体像を結像する結像光学系により結像された被写体像を撮影して撮影によって得られた画像信号を生成する撮影部により生成された画像信号への指向性光の発光による影響を抑える所定の期間とする制御を射出部に行うことを含む。
 本発明の第19の態様に係る測距プログラムは、コンピュータに、指向性のある光である指向性光を発光させて被写体を示す被写体像を結像する結像光学系の光軸方向に沿って指向性光を射出する射出部により指向性光が射出されたタイミング、及び指向性光の被写体からの反射光を受光する受光部により反射光が受光されたタイミングに基づいて被写体までの距離を導出し、指向性光を発光させるタイミングを、撮影部が被写体を示す被写体像を結像する結像光学系により結像された被写体像を撮影して撮影によって得られた画像信号を生成する撮影部により生成された画像信号への指向性光の発光による影響を抑える所定の期間とする制御を射出部に行うことを含む処理を実行させるためのものである。
 本発明の一つの実施形態によれば、撮影画像の乱れを抑制することができる、という効果が得られる。
本実施の形態に係る測距装置の要部の構成の一例を示すブロック図である。 本実施の形態に係る測距装置における被写体までの距離を計測する測距動作のタイミングの一例を示すタイミングチャートである。 第1の実施の形態の測距装置において1回の計測における発光から受光までのタイミングの一例を表すタイミングチャートである。 被写体までの距離を横軸、計測回数を縦軸とした場合の計測値のヒストグラムの一例を示すグラフである。 本実施の形態に係る測距装置の主制御部で実行される制御処理の流れの一例を表すフローチャートである。 本実施の形態に係る測距装置における撮影動作及び測距動作のタイミングを表すタイミングチャートの一例である。 本実施の形態に係る測距装置の測距制御部で実行される測距処理の流れの一例を表すフローチャートである フォトダイオードの発光タイミングのその他の例を説明するための図であって、水平ブランキング期間の開始の直前に電荷を読み出す画素の読み出しタイミングに発光させる場合のタイミングの一例を示す図である。 フォトダイオードの発光タイミングのその他の例を説明するための図であって、水平ブランキング期間の開始前の所定範囲内の画素から電荷を読み出すタイミングに発光させる場合のタイミングの一例を示す図である。 フォトダイオードの発光タイミングのその他の例を説明するための図であって、水平ブランキング期間の終了後の所定範囲内の画素から電荷を読み出すタイミングに重なるように発光させる場合のタイミングの一例を示す図である。 実施形態に係る測距装置において得られるヒストグラムの変形例であって、AFに基づく被写体距離範囲以外の計測結果を用いずに被写体までの距離を導出する例を説明するための図である。 実施形態に係る測距装置において得られるヒストグラムの変形例であって、AFに基づく被写体距離未満の距離の計測値を用いずに被写体までの距離を導出する例を説明するための図である。 実施形態に係る測距装置において得られるヒストグラムの変形例であって、AFに基づく被写体距離より長い距離の計測値を用いずに被写体までの距離を導出する例を説明するための図である。 AF結果やAE結果に、基づくレーザ光の射出強度やフォトダイオードの受光感度の調整を説明するための説明図である。 本実施の形態に係る測距装置における撮影動作及び測距動作のタイミングを表すタイミングチャートのその他の一例である。 発光回数決定テーブルの構成の一例を示す概念図である。 輝度情報送信処理の流れの一例を示すフローチャートである。 発光回数決定処理の流れの一例を示すフローチャートである。 発光回数決定テーブルの構成の他の例を示す概念図である。 露出状態特定情報送信処理の流れの他の例を示すフローチャートである。 発光回数決定処理の流れの他の例を示すフローチャートである。
 以下、添付図面に従って本開示の技術に係る測距装置の実施形態の一例について説明する。なお、本実施形態において、「測距」とは、計測対象となる被写体までの距離を計測することを指す。
 まず、本実施の形態に係る測距装置の構成について説明する。図1は、本実施の形態に係る測距装置10の要部の構成の一例を示すブロック図である。
 本実施の形態の測距装置10は、測距する機能と、被写体を撮影した撮影画像を生成する機能とを有する。本実施の形態の測距装置10は、制御部20、発光用レンズ30、レーザダイオード32、受光用レンズ34、フォトダイオード36、結像光学系40、撮像素子42、操作部44、ビューファインダー46、及び記憶部48を備える。
 制御部20は、タイムカウンタ22、測距制御部24、及び主制御部26を備える。タイムカウンタ22は、測距制御部24を介して主制御部26から入力された信号(例えば、クロックパルス)に応じて予め定められた一定周期毎にカウント信号を発生させる機能を有する。
 測距制御部24は、主制御部26の制御に応じて、測距する機能を有する。本実施の形態の測距制御部24は、タイムカウンタ22で発生したカウント信号に応じたタイミングで、レーザダイオード32の駆動を制御して測距を行う。測距制御部24が、本開示の技術に係る導出部として機能する。測距制御部24の具体的な実現例としては、ASIC(Application Specific Integrated Circuit)やFPGA(Field-Programmable Gate Array)等が挙げられる。また、本実施の形態の測距制御部24は、記憶部(図示省略)を有している。測距制御部24が有する記憶部の具体例としては、ROM(Read Only Memory)等の不揮発性の記憶部や、RAM(Random Access Memory)等の揮発性の記憶部が挙げられる。
 主制御部26は、測距装置10全体を制御する機能を有する。また、本実施の形態の主制御部26は、結像光学系40及び撮像素子42を制御して被写体を撮影し、撮影画像(被写体像)を生成する機能を有する。主制御部26が本開示の技術に係る制御部、輝度検出部、焦点調整部、及び露出調整部として機能する。主制御部26の具体例としては、CPU(Central Processing Unit)等が挙げられる。また、本実施の形態の測距制御部24は、記憶部(図示省略)を有している。測距制御部24が有する記憶部の具体例としては、ROM等の不揮発性の記憶部や、RAM等の揮発性の記憶部が挙げられる。ROMには、後述する制御のプログラムが予め記憶されている。
 なお、制御処理のプログラムは、必ずしも最初から主制御部26に記憶させておく必要はない。例えば、SSD(Solid State Drive)、CD-ROM、DVD、光磁気ディスク、及びICカード等の任意の可搬型の記憶媒体に先ずは制御プログラムを記憶させておいてもよい。そして、制御プログラムを記憶させておいた可搬型の記憶媒体から測距装置10が制御プログラムを取得して主制御部26等に記憶するようにしてもよい。また、インターネットやLAN(Local Area Network)などを介して他の外部装置から制御プログラムを測距装置10が取得して、主制御部26等に記憶するようにしてもよい。
 操作部44は、測距装置10に対して各種指示を与える際にユーザによって操作されるユーザインタフェースである。操作部44は、レリーズボタン、測距指示ボタン、及び各種指示をユーザが与える際に用いられるボタンやキー等(いずれも図示省略)を含む。操作部44によって受け付けられた各種指示は操作信号として主制御部26に出力され、主制御部26は、操作部44から入力された操作信号に応じた処理を実行する。
 操作部44のレリーズボタンは、撮影準備指示状態と撮影指示状態との2段階の押圧操作を検出する。撮影準備指示状態とは、例えば待機位置から中間位置(半押し位置)まで押下される状態を指し、撮影指示状態とは、中間位置を超えた最終押下位置(全押し位置)まで押下される状態を指す。なお、以下では、「待機位置から半押し位置まで押下される状態」を「半押し状態」といい、「待機位置から全押し位置まで押下される状態」を「全押し状態」という。
 本実施の形態に係る測距装置10では、マニュアルフォーカスモードとオートフォーカスモードとがユーザの指示に応じて選択的に設定される。オートフォーカスモードでは、操作部44のレリーズボタンを半押し状態にすることにより撮影条件の調整が行われ、その後、引き続き全押し状態にすると露光(撮影)が行われる。つまり、操作部44のレリーズボタンを半押し状態にすることによりAE(Automatic Exposure)機能が働いて露出調整が行われた後、AF(Auto-Focus)機能が働いて合焦制御され、レリーズボタンを全押し状態にすると撮影が行われる。
 なお、本実施形態において、主制御部26は、AEが行われることによって得られた結果である現時点の露出状態を特定する露出状態特定情報を測距制御部24に送信する。また、主制御部26は、AFが行われることによって得られた結果である現時点の合焦状態を特定する合焦状態特定情報を測距制御部24に送信する。なお、露出状態特定情報の一例としては、被写体輝度に応じて一意に定まる所謂AE評価値から導出されるF値及びシャッタスピードが挙げられる。また、露出状態特定情報の他の例としては、AE評価値が挙げられる。また、合焦状態特定情報の一例としては、AFにより得られる被写体距離が挙げられる。
 記憶部48は、主として撮影によって得られた画像データが記憶されるものであり、不揮発性のメモリが用いられる。記憶部48の具体例としては、フラッシュメモリやHDD(Hard Disk Drive)が挙げられる。
 ビューファインダー46は、画像及び文字情報等を表示する機能を有する。本実施の形態のビューファインダー46は、電子ビューファインダー(以下、「EVF」という)であり、撮影時に連続フレームで撮影されて得られた連続フレーム画像の一例であるライブビュー画像(スルー画像)の表示に用いられる。また、ビューファインダー46は、静止画撮影の指示が与えられた場合に単一フレームで撮影されて得られた単一フレーム画像の一例である静止画像の表示にも用いられる。更に、ビューファインダー46は、再生モード時の再生画像の表示やメニュー画面等の表示にも用いられる。
 結像光学系40は、フォーカスレンズを含む撮影レンズ、モータ、スライド機構、及びシャッタ(いずれも図示省略)を備えている。スライド機構は、フォーカスレンズを結像光学系40の光軸方向(図示省略)に沿って移動させる。スライド機構には光軸方向に沿ってスライド可能にフォーカスレンズが取り付けられている。また、スライド機構にはモータが接続されており、スライド機構は、モータの動力を受けてフォーカスレンズを光軸方向に沿ってスライドさせる。モータは、制御部20の主制御部26に接続されており、主制御部26からの命令に従って駆動が制御される。なお、本実施の形態の測距装置10では、モータの具体例として、ステッピングモータを適用している。従って、モータは、主制御部26からの命令によりパルス電力に同期して動作する。
 本実施の形態に係る測距装置10では、オートフォーカスモード時に、主制御部26が、撮像素子42による撮像によって得られた画像のコントラスト値が最大となるように結像光学系40のモータを駆動制御することによって合焦制御を行う。また、オートフォーカスモード時に、主制御部26は、撮像によって得られた画像の明るさを示す物理量であるAE情報を算出する。主制御部26は、操作部44のレリーズボタンが半押し状態とされたときには、AE情報により示される画像の明るさに応じたシャッタスピード及びF値(絞り値)を導出する。そして、主制御部26は、導出したシャッタスピード及びF値となるように関係各部を制御することによって露出調整を行う。
 撮像素子42は、カラーフィルタ(図示省略)を備えた撮像素子であり、本開示の技術に係る撮影部として機能する。本実施の形態では、撮像素子42の一例としてCMOS型のイメージセンサを用いている。なお、撮像素子42は、CMOS型のイメージセンサに限らず、例えば、CCDイメージセンサでもよい。カラーフィルタは、輝度信号を得るために最も寄与するG(緑)に対応するGフィルタ、R(赤)に対応するRフィルタ、及びB(青)に対応するBフィルタを含む。撮像素子42の各画素(図示省略)には、カラーフィルタに含まれる“R”、“G”、及び“B”の何れかのフィルタが割り当てられている。
 被写体を撮影する場合、被写体を示す画像光は、結像光学系40を介して撮像素子42の受光面に結像される。撮像素子42は、複数の画素(図示省略)が水平方向及び垂直方向にマトリクス状に配列されており、画像光に応じた信号電荷が撮像素子42の画素に蓄積される。撮像素子42の画素に蓄積された信号電荷は、主制御部26の制御に基づいて信号電荷(電圧)に応じたデジタル信号として順次読み出される。なお、本実施の形態の測距装置10では、水平方向毎に、すなわち、画素行毎に画素単位で信号電荷を順次読み出す。1行の画素行の画素から電荷を読み出した後、次の画素行の画素から電荷を読み出すまでの間に、信号電荷の読み出しを行わない期間(以下、「水平ブランキング期間」という)が生じる。
 また、撮像素子42は、いわゆる電子シャッタ機能を有しており、電子シャッタ機能を働かせることで、主制御部26の制御に基づいたタイミングによって各フォトセンサの電荷蓄積時間(シャッタスピード)を制御する。
 撮像素子42は、各画素から撮影画像の画素値を示すデジタル信号を出力する。なお、各画素から出力される撮影画像は有彩色画像であり、例えば、画素の配列と同じカラー配列のカラー画像である。撮像素子42から出力された撮影画像(フレーム)は、主制御部26を介して主制御部26内の記憶部または、記憶部48の予め定められたRAW(生)画像記憶領域(図示省略)に一時記憶(上書き保存)される。
 主制御部26は、フレームに対して各種の画像処理を施す。主制御部26は、WB(White Balance)ゲイン部、ガンマ補正部及び同時化処理部を有し(いずれも図示省略)、主制御部26内等に一時記憶された元のデジタル信号(RAW画像)に対して各処理部で順次信号処理を行う。すなわち、WBゲイン部は、R,G,B信号のゲインを調整することによりホワイトバランス(WB)調整を実行する。ガンマ補正部は、WBゲイン部でWB調整が実行された各R,G,B信号をガンマ補正する。同時化処理部は、撮像素子42のカラーフィルタの配列に対応した色補間処理を行い、同時化したR,G,B信号を生成する。なお、主制御部26は、撮像素子42により1画面分のRAW画像が取得される毎に、そのRAW画像に対して並列に画像処理を行う。
 また、主制御部26は、生成した記録用の撮影画像の画像データを、入力された信号を別の形式の信号に変換するエンコーダ(図示省略)に出力する。主制御部26により処理されたR,G,B信号は、エンコーダにより記録用の信号に変換(エンコーディング)され、記憶部48に記録される。また、主制御部26により処理された表示用の撮影画像は、ビューファインダー46に出力される。なお、以下では、説明の便宜上、上記の「記録用の撮影画像」及び「表示用の撮影画像」を区別して説明する必要がない場合は「記録用の」との文言及び「表示用の」との文言を省略して「撮影画像」と称する。
 また、本実施の形態の主制御部26は、表示用の撮影画像を動画像として連続して表示させる制御を行うことにより、ビューファインダー46にライブビュー画像を表示する。
 発光用レンズ30及びレーザダイオード32は、本開示の技術に係る射出部の一例として機能する。レーザダイオード32は、測距制御部24からの指示に基づいて駆動され、レーザ光を発光用レンズ30を介して計測対象となる被写体へ向けて、結像光学系40の光軸方向に射出する機能を有する。本実施の形態の発光用レンズ30の具体例としては、対物レンズなどが挙げられる。なお、レーザダイオード32により射出されるレーザ光は、本開示の技術に係る指向性光の一例である。
 また、受光用レンズ34及びフォトダイオード36は、本開示の技術に係る受光部の一例として機能する。フォトダイオード36は、レーザダイオード32から射出され、被写体で反射されたレーザ光を受光用レンズ34を介して受光し、受光量に応じた電気信号を測距制御部24に出力する機能を有する。
 操作部44の測距指示ボタン等により、被写体までの距離を計測(測距)するようにユーザから指示がなされると、主制御部26は、測距制御部24に、測距を行うように指示する。具体的には、本実施の形態では、主制御部26は、測距指示信号を測距制御部24に送信することにより、測距制御部24に対して測距を行うように指示する。また、主制御部26は、被写体までの距離の計測及び被写体の撮影を並行して行う場合は、測距動作と撮影動作とを同期させるための同期信号を測距制御部24に送信する。
 同期信号及び測距指示信号を受信すると、測距制御部24は、タイムカウンタ22のカウント信号に応じたタイミングで、レーザダイオード32の発光を制御することにより、被写体に向けてレーザ光を射出するタイミングを制御する。また、測距制御部24は、タイムカウンタ22のカウント信号に応じたタイミングで、フォトダイオード36から出力された受光量に応じた電気信号をサンプリングする。
 測距制御部24は、レーザダイオード32がレーザ光を発光した発光タイミングと、フォトダイオード36がレーザ光を受光した受光タイミングとに基づいて、被写体までの距離を導出し、導出した距離を表す距離データを主制御部26に出力する。主制御部26は、距離データに基づいて、被写体までの距離に関する情報をビューファインダー46に表示させる。また、主制御部26は、距離データを記憶部48に記憶させる。
 測距制御部24による被写体までの距離の計測についてさらに詳細に説明する。図2は、測距装置10における被写体までの距離の計測における測距動作のタイミングの一例を示すタイミングチャートである。
 本実施の形態の測距装置10では、1回の測距(計測)シーケンスに、電圧調整期間、実計測期間、及び休止期間を含む。電圧調整期間とは、レーザダイオード32及びフォトダイオード36の駆動電圧を、適切な電圧値に調整する期間をいう。具体例として、本実施の形態の測距装置10では、図2に示すように、電圧調整期間を数100msec(ミリ秒)としている。
 また、実計測期間とは、被写体までの距離を実際に計測する期間をいう。本実施の形態の測距装置10では、具体例として、図2に示すように、レーザ光を発光(射出)させ、被写体で反射したレーザ光を受光する動作を数100回繰り返し、発光(射出)から受光までの経過時間を計測することにより被写体までの距離を計測している。すなわち、本実施の形態の測距装置10では、1回の計測シーケンスにおいて、被写体までの距離の計測を数100回、行っている。
 図3には、1回の計測における発光から受光までのタイミングを表すタイミングチャートの一例を示す。計測を行う場合、測距制御部24は、タイムカウンタ22のカウント信号に応じて、レーザダイオード32を発光させるためのレーザトリガをレーザダイオード32に出力する。レーザダイオード32は、レーザトリガに応じて、発光する。本実施の形態の測距装置10では、具体例として、レーザダイオード32の発光時間を、数10nsec(ナノ秒)としている。発光したレーザ光は、発光用レンズ30を介して被写体に向けて結像光学系40の光軸方向に射出される。測距装置10から射出されたレーザ光は、被写体で反射し、測距装置10に到達する。測距装置10のフォトダイオード36は、受光用レンズ34を介して、反射してきたレーザ光を受光する。
 本実施の形態の測距装置10では、具体例として、測距装置10からの距離が1km以内の被写体に対して測距を行う測距装置としている。レーザダイオード32から発光用レンズ30を介して1km先の被写体に向けて射出したレーザ光が戻ってくる(受光する)までの時間は、1km×2/光速≒数μsec(マイクロ秒)となる。従って、1km先の被写体までの距離を計測するためには、図2に示すように、少なくとも数μsecの時間を要する。
 なお、本実施の形態の測距装置10では、レーザ光の往復時間等を考慮し、具体例として、1回の実計測時間を図2に示すように数msecとしている。なお、被写体までの距離により、レーザ光の往復時間は異なるため、測距装置10が想定する距離に応じて、1回あたりの実計測時間を異ならせてもよい。
 測距装置10では、測距制御部24が、上述のようにして数100回計測した計測値に基づいて、被写体までの距離を導出する。本実施の形態の測距制御部24では、具体的一例として、数100回分の計測値のヒストグラムを解析して被写体までの距離を導出している。図4には、被写体までの距離を横軸、計測回数を縦軸とした場合の計測値のヒストグラムの一例を表したグラフを示す。測距制御部24は、上記ヒストグラムにおいて、計測回数の最大値に対応する被写体までの距離を計測結果として導出し、導出した計測結果を示す距離データを主制御部26に出力する。なお、被写体までの距離に代わり、レーザ光の往復時間(発光から受光までの経過時間)や、レーザ光の往復時間の1/2等に基づいてヒストグラムを生成するようにしてもよい。
 また、休止期間とは、レーザダイオード32及びフォトダイオード36の駆動を休止させるための期間をいう。本実施の形態の測距装置10では、具体例として、図2に示すように、休止期間を数100msecとしている。
 さらに、本実施の形態の測距装置10では、1回の計測期間を数100msecとしている。
 一方、本実施の形態の測距装置10の主制御部26は、撮影を行わない場合は、上述したようにライブビュー画像をビューファインダー46に表示する。主制御部26は、数10fps(数10msec/画像)で撮影された撮影画像を動画像としてビューファインダー46に表示することによりライブビュー画像の表示を行う。そのため、1回の計測期間の間に、計測期間/fps個のライブビュー画像がビューファインダー46に表示されることになる。
 次に本実施の形態の測距装置10における撮影動作と測距動作とを同期させた場合の撮影動作及び測距動作について説明する。なお、以下では、具体例として、静止画像を撮影する撮影動作と測距動作とを同期させた場合の撮影動作及び測距動作について説明する。
 まず、主制御部26で実行される制御処理について説明する。図5には、本実施の形態の測距装置10の主制御部26で実行される制御処理の流れの一例を表すフローチャートを示す。また、図6には、撮影動作及び測距動作のタイミングを表すタイミングチャートの一例を示す。図5に示したフローチャートは、測距装置10に電源が投入されると実行される。
 まず、ステップ100で、主制御部26がライブビュー動作を開始する。上述したように、主制御部26は、結像光学系40及び撮像素子42により撮影した撮影画像を動画像として連続して表示させる制御を行うことにより、ビューファインダー46にライブビュー画像を表示させる。
 次のステップ102で、主制御部26が、操作部44のレリーズボタンが半押しされたか否かを判断する。半押しされていない場合、例えば、レリーズボタンが全く押されていない場合等は、ステップ132へ進む。一方、半押しされている場合は、ステップ104へ進む。
 ステップ104で、主制御部26は、結像光学系40を制御し、上述したようにAE及びAFを行う。測距装置10では、AEを行うことにより、露出調整が行われ、AFを行うことにより合焦制御され、被写体を示す画像光が撮像素子42の受光面に合焦状態で結像される。
 次のステップ106で、主制御部26が、操作部44のレリーズボタンが全押しされたか否かを判断する。全押しされていない場合は、ステップ108へ進む。ステップ108では、主制御部26が、操作部44のレリーズボタンへの押圧操作が解除されたか否かを判断する。押圧が解除されていない場合は、ステップ104に戻り、本処理を繰り返す。一方、押圧が解除された場合は、ステップ132へ進む。
 また一方、レリーズボタンが全押しされている場合は、ステップ106からステップ110へ進む。ステップ110で、主制御部26が、同期信号を測距制御部24に送信する。このように、本実施の形態の測距装置10では、主制御部26による撮影動作と、測距制御部24による測距動作とを同期させるために、撮影(撮像素子42への本露光)の開始に先だって、同期信号が主制御部26から測距制御部24に送信される。詳細は後述するが、測距制御部24では、同期信号を受信すると測距動作(被写体までの距離の計測)を開始する。
 次のステップ112で、主制御部26は、本露光(撮影)を開始させる。本露光が開始されることにより、撮像素子42の画素に光が照射され(画像光が撮像素子42の受光面に結像され)、各画素には、照射された光に応じた信号電荷が蓄積される。
 次のステップ114で、主制御部26は、本露光が終了したか否かを検出する。本露光が終了するまで待機状態となり、本露光が終了した場合は、ステップ116へ進む。なお、本露光が終了したか否かの判断方法は限定されないが、具体例としては、種々の条件により定められた本露光時間が経過したか否かを判定することにより判断する方法が挙げられる。
 ステップ116で、主制御部26は、撮像素子42の各画素に蓄積された信号電荷の読み出しを開始する。また、次のステップ118で、主制御部26は、読み出しが開始したことを示す読出開始信号を測距制御部24に出力する。
 各画素から読み出された信号電荷は、信号電荷に応じたデジタル信号である電気信号(画像信号)として、主制御部26に送信される。
 次のステップ120で、主制御部26は、水平ブランキング期間であるか否かを判断する。上述したように、撮像素子42の画素から信号電荷を読み出す場合、画素行毎に、画素単位で読み出すため、画素行と、画素行との間に、信号電荷の読み出しを行わない水平ブランキング期間が生じる。主制御部26は、水平ブランキング期間であるか否かを判断し、水平ブランキング期間ではない場合、例えば、一画素行の画素から信号電荷を読み出している間は、ステップ124へ進む。一方、水平ブランキング期間の場合は、ステップ122へ進む。ステップ122で、主制御部26は、発光指示信号を測距制御部24に送信する。測距制御部24では、詳細を後述するが、発光指示信号を受信すると、受信した発光指示信号に基づいて、レーザダイオード32を発光させる。
 次のステップ124で、主制御部26は、読み出しを終了するか否かを判断する。撮像素子42の全ての画素から未だ信号電荷を読み出していない場合は、ステップ120に戻り、本処理を繰り返す。一方、撮像素子42の全ての画素から信号電荷を読み出した場合は、ステップ126へ進む。
 ステップ126で、主制御部26は、測距制御部24に読み出しが終了したことを示す読出終了信号を送信する。
 次のステップ128で、主制御部26は、距離データを受信したか否かを判断する。測距制御部24は、詳細を後述するが、被写体までの距離を計測(測距)すると、計測結果を示す距離データを主制御部26に送信する。測距制御部24が送信した距離データを受信するまで待機状態となり、距離データを受信した場合は、ステップ130へ進む。
 ステップ130では、主制御部26が、受信した距離データに基づいて、被写体までの距離に関する情報をビューファインダー46に表示する。また、主制御部26は、受信した距離データを撮影した撮影画像に対応付けて記憶部48に記憶する。本ステップにより、被写体を撮影した撮影画像(撮影画像を示す画像データ)と、被写体までの距離(距離データ)とが、対応付けられた状態で記憶部48に記憶される。
 次のステップ132で、主制御部26は、図示を省略した電源スイッチがオフされたか否かを判定する。スイッチがオフされていない場合は、ステップ102に戻り、本処理を繰り返す。一方、電源スイッチがオフされた場合、ステップ134へ進む。
 ステップ134では、主制御部26が、ライブビュー動作を停止させた後、本処理を終了する。また、主制御部26は、測距装置10の電源をオフにする。
 次に、測距制御部24で実行される測距処理について説明する。図7には、本実施の形態の測距装置10の測距制御部24で実行される測距処理の流れの一例を表すフローチャートを示す。
 図7に示したフローチャートは、測距装置10に電源が投入されると実行される。
 まず、ステップ200では、測距制御部24が、同期信号を受信したか否かを判断する。具体的には、測距制御部24は、上述した主制御部26における制御処理のステップ110で主制御部26から送信された同期信号を受信したか否かを判断する。同期信号を受信するまで待機状態になり、同期信号を受信するとステップ202へ進む。
 ステップ202では、測距制御部24は、図6に示した電圧調整期間に移行して、レーザダイオード32及びフォトダイオード36の駆動電圧の電圧調整を行う。
 次のステップ204では、測距制御部24が、電圧調整が終了したか否かを判断する。本実施の形態では、上述したように、また、図6にも示したように、電圧調整期間を数100msecとしている。そのため、測距制御部24は、電圧調整期間に移行してから、数100msecが経過した場合は、電圧調整が終了したと判断する。従って、測距制御部24は、電圧調整期間に移行してから数100msecが経過するまでは、電圧調整が終了していないとして待機状態となり、数100msecが経過した場合は、電圧調整が終了したものとしてステップ206へ進む。
 ステップ206では、測距制御部24は、実計測期間に移行して、被写体までの距離の計測を開始する。
 次のステップ208では、測距制御部24が、読出開始信号を受信したか否かを判断する。具体的には、測距制御部24は、上述した主制御部26における制御処理のステップ118で主制御部26から送信された読出開始信号を受信したか否かを判断する。本実施の形態の測距装置10の測距制御部24では、画素から電荷信号を読み出している期間(以下、「読出期間」という)と、読出期間外とで、被写体までの距離の計測における制御が異なるため、読出開始信号を主制御部26から受信し、読出開始信号の受信の有無に応じて、計測における制御、より具体的には、レーザダイオード32の発光の制御を異ならせている。レーザダイオード32を発光させるためには、レーザダイオード32を駆動するための駆動電圧がレーザダイオード32に印加される。撮像素子42の画素から電荷信号を読み出している最中にレーザダイオード32に駆動電圧を印加されると、測距装置10では、電圧変動が生じ、生じた電圧変動に起因して、画素から読み出される電荷信号にノイズが重畳してしまう場合がある。このように電荷信号にノイズが重畳することにより、撮影画像に乱れが生じてしまう場合がある。
 そのため、本実施の形態の測距装置10の測距制御部24では、読出期間では、画素から電荷信号を読み出していない期間である、上述した水平ブランキング期間にレーザダイオード32を発光させるよう制御する。すなわち、測距制御部24は、読出期間では、撮影動作に同期してレーザダイオード32を発光する制御を行う。
 一方、読出期間外では、上述したように電圧変動に起因するノイズの重畳が問題とならないため、撮影動作に同期してレーザダイオード32を発光させなくてもよく、上述したように、各計測に応じて数msec毎に発光させればよい。以下、読出期間外における測距制御部24による制御を「通常制御」という。
 そのため、本実施の形態の測距装置10の測距制御部24では、読出期間と読出期間外とで、被写体までの距離の計測における制御が異なる。
 ステップ208で 測距制御部24が、読出開始信号を受信していない場合は、通常制御を行うため、ステップ216へ進む。一方、測距制御部24が読出開始信号を受信した場合は、ステップ210へ進む。
 ステップ210では、測距制御部24が、読出終了信号を受信したか否かを判断する。
具体的には、測距制御部24は、上述した主制御部26における制御処理のステップ126で主制御部26から送信された読出終了信号を受信したか否かを判断する。
 測距制御部24が読出終了信号を受信した場合は、以降の期間は、通常制御を行うため、ステップ216へ進む。一方、測距制御部24が読出終了信号を受信していない場合は、ステップ212へ進む。
 ステップ212では、測距制御部24が発光指示信号を受信したか否かを判断する。具体的には、測距制御部24は、上述した主制御部26における制御処理のステップ122で主制御部26から送信された発光指示信号を受信したか否かを判断する。
 測距制御部24が発光指示信号を受信していない場合、すなわち、読出期間中であり、未だ水平ブランキング期間ではない場合は、待機状態になる。一方、測距制御部24が発光指示信号を受信した場合は、ステップ214へ進む。ステップS214では、計測中であるか否かを判断する。本実施の形態の測距装置10では、1回の計測時間(上述した具体例では数msec)に対し、水平ブランキング期間から水平ブランキング期間までの間隔(1画素行の画素からの電荷信号の読み出し時間)が短い。そのため、まだ、計測が終了していないうちに、次の水平ブランキング期間に至り、発光指示信号が主制御部26から測距制御部24に送信される場合がある。本実施の形態の測距制御部24では、このように計測中に発光指示信号を受信した場合は、受信した発光指示信号を無視することにより、レーザダイオード32を発光させない。そのため、計測中である場合は、ステップ226へ進む。一方、計測中ではない場合は、ステップ216へ進む。
 ステップ216では、測距制御部24が、レーザダイオード32を発光させる。次のステップ218では、測距制御部24が所定時間が経過したか否かを判断する。具体的には、測距制御部24は、上述したように、1回の計測時間を数msecとしているため、数msecが経過したか否かを判断する。所定時間(本実施の形態では、1回の計測時間である数msec)が経過していない場合は、待機状態となり、所定時間が経過した場合は、ステップ220へ進む。
 ステップ216の処理によってレーザダイオード32が発光することによりレーザ光が発光用レンズ30を介して被写体に向けて射出される。上記所定時間が経過するまでに、被写体で反射したレーザ光は、受光用レンズ34を介してフォトダイオード36により受光される。ここで、測距制御部24は、フォトダイオード36により、受光した場合は、発光から受光までの経過時間を取得し、記憶部(例えば、測距制御部24内のRAM等)に記憶させておく。
 一方、例えば、被写体が動いてしまった場合等では、レーザ光の発光から受光までの経過時間が1回当たりの実計測時間である数msecを超えてしまったり、レーザ光が戻ってこなかったり(反射光を受光しなかったり)する場合がある。このような場合は、計測エラーとなる。なお、計測エラーが生じた場合は、測距制御部24は、その旨を記憶部(例えば、測距制御部24内のRAM等)に記憶させておき、計測エラーが生じた回数等に応じ、例えば、ヒストグラムを用いて被写体までの距離を導出する上で無視できないほどの回数であれば、計測エラーが生じたことをビューファインダー46等に表示するようにしてもよい。なお、このように計測エラーが生じた場合には、主制御部26が撮影画像を記憶部48に記憶させないようにしてもよい。この場合に、撮影画像を記憶するか否かをユーザが操作部44(本開示の技術に係る記憶設定部の一例)を介して設定できるようにしてもよい。
 次のステップ220では、測距制御部24が所定回数の計測を終了したか否かを判定する。所定回数の計測が終了していない場合は、ステップ208に戻り、計測を繰り返す。一方、所定回数の計測が終了した場合は、ステップ222へ進む。
 ステップ222では、ステップ216の処理によって、フォトダイオード36がレーザ光を発光してから、フォトダイオード36がレーザ光を受光するまでの時間に基づいて、被写体までの距離を導出する。そして、測距制御部24は、一例として、図4に示すように、被写体までの距離のヒストグラムを、生成し、ヒストグラムから、計測回数の最大値に対応する被写体までの距離を計測結果として導出する。なお、レーザ光の往復時間等、時間に関するヒストグラムを生成した場合は、まず、計測回数の最大値に対応する時間を導出し、導出した時間に基づいて、被写体までの距離を導出すればよい。例えば、レーザ光の往復時間に関するヒストグラムの場合は、計測回数の最大値に対応するレーザ光の往復時間の1/2×光速により被写体までの距離を導出すればよい。
 次のステップS224は、測距制御部24は、ステップ222で導出した距離を示す距離データを、主制御部26に送信した後、ステップ226へ進む。
 ステップ226は、測距制御部24は、本測距処理を終了するか否かを判定する。例えば、主制御部26が、電源スイッチがオフされたと判定した場合等、予め定められた終了条件を満たした場合は、本測距処理を終了する。一方、終了条件が満たされない場合は、ステップ200に戻り、本測距処理を繰り返す。
 以上説明したように本実施の形態の測距装置10では、測距を行う場合、主制御部26が、撮像素子42の画素から電荷を読み出す水平ブランキング期間にレーザダイオード32を発光させるよう、発光指示信号を測距制御部24に送信する。測距制御部24は、受信した発光指示信号に基づいて、レーザダイオード32を発光させ、発光用レンズ30を介して被写体にレーザ光を照射し、測距を行う。
 このように、本実施の形態の測距装置10の主制御部26は、水平ブランキング期間は、画素から電荷の読み出しを行わない。電荷の読み出しを行わない期間に測距制御部24がレーザダイオード32を発光させる。これにより、レーザダイオード32の発光が電荷の読み出しに与える影響を低減することができる。従って、本実施の形態の測距装置10によれば、撮影画像の乱れを抑制することができる。
 なお、本実施の形態では、測距制御部24が、水平ブランキング期間にレーザダイオード32を発光させる制御を行っているがレーザダイオード32を発光させるタイミングは、レーザ光の発光による画像信号への影響を抑える所定の期間に行えばよい。所定の期間とは、例えば、画像信号の読み出し状態に影響しないか、または影響の度合いが予め定められた許容度合い以下となる期間であればよい。なお、影響の度合いが予め定められた許容度合いとは、例えば、ユーザが撮影画像を視認した場合に、問題とならない(気付かない)程度の画像の乱れが生じる場合は許容範囲内とすること等が挙げられる。
 具体例としては、図8Aに示すように、水平ブランキング期間の開始の直前に電荷を読み出す画素の読み出しタイミングに発光させてもよい。また、例えば、図8Bに示すように、水平ブランキング期間の開始前の所定範囲内(図8Bの画素では、一例として3画素内)の画素から電荷を読み出すタイミングに発光させてもよい。また、例えば、図8Cに示すように、発光時間が、水平ブランキング期間の終了後の所定範囲内(図8Bの画素では、一例として1画素内)の画素から電荷を読み出すタイミングに重なるように発光させてもよい。その他、例えば、水平ブランキング期間の終了後の所定範囲内の画素から電荷を読み出すタイミングに発光させてもよい。なお、レーザダイオード32の発光の影響を低減する観点からは、図8A~図8Cに示したように、レーザダイオード32の発光時間が、水平ブランキング期間に含まれることが好ましい。また、図8A及び図8Bのように、水平ブランキング期間の開始前に発光させる方がより好ましい。
 また、水平ブランキング期間ではなく、電荷の読み出しにおけるフレーム間において電荷の読み出しを行わない期間(いわゆる垂直ブランキング期間等)にレーザダイオード32を発光させるようにしてもよい。
 なお、測距制御部24による測距動作と、主制御部26による撮影動作を同期させる方法として、タイムカウンタ22のクロック信号を主制御部26で制御するようにしてもよい。
 なお、本実施の形態では、測距制御部24は、レーザ光の射出及び受光による計測を複数回(例えば、数100回)行って、被写体までの距離を導出する例を説明したが、距離の導出の際に、焦点調整結果を用いるようにしてもよい。例えば、レーザ光の射出及び受光による複数の計測結果から生成されるヒストグラム(図4)を解析する際に、AF結果から被写体までの距離の距離範囲(被写体距離及びその近傍の範囲)が分かる。そこで、図9Aに示すように、AFに基づく被写体距離範囲以外の計測結果(図9Aの斜線部分)は使用せず、AFに基づく被写体距離範囲の計測結果のみを用いて被写体までの距離を導出するようにしてもよい。これにより、距離範囲が定まると、分解能が一意に定まるため、全ての計測値を用いるよりも頻度を求める際の距離範囲の分解能を高くすることができ、綿密な数値単位で被写体までの距離を導出することができる。図9Aの例では、AFに基づく被写体距離範囲より短い距離及び長い距離の計測値を共に使用しない例を示すが、何れか一方のみを使用しないようにしてもよい。すなわち、AFに基づく被写体距離未満の距離の計測値(図9Bの斜線部分)、またはAFに基づく被写体距離より長い距離の計測値(図9Cの斜線部分)は使用せずに、被写体までの距離を導出するようにしてもよい。また、AFの代わりにマニュアルフォーカスモードにおいて手動で焦点調整した結果を用いるようにしてもよい。
 また、本実施の形態において、測距制御部24が測距を行う場合、図10に示すように主制御部26からAF結果(又は手動の焦点調整結果)を特定する合焦状態特定情報やAE結果を特定する露出状態特定情報を取得し、取得した合焦状態特定情報及び露出状態特定情報に基づいてレーザダイオード32及びフォトダイオード36の少なくとも一方を駆動調整してもよい。すなわち、焦点調整結果(焦点距離)から大体の被写体までの距離が分かるので、AF結果を特定する合焦状態特定情報に基づいてレーザダイオード32から射出されるレーザ光の射出強度を調整するようにしてもよい。例えば、焦点距離が短いほど射出強度を小さくする。これにより、環境光がノイズとなるが、環境光のノイズに影響されない適正なレーザ光の射出強度で被写体までの距離を導出することができる。同様に、焦点調整結果から大体の被写体までの距離が分かるので、AF結果を特定する合焦状態特定情報に基づいてフォトダイオード36の受光感度を調整するようにしてもよい。例えば、焦点距離が短いほど受光感度を下げる。これにより、環境光のノイズに影響されない適正な受光感度で被写体までの距離を導出することができる。或いは、露出調整結果からレーザ光の必要な強度が分かるので、AE結果を特定する露出状態特定情報に基づいてレーザ光の射出強度を調整するようにしてもよい。例えば、露出が高いほど射出強度を小さくする。或いは、露出が高くなるということは被写体輝度が低くなることを意味するので、被写体輝度が低いほど射出強度を小さくしてもよい。これにより、環境光のノイズに影響されない適正なレーザ光の射出強度で被写体までの距離を導出することができる。
 また、本実施の形態では、測距装置10が静止画像を撮影する場合について説明したが、動画像を撮影する場合にも、上記と同様に、主制御部26が制御を行うようにすればよい。なお、動画像の撮影中に、計測(計測シーケンス)を繰り返し行うようにしてもよい。また、1回の計測中に静止画の撮影を繰り返し行ってもよい。
 また、本実施の形態では、測距開始のタイミング及び本露光開始のタイミングと同時に電圧調整が行われる場合を例示したが、本開示の技術はこれに限定されるものではない。例えば、図11に示すように、測距開始及び本露光開始に先立って、具体例としては、ライブビュー画像を表示している期間等に、電圧調整が行われるようにしてもよい。この場合は、例えば、図7に示した、測距制御部24による測距処理において、ステップ200に先だって、ステップ202及びステップ204の処理を行うようにすればよい。また、電圧調整は、行わなくてもよい。
 また、上記実施の形態では、被写体までの距離に関する情報がライブビュー画像に重畳されてビューファインダー46に表示される場合を例示したが、本開示の技術はこれに限定されるものではない。例えば、ライブビュー画像の表示領域とは別の表示領域に被写体までの距離に関する情報が表示されるようにしてもよい。このように、被写体までの距離に関する情報は、ライブビュー画像の表示と並行してビューファインダー46に表示されるようにすればよい。
 また、上記実施の形態では、説明の便宜上、AFのエラーがないことを前提にして説明したが、本開示の技術はこれに限定されるものではない。すなわち、測距制御部24は、AFのエラーが生じてない場合に上述したように距離の導出を行い、AFのエラーが生じた場合に距離の導出を行わないようにしてもよい。
 また、上記実施の形態では、説明の便宜上、AEのエラーがないことを前提にして説明したが、本開示の技術はこれに限定されるものではない。すなわち、測距制御部24は、AEのエラーが生じていない場合に上述したように距離の導出を行い、AEのエラーが生じた場合に距離の導出を行わないようにしてもよい。
 また、上記実施の形態では、AF及びAEによる焦点調整及び露出調整を例示したが、本開示の技術はこれに限定されるものではなく、マニュアルフォーカスによる焦点調整、及びマニュアル露出による露出調整であってもよい。
 また、上記実施の形態では、測距装置10に設けられているレリーズボタンが操作される場合を例示したが、本開示の技術はこれに限定されるものではない。例えば、測距装置10に接続して使用される外部装置のUI(ユーザ・インタフェース)部によって受け付けられた撮影準備指示に従ってAE及びAFが開始され、外部装置のUI部によって受け付けられた撮影指示に従って本露光が開始されるようにしてもよい。測距装置10に接続して使用される外部装置の一例としては、スマートデバイス、パーソナル・コンピュータ(PC)、又は、眼鏡型若しくは腕時計型のウェアラブル端末装置が挙げられる。
 また、上記実施の形態では、ビューファインダー46にライブビュー画像及び測距結果(被写体までの距離に関する情報)が表示される場合を例示したが、本開示の技術はこれに限定されるものではない。例えば、測距装置10に接続して使用される外部装置の表示部にライブビュー画像及び測距結果の少なくとも一方が表示されるようにしてもよい。測距装置10に接続して使用される外部装置の表示部の一例としては、スマートデバイスのディスプレイ、PCのディスプレイ、又はウェアラブル端末装置のディスプレイが挙げられる。
 また、上記実施の形態で説明した制御処理(図5参照)及び測距処理(図5A及び図5B参照)はあくまでも一例である。従って、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよいことは言うまでもない。また、上記実施の形態で説明した制御処理及び測距処理に含まれる各処理は、プログラムを実行することにより、コンピュータを利用してソフトウェア構成により実現されてもよいし、その他のハードウェア構成で実現されてもよい。また、ハードウェア構成とソフトウェア構成の組み合わせによって実現してもよい。
 また、本開示の技術は、デジタルカメラにも適用可能であることはいうまでもない。
 また、上記実施の形態では、レーザ光の発光回数が固定化されている場合を例示したが、本開示の技術はこれに限定されるものではない。環境光は、レーザ光にとってノイズとなるため、レーザ光の発光回数は、被写体輝度に応じて定められた発光回数であってもよい。
 以下、レーザ光の発光回数の決め方の一例について説明する。
 レーザ光の発光回数は、一例として図12に示す発光回数決定テーブル300から導出される。発光回数決定テーブル300では、被写体輝度が高くなるほどレーザ光の発光回数が多くなるように、被写体輝度とレーザ光の発光回数とが対応付けられている。すなわち、発光回数決定テーブル300において、被写体輝度は、L<L<・・・<Lの大小関係が成立しており、発光回数は、N<N<・・・<Nの大小関係が成立している。なお、図2に示す例では、100回単位の発光回数が例示されているが、これに限らず、発光回数は発光回数決定テーブル300によって10回単位又は1回単位で定められるようにしてもよい。
 測距装置10では、発光回数決定テーブル300によるレーザ光の発光回数の導出を実現するために、主制御部26によって輝度情報送信処理(図13参照)が実行され、測距制御部24によって発光回数決定処理(図14参照)が実行される。
 先ず、測距装置10の電源スイッチがオンされると主制御部26によって実行される輝度情報送信処理について図13を参照して説明する。
 図13に示す輝度情報送信処理では、先ず、ステップ400で、主制御部26は、被写体輝度の取得を開始する条件である輝度取得開始条件を満たしたか否かを判定する。輝度取得開始条件の一例としては、レリーズボタンが半押しされたとの条件が挙げられる。輝度取得開始条件の他の例としては、撮像素子42から撮影画像が出力されたとの条件が挙げられる。
 ステップ400において、輝度取得開始条件を満たした場合は、判定が肯定されて、ステップ402へ移行する。ステップ400において、輝度取得開始条件を満たしていない場合は、判定が否定されて、ステップ406へ移行する。
 ステップ402で、主制御部26は、撮影画像から被写体輝度を取得し、その後、ステップ404へ移行する。なお、ここでは、撮影画像から被写体輝度が取得される場合を例示しているが、本開示の技術はこれに限定されるものではない。例えば、被写体輝度を検出する輝度センサが測距装置10に搭載されているのであれば、主制御部26は、輝度センサから被写体輝度を取得してもよい。
 ステップ404で、主制御部26は、ステップ402で取得した被写体輝度を示す輝度情報を測距制御部24に送信し、その後、ステップ406へ移行する。
 ステップ406で、主制御部26は、本輝度情報送信処理を終了する条件である終了条件を満たしたか否かを判定する。終了条件の一例としては、測距装置10の電源スイッチがオフされたとの条件が挙げられる。ステップ406において、終了条件を満たしていない場合は、判定が否定されて、ステップ400へ移行する。ステップ406において、終了条件を満たした場合は、判定が肯定されて、本輝度情報送信処理を終了する。
 次に、測距装置10の電源スイッチがオンされると測距制御部24によって実行される発光回数決定処理について図14を参照して説明する。
 図14に示す発光回数決定処理では、先ず、ステップ410で、測距制御部24は、ステップ404の処理が実行されることによって送信された輝度情報を受信したか否かを判定する。ステップ410において、ステップ404の処理が実行されることによって送信された輝度情報を受信していない場合は、判定が否定されて、ステップ416へ移行する。ステップ410において、ステップ404の処理が実行されることによって送信された輝度情報を受信した場合は、判定が肯定されて、ステップ412へ移行する。
 ステップ412で、測距制御部24は、発光回数決定テーブル300から、ステップ410で受信した輝度情報により示される被写体輝度に対応する発光回数を導出し、その後、ステップ414へ移行する。
 ステップ414で、測距制御部24は、ステップ412の処理で導出した発光回数を記憶部48に記憶し、その後、ステップ416へ移行する。なお、本ステップ416の処理によって記憶部48に記憶された発光回数は、図7に示す測距処理のステップ220における「所定回数」を意味する。
 ステップ416で、主制御部26は、本発光回数決定処理を終了する条件である終了条件を満たしたか否かを判定する。終了条件の一例としては、測距装置10の電源スイッチがオフされたとの条件が挙げられる。ステップ416において、終了条件を満たしていない場合は、判定が否定されて、ステップ410へ移行する。ステップ416において、終了条件を満たした場合は、判定が肯定されて、本発光回数決定処理を終了する。
 次に、レーザ光の発光回数の決め方の他の例について説明する。
 レーザ光の発光回数は、一例として図15に示す発光回数決定テーブル500に従って導出される。発光回数決定テーブル500では、被写体輝度に応じて一意に定まる露出状態特定情報(E,E,・・・・E)とレーザ光の発光回数(N,N,・・・・N)とが対応付けられている。なお、ここで、被写体輝度に応じて一意に定まる露出状態特定情報とは、例えば、被写体輝度が高いほど低くなる露出を示す露出状態特定情報を意味する。
 発光回数決定テーブル500を用いてレーザ光の発光回数を導出する場合、主制御部26によって露出状態特定情報送信処理(図16参照)が実行され、測距制御部24によって発光回数決定処理(図17参照)が実行される。
 先ず、測距装置10の電源スイッチがオンされると主制御部26によって実行される露出状態特定情報送信処理について図16を参照して説明する。
 図16に示す露出状態特定情報送信処理では、先ず、ステップ600で、主制御部26は、レリーズボタンが半押しされたか否かを判定する。ステップ600において、レリーズボタンが半押しされていない場合は、判定が否定されて、ステップ606へ移行する。ステップ600において、レリーズボタンが半押しされた場合は、判定が肯定されて、ステップ602へ移行する。なお、図16では、操作部44にレリーズボタンが備えられている場合を例に挙げて説明するが、本開示の技術はこれに限定されるものではない。例えば、操作部44に測距撮影開始ボタンが備えられている場合には、ステップ600を省略して、電源が投入された場合にステップ602の処理が開始されるようにすればよい。
 ステップ602で、主制御部26は、撮影画像から取得した被写体輝度に基づいてAEを行い、その後、ステップ604へ移行する。
 ステップ604で、主制御部26は、露出状態特定情報を測距制御部24に送信し、その後、ステップ606へ移行する。
 ステップ606で、主制御部26は、本露出状態特定情報送信処理を終了する条件である終了条件を満たしたか否かを判定する。終了条件の一例としては、測距装置10の電源スイッチがオフされたとの条件が挙げられる。ステップ606において、終了条件を満たしていない場合は、判定が否定されて、ステップ600へ移行する。ステップ606において、終了条件を満たした場合は、判定が肯定されて、本露出状態特定情報送信処理を終了する。
 次に、測距装置10の電源スイッチがオンされると測距制御部24によって実行される発光回数決定処理について図17を参照して説明する。
 図17に示す発光回数決定処理では、先ず、ステップ610で、測距制御部24は、ステップ604の処理が実行されることによって送信された露出状態特定情報を受信したか否かを判定する。ステップ610において、ステップ604の処理が実行されることによって送信された露出状態特定情報を受信していない場合は、判定が否定されて、ステップ616へ移行する。ステップ610において、ステップ604の処理が実行されることによって送信された露出状態特定情報を受信した場合は、判定が肯定されて、ステップ612へ移行する。
 ステップ612で、測距制御部24は、発光回数決定テーブル500から、ステップ610で受信した露出状態特定情報に対応する発光回数を導出し、その後、ステップ614へ移行する。
 ステップ614で、測距制御部24は、ステップ612の処理で導出した発光回数を記憶部48に記憶し、その後、ステップ616へ移行する。なお、本ステップ616の処理によって記憶部48に記憶された発光回数は、図7に示す測距処理のステップ220における「所定回数」を意味する。
 ステップ616で、主制御部26は、本露出状態特定情報送信処理を終了する条件である終了条件を満たしたか否かを判定する。終了条件の一例としては、測距装置10の電源スイッチがオフされたとの条件が挙げられる。ステップ616において、終了条件を満たしていない場合は、判定が否定されて、ステップ610へ移行する。ステップ616において、終了条件を満たした場合は、判定が肯定されて、本露出状態特定情報送信処理を終了する。
 このように、測距装置10は、被写体輝度が高いほどレーザ光の発光回数(測距回数)を多くしているので、被写体輝度に拘わらずレーザ光の発光回数(測距回数)が固定化されている場合に比べ、環境光のノイズの影響が緩和された測距結果を得ることができる。
 また、上記実施形態では、測距用の光としてレーザ光を例示しているが、本開示の技術はこれに限定されるものではなく、指向性のある光である指向性光であればよい。例えば、発光ダイオード(LED:Light Emitting Diode)やスーパールミネッセントダイオード(SLD:Super Luminescent Diode)により得られる指向性光であってもよい。指向性光が有する指向性は、レーザ光が有する指向性と同程度の指向性であることが好ましく、例えば、数メートルから数キロメートルの範囲内における測距で使用可能な指向性であることが好ましい。
 なお、2014年5月2日に出願された日本国特許出願2014-095558号及び2014年8月5日に出願された日本国特許出願2014-159802号の開示は、その全体が参照により本明細書に取り込まれる。
 本明細書に記載された全ての文献、特許出願及び技術規格は、個々の文献、特許出願及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。
 以上の実施形態に関し、更に以下の付記を開示する。
 (付記1)
 被写体を示す被写体像を結像する結像光学系により結像された被写体像を撮影し、当該撮影によって得られた画像信号を生成する撮影部と、
 レーザ光を発光させて前記結像光学系の光軸方向に沿って射出する射出部と、
 前記レーザ光の前記被写体からの反射光を受光する受光部と、
 前記射出部により前記レーザ光が発光されたタイミング及び前記受光部により前記反射光が受光されたタイミングに基づいて前記被写体までの距離を導出する導出部と、
 前記レーザ光を発光させるタイミングを、レーザ光の発光による前記画像信号への影響を抑える所定の期間とする制御を前記射出部に行う制御部と、
 を備えた測距装置。
 (付記2)
 レーザ光を発光させて被写体を示す被写体像を結像する結像光学系の光軸方向に沿ってレーザ光を射出する射出部により前記レーザ光が射出されたタイミング、及び前記レーザ光の前記被写体からの反射光を受光する受光部により前記反射光が受光されたタイミングに基づいて前記被写体までの距離を導出し、
 前記レーザ光を発光させるタイミングを、撮影部が被写体を示す被写体像を結像する結像光学系により結像された被写体像を撮影して当該撮影によって得られた画像信号を生成する撮影部により生成された前記画像信号へのレーザ光の発光による影響を抑える所定の期間とする制御を前記射出部に行うことを含む測距方法。
 (付記3)
 コンピュータに、
 レーザ光を発光させて被写体を示す被写体像を結像する結像光学系の光軸方向に沿ってレーザ光を射出する射出部により前記レーザ光が射出されたタイミング、及び前記レーザ光の前記被写体からの反射光を受光する受光部により前記反射光が受光されたタイミングに基づいて前記被写体までの距離を導出し、
 前記レーザ光を発光させるタイミングを、撮影部が被写体を示す被写体像を結像する結像光学系により結像された被写体像を撮影して当該撮影によって得られた画像信号を生成する撮影部により生成された前記画像信号へのレーザ光の発光による影響を抑える所定の期間とする制御を前記射出部に行うことを含む処理を実行させるための測距プログラム。

Claims (19)

  1.  被写体を示す被写体像を結像する結像光学系により結像された被写体像を撮影し、当該撮影によって得られた画像信号を生成する撮影部と、
     指向性のある光である指向性光を発光させて前記結像光学系の光軸方向に沿って射出する射出部と、
     前記指向性光の前記被写体からの反射光を受光する受光部と、
     前記射出部により前記指向性光が発光されたタイミング及び前記受光部により前記反射光が受光されたタイミングに基づいて前記被写体までの距離を導出する導出部と、
     前記指向性光を発光させるタイミングを、前記指向性光の発光による前記画像信号への影響を抑える所定の期間とする制御を前記射出部に行う制御部と、
     を備えた測距装置。
  2.  前記所定の期間は、画素行毎の前記画像信号を読み出す場合の画素行間の読み出しを行わない期間である、
     請求項1に記載の測距装置。
  3.  前記所定の期間は、画素行毎の前記画像信号を読み出す場合の画素行間の読み出しを行わない期間の前後に読み出される所定個数の画素を読み出すタイミングを含む期間である、
     請求項1に記載の測距装置。
  4.  前記導出部は、前記距離の導出を複数回行い、前記複数回の前記距離の導出によって得られる距離のうちの頻度が高い距離を最終的な距離として導出する請求項1から請求項3の何れか一項に記載の測距装置。
  5.  前記結像光学系の被写体への焦点調整、及び露出調整の少なくとも一方を実行する実行部を備え、
     前記実行部が、前記焦点調整を実行するものである場合に、
     前記導出部は、前記距離を導出する場合に、合焦状態特定情報に基づいて、前記頻度を求める際に使用する距離範囲、又は前記指向性光の射出から受光までの時間範囲を定め、定めた前記距離範囲又は前記時間範囲の範囲内で前記最終的な距離を導出する請求項4に記載の測距装置。
  6.  前記導出部は、前記距離を導出する場合に、前記距離範囲又は前記時間範囲を定めた結果に応じて定まる分解能で前記最終的な距離を導出する請求項5に記載の測距装置。
  7.  前記射出部は、前記指向性光の射出強度が調整可能であり、合焦状態特定情報と被写体輝度又は露出状態特定情報との少なくとも一方に基づいて前記射出強度を調整して前記指向性光を射出する請求項1から請求項6の何れか一項に記載の測距装置。
  8.  前記射出部は、前記合焦状態特定情報により示される焦点距離が短いほど前記射出強度を小さくする請求項7に記載の測距装置。
  9.  前記射出部は、前記被写体輝度が低いほど前記射出強度を小さくし、前記露出状態特定情報により示される露出が高いほど前記射出強度を小さくする請求項7又は請求項8に記載の測距装置。
  10.  前記受光部は、受光感度が調整可能であり、合焦状態特定情報に基づいて前記受光感度を調整して前記反射光を受光する請求項1から請求項9の何れか一項に記載の測距装置。
  11.  前記受光部は、前記合焦状態特定情報により示される焦点距離が短いほど前記受光感度を下げる請求項10に記載の測距装置。
  12.  画像を表示する表示部を更に含み、
     前記制御部は、前記表示部に対して、前記撮影部により撮影されて得られた動画像を表示させ、かつ、前記導出部により導出された前記被写体までの距離に関する情報を表示させる制御を行う請求項1から請求項11の何れか一項に記載の測距装置。
  13.  前記射出部、前記受光部、及び前記導出部による測距は、被写体輝度又は露出状態特定情報に応じて予め定めた回数行う請求項1から請求項12の何れか一項に記載の測距装置。
  14.  前記射出部、前記受光部、及び前記導出部による測距は、前記被写体輝度が高いほど又は前記露出状態特定情報により示される露出が低いほど多く行う請求項13に記載の測距装置。
  15.  前記導出部によって導出された前記距離を記憶する記憶部を更に含み、前記導出部によって前記距離の導出が不可能な場合、前記記憶部による記憶を中止する請求項1から請求項14の何れか一項に記載の測距装置。
  16.  前記導出部による前記距離の導出が不可能な場合に前記記憶部による記憶を中止するか否かを設定する記憶設定部を更に含む請求項15に記載の測距装置。
  17.  前記導出部は、前記結像光学系の被写体への焦点調整を行う焦点調整部による焦点調整エラー、及び前記撮影部が撮影する場合の露出を調整する露出調整部による露出調整エラーがない場合に、前記距離を導出する請求項1から請求項16の何れか一項に記載の測距装置。
  18.  指向性のある光である指向性光を発光させて被写体を示す被写体像を結像する結像光学系の光軸方向に沿って前記指向性光を射出する射出部により前記指向性光が射出されたタイミング、及び前記指向性光の前記被写体からの反射光を受光する受光部により前記反射光が受光されたタイミングに基づいて前記被写体までの距離を導出し、
     前記指向性光を発光させるタイミングを、撮影部が被写体を示す被写体像を結像する結像光学系により結像された被写体像を撮影して当該撮影によって得られた画像信号を生成する撮影部により生成された前記画像信号への前記指向性光の発光による影響を抑える所定の期間とする制御を前記射出部に行うことを含む測距方法。
  19.  コンピュータに、
     指向性のある光である指向性光を発光させて被写体を示す被写体像を結像する結像光学系の光軸方向に沿って前記指向性光を射出する射出部により前記指向性光が射出されたタイミング、及び前記指向性光の前記被写体からの反射光を受光する受光部により前記反射光が受光されたタイミングに基づいて前記被写体までの距離を導出し、
     前記指向性光を発光させるタイミングを、撮影部が被写体を示す被写体像を結像する結像光学系により結像された被写体像を撮影して当該撮影によって得られた画像信号を生成する撮影部により生成された前記画像信号への前記指向性光の発光による影響を抑える所定の期間とする制御を前記射出部に行うことを含む処理を実行させるための測距プログラム。
PCT/JP2015/056877 2014-05-02 2015-03-09 測距装置、測距法、及び測距プログラム WO2015166715A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE112015002102.7T DE112015002102T5 (de) 2014-05-02 2015-03-09 Abstandsmessvorrichtung, abstandsmessverfahren und abstandsmessprogramm
JP2016515890A JP6224232B2 (ja) 2014-05-02 2015-03-09 測距装置、測距法、及び測距プログラム
US15/333,151 US10551186B2 (en) 2014-05-02 2016-10-24 Distance measurement device, distance measurement method, and distance measurement program

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2014095558 2014-05-02
JP2014-095558 2014-05-02
JP2014159802 2014-08-05
JP2014-159802 2014-08-05

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/333,151 Continuation US10551186B2 (en) 2014-05-02 2016-10-24 Distance measurement device, distance measurement method, and distance measurement program

Publications (1)

Publication Number Publication Date
WO2015166715A1 true WO2015166715A1 (ja) 2015-11-05

Family

ID=54358456

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/056877 WO2015166715A1 (ja) 2014-05-02 2015-03-09 測距装置、測距法、及び測距プログラム

Country Status (4)

Country Link
US (1) US10551186B2 (ja)
JP (1) JP6224232B2 (ja)
DE (1) DE112015002102T5 (ja)
WO (1) WO2015166715A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2015166712A1 (ja) * 2014-05-02 2017-04-20 富士フイルム株式会社 測距装置、測距方法、及び測距プログラム
JP2020079756A (ja) * 2018-11-13 2020-05-28 株式会社リコー 距離情報取得装置および距離情報取得方法

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3836539B1 (en) 2007-10-10 2024-03-13 Gerard Dirk Smits Image projector with reflected light tracking
US12025807B2 (en) 2010-10-04 2024-07-02 Gerard Dirk Smits System and method for 3-D projection and enhancements for interactivity
DE112015003608T5 (de) * 2014-08-05 2017-04-20 Fujifilm Corporation Abstandsmessvorrichtung, Abstandsmessverfahren und Abstandsmessprogramm
US9377533B2 (en) 2014-08-11 2016-06-28 Gerard Dirk Smits Three-dimensional triangulation and time-of-flight based tracking systems and methods
WO2016030923A1 (ja) * 2014-08-27 2016-03-03 株式会社ニコンビジョン 測距計および測距方法
JP6480943B2 (ja) * 2014-08-27 2019-03-13 株式会社ニコンビジョン 距離検出装置、光学機器および距離検出方法
JP6854828B2 (ja) 2015-12-18 2021-04-07 ジェラルド ディルク スミッツ 物体のリアルタイム位置検知
US10067230B2 (en) 2016-10-31 2018-09-04 Gerard Dirk Smits Fast scanning LIDAR with dynamic voxel probing
JP7329444B2 (ja) 2016-12-27 2023-08-18 ジェラルド ディルク スミッツ 機械知覚のためのシステム及び方法
WO2018209096A2 (en) 2017-05-10 2018-11-15 Gerard Dirk Smits Scan mirror systems and methods
US10591605B2 (en) 2017-10-19 2020-03-17 Gerard Dirk Smits Methods and systems for navigating a vehicle including a novel fiducial marker system
US10379220B1 (en) * 2018-01-29 2019-08-13 Gerard Dirk Smits Hyper-resolved, high bandwidth scanned LIDAR systems
WO2021174227A1 (en) 2020-02-27 2021-09-02 Gerard Dirk Smits High resolution scanning of remote objects with fast sweeping laser beams and signal recovery by twitchy pixel array

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01199110A (ja) * 1987-12-25 1989-08-10 Seikosha Co Ltd カメラ用距離検出装置
JP2003107340A (ja) * 2001-09-27 2003-04-09 Canon Inc 測光測距用固体撮像装置及びそれを用いた撮像装置
JP2008209306A (ja) * 2007-02-27 2008-09-11 Nikon Corp カメラ
JP2008219370A (ja) * 2007-03-02 2008-09-18 Canon Inc 撮像装置
JP2008275331A (ja) * 2007-04-25 2008-11-13 Ihi Corp レーザレーダ装置とその測距方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4396268A (en) * 1981-08-26 1983-08-02 Polaroid Corporation Dual burst, wide range sonar system
JPH1199110A (ja) 1997-09-28 1999-04-13 Sanyo Electric Co Ltd 電気掃除機
JP2000020020A (ja) * 1998-06-26 2000-01-21 Canon Inc 電子源駆動装置及び画像形成装置及び電子源の電子放出特性の補正方法
JP2002207163A (ja) 2001-01-05 2002-07-26 Fuji Photo Optical Co Ltd テレビレンズの測距装置
US6973265B2 (en) 2001-09-27 2005-12-06 Canon Kabushiki Kaisha Solid state image pick-up device and image pick-up apparatus using such device
JP4395150B2 (ja) * 2006-06-28 2010-01-06 富士フイルム株式会社 距離画像センサ
JP2008096181A (ja) 2006-10-10 2008-04-24 Nikon Vision Co Ltd 距離測定装置
JP2009005229A (ja) * 2007-06-25 2009-01-08 Sony Corp 撮像装置および撮像装置の制御方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01199110A (ja) * 1987-12-25 1989-08-10 Seikosha Co Ltd カメラ用距離検出装置
JP2003107340A (ja) * 2001-09-27 2003-04-09 Canon Inc 測光測距用固体撮像装置及びそれを用いた撮像装置
JP2008209306A (ja) * 2007-02-27 2008-09-11 Nikon Corp カメラ
JP2008219370A (ja) * 2007-03-02 2008-09-18 Canon Inc 撮像装置
JP2008275331A (ja) * 2007-04-25 2008-11-13 Ihi Corp レーザレーダ装置とその測距方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2015166712A1 (ja) * 2014-05-02 2017-04-20 富士フイルム株式会社 測距装置、測距方法、及び測距プログラム
JP2020079756A (ja) * 2018-11-13 2020-05-28 株式会社リコー 距離情報取得装置および距離情報取得方法
JP7176364B2 (ja) 2018-11-13 2022-11-22 株式会社リコー 距離情報取得装置および距離情報取得方法

Also Published As

Publication number Publication date
JPWO2015166715A1 (ja) 2017-04-20
DE112015002102T5 (de) 2017-03-02
US20170045358A1 (en) 2017-02-16
JP6224232B2 (ja) 2017-11-08
US10551186B2 (en) 2020-02-04

Similar Documents

Publication Publication Date Title
JP6224232B2 (ja) 測距装置、測距法、及び測距プログラム
US11221208B2 (en) Distance measurement device, distance measurement method, and distance measurement program
JP6321145B2 (ja) 測距装置、測距方法、及び測距プログラム
US11650315B2 (en) Distance measurement device, distance measurement method, and distance measurement program
US12041351B2 (en) Distance measurement device, distance measurement method, and distance measurement program
US8274598B2 (en) Image capturing apparatus and control method therefor
CN105100594A (zh) 摄像装置和摄像方法
WO2015166711A1 (ja) 測距装置、測距方法、及び測距プログラム
JP2017223865A (ja) 撮像装置及び自動焦点調節方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15786496

Country of ref document: EP

Kind code of ref document: A1

DPE2 Request for preliminary examination filed before expiration of 19th month from priority date (pct application filed from 20040101)
ENP Entry into the national phase

Ref document number: 2016515890

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 112015002102

Country of ref document: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15786496

Country of ref document: EP

Kind code of ref document: A1