WO2021039044A1 - 撮像装置、撮像方法、及び撮像プログラム - Google Patents

撮像装置、撮像方法、及び撮像プログラム Download PDF

Info

Publication number
WO2021039044A1
WO2021039044A1 PCT/JP2020/023762 JP2020023762W WO2021039044A1 WO 2021039044 A1 WO2021039044 A1 WO 2021039044A1 JP 2020023762 W JP2020023762 W JP 2020023762W WO 2021039044 A1 WO2021039044 A1 WO 2021039044A1
Authority
WO
WIPO (PCT)
Prior art keywords
imaging
time
timing
synchronization signal
control
Prior art date
Application number
PCT/JP2020/023762
Other languages
English (en)
French (fr)
Inventor
善工 古田
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to CN202080060212.2A priority Critical patent/CN114365477A/zh
Priority to JP2021542032A priority patent/JP7266102B2/ja
Publication of WO2021039044A1 publication Critical patent/WO2021039044A1/ja
Priority to US17/670,663 priority patent/US11683591B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/665Control of cameras or camera modules involving internal camera communication with the image sensor, e.g. synchronising or multiplexing SSIS control signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/745Detection of flicker frequency or suppression of flicker wherein the flicker is caused by illumination, e.g. due to fluorescent tube illumination or pulsed LED illumination
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/53Control of the integration time
    • H04N25/531Control of the integration time by controlling rolling shutters in CMOS SSIS

Definitions

  • the present invention relates to an imaging device, an imaging method, and an imaging program.
  • CCD Charge Coupled Device
  • CMOS Complementary Metal Oxide Semiconductor
  • a rolling shutter type driving As a driving method of a CMOS type image sensor mounted on an electronic device, a rolling shutter type driving is known.
  • the driving of the rolling shutter method resets each photoelectric conversion element of the pixel row of the image sensor to start exposure of this pixel row, and then a pixel signal corresponding to the charge accumulated in each photoelectric conversion element of this pixel row.
  • This is a method in which the drive for reading out to the signal line is sequentially performed while changing the pixel line.
  • Patent Document 1 describes as a method of driving the CCD image sensor, a method of reducing the shutter time lag by resetting the vertical synchronization operation and starting exposure when a shooting instruction is received.
  • Patent Document 2 when a still image shooting start trigger is input as a driving method of a CMOS image sensor, a vertical sync signal is forcibly applied asynchronously without waiting for the next vertical sync signal, and a global reset (all). It is described that the exposure is started by performing a simultaneous reset of the pixels).
  • One embodiment according to the technique of the present disclosure provides an imaging device, an imaging method, and an imaging program capable of shortening the shutter time lag.
  • the image sensor of the present invention outputs a first synchronization signal at the first timing after receiving an instruction for continuous imaging, and outputs a second synchronization signal at the second timing after the lapse of the first time from the first timing.
  • a control unit that performs first synchronization control that outputs and outputs the second synchronization signal every time a second time longer than the first time elapses after the second timing, and the second after the second timing.
  • An image pickup unit that starts reading a signal from the image sensor by the rolling shutter method at the timing of receiving the input of the synchronization signal, and starts exposure of the image sensor by the rolling shutter method at the timing before the exposure time at that timing. And.
  • the first synchronization signal is output at the first timing
  • the second synchronization signal is output at the second timing after the lapse of the first time from the first timing.
  • the imaging program of the present invention outputs the first synchronization signal at the first timing after receiving the instruction of continuous imaging, and outputs the second synchronization signal at the second timing after the lapse of the first time from the first timing.
  • an imaging device an imaging method, and an imaging program capable of shortening the shutter time lag.
  • FIG. 1 shows the schematic structure of the digital camera 100 as an electronic device which includes one Embodiment of the image pickup apparatus of this invention. It is a plan schematic diagram which shows the schematic structure of the image pickup device 5 shown in FIG. It is a figure which shows an example of the timing chart when the system control unit 11 performs the first synchronous control in the continuous shooting mode of the digital camera 100 shown in FIG. It is a figure which shows an example of the timing chart when the system control unit 11 performs the second synchronous control in the continuous shooting mode of the digital camera 100 shown in FIG. It is a timing chart which shows the modification of the 1st synchronous control shown in FIG.
  • FIG. 7 It is a timing chart which shows the operation at the time of the continuous shooting mode and the first synchronization control in the 4th modification of the digital camera 100 shown in FIG. It is a figure which shows the appearance of the smartphone 200 as another embodiment of the electronic device including one embodiment of the image pickup apparatus of this invention. It is a block diagram which shows the structure of the smartphone 200 shown in FIG. 7.
  • FIG. 1 is a diagram showing a schematic configuration of a digital camera 100 as an electronic device including an embodiment of the imaging device of the present invention.
  • the digital camera 100 shown in FIG. 1 includes a lens device 40 having an image pickup lens 1, an aperture 2, a lens control unit 4, a lens drive unit 8, and an aperture drive unit 9, and a main body unit 100A.
  • the main body 100A is supplied to a memory 16 including an imaging unit 50, a system control unit 11, an operation unit 14, a display device 22, a RAM (Random Access Memory), a ROM (Read only memory), and the memory 16.
  • a memory control unit 15 that controls data recording and data reading from the memory 16, a digital signal processing unit 17, and an external memory control unit 20 that controls data recording to the recording medium 21 and data reading from the recording medium 21.
  • the imaging device is composed of the imaging unit 50 and the system control unit 11.
  • the lens device 40 may be detachable from the main body 100A, or may be integrated with the main body 100A.
  • the image pickup lens 1 includes a focus lens, a zoom lens, and the like that can move in the optical axis direction.
  • the lens control unit 4 of the lens device 40 is configured to be able to communicate with the system control unit 11 of the main body 100A by wire or wirelessly.
  • the lens control unit 4 controls the focus lens included in the image pickup lens 1 via the lens drive unit 8 to change the position of the main point of the focus lens or the lens drive unit according to a command from the system control unit 11.
  • the zoom lens included in the image pickup lens 1 is controlled via 8 to change the position (focus distance) of the zoom lens, and the aperture value of the aperture 2 is controlled via the aperture drive unit 9.
  • the image pickup unit 50 includes a CMOS type image pickup element 5 that images a subject through an image pickup optical system including an image pickup lens 1 and an aperture 2, and an image pickup element drive unit 10 that drives the image pickup element 5.
  • the image pickup device 5 has an image pickup surface in which a plurality of pixels are arranged two-dimensionally, and the subject image imaged on the image pickup surface by the image pickup optical system is converted into a pixel signal by the plurality of pixels and output. ..
  • the set of pixel signals output from each pixel of the image sensor 5 is hereinafter referred to as an image pickup image signal.
  • the system control unit 11 that controls the entire electric control system of the digital camera 100 drives the image sensor 5 via the image sensor drive unit 10, and uses the subject image captured through the image pickup optical system of the lens device 40 as an image pickup image signal. Output.
  • the image sensor drive unit 10 drives the image sensor 5 by generating a drive signal based on a command from the system control unit 11 and supplying this drive signal to the image sensor 5.
  • the image sensor driving unit 10 is an electric circuit having a hardware-like configuration in which circuit elements such as semiconductor elements are combined.
  • the operation unit 14 includes a touch panel integrated with the display surface 22b described later, various buttons, and the like.
  • the system control unit 11 controls the entire digital camera 100 in an integrated manner, and the hardware structure is various processors that execute programs including an imaging program to perform processing.
  • the program executed by the system control unit 11 is stored in the ROM of the memory 16.
  • programmable logic which is a processor whose circuit configuration can be changed after manufacturing
  • CPU Central Processing Unit
  • FPGA Field Programmable Gate Array
  • a dedicated electric circuit or the like which is a processor having a circuit configuration specially designed for executing a specific process such as a device (Programmable Logic Device: PLD) or an ASIC (Application Special Integrated Circuit), is included.
  • PLD Process Control Deformation Device
  • ASIC Application Special Integrated Circuit
  • the system control unit 11 may be composed of one of various processors, or may be composed of a combination of two or more processors of the same type or different types (for example, a combination of a plurality of FPGAs or a combination of a CPU and an FPGA). May be done.
  • the display device 22 includes a display surface 22b composed of an organic EL (electroluminescence) panel, a liquid crystal panel, or the like, and a display controller 22a that controls the display of the display surface 22b.
  • a display surface 22b composed of an organic EL (electroluminescence) panel, a liquid crystal panel, or the like
  • a display controller 22a that controls the display of the display surface 22b.
  • the memory control unit 15, the digital signal processing unit 17, the external memory control unit 20, and the display controller 22a are connected to each other by the control bus 24 and the data bus 25, and are controlled by commands from the system control unit 11.
  • FIG. 2 is a schematic plan view showing a schematic configuration of the image pickup device 5 shown in FIG.
  • the image pickup element 5 has a pixel row 62 composed of a plurality of pixels 61 arranged in the row direction X, a plurality of pixel rows 62 arranged in a column direction Y orthogonal to the row direction X, and a pixel arranged on the image pickup surface 60.
  • a drive circuit 63 for driving the 61 is provided, and a signal processing circuit 64 for processing a pixel signal read from each pixel 61 of the pixel rows 62 arranged on the imaging surface 60 into a signal line.
  • the imaging surface 60 constitutes a light receiving surface.
  • the end of the imaging surface 60 on the one end side (upper side in the drawing) of the imaging surface 60 in the row direction Y is referred to as the upper end, and the other end of the imaging surface 60 in the row direction Y (lower side in the drawing).
  • the part is called the lower end.
  • the drive circuit 63 shown in FIG. 2 independently drives each pixel row 62 based on the signal from the image sensor drive unit 10, and resets each pixel 61 included in the pixel row 62 (accumulated in the photoelectric conversion element). (Discharge of the existing charge), reading out the pixel signal according to the charge accumulated in the photoelectric conversion element of each pixel 61 to the signal line, and the like.
  • the signal processing circuit 64 shown in FIG. 2 performs a correlation double sampling process on the pixel signal read from each pixel 61 of the pixel row 62 to the signal line, and the pixel signal after the correlation double sampling processing is a digital signal. Is converted to and output to the data bus 25.
  • the signal processing circuit 64 is controlled by the image sensor driving unit 10.
  • the digital signal processing unit 17 performs signal processing such as demosaic processing and gamma correction processing on the pixel signal output from the image pickup element 5 to the data bus 25 to generate captured image data.
  • the digital camera 100 is equipped with a continuous shooting mode in which a plurality of captured image data are continuously generated and recorded on the recording medium 21 in response to one imaging instruction.
  • the system control unit 11 functions as a control unit by executing a program including an imaging program recorded in the ROM of the memory 16.
  • the system control unit 11 drives the image sensor 5 by the image sensor drive unit 10 by the rolling shutter method to image the subject.
  • the system control unit 11 can also drive a mechanical shutter (not shown) to image a subject in the continuous shooting mode.
  • the rolling shutter type drive includes a rolling reset drive and a rolling read drive.
  • the rolling reset drive is a drive in which the process of resetting each pixel 61 of the pixel row 62 and starting the exposure of each pixel 61 is sequentially performed while changing the pixel row 62.
  • the rolling read-out drive is a drive in which a signal is read from each pixel 61 of the exposed pixel row 62 and the process of ending the exposure of the pixel row 62 is sequentially performed while changing the pixel row 62.
  • the system control unit 11 selects either the first synchronous control or the second synchronous control based on the imaging conditions such as the imaging sensitivity or the exposure value or the exposure time determined by the setting from the user. And execute. Specifically, the system control unit 11 selects and executes the first synchronous control when the exposure time is equal to or less than the threshold TH1, and selects and executes the second synchronous control when the exposure time exceeds the threshold TH1. Execute.
  • the exposure time of the image pickup device 5 may be distributed within the image pickup surface 60 shown in FIG. 2, for example, in order to widen the dynamic range of the image pickup image data.
  • the exposure time of the pixel rows 62 on the odd-numbered rows of the imaging surface 60 may be different from the exposure time of the pixel rows 62 on the even-numbered rows of the imaging surface 60.
  • the maximum value of the exposure time of the pixel row 62 is the exposure time used for selecting the first synchronization control and the second synchronization control.
  • FIG. 3 is a diagram showing an example of a timing chart when the system control unit 11 performs the first synchronous control in the continuous shooting mode of the digital camera 100 shown in FIG.
  • FIG. 4 is a diagram showing an example of a timing chart when the system control unit 11 performs the second synchronous control in the continuous shooting mode of the digital camera 100 shown in FIG. 3 and 4 show an example in which four captured image data are continuously acquired and recorded in the continuous shooting mode.
  • FIGS. 3 and 4 the horizontal axis indicates time.
  • a vertical synchronization signal VD1 generated and output by the system control unit 11 and input to the image sensor drive unit 10 through a single signal line is shown.
  • the lower part of FIGS. 3 and 4 shows the drive timing of each pixel row 62 of the image sensor 5.
  • the vertical axis indicates the position of the pixel row 62 in the column direction Y.
  • the straight line RR shown in the lower part of FIGS. 3 and 4 indicates the timing at which each pixel 61 included in the pixel row 62 is reset (exposure start) by the rolling reset drive.
  • the straight line RS shown in the lower part of FIGS. 3 and 4 indicates the timing at which the exposure of each pixel 61 included in the pixel row 62 is completed by the rolling read-out drive.
  • the period surrounded by the straight line RR and the straight line RS on the right side indicates the exposure time EX of the image sensor 5 in the continuous shooting mode.
  • the system control unit 11 receives the vertical synchronization signal VD1 and the control information (each pixel) at the time t1 which is the first timing immediately after receiving the continuous imaging instruction (imaging instruction in FIG. 3).
  • the exposure start timing of line 62, signal amplification gain, etc.) are output.
  • the image sensor drive unit 10 When the image sensor drive unit 10 receives the input of the vertical synchronization signal VD1 and the control information, the image sensor drive unit 10 reflects the control information in the drive circuit 63 and the signal processing circuit 64. When the reflection of the control information is completed, the image sensor drive unit 10 starts rolling reset drive (exposure of the image sensor 5) at time t2a after a predetermined time Tx elapses after receiving the input of the vertical synchronization signal VD1 at time t1. To do.
  • the system control unit 11 outputs the vertical synchronization signal VD1 and the exposure start timing information of the second frame at the time t2, which is the second timing after the lapse of the first time T1 from the time t1.
  • the system control unit 11 determines the timing after the exposure time EX has elapsed as the second timing from the time t2a when the exposure of the image sensor 5 is started. That is, the system control unit 11 determines the time obtained by adding the exposure time EX to the predetermined time Tx as the first time T1.
  • the predetermined time Tx needs to be longer than the processing time required until the control information is output from the system control unit 11 and the control information is reflected in the image sensor 5. This processing time becomes longer as the processing load of the imaging unit 50 and the system control unit 11 increases. Therefore, the system control unit 11 determines the lower limit value (the above processing time) of the predetermined time Tx based on the processing load of the imaging unit 50 and the system control unit 11. As described above, the first time T1 is a value controlled based on the processing load of the imaging unit 50 and the system control unit 11 and the exposure time EX.
  • the image sensor drive unit 10 starts rolling read drive (signal read from the image sensor 5) at the timing of receiving the input of the vertical synchronization signal VD1 output at the time t2 when the exposure time EX has elapsed from the time t2a. ..
  • the system control unit 11 After the time t2, the system control unit 11 outputs the vertical synchronization signal VD1 and the exposure start timing information every time the second time T2 elapses longer than the first time T1 (time t3, t4, t5 in FIG. 3). ..
  • the second time T2 is a value determined in advance depending on the number of continuous shots, settings, and the like.
  • the image sensor drive unit 10 starts the rolling read drive at the time t2, and then starts the rolling reset drive at the timing (time t3a) according to the exposure timing information input from the system control unit 11 at the time t2.
  • the vertical synchronization signal VD1 is input at the time t3 when the exposure time EX has elapsed from the time t3a, the rolling read drive is started.
  • the image sensor drive unit 10 starts the rolling read drive at time t3, and then starts the rolling reset drive at the timing (time t4a) according to the exposure timing information input from the system control unit 11 at time t3.
  • the vertical synchronization signal VD1 is input at the time t4 when the exposure time EX has elapsed from the time t4a, the rolling read drive is started.
  • the image sensor drive unit 10 starts the rolling read drive at the time t4, and then starts the rolling reset drive at the timing (time t5a) according to the exposure timing information input from the system control unit 11 at the time t4.
  • the vertical synchronization signal VD1 is input at the time t5 when the exposure time EX has elapsed from the time t5a, the rolling read-out drive is started.
  • the vertical synchronization signal VD1 output at time t1 is for instructing the image sensor driving unit 10 to prepare for exposure in the first frame of continuous shooting, and constitutes the first synchronization signal.
  • the vertical synchronization signal VD1 output after the time t1 is for instructing the image sensor driving unit 10 to read out the signal obtained in each exposure of continuous shooting, and constitutes the second synchronization signal. To do.
  • the interval (first time T1) between the vertical synchronization signal VD1 output first and the vertical synchronization signal VD1 output second after receiving the instruction of continuous imaging is set. Second, it is shorter than the interval between the vertical synchronization signals VD1 output after the second (second time T2).
  • the system control unit 11 outputs the vertical synchronization signal VD1 and the control information at time t1 after receiving the instruction for continuous imaging (imaging instruction in FIG. 4). After the time t1, the system control unit 11 outputs the vertical synchronization signal VD1 and the exposure start timing information every time the second time T2 elapses (time t2, t3, t4, t5 in FIG. 4).
  • the image sensor drive unit 10 When the image sensor drive unit 10 receives the input of the vertical synchronization signal VD1 and the control information output at time t1, the control information is reflected in the drive circuit 63 and the signal processing circuit 64. When the reflection of the control information is completed, the image sensor driving unit 10 starts the rolling reset drive (exposure of the image sensor 5) at the time t2a after the elapse of the predetermined time Ty from the time t1.
  • the predetermined time Ty is set to a value obtained by subtracting the exposure time EX from the second time T2.
  • the image sensor drive unit 10 starts rolling read drive (signal read from the image sensor 5) at the timing of receiving the input of the vertical synchronization signal VD1 output at the time t2 when the exposure time EX has elapsed from the time t2a. ..
  • the image sensor driving unit 10 starts the rolling reset drive at the timing (time t3a) after the elapse of the predetermined time Ty from the time t2, and receives the input of the vertical synchronization signal VD1 at the time t3 when the exposure time EX elapses from the time t3a. And start rolling read drive.
  • the image sensor driving unit 10 starts the rolling reset drive at the timing (time t4a) after the elapse of the predetermined time Ty from the time t3, and receives the input of the vertical synchronization signal VD1 at the time t4 when the exposure time EX elapses from the time t4a. And start rolling read drive.
  • the image sensor driving unit 10 starts the rolling reset drive at the timing (time t5a) after the elapse of the predetermined time Ty from the time t4, and receives the input of the vertical synchronization signal VD1 at the time t5 when the exposure time EX elapses from the time t5a. And start rolling read drive.
  • the vertical synchronization signal VD1 output at time t1 in FIG. 4 is for instructing the image sensor driving unit 10 to prepare for exposure in the first frame of continuous shooting, and constitutes the first synchronization signal.
  • the vertical synchronization signal VD1 output after the time t1 is for instructing the image sensor driving unit 10 to read out the signal obtained in each exposure of continuous shooting, and constitutes the second synchronization signal. ..
  • the vertical synchronization signal VD1 is output from the system control unit 11 at regular intervals (every second time T2).
  • the first synchronous control shown in FIG. 3 and the second synchronous control shown in FIG. 4 are selectively executed.
  • the time from the instruction for imaging to the start of the exposure of the first frame (predetermined time Tx), that is, the so-called shutter time lag, is the same as in the second synchronous control shown in FIG. It can be shorter than the time (predetermined time Ty).
  • predetermined time Tx the time from the instruction for imaging to the start of the exposure of the first frame
  • the so-called shutter time lag is the same as in the second synchronous control shown in FIG. It can be shorter than the time (predetermined time Ty).
  • the first synchronous control can be performed to prevent a significant increase in the shutter time lag when the exposure time EX is short.
  • the system control unit 11 functions as a flicker detection unit that detects flicker (flickering of a light source such as a fluorescent lamp or a mercury lamp).
  • flicker detection unit detects flicker (flickering of a light source such as a fluorescent lamp or a mercury lamp).
  • the method of detecting flicker is not particularly limited.
  • the system control unit 11 executes the second synchronous control shown in FIG. 4 as the synchronous control performed in response to the instruction of continuous imaging, regardless of the exposure time EX. .. Further, the system control unit 11 sets the second time T2 in the second synchronous control for a time for suppressing image quality deterioration (occurrence of luminance unevenness between captured image data) due to flicker (for example, blinking of a light source that causes flicker). Control to a natural number of times the cycle).
  • FIG. 1 when the system control unit 11 detects the flicker and drives the image sensor 5 under the driving conditions for preventing the image quality deterioration due to the flicker, even if the exposure time EX is equal to or less than the threshold value, FIG. The second synchronous control shown in is performed. According to this configuration, it is possible to make the overlapping state of the exposure period of each frame of continuous shooting and the blinking pattern of the light source uniform. As a result, it is possible to prevent a change in brightness in each captured image data obtained by continuous shooting.
  • FIG. 5 is a timing chart showing a modified example of the first synchronous control shown in FIG.
  • the system control unit 11 is globally assigned to the image sensor driving unit 10 between the time t1 after receiving the instruction for continuous imaging and the time t2a when the exposure of the first frame is started. It differs from FIG. 3 in that the reset drive (straight GR) is performed.
  • the global reset drive is a drive for simultaneously resetting all the pixels 61 to be exposed on the image pickup surface 60 of the image pickup element 5.
  • the system control unit 11 instructs the image sensor drive unit 10 to drive the global reset, and the image sensor drive unit 10 that receives this instruction performs the global reset drive.
  • the residual charge in the pixel 61 generated in the imaging for live view image display performed before the time t1 is eliminated.
  • the exposure of the first frame can be started at. As a result, the quality of the captured image data can be improved.
  • the residual charge of the pixel 61 tends to be generated when the temperature of the image sensor 5 is low. Therefore, the system control unit 11 monitors the temperature of the image sensor 5 when performing the first synchronous control, causes the global reset drive to be performed when this temperature is equal to or less than the threshold value, and when this temperature exceeds the threshold value. May not perform global reset drive. By doing so, the power consumption at the time of the first synchronous control can be reduced.
  • the system control unit 11 synchronizes with the external synchronization signal VD2 (for example, the vertical synchronization signal for display generated by the display controller 22a of the display device 22) generated outside the system control unit 11. It is possible to operate in the external synchronization mode that generates the vertical synchronization signal VD1.
  • VD2 for example, the vertical synchronization signal for display generated by the display controller 22a of the display device 22
  • the system control unit 11 matches the above-mentioned second time T2 in the continuous shooting mode with the period of the external synchronization signal VD2. Then, when operating in the external synchronization mode, the system control unit 11 selects and executes the second synchronization control as the synchronization control selected in the continuous shooting mode regardless of the exposure time EX.
  • the second synchronization control is a control in which the vertical synchronization signal VD1 is output at regular intervals every second time T2 after the imaging instruction is given. Therefore, in the third modification, for example, the output timing of the vertical synchronization signal VD1 output for the second time after the image pickup instruction is given, and the output timing of the vertical synchronization signal VD1 are first input to the system control unit 11 after the image pickup instruction is given.
  • the deviation between the output timing of the vertical synchronization signal VD1 and the output timing of the external synchronization signal can be minimized, and the captured image can be displayed immediately. ..
  • the timing at which the vertical synchronization signal VD1 is output does not have to completely match the timing at which the external synchronization signal VD2 is output.
  • the system control unit may control so that the vertical synchronization vibration VD2 is output after a certain period of time has elapsed from the output of the external synchronization signal VD2.
  • the system control unit 11 can operate in the above-mentioned external synchronization mode.
  • the system control unit 11 matches the second time T2 in the continuous shooting mode with the period of the external synchronization signal VD2. Further, the system control unit 11 determines the first time T1 when performing the first synchronization control based on the input timing of the first external synchronization signal VD2 after receiving the instruction of continuous imaging.
  • FIG. 6 is a timing chart showing the operation during the continuous shooting mode and the first synchronous control in the fourth modification of the digital camera 100 shown in FIG.
  • the external synchronization signal VD2 is shown in the upper part of FIG.
  • the external synchronization signal VD2 is generated at a constant cycle (second time T2) and input to the system control unit 11.
  • the portion after the time t2a is the same as that of FIG.
  • the length of the first time T1 is changed from the example of FIG.
  • the system control unit 11 outputs the first vertical synchronization signal VD1 at time t1 after receiving the imaging instruction.
  • the system control unit 11 first receives the input of the external synchronization signal VD2 after receiving the imaging instruction (time t2)
  • the system control unit 11 outputs the second vertical synchronization signal VD1 after receiving the imaging instruction. That is, in the example of FIG. 6, the time from when the vertical synchronization signal VD1 is first output in response to the imaging instruction until the external synchronization signal VD2 is first input is set as the first time T1.
  • the predetermined time Tx is longer than that in the example of FIG. 3, the deviation between the vertical synchronization signal VD1 for signal reading and the external synchronization signal VD2 can be minimized. Therefore, for example, the processed image of each captured image signal can be instantly displayed on the display surface 22b, and the captured image can be confirmed at high speed. Further, although the predetermined time Tx is slightly longer, it is shorter than when the second synchronization control is performed, so that the shutter time lag can be shortened.
  • FIG. 7 is a diagram showing the appearance of the smartphone 200 as another embodiment of the electronic device including one embodiment of the imaging device of the present invention.
  • the smartphone 200 shown in FIG. 7 has a flat-plate housing 201, and a display input in which a display panel 202 as a display surface and an operation panel 203 as an input unit are integrated on one surface of the housing 201.
  • the part 204 is provided.
  • a housing 201 includes a speaker 205, a microphone 206, an operation unit 207, and a camera unit 208.
  • the configuration of the housing 201 is not limited to this, and for example, a configuration in which the display surface and the input unit are independent can be adopted, or a configuration having a folding structure or a slide mechanism can be adopted.
  • FIG. 8 is a block diagram showing the configuration of the smartphone 200 shown in FIG. 7.
  • the wireless communication unit 210 As shown in FIG. 8, as the main components of the smartphone, the wireless communication unit 210, the display input unit 204, the call unit 211, the operation unit 207, the camera unit 208, the recording unit 212, and the external input / output unit It includes 213, a GPS (Global Positioning System) receiving unit 214, a motion sensor unit 215, a power supply unit 216, and a main control unit 220.
  • GPS Global Positioning System
  • the smartphone 200 it is provided with a wireless communication function for performing mobile wireless communication via a base station device BS (not shown) and a mobile communication network NW (not shown).
  • a wireless communication function for performing mobile wireless communication via a base station device BS (not shown) and a mobile communication network NW (not shown).
  • the wireless communication unit 210 performs wireless communication to the base station device BS accommodated in the mobile communication network NW according to the instruction of the main control unit 220. Using this wireless communication, various file data such as voice data and image data, transmission / reception of e-mail data, etc., and reception of web data, streaming data, etc. are performed.
  • the display input unit 204 displays images (still images and moving images), character information, and the like to visually convey the information to the user, and also performs user operations on the displayed information. It is a so-called touch panel for detecting, and includes a display panel 202 and an operation panel 203.
  • the display panel 202 uses an LCD (Liquid Crystal Display), OELD (Organic Electro-Luminescence Display), or the like as a display device.
  • LCD Liquid Crystal Display
  • OELD Organic Electro-Luminescence Display
  • the operation panel 203 is a device on which an image displayed on the display surface of the display panel 202 is visibly placed and detects one or a plurality of coordinates operated by a user's finger or a stylus.
  • a detection signal generated due to the operation is output to the main control unit 220.
  • the main control unit 220 detects the operation position (coordinates) on the display panel 202 based on the received detection signal.
  • the display panel 202 and the operation panel 203 of the smartphone 200 illustrated as one embodiment of the photographing apparatus of the present invention integrally constitute the display input unit 204, but the operation panel The 203 is arranged so as to completely cover the display panel 202.
  • the operation panel 203 may have a function of detecting a user operation even in an area outside the display panel 202.
  • the operation panel 203 has a detection area (hereinafter, referred to as a display area) for the overlapping portion overlapping the display panel 202 and a detection area (hereinafter, non-display area) for the outer edge portion not overlapping the other display panel 202. ) And may be provided.
  • the size of the display area and the size of the display panel 202 may be completely matched, but it is not always necessary to match the two.
  • the operation panel 203 may be provided with two sensitive regions, an outer edge portion and an inner portion other than the outer edge portion. Further, the width of the outer edge portion is appropriately designed according to the size of the housing 201 and the like.
  • a matrix switch method As the position detection method adopted in the operation panel 203, a matrix switch method, a resistance film method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, a capacitance method and the like can be mentioned, and any method is adopted. You can also do it.
  • the call unit 211 includes a speaker 205 or a microphone 206, converts a user's voice input through the microphone 206 into voice data that can be processed by the main control unit 220, and outputs the data to the main control unit 220, or wireless communication.
  • the audio data received by the unit 210 or the external input / output unit 213 is decoded and output from the speaker 205.
  • the speaker 205 can be mounted on the same surface as the surface on which the display input unit 204 is provided, and the microphone 206 can be mounted on the side surface of the housing 201.
  • the operation unit 207 is a hardware key using a key switch or the like, and receives an instruction from the user.
  • the operation unit 207 is mounted on the side surface of the housing 201 of the smartphone 200, and is turned on when pressed with a finger or the like, and turned off by a restoring force such as a spring when the finger is released. It is a push button type switch.
  • the recording unit 212 includes the control program and control data of the main control unit 220, application software, address data associated with the name or telephone number of the communication partner, e-mail data sent / received, Web data downloaded by Web browsing, and download.
  • the content data is recorded, and streaming data and the like are temporarily recorded.
  • the recording unit 212 is composed of an internal recording unit 217 built in the smartphone and an external recording unit 218 having a detachable external memory slot.
  • Each of the internal recording unit 217 and the external recording unit 218 constituting the recording unit 212 includes a flash memory type (flash memory type), a hard disk type (hard disk type), a multimedia card micro type (multimedia card micro type), and a multimedia card micro type. It is realized by using a storage medium such as a card type memory (for example, MicroSD (registered trademark) memory), RAM (Random Access Memory), ROM (Read Only Memory), or the like.
  • a card type memory for example, MicroSD (registered trademark) memory
  • RAM Random Access Memory
  • ROM Read Only Memory
  • the external input / output unit 213 serves as an interface with all external devices connected to the smartphone 200, and communicates with other external devices (for example, universal serial bus (USB), IEEE1394, etc.) or a network.
  • external devices for example, universal serial bus (USB), IEEE1394, etc.
  • a network for example, Internet, wireless LAN, Bluetooth (registered trademark), RFID (Radio Frequency Identification), infrared communication (Infrared Data Association: IrDA) (registered trademark), UWB (Ultra Wideband) (registered trademark). ZigBee) (registered trademark), etc.
  • IrDA Infrared Data Association
  • UWB Ultra Wideband
  • ZigBee ZigBee
  • Examples of external devices connected to the smartphone 200 include a presence / wireless headset, a presence / wireless external charger, a presence / wireless data port, a memory card (Memory card) connected via a card socket, and a SIM (Subscriber).
  • Identity Module Card) / UIM (User Identity Module Card) card external audio / video device connected via audio / video I / O (Input / Output) terminal, external audio / video device wirelessly connected, Yes /
  • smartphones yes / wirelessly connected personal computers, yes / wirelessly connected personal computers, earphones, and the like.
  • the external input / output unit 213 transmits the data transmitted from such an external device to each component inside the smartphone 200, or causes the data inside the smartphone 200 to be transmitted to the external device. Can be done.
  • the GPS receiving unit 214 receives GPS signals transmitted from GPS satellites ST1 to STn according to the instructions of the main control unit 220, executes positioning calculation processing based on the received plurality of GPS signals, and determines the latitude of the smartphone 200. Detects the position consisting of longitude and altitude.
  • the GPS receiving unit 214 can acquire the position information from the wireless communication unit 210 or the external input / output unit 213 (for example, wireless LAN), the GPS receiving unit 214 can also detect the position using the position information.
  • the motion sensor unit 215 is provided with, for example, a 3-axis acceleration sensor or the like, and detects the physical movement of the smartphone 200 according to the instruction of the main control unit 220. By detecting the physical movement of the smartphone 200, the moving direction or acceleration of the smartphone 200 is detected. The detection result is output to the main control unit 220.
  • the power supply unit 216 supplies electric power stored in a battery (not shown) to each unit of the smartphone 200 according to the instruction of the main control unit 220.
  • the main control unit 220 includes a microprocessor, operates according to the control program and control data recorded by the recording unit 212, and controls each unit of the smartphone 200 in an integrated manner.
  • the main control unit 220 includes a mobile communication control function that controls each unit of the communication system and an application processing function in order to perform voice communication or data communication through the wireless communication unit 210.
  • the application processing function is realized by operating the main control unit 220 according to the application software recorded by the recording unit 212.
  • the application processing function includes, for example, an infrared communication function that controls an external input / output unit 213 to perform data communication with an opposite device, an e-mail function that sends / receives e-mail, a web browsing function that browses a web page, and the like. ..
  • the main control unit 220 has an image processing function such as displaying an image on the display input unit 204 based on image data (still image or moving image data) such as received data or downloaded streaming data.
  • the image processing function is a function in which the main control unit 220 decodes the image data, performs image processing on the decoding result, and displays the image on the display input unit 204.
  • main control unit 220 executes display control for the display panel 202 and operation detection control for detecting user operations through the operation unit 207 and the operation panel 203.
  • the main control unit 220 By executing the display control, the main control unit 220 displays a software key such as an icon or a scroll bar for starting the application software, or displays a window for composing an e-mail.
  • a software key such as an icon or a scroll bar for starting the application software, or displays a window for composing an e-mail.
  • the scroll bar is a software key for receiving an instruction to move the display portion of an image for a large image or the like that cannot fit in the display area of the display panel 202.
  • the main control unit 220 detects the user operation through the operation unit 207, and accepts the operation for the above icon and the input of the character string for the input field of the above window through the operation panel 203. Or, it accepts a scroll request for a display image through the scroll bar.
  • the main control unit 220 has an overlapping portion (display area) whose operation position with respect to the operation panel 203 overlaps the display panel 202, or an outer edge portion (non-display area) which does not overlap the other display panel 202. ), And a touch panel control function that controls the sensitive area of the operation panel 203 or the display position of the software key is provided.
  • the main control unit 220 can also detect a gesture operation on the operation panel 203 and execute a preset function according to the detected gesture operation.
  • Gesture operation is not a conventional simple touch operation, but an operation of drawing a locus with a finger or the like, specifying a plurality of positions at the same time, or combining these to draw a locus of at least one from a plurality of positions. means.
  • the camera unit 208 includes configurations other than the external memory control unit 20, the recording medium 21, the display device 22, and the operation unit 14 in the digital camera 100 shown in FIG.
  • the RAW format or JPEG format captured image data generated by the camera unit 208 may be recorded on the recording unit 212 or output through the external input / output unit 213 or the wireless communication unit 210 instead of the recording medium 21. it can.
  • the camera unit 208 is mounted on the same surface as the display input unit 204, but the mounting position of the camera unit 208 is not limited to this, and may be mounted on the back surface of the display input unit 204. ..
  • the camera unit 208 can be used for various functions of the smartphone 200.
  • the image acquired by the camera unit 208 can be displayed on the display panel 202, or the image of the camera unit 208 can be used as one of the operation inputs of the operation panel 203.
  • the position can be detected by referring to the image from the camera unit 208. Further, by referring to the image from the camera unit 208, the optical axis direction of the camera unit 208 of the smartphone 200 can be determined without using the 3-axis acceleration sensor or in combination with the 3-axis acceleration sensor. , You can also judge the current usage environment. Of course, the image from the camera unit 208 can also be used in the application software.
  • the position information acquired by the GPS receiving unit 214 and the voice information acquired by the microphone 206 may be converted by the main control unit or the like to become text information) in the image data of the still image or the moving image. It is also possible to add posture information or the like acquired by the motion sensor unit 215 and record it in the recording unit 212, or output it through the external input / output unit 213 or the wireless communication unit 210.
  • the first synchronization signal is output at the first timing
  • the second synchronization signal is output at the second timing after the lapse of the first time from the first timing
  • the second timing is described.
  • a control unit that performs the first synchronization control that outputs the second synchronization signal every time a second time longer than the first time elapses
  • the reading of the signal from the image sensor is started by the rolling shutter method at the timing when the input of the second synchronization signal is received after the second timing, and at the timing before the exposure time at that timing, the rolling shutter method is used.
  • An imaging device including an imaging unit that starts exposure of an imaging element.
  • the imaging device according to (1) or (2).
  • the control unit outputs the first synchronization signal after receiving an instruction for continuous imaging, and outputs the second synchronization signal every time the second time elapses after the output of the first synchronization signal.
  • the above-mentioned first synchronization control are selectively performed,
  • the image pickup unit starts reading a signal from the image pickup element by the rolling shutter method at the timing when the second synchronization signal is input, and the exposure time at that timing.
  • An image pickup device that starts exposure of the image pickup element by a rolling shutter method at a previous timing.
  • the control unit is an imaging device that selects either the first synchronous control or the second synchronous control based on the exposure time.
  • the control unit is an imaging device that performs the first synchronous control when the exposure time is equal to or less than a threshold value.
  • the control unit sets the maximum value of the exposure time in the light receiving surface to the first synchronization.
  • An image pickup device having the exposure time used for selecting control and the second synchronous control.
  • the control unit is an image pickup apparatus that drives the image pickup element by the image pickup unit under drive conditions for preventing image quality deterioration due to the flicker, and performs the second synchronous control.
  • the imaging device is an imaging device that performs the second synchronization control in a mode in which the second time is matched with the cycle of the external synchronization signal generated externally.
  • the control unit sets the first time to the input timing of the first external synchronization signal after receiving the instruction.
  • An imaging device that is determined based on.
  • the control unit is an image pickup device that resets all the pixels of the image pickup device all at once from the first timing to the start of the first exposure of the image pickup device when the first synchronization control is performed.
  • the imaging device according to any one of (1) to (9).
  • the control unit performs the above-mentioned from the first timing to the start of the first exposure of the image sensor.
  • An image pickup device that resets all pixels of an image sensor all at once.
  • the imaging device according to any one of (1) to (11).
  • the control unit is an imaging device that controls the first time based on the exposure time.
  • the imaging device according to any one of (1) to (12).
  • the control unit is an imaging device that controls a lower limit value of a time obtained by subtracting the exposure time from the first time.
  • the control unit is an imaging device that controls the lower limit value according to the processing load.
  • the imaging device according to (13).
  • the control unit is an imaging device that controls the lower limit value according to the processing load of the imaging unit.
  • the first synchronization signal is output at the first timing
  • the second synchronization signal is output at the second timing after the lapse of the first time from the first timing
  • the second timing is described.
  • a control step for performing the first synchronization control to output the second synchronization signal every time a second time longer than the first time elapses, and The reading of the signal from the image sensor is started by the rolling shutter method at the timing when the input of the second synchronization signal is received after the second timing, and at the timing before the exposure time at that timing, the rolling shutter method is used.
  • An imaging method comprising an imaging step of initiating exposure of an imaging element.
  • the control step is an imaging method that selects either the first synchronous control or the second synchronous control based on the exposure time.
  • the control step is an imaging method that performs the first synchronous control when the exposure time is equal to or less than the threshold value.
  • the imaging method includes a flicker detection step to detect flicker
  • the control step is an imaging method in which when the flicker is detected, the image sensor is driven under driving conditions for preventing image quality deterioration due to the flicker, and the second synchronous control is performed.
  • the control step is an imaging method in which the second synchronization control is performed in a mode in which the second time is matched with the cycle of an external synchronization signal generated outside the control unit that performs the control step.
  • the imaging method according to any one of (18) to (21).
  • the first time is the first time after receiving the instruction.
  • An imaging method that is determined based on the input timing of the external synchronization signal.
  • the control step is an imaging method in which all the pixels of the image pickup device are reset all at once from the first timing to the start of the first exposure of the image pickup device when the first synchronization control is performed.
  • the control step is an imaging method in which the first time is controlled based on the exposure time.
  • the control step is an imaging method for controlling a lower limit value of a time obtained by subtracting the exposure time from the first time.
  • the control step is an imaging method in which the lower limit value is controlled according to the processing load of the control unit that performs the control step.
  • the control step is an imaging method in which the lower limit value is controlled according to the processing load of the imaging unit that performs the imaging step.
  • the first synchronization signal is output at the first timing
  • the second synchronization signal is output at the second timing after the lapse of the first time from the first timing
  • the second timing is described.
  • the reading of the signal from the image sensor is started by the rolling shutter method at the timing when the input of the second synchronization signal is received after the second timing, and at the timing before the exposure time at that timing, the rolling shutter method is used.
  • An imaging program for causing a computer to perform an imaging step of starting exposure of an imaging element.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

シャッタタイムラグを短縮することのできる撮像装置、撮像方法、及び撮像プログラムを提供する。 デジタルカメラ(100)は、連続撮像の指示を受けた後、第一タイミング(時刻t1)にて垂直同期信号VD1を出力し、時刻t1から第一時間T1経過後の時刻t2にて垂直同期信号VD1を出力し、時刻t2の後は第一時間T1よりも長い第二時間T2経過毎に垂直同期信号VD1を出力する第一同期制御を行うシステム制御部(11)と、時刻t2以降の垂直同期信号の入力を受けたタイミングにてローリングシャッタ方式によって撮像素子(5)からの信号の読み出しを開始し、そのタイミングの露光時間EX前のタイミングにて、ローリングシャッタ方式によって撮像素子(5)の露光を開始する撮像部(50)と、を備える。

Description

撮像装置、撮像方法、及び撮像プログラム
 本発明は、撮像装置、撮像方法、及び撮像プログラムに関する。
 CCD(Charge Coupled Device)イメージセンサ又はCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の撮像素子の高解像度化に伴い、デジタルスチルカメラ、デジタルビデオカメラ、又はカメラ付きの電子機器(例えばスマートフォン)等の撮像機能を有する電子機器の需要が急増している。
 電子機器に搭載されるCMOS型の撮像素子の駆動方法としては、ローリングシャッタ方式の駆動が知られている。ローリングシャッタ方式の駆動は、撮像素子の画素行の各光電変換素子をリセットしてこの画素行の露光を開始し、その後、この画素行の各光電変換素子に蓄積された電荷に応じた画素信号を信号線に読み出す駆動を、画素行を変えながら順次行う方式である。
 特許文献1には、CCDイメージセンサの駆動方法として、撮影指示を受けると、垂直同期動作をリセットして露光を開始することで、シャッタタイムラグを減らす方法が記載されている。
 特許文献2には、CMOSイメージセンサの駆動方法として、静止画撮影開始トリガが入力されると、次の垂直同期信号を待たずに非同期で強制的に垂直同期信号を印加し、グローバルリセット(全画素の一斉リセット)を行って露光を開始することが記載されている。
日本国特開2005-260733号公報 日本国特開2012-129817号公報
 本開示の技術に係る1つの実施形態は、シャッタタイムラグを短縮することのできる撮像装置、撮像方法、及び撮像プログラムを提供する。
 本発明の撮像装置は、連続撮像の指示を受けた後、第一タイミングにて第一同期信号を出力し、上記第一タイミングから第一時間経過後の第二タイミングにて第二同期信号を出力し、上記第二タイミングの後は上記第一時間よりも長い第二時間経過毎に上記第二同期信号を出力する第一同期制御を行う制御部と、上記第二タイミング以降の上記第二同期信号の入力を受けたタイミングにてローリングシャッタ方式によって撮像素子からの信号の読み出しを開始し、そのタイミングの露光時間前のタイミングにて、ローリングシャッタ方式によって上記撮像素子の露光を開始する撮像部と、を備えるものである。
 本発明の撮像方法は、連続撮像の指示を受けた後、第一タイミングにて第一同期信号を出力し、上記第一タイミングから第一時間経過後の第二タイミングにて第二同期信号を出力し、上記第二タイミングの後は上記第一時間よりも長い第二時間経過毎に上記第二同期信号を出力する第一同期制御を行う制御ステップと、上記第二タイミング以降の上記第二同期信号の入力を受けたタイミングにてローリングシャッタ方式によって撮像素子からの信号の読み出しを開始し、そのタイミングの露光時間前のタイミングにて、ローリングシャッタ方式によって上記撮像素子の露光を開始する撮像ステップと、を含むものである。
 本発明の撮像プログラムは、連続撮像の指示を受けた後、第一タイミングにて第一同期信号を出力し、上記第一タイミングから第一時間経過後の第二タイミングにて第二同期信号を出力し、上記第二タイミングの後は上記第一時間よりも長い第二時間経過毎に上記第二同期信号を出力する第一同期制御を行う制御ステップと、上記第二タイミング以降の上記第二同期信号の入力を受けたタイミングにてローリングシャッタ方式によって撮像素子からの信号の読み出しを開始し、そのタイミングの露光時間前のタイミングにて、ローリングシャッタ方式によって上記撮像素子の露光を開始する撮像ステップと、をコンピュータに実行させるためのものである。
 本発明によれば、シャッタタイムラグを短縮することのできる撮像装置、撮像方法、及び撮像プログラムを提供することができる。
本発明の撮像装置の一実施形態を含む電子機器としてのデジタルカメラ100の概略構成を示す図である。 図1に示す撮像素子5の概略構成を示す平面模式図である。 図1に示すデジタルカメラ100の連写モード時においてシステム制御部11が第一同期制御を行う場合のタイミングチャートの一例を示す図である。 図1に示すデジタルカメラ100の連写モード時においてシステム制御部11が第二同期制御を行う場合のタイミングチャートの一例を示す図である。 図3に示す第一同期制御の変形例を示すタイミングチャートである。 図1に示すデジタルカメラ100の第四変形例における連写モード且つ第一同期制御時の動作を示すタイミングチャートである。 本発明の撮像装置の一実施形態を含む電子機器の別実施形態としてスマートフォン200の外観を示す図である。 図7に示すスマートフォン200の構成を示すブロック図である。
 以下、本発明の実施形態について図面を参照して説明する。
 図1は、本発明の撮像装置の一実施形態を含む電子機器としてのデジタルカメラ100の概略構成を示す図である。
 図1に示すデジタルカメラ100は、撮像レンズ1、絞り2、レンズ制御部4、レンズ駆動部8、及び絞り駆動部9を有するレンズ装置40と、本体部100Aと、を備える。本体部100Aは、撮像部50と、システム制御部11と、操作部14と、表示装置22と、RAM(Random Access Memory)及びROM(Read only memory)等を含むメモリ16と、メモリ16へのデータ記録及びメモリ16からのデータ読み出しの制御を行うメモリ制御部15と、デジタル信号処理部17と、記録媒体21へのデータ記録及び記録媒体21からのデータ読み出しの制御を行う外部メモリ制御部20と、を備える。撮像部50とシステム制御部11によって撮像装置が構成される。
 レンズ装置40は、本体部100Aに着脱可能なものであってもよいし、本体部100Aと一体化されたものであってもよい。撮像レンズ1は、光軸方向に移動可能なフォーカスレンズ又はズームレンズ等を含む。レンズ装置40のレンズ制御部4は、本体部100Aのシステム制御部11と有線又は無線によって通信可能に構成される。レンズ制御部4は、システム制御部11からの指令にしたがい、レンズ駆動部8を介して撮像レンズ1に含まれるフォーカスレンズを制御してフォーカスレンズの主点の位置を変更したり、レンズ駆動部8を介して撮像レンズ1に含まれるズームレンズを制御してズームレンズの位置(焦点距離)を変更したり、絞り駆動部9を介して絞り2の絞り値を制御したりする。
 撮像部50は、撮像レンズ1及び絞り2を含む撮像光学系を通して被写体を撮像するCMOS型の撮像素子5と、撮像素子5を駆動する撮像素子駆動部10と、を備える。
 撮像素子5は、複数の画素が二次元状に配置された撮像面を有し、撮像光学系によってこの撮像面に結像される被写体像をこの複数の画素によって画素信号に変換して出力する。撮像素子5の各画素から出力される画素信号の集合を以下では撮像画像信号という。
 デジタルカメラ100の電気制御系全体を統括制御するシステム制御部11は、撮像素子駆動部10を介して撮像素子5を駆動し、レンズ装置40の撮像光学系を通して撮像した被写体像を撮像画像信号として出力させる。
 撮像素子駆動部10は、システム制御部11からの指令に基づいて駆動信号を生成してこの駆動信号を撮像素子5に供給することで、撮像素子5を駆動する。撮像素子駆動部10は、ハードウェア的な構成は、半導体素子等の回路素子を組み合わせて構成された電気回路である。
 システム制御部11には、操作部14を通して利用者からの指示信号が入力される。操作部14には、後述する表示面22bと一体化されたタッチパネルと、各種ボタン等が含まれる。
 システム制御部11は、デジタルカメラ100全体を統括制御するものであり、ハードウェア的な構造は、撮像プログラムを含むプログラムを実行して処理を行う各種のプロセッサである。システム制御部11の実行するプログラムは、メモリ16のROMに格納されている。
 各種のプロセッサとしては、プログラムを実行して各種処理を行う汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、又はASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。これら各種のプロセッサの構造は、より具体的には、半導体素子等の回路素子を組み合わせた電気回路である。
 システム制御部11は、各種のプロセッサのうちの1つで構成されてもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせ又はCPUとFPGAの組み合わせ)で構成されてもよい。
 表示装置22は、有機EL(electroluminescence)パネル又は液晶パネル等で構成される表示面22bと、表示面22bの表示を制御する表示コントローラ22aと、を備える。
 メモリ制御部15、デジタル信号処理部17、外部メモリ制御部20、及び表示コントローラ22aは、制御バス24及びデータバス25によって相互に接続され、システム制御部11からの指令によって制御される。
 図2は、図1に示す撮像素子5の概略構成を示す平面模式図である。
 撮像素子5は、行方向Xに配列された複数の画素61からなる画素行62が、行方向Xと直交する列方向Yに複数配列された撮像面60と、撮像面60に配列された画素61を駆動する駆動回路63と、撮像面60に配列された画素行62の各画素61から信号線に読み出される画素信号を処理する信号処理回路64と、を備える。撮像面60は受光面を構成する。
 以下では、図2において撮像面60の列方向Yの一端側(図中の上側)の端部を上端といい、撮像面60の列方向Yの他端側(図中の下側)の端部を下端という。
 図2に示す駆動回路63は、撮像素子駆動部10からの信号に基づいて、各画素行62を独立に駆動し、画素行62に含まれる各画素61のリセット(光電変換素子に蓄積されている電荷の排出)、この各画素61の光電変換素子に蓄積された電荷に応じた画素信号の信号線への読み出し等を行う。
 図2に示す信号処理回路64は、画素行62の各画素61から信号線に読み出された画素信号に対し、相関二重サンプリング処理を行い、相関二重サンプリング処理後の画素信号をデジタル信号に変換してデータバス25に出力する。信号処理回路64は、撮像素子駆動部10によって制御される。
 デジタル信号処理部17は、撮像素子5からデータバス25に出力された画素信号にデモザイク処理及びガンマ補正処理等の信号処理を施して撮像画像データを生成する。
 デジタルカメラ100は、1回の撮像指示に応じて複数の撮像画像データを連続して生成して記録媒体21に記録する連写モードを搭載している。
 システム制御部11は、メモリ16のROMに記録された撮像プログラムを含むプログラムを実行することで、制御部として機能する。
 システム制御部11は、連写モードにおいては、撮像素子駆動部10によって撮像素子5をローリングシャッタ方式により駆動して被写体を撮像させる。システム制御部11は、連写モードにおいて、図示されていないメカシャッタを駆動して被写体を撮像させることもできる。
 ローリングシャッタ方式の駆動は、ローリングリセット駆動と、ローリング読み出し駆動と、を含む。ローリングリセット駆動は、画素行62の各画素61をリセットしてその各画素61の露光を開始する処理を、画素行62を変えながら順次行う駆動である。ローリング読み出し駆動は、露光されている画素行62の各画素61から信号を読み出して、その画素行62の露光を終了する処理を、画素行62を変えながら順次行う駆動である。
 システム制御部11は、連写モードにおいては、撮像感度又は露出値等の撮像条件或いはユーザからの設定によって決められる露光時間に基づいて、第一同期制御と第二同期制御のいずれかを選択して実行する。具体的には、システム制御部11は、露光時間が閾値TH1以下の場合には第一同期制御を選択して実行し、露光時間が閾値TH1を超える場合には第二同期制御を選択して実行する。
 なお、撮像素子5の露光時間は、例えば撮像画像データのダイナミックレンジを広げるために、図2に示した撮像面60内にて分布を持たせる場合もある。例えば、撮像面60の奇数行にある画素行62の露光時間と、撮像面60の偶数行にある画素行62の露光時間とを異ならせる場合等がある。このような場合には、画素行62の露光時間のうちの最大値が、第一同期制御と第二同期制御の選択に用いる露光時間とされる。
 図3は、図1に示すデジタルカメラ100の連写モード時においてシステム制御部11が第一同期制御を行う場合のタイミングチャートの一例を示す図である。図4は、図1に示すデジタルカメラ100の連写モード時においてシステム制御部11が第二同期制御を行う場合のタイミングチャートの一例を示す図である。図3及び図4は、連写モード時に4つの撮像画像データを連続して取得して記録する例を示している。
 図3及び図4において横軸は時間を示している。図3及び図4の上段には、システム制御部11によって生成されて出力され、単一の信号線を通して撮像素子駆動部10に入力される垂直同期信号VD1が示されている。
 図3及び図4の下段には、撮像素子5の各画素行62の駆動タイミングが示されている。図3及び図4の下段において、縦軸は画素行62の列方向Yの位置を示している。図3及び図4の下段に示す直線RRは、ローリングリセット駆動によって画素行62に含まれる各画素61のリセット(露光開始)が行われるタイミングを示している。図3及び図4の下段に示す直線RSは、ローリング読み出し駆動によって画素行62に含まれる各画素61の露光が終了されるタイミングを示している。直線RRとこの右隣の直線RSとで囲まれる期間が、連写モード時における撮像素子5の露光時間EXを示している。
 (第一同期制御)
 図3に示すように、システム制御部11は、連続撮像の指示(図3中の撮像指示)を受けた直後の第一タイミングである時刻t1にて、垂直同期信号VD1と制御情報(各画素行62の露光開始タイミング、信号増幅ゲイン等)を出力する。
 撮像素子駆動部10は、垂直同期信号VD1と制御情報の入力を受けると、駆動回路63と信号処理回路64に制御情報を反映させる。制御情報の反映が完了すると、撮像素子駆動部10は、時刻t1の垂直同期信号VD1の入力を受けてから所定時間Tx経過後の時刻t2aに、ローリングリセット駆動(撮像素子5の露光)を開始する。
 システム制御部11は、時刻t1から第一時間T1経過後の第二タイミングである時刻t2になると、垂直同期信号VD1と2フレーム目の露光開始タイミング情報を出力する。システム制御部11は、撮像素子5の露光が開始された時刻t2aから、露光時間EXが経過後のタイミングを上記の第二タイミングとして決定する。つまり、システム制御部11は、所定時間Txに露光時間EXを加算した時間を第一時間T1として決定する。
 なお、所定時間Txは、システム制御部11から制御情報が出力され、この制御情報が撮像素子5に反映されるまでに必要な処理時間以上とする必要がある。この処理時間は、撮像部50やシステム制御部11の処理負荷が大きいほど、長くなる。そのため、システム制御部11は、所定時間Txの下限値(上記の処理時間)を、撮像部50やシステム制御部11の処理負荷に基づいて決定する。
 このように、第一時間T1は、撮像部50やシステム制御部11の処理負荷と露光時間EXとに基づいて制御される値となっている。
 撮像素子駆動部10は、時刻t2aから露光時間EX経過した時刻t2にて出力された垂直同期信号VD1の入力を受けたタイミングにて、ローリング読み出し駆動(撮像素子5からの信号読み出し)を開始する。
 時刻t2の後、システム制御部11は、第一時間T1よりも長い第二時間T2経過毎(図3中の時刻t3、t4、t5)に、垂直同期信号VD1と露光開始タイミング情報を出力する。第二時間T2は、連写枚数や設定等によって予め決まる値である。
 撮像素子駆動部10は、時刻t2にてローリング読み出し駆動を開始した後、時刻t2にてシステム制御部11から入力された露光タイミング情報にしたがったタイミング(時刻t3a)になるとローリングリセット駆動を開始し、時刻t3aから露光時間EX経過した時刻t3にて垂直同期信号VD1の入力を受けるとローリング読み出し駆動を開始する。
 撮像素子駆動部10は、時刻t3にてローリング読み出し駆動を開始した後、時刻t3にてシステム制御部11から入力された露光タイミング情報にしたがったタイミング(時刻t4a)になるとローリングリセット駆動を開始し、時刻t4aから露光時間EX経過した時刻t4にて垂直同期信号VD1の入力を受けるとローリング読み出し駆動を開始する。
 撮像素子駆動部10は、時刻t4にてローリング読み出し駆動を開始した後、時刻t4にてシステム制御部11から入力された露光タイミング情報にしたがったタイミング(時刻t5a)になるとローリングリセット駆動を開始し、時刻t5aから露光時間EX経過した時刻t5にて垂直同期信号VD1の入力を受けるとローリング読み出し駆動を開始する。
 図3において、時刻t1にて出力される垂直同期信号VD1は、連写の1フレーム目の露光の準備を撮像素子駆動部10に指示するためのものであり、第一同期信号を構成する。図3において、時刻t1よりも後に出力される垂直同期信号VD1は、連写の各露光で得られる信号の読み出しを撮像素子駆動部10に指示するためのものであり、第二同期信号を構成する。
 このように、第一同期制御においては、連続撮像の指示を受けた後に最初に出力される垂直同期信号VD1と、2番目に出力される垂直同期信号VD1との間隔(第一時間T1)は、2番目以降に出力される垂直同期信号VD1同士の間隔(第二時間T2)よりも短くなる。
 (第二同期制御)
 図4に示すように、システム制御部11は、連続撮像の指示(図4中の撮像指示)を受けた後、時刻t1にて、垂直同期信号VD1と制御情報を出力する。時刻t1の後、システム制御部11は、上記の第二時間T2経過毎(図4中の時刻t2、t3、t4、t5)に、垂直同期信号VD1と露光開始タイミング情報を出力する。
 撮像素子駆動部10は、時刻t1にて出力された垂直同期信号VD1と制御情報の入力を受けると、駆動回路63と信号処理回路64に制御情報を反映させる。制御情報の反映が完了すると、撮像素子駆動部10は、時刻t1から所定時間Ty経過後の時刻t2aに、ローリングリセット駆動(撮像素子5の露光)を開始する。所定時間Tyは、第二時間T2から露光時間EXを減算した値が設定される。
 撮像素子駆動部10は、時刻t2aから露光時間EX経過した時刻t2にて出力された垂直同期信号VD1の入力を受けたタイミングにて、ローリング読み出し駆動(撮像素子5からの信号読み出し)を開始する。
 撮像素子駆動部10は、時刻t2から所定時間Ty経過後のタイミング(時刻t3a)になるとローリングリセット駆動を開始し、時刻t3aから露光時間EX経過した時刻t3にて垂直同期信号VD1の入力を受けるとローリング読み出し駆動を開始する。
 撮像素子駆動部10は、時刻t3から所定時間Ty経過後のタイミング(時刻t4a)になるとローリングリセット駆動を開始し、時刻t4aから露光時間EX経過した時刻t4にて垂直同期信号VD1の入力を受けるとローリング読み出し駆動を開始する。
 撮像素子駆動部10は、時刻t4から所定時間Ty経過後のタイミング(時刻t5a)になるとローリングリセット駆動を開始し、時刻t5aから露光時間EX経過した時刻t5にて垂直同期信号VD1の入力を受けるとローリング読み出し駆動を開始する。
 図4において時刻t1に出力される垂直同期信号VD1は、連写の1フレーム目の露光の準備を撮像素子駆動部10に指示するためのものであり、第一同期信号を構成する。図4において時刻t1よりも後に出力される垂直同期信号VD1は、連写の各露光で得られる信号の読み出しを撮像素子駆動部10に指示するためのものであり、第二同期信号を構成する。
 このように、第二同期制御においては、連続撮像の指示を受けると、一定間隔(第二時間T2毎)にてシステム制御部11から垂直同期信号VD1が出力される。
 (実施形態のデジタルカメラの効果)
 デジタルカメラ100によれば、連写モードにおいては、図3に示す第一同期制御と、図4に示す第二同期制御とが選択的に実行される。図3に示す第一同期制御は、撮像指示がなされてから、1フレーム目の露光が開始されるまでの時間(所定時間Tx)、いわゆるシャッタタイムラグを、図4に示す第二同期制御における同じ時間(所定時間Ty)よりも短縮することができる。
 例えば、連写モードにおいて、図4に示す第二同期制御のみを行う場合には、露光時間EXが短い場合ほど、シャッタタイムラグが大きくなる。そこで、露光時間EXが短い場合(閾値以下の場合)には第一同期制御を行うことで、露光時間EXが短い場合に顕著となるシャッタタイムラグの増大を防ぐことができる。
 (実施形態のデジタルカメラの第一変形例)
 この変形例では、システム制御部11が、フリッカ(蛍光灯や水銀灯等の光源の明滅)を検出するフリッカ検出部として機能する。なお、フリッカの検出方法は特に限定されない。
 システム制御部11は、連写モードにおいてフリッカを検出した場合には、連続撮像の指示に応じて行う同期制御として、露光時間EXに依らずに、図4に示した第二同期制御を実行する。また、システム制御部11は、その第二同期制御における第二時間T2を、フリッカによる画質劣化(撮像画像データ間の輝度ムラの発生)を抑制する時間(例えば、フリッカの原因となる光源の明滅周期の自然数倍)に制御する。
 このように、システム制御部11は、フリッカを検出し、そのフリッカによる画質劣化を防止する駆動条件にて撮像素子5を駆動する場合には、露光時間EXが閾値以下であっても、図4に示す第二同期制御を行う。この構成によれば、連写の各フレームの露光期間と光源の明滅パターンとの重なり状態を均一にすることができる。この結果、連写で得られる各撮像画像データにおける明るさの変化を防ぐことができる。
 (実施形態のデジタルカメラの第二変形例)
 図5は、図3に示す第一同期制御の変形例を示すタイミングチャートである。図5に示すタイミングチャートは、連続撮像の指示を受けた後の時刻t1から、1フレーム目の露光が開始される時刻t2aまでの間に、システム制御部11が、撮像素子駆動部10にグローバルリセット駆動(直線GR)を行わせている点が、図3と異なる。
 グローバルリセット駆動は、撮像素子5の撮像面60における露光対象となっている全ての画素61を一斉にリセットする駆動である。時刻t1と時刻t2aの間において、システム制御部11は、撮像素子駆動部10にグローバルリセット駆動の指示を行い、この指示を受けた撮像素子駆動部10がグローバルリセット駆動を行う。
 このように、1フレーム目の露光開始の前にグローバルリセット駆動を行うことで、時刻t1以前に行われていたライブビュー画像表示用の撮像等において生じていた画素61における残留電荷をなくした状態にて、1フレーム目の露光を開始することができる。この結果、撮像画像データの品質を向上させることができる。
 なお、画素61の残留電荷は、撮像素子5の温度が低い場合に発生しやすい傾向がある。そのため、システム制御部11は、第一同期制御を行う場合には、撮像素子5の温度をモニタし、この温度が閾値以下の場合にグローバルリセット駆動を行わせ、この温度が閾値を超える場合にはグローバルリセット駆動を行わないようにしてもよい。このようにすることで、第一同期制御時における消費電力を減らすことができる。
 (実施形態のデジタルカメラの第三変形例)
 この変形例では、システム制御部11が、システム制御部11の外部にて生成された外部同期信号VD2(例えば、表示装置22の表示コントローラ22aにて生成された表示用の垂直同期信号)に同期させて、垂直同期信号VD1を生成する外部同期モードにて動作可能となっている。
 外部同期モードでは、システム制御部11は、連写モードにおける上記の第二時間T2を、外部同期信号VD2の周期に一致させる。そして、システム制御部11は、外部同期モードにて動作する場合には、連写モードにおいて選択する同期制御として、露光時間EXに依らずに第二同期制御を選択して実行する。
 第二同期制御は、図4に示すように、撮像指示が行われてから、垂直同期信号VD1が第二時間T2毎に一定間隔で出力される制御である。このため、第三変形例においては、例えば、撮像指示が行われてから2回目に出力される垂直同期信号VD1の出力タイミングと、撮像指示が行われてから最初にシステム制御部11に入力される外部同期信号の入力タイミングとを一致させることで、垂直同期信号VD1と外部同期信号の出力タイミングのずれを最小化することができ、撮像した画像を即座に表示させていくことが可能となる。なお、垂直同期信号VD1が出力されるタイミングは外部同期信号VD2が出力されるタイミングは完全に一致しなくても良い。外部同期信号VD2が出力されてから一定時間経過した後に垂直同期振動VD2が出力されるように、システム制御部が制御しても良い。
 (実施形態のデジタルカメラの第四変形例)
 この変形例では、システム制御部11が、上述した外部同期モードにて動作可能となっている。外部同期モードでは、システム制御部11は、連写モードにおける上記の第二時間T2を、外部同期信号VD2の周期に一致させる。また、システム制御部11は、第一同期制御を行う場合の第一時間T1を、連続撮像の指示を受けてから最初の外部同期信号VD2の入力タイミングに基づいて決定する。
 図6は、図1に示すデジタルカメラ100の第四変形例における連写モード且つ第一同期制御時の動作を示すタイミングチャートである。図6の上段には、外部同期信号VD2が示されている。外部同期信号VD2は、一定の周期(第二時間T2)にて生成されてシステム制御部11に入力される。
 図6に示す垂直同期信号VD1と撮像素子5の各画素行62の駆動タイミングのうち、時刻t2a以降の部分は、図3と同じである。図6においては、第一時間T1の長さが図3の例から変更されている。図6の例では、システム制御部11が、撮像指示を受けた後に時刻t1にて最初の垂直同期信号VD1を出力する。そして、システム制御部11は、撮像指示を受けてから最初に外部同期信号VD2の入力を受けると(時刻t2)、撮像指示を受けた後の2回目の垂直同期信号VD1を出力する。つまり、図6の例では、撮像指示を受けて最初に垂直同期信号VD1を出力した後、最初に外部同期信号VD2が入力されるまでの時間を第一時間T1としている。
 このように、第四変形例では、所定時間Txが図3の例と比較すると長くなるものの、信号読み出しのための垂直同期信号VD1と外部同期信号VD2とのずれを最小化することができる。このため、例えば、各撮像画像信号の処理後の画像を表示面22bに瞬時に表示することが可能となり、撮像画像の確認を高速に行うことができる。また、所定時間Txは多少長くなるものの、第二同期制御を行う場合よりは短くなるため、シャッタタイムラグを短縮することができる。
 次に、本発明の撮像装置の一実施形態を含む電子機器の別実施形態としてスマートフォンの構成について説明する。
 図7は、本発明の撮像装置の一実施形態を含む電子機器の別実施形態としてスマートフォン200の外観を示す図である。
 図7に示すスマートフォン200は、平板状の筐体201を有し、筐体201の一方の面に表示面としての表示パネル202と、入力部としての操作パネル203とが一体となった表示入力部204を備えている。
 また、この様な筐体201は、スピーカ205と、マイクロホン206と、操作部207と、カメラ部208とを備えている。なお、筐体201の構成はこれに限定されず、例えば、表示面と入力部とが独立した構成を採用したり、折り畳み構造又はスライド機構を有する構成を採用したりすることもできる。
 図8は、図7に示すスマートフォン200の構成を示すブロック図である。
 図8に示すように、スマートフォンの主たる構成要素として、無線通信部210と、表示入力部204と、通話部211と、操作部207と、カメラ部208と、記録部212と、外部入出力部213と、GPS(Global Positioning System)受信部214と、モーションセンサ部215と、電源部216と、主制御部220とを備える。
 また、スマートフォン200の主たる機能として、図示省略の基地局装置BSと図示省略の移動通信網NWとを介した移動無線通信を行う無線通信機能を備える。
 無線通信部210は、主制御部220の指示にしたがって、移動通信網NWに収容された基地局装置BSに対し無線通信を行うものである。この無線通信を使用して、音声データ、画像データ等の各種ファイルデータ、電子メールデータ等の送受信、ウェブデータ又はストリーミングデータ等の受信を行う。
 表示入力部204は、主制御部220の制御により、画像(静止画像及び動画像)又は文字情報等を表示して視覚的に利用者に情報を伝達するとともに、表示した情報に対する利用者操作を検出する、いわゆるタッチパネルであって、表示パネル202と、操作パネル203と、を備える。
 表示パネル202は、LCD(Liquid Crystal Display)、OELD(Organic Electro-Luminescence Display)等を表示デバイスとして用いたものである。
 操作パネル203は、表示パネル202の表示面上に表示される画像を視認可能に載置され、利用者の指又は尖筆によって操作される一又は複数の座標を検出するデバイスである。このデバイスを利用者の指又は尖筆によって操作すると、操作に起因して発生する検出信号を主制御部220に出力する。次いで、主制御部220は、受信した検出信号に基づいて、表示パネル202上の操作位置(座標)を検出する。
 図8に示すように、本発明の撮影装置の一実施形態として例示しているスマートフォン200の表示パネル202と操作パネル203とは一体となって表示入力部204を構成しているが、操作パネル203が表示パネル202を完全に覆うような配置となっている。
 係る配置を採用した場合、操作パネル203は、表示パネル202外の領域についても、利用者操作を検出する機能を備えてもよい。換言すると、操作パネル203は、表示パネル202に重なる重畳部分についての検出領域(以下、表示領域と称する)と、それ以外の表示パネル202に重ならない外縁部分についての検出領域(以下、非表示領域と称する)とを備えていてもよい。
 なお、表示領域の大きさと表示パネル202の大きさとを完全に一致させても良いが、両者を必ずしも一致させる必要は無い。また、操作パネル203が、外縁部分と、それ以外の内側部分の2つの感応領域を備えていてもよい。さらに、外縁部分の幅は、筐体201の大きさ等に応じて適宜設計されるものである。
 さらにまた、操作パネル203で採用される位置検出方式としては、マトリクススイッチ方式、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式、静電容量方式等が挙げられ、いずれの方式を採用することもできる。
 通話部211は、スピーカ205又はマイクロホン206を備え、マイクロホン206を通じて入力された利用者の音声を主制御部220にて処理可能な音声データに変換して主制御部220に出力したり、無線通信部210あるいは外部入出力部213により受信された音声データを復号してスピーカ205から出力させたりするものである。
 また、図7に示すように、例えば、スピーカ205を表示入力部204が設けられた面と同じ面に搭載し、マイクロホン206を筐体201の側面に搭載することができる。
 操作部207は、キースイッチ等を用いたハードウェアキーであって、利用者からの指示を受け付けるものである。例えば、図7に示すように、操作部207は、スマートフォン200の筐体201の側面に搭載され、指等で押下されるとオンとなり、指を離すとバネ等の復元力によってオフ状態となる押しボタン式のスイッチである。
 記録部212は、主制御部220の制御プログラム及び制御データ、アプリケーションソフトウェア、通信相手の名称又は電話番号等を対応づけたアドレスデータ、送受信した電子メールのデータ、WebブラウジングによりダウンロードしたWebデータ、ダウンロードしたコンテンツデータを記録し、またストリーミングデータ等を一時的に記録するものである。また、記録部212は、スマートフォン内蔵の内部記録部217と着脱自在な外部メモリスロットを有する外部記録部218により構成される。
 なお、記録部212を構成するそれぞれの内部記録部217と外部記録部218は、フラッシュメモリタイプ(flash memory type)、ハードディスクタイプ(hard disk type)、マルチメディアカードマイクロタイプ(multimedia card micro type)、カードタイプのメモリ(例えば、MicroSD(登録商標)メモリ等)、RAM(Random Access Memory)、ROM(Read Only Memory)等の格納媒体を用いて実現される。
 外部入出力部213は、スマートフォン200に連結される全ての外部機器とのインターフェースの役割を果たすものであり、他の外部機器に通信等(例えば、ユニバーサルシリアルバス(USB)、IEEE1394等)又はネットワーク(例えば、インターネット、無線LAN、ブルートゥース(Bluetooth)(登録商標)、RFID(Radio Frequency Identification)、赤外線通信(Infrared Data Association:IrDA)(登録商標)、UWB(Ultra Wideband)(登録商標)、ジグビー(ZigBee)(登録商標)等)により直接的又は間接的に接続するためのものである。
 スマートフォン200に連結される外部機器としては、例えば、有/無線ヘッドセット、有/無線外部充電器、有/無線データポート、カードソケットを介して接続されるメモリカード(Memory card)、SIM(Subscriber Identity Module Card)/UIM(User Identity Module Card)カード、オーディオ・ビデオI/O(Input/Output)端子を介して接続される外部オーディオ・ビデオ機器、無線接続される外部オーディオ・ビデオ機器、有/無線接続されるスマートフォン、有/無線接続されるパーソナルコンピュータ、有/無線接続されるパーソナルコンピュータ、イヤホン等がある。
 外部入出力部213は、このような外部機器から伝送を受けたデータをスマートフォン200の内部の各構成要素に伝達したり、スマートフォン200の内部のデータが外部機器に伝送されるようにしたりすることができる。
 GPS受信部214は、主制御部220の指示にしたがって、GPS衛星ST1~STnから送信されるGPS信号を受信し、受信した複数のGPS信号に基づく測位演算処理を実行し、スマートフォン200の緯度、経度、高度からなる位置を検出する。GPS受信部214は、無線通信部210又は外部入出力部213(例えば、無線LAN)から位置情報を取得できる時には、その位置情報を用いて位置を検出することもできる。
 モーションセンサ部215は、例えば、3軸の加速度センサ等を備え、主制御部220の指示にしたがって、スマートフォン200の物理的な動きを検出する。スマートフォン200の物理的な動きを検出することにより、スマートフォン200の動く方向又は加速度が検出される。係る検出結果は、主制御部220に出力されるものである。
 電源部216は、主制御部220の指示にしたがって、スマートフォン200の各部に、バッテリ(図示しない)に蓄えられる電力を供給するものである。
 主制御部220は、マイクロプロセッサを備え、記録部212が記録する制御プログラム及び制御データにしたがって動作し、スマートフォン200の各部を統括して制御するものである。また、主制御部220は、無線通信部210を通じて、音声通信又はデータ通信を行うために、通信系の各部を制御する移動通信制御機能と、アプリケーション処理機能を備える。
 アプリケーション処理機能は、記録部212が記録するアプリケーションソフトウェアにしたがって主制御部220が動作することにより実現するものである。アプリケーション処理機能としては、例えば、外部入出力部213を制御して対向機器とデータ通信を行う赤外線通信機能、電子メールの送受信を行う電子メール機能、又はウェブページを閲覧するウェブブラウジング機能等がある。
 また、主制御部220は、受信データ又はダウンロードしたストリーミングデータ等の画像データ(静止画像又は動画像のデータ)に基づいて、映像を表示入力部204に表示する等の画像処理機能を備える。
 画像処理機能とは、主制御部220が、上記画像データを復号し、この復号結果に画像処理を施して、画像を表示入力部204に表示する機能のことをいう。
 さらに、主制御部220は、表示パネル202に対する表示制御と、操作部207、操作パネル203を通じた利用者操作を検出する操作検出制御を実行する。
 表示制御の実行により、主制御部220は、アプリケーションソフトウェアを起動するためのアイコン又はスクロールバー等のソフトウェアキーを表示したり、あるいは電子メールを作成したりするためのウィンドウを表示する。
 なお、スクロールバーとは、表示パネル202の表示領域に収まりきれない大きな画像等について、画像の表示部分を移動する指示を受け付けるためのソフトウェアキーのことをいう。
 また、操作検出制御の実行により、主制御部220は、操作部207を通じた利用者操作を検出したり、操作パネル203を通じて、上記アイコンに対する操作と上記ウィンドウの入力欄に対する文字列の入力を受け付けたり、あるいは、スクロールバーを通じた表示画像のスクロール要求を受け付けたりする。
 さらに、操作検出制御の実行により主制御部220は、操作パネル203に対する操作位置が、表示パネル202に重なる重畳部分(表示領域)か、それ以外の表示パネル202に重ならない外縁部分(非表示領域)かを判定し、操作パネル203の感応領域又はソフトウェアキーの表示位置を制御するタッチパネル制御機能を備える。
 また、主制御部220は、操作パネル203に対するジェスチャ操作を検出し、検出したジェスチャ操作に応じて、予め設定された機能を実行することもできる。
 ジェスチャ操作とは、従来の単純なタッチ操作ではなく、指等によって軌跡を描いたり、複数の位置を同時に指定したり、あるいはこれらを組み合わせて、複数の位置から少なくとも1つについて軌跡を描く操作を意味する。
 カメラ部208は、図1に示したデジタルカメラ100における外部メモリ制御部20、記録媒体21、表示装置22、及び操作部14以外の構成を含む。
 カメラ部208によって生成されたRAW形式又はJPEG形式の撮像画像データは、記録媒体21の代わりに、記録部212に記録したり、外部入出力部213又は無線通信部210を通じて出力したりすることができる。
 図7に示すスマートフォン200において、カメラ部208は表示入力部204と同じ面に搭載されているが、カメラ部208の搭載位置はこれに限らず、表示入力部204の背面に搭載されてもよい。
 また、カメラ部208はスマートフォン200の各種機能に利用することができる。例えば、表示パネル202にカメラ部208で取得した画像を表示したり、操作パネル203の操作入力のひとつとして、カメラ部208の画像を利用したりすることができる。
 また、GPS受信部214が位置を検出する際に、カメラ部208からの画像を参照して位置を検出することもできる。さらには、カメラ部208からの画像を参照して、3軸の加速度センサを用いずに、或いは、3軸の加速度センサと併用して、スマートフォン200のカメラ部208の光軸方向を判断したり、現在の使用環境を判断したりすることもできる。勿論、カメラ部208からの画像をアプリケーションソフトウェア内で利用することもできる。
 その他、静止画又は動画の画像データにGPS受信部214により取得した位置情報、マイクロホン206により取得した音声情報(主制御部等により、音声テキスト変換を行ってテキスト情報となっていてもよい)、モーションセンサ部215により取得した姿勢情報等を付加して記録部212に記録したり、外部入出力部213又は無線通信部210を通じて出力したりすることもできる。
 以上のような構成のスマートフォン200においても、連写モードにおいてシャッタタイムラグを短縮することが可能となる。
 以上説明してきたように、本明細書には以下の事項が開示されている。
(1)
 連続撮像の指示を受けた後、第一タイミングにて第一同期信号を出力し、上記第一タイミングから第一時間経過後の第二タイミングにて第二同期信号を出力し、上記第二タイミングの後は上記第一時間よりも長い第二時間経過毎に上記第二同期信号を出力する第一同期制御を行う制御部と、
 上記第二タイミング以降の上記第二同期信号の入力を受けたタイミングにてローリングシャッタ方式によって撮像素子からの信号の読み出しを開始し、そのタイミングの露光時間前のタイミングにて、ローリングシャッタ方式によって上記撮像素子の露光を開始する撮像部と、を備える撮像装置。
(2)
 (1)記載の撮像装置であって、
 上記第一同期信号と上記第二同期信号は、同一の信号線によって伝達される撮像装置。
(3)
 (1)又は(2)記載の撮像装置であって、
 上記制御部は、連続撮像の指示を受けた後、上記第一同期信号を出力しその第一同期信号の出力後は上記第二時間経過毎に上記第二同期信号を出力する第二同期制御と、上記第一同期制御と、を選択的に行い、
 上記撮像部は、上記第二同期制御が行われる場合は、上記第二同期信号の入力を受けたタイミングにてローリングシャッタ方式によって上記撮像素子からの信号の読み出しを開始し、そのタイミングの露光時間前のタイミングにて、ローリングシャッタ方式によって上記撮像素子の露光を開始する撮像装置。
(4)
 (3)記載の撮像装置であって、
 上記制御部は、上記露光時間に基づいて上記第一同期制御と上記第二同期制御のいずれかを選択する撮像装置。
(5)
 (4)記載の撮像装置であって、
 上記制御部は、上記露光時間が閾値以下となる場合には上記第一同期制御を行う撮像装置。
(6)
 (4)又は(5)記載の撮像装置であって、
 上記連続撮像が上記撮像素子の受光面内にて露光の時間に分布を持たせるものである場合には、上記制御部は、上記受光面内における露光の時間の最大値を、上記第一同期制御と上記第二同期制御の選択に用いる上記露光時間とする撮像装置。
(7)
 (3)から(6)のいずれか1つに記載の撮像装置であって、
 フリッカを検出するフリッカ検出部を備え、
 上記制御部は、上記フリッカが検出された場合には、上記フリッカによる画質劣化を防止する駆動条件にて上記撮像部に上記撮像素子を駆動させ、且つ、上記第二同期制御を行う撮像装置。
(8)
 (3)から(6)のいずれか1つに記載の撮像装置であって、
 上記制御部は、外部にて生成された外部同期信号の周期に上記第二時間を一致させるモードにおいては、上記第二同期制御を行う撮像装置。
(9)
 (3)から(6)のいずれか1つに記載の撮像装置であって、
 上記制御部は、外部にて生成された外部同期信号の周期に上記第二時間を一致させるモードにおいては、上記第一時間を、上記指示を受けてから最初の上記外部同期信号の入力タイミングに基づいて決定する撮像装置。
(10)
 (1)から(9)のいずれか1つに記載の撮像装置であって、
 上記制御部は、上記第一同期制御を行う場合に、上記第一タイミングから最初の上記撮像素子の露光が開始されるまでの間に、上記撮像素子の全画素を一斉にリセットさせる撮像装置。
(11)
 (1)から(9)のいずれか1つに記載の撮像装置であって、
 上記制御部は、上記撮像素子の温度が閾値以下の場合、且つ、上記第一同期制御を行う場合に、上記第一タイミングから最初の上記撮像素子の露光が開始されるまでの間に、上記撮像素子の全画素を一斉にリセットさせる撮像装置。
(12)
 (1)から(11)のいずれか1つに記載の撮像装置であって、
 上記制御部は、上記第一時間を上記露光時間に基づいて制御する撮像装置。
(13)
 (1)から(12)のいずれか1つに記載の撮像装置であって、
 上記制御部は、上記第一時間から上記露光時間を差し引いた時間の下限値を制御する撮像装置。
(14)
 (13)記載の撮像装置であって、
 上記制御部は、処理負荷に応じて上記下限値を制御する撮像装置。
(15)
 (13)記載の撮像装置であって、
 上記制御部は、上記撮像部の処理負荷に応じて上記下限値を制御する撮像装置。
(16)
 連続撮像の指示を受けた後、第一タイミングにて第一同期信号を出力し、上記第一タイミングから第一時間経過後の第二タイミングにて第二同期信号を出力し、上記第二タイミングの後は上記第一時間よりも長い第二時間経過毎に上記第二同期信号を出力する第一同期制御を行う制御ステップと、
 上記第二タイミング以降の上記第二同期信号の入力を受けたタイミングにてローリングシャッタ方式によって撮像素子からの信号の読み出しを開始し、そのタイミングの露光時間前のタイミングにて、ローリングシャッタ方式によって上記撮像素子の露光を開始する撮像ステップと、を含む撮像方法。
(17)
 (16)記載の撮像方法であって、
 上記第一同期信号と上記第二同期信号は、同一の信号線によって伝達される撮像方法。
(18)
 (16)又は(17)記載の撮像方法であって、
 上記制御ステップは、連続撮像の指示を受けた後、上記第一同期信号を出力しその第一同期信号の出力後は上記第二時間経過毎に上記第二同期信号を出力する第二同期制御と、上記第一同期制御と、を選択的に行い、
 上記撮像ステップは、上記第二同期制御が行われる場合は、上記第二同期信号の入力を受けたタイミングにてローリングシャッタ方式によって上記撮像素子からの信号の読み出しを開始し、そのタイミングの露光時間前のタイミングにて、ローリングシャッタ方式によって上記撮像素子の露光を開始する撮像方法。
(19)
 (18)記載の撮像方法であって、
 上記制御ステップは、上記露光時間に基づいて上記第一同期制御と上記第二同期制御のいずれかを選択する撮像方法。
(20)
 (19)記載の撮像方法であって、
 上記制御ステップは、上記露光時間が閾値以下となる場合には上記第一同期制御を行う撮像方法。
(21)
 (19)又は(20)記載の撮像方法であって、
 上記連続撮像が上記撮像素子の受光面内にて露光の時間に分布を持たせるものである場合には、上記制御ステップは、上記受光面内における露光の時間の最大値を、上記第一同期制御と上記第二同期制御の選択に用いる上記露光時間とする撮像方法。
(22)
 (18)から(21)のいずれか1つに記載の撮像方法であって、
 フリッカを検出するフリッカ検出ステップを含み、
 上記制御ステップは、上記フリッカが検出された場合には、上記フリッカによる画質劣化を防止する駆動条件にて上記撮像素子を駆動させ、且つ、上記第二同期制御を行う撮像方法。
(23)
 (18)から(21)のいずれか1つに記載の撮像方法であって、
 上記制御ステップは、上記制御ステップを行う制御部の外部にて生成された外部同期信号の周期に上記第二時間を一致させるモードにおいては、上記第二同期制御を行う撮像方法。
(24)
 (18)から(21)のいずれか1つに記載の撮像方法であって、
 上記制御ステップは、上記制御ステップを行う制御部の外部にて生成された外部同期信号の周期に上記第二時間を一致させるモードにおいては、上記第一時間を、上記指示を受けてから最初の上記外部同期信号の入力タイミングに基づいて決定する撮像方法。
(25)
 (16)から(24)のいずれか1つに記載の撮像方法であって、
 上記制御ステップは、上記第一同期制御を行う場合に、上記第一タイミングから最初の上記撮像素子の露光が開始されるまでの間に、上記撮像素子の全画素を一斉にリセットさせる撮像方法。
(26)
 (16)から(24)のいずれか1つに記載の撮像方法であって、
 上記制御ステップは、上記撮像素子の温度が閾値以下の場合、且つ、上記第一同期制御を行う場合に、上記第一タイミングから最初の上記撮像素子の露光が開始されるまでの間に、上記撮像素子の全画素を一斉にリセットさせる撮像方法。
(27)
 (16)から(26)のいずれか1つに記載の撮像方法であって、
 上記制御ステップは、上記第一時間を上記露光時間に基づいて制御する撮像方法。
(28)
 (16)から(27)のいずれか1つに記載の撮像方法であって、
 上記制御ステップは、上記第一時間から上記露光時間を差し引いた時間の下限値を制御する撮像方法。
(29)
 (28)記載の撮像方法であって、
 上記制御ステップは、上記制御ステップを行う制御部の処理負荷に応じて上記下限値を制御する撮像方法。
(30)
 (28)記載の撮像方法であって、
 上記制御ステップは、上記撮像ステップを行う撮像部の処理負荷に応じて上記下限値を制御する撮像方法。
(31)
 連続撮像の指示を受けた後、第一タイミングにて第一同期信号を出力し、上記第一タイミングから第一時間経過後の第二タイミングにて第二同期信号を出力し、上記第二タイミングの後は上記第一時間よりも長い第二時間経過毎に上記第二同期信号を出力する第一同期制御を行う制御ステップと、
 上記第二タイミング以降の上記第二同期信号の入力を受けたタイミングにてローリングシャッタ方式によって撮像素子からの信号の読み出しを開始し、そのタイミングの露光時間前のタイミングにて、ローリングシャッタ方式によって上記撮像素子の露光を開始する撮像ステップと、をコンピュータに実行させるための撮像プログラム。
 以上、図面を参照しながら各種の実施の形態について説明したが、本発明はかかる例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。また、発明の趣旨を逸脱しない範囲において、上記実施の形態における各構成要素を任意に組み合わせてもよい。
 なお、本出願は、2019年8月27日出願の日本特許出願(特願2019-154882)に基づくものであり、その内容は本出願の中に参照として援用される。
100 デジタルカメラ
100A 本体部
40 レンズ装置
1 撮像レンズ
2 絞り
4 レンズ制御部
8 レンズ駆動部
9 絞り駆動部
50 撮像部
5 撮像素子
10 撮像素子駆動部
60 撮像面
61 画素
62 画素行
63 駆動回路
64 信号処理回路
11 システム制御部
14 操作部
15 メモリ制御部
16 メモリ
17 デジタル信号処理部
20 外部メモリ制御部
21 記録媒体
22 表示装置
22a 表示コントローラ
22b 表示面
24 制御バス
25 データバス
RR、RS、GR 直線
EX 露光時間
Tx,Ty,Tz 所定時間
T1 第一時間
T2 第二時間
VD1 垂直同期信号
VD2 外部同期信号
200 スマートフォン
201 筐体
202 表示パネル
203 操作パネル
204 表示入力部
205 スピーカ
206 マイクロホン
207 操作部
208 カメラ部
210 無線通信部
211 通話部
212 記録部
213 外部入出力部
214 GPS受信部
215 モーションセンサ部
216 電源部
217 内部記録部
218 外部記録部
220 主制御部
ST1~STn GPS衛星
 

Claims (31)

  1.  連続撮像の指示を受けた後、第一タイミングにて第一同期信号を出力し、前記第一タイミングから第一時間経過後の第二タイミングにて第二同期信号を出力し、前記第二タイミングの後は前記第一時間よりも長い第二時間経過毎に前記第二同期信号を出力する第一同期制御を行う制御部と、
     前記第二タイミング以降の前記第二同期信号の入力を受けたタイミングにてローリングシャッタ方式によって撮像素子からの信号の読み出しを開始し、当該タイミングの露光時間前のタイミングにて、ローリングシャッタ方式によって前記撮像素子の露光を開始する撮像部と、を備える撮像装置。
  2.  請求項1記載の撮像装置であって、
     前記第一同期信号と前記第二同期信号は、同一の信号線によって伝達される撮像装置。
  3.  請求項1又は2記載の撮像装置であって、
     前記制御部は、連続撮像の指示を受けた後、前記第一同期信号を出力し当該第一同期信号の出力後は前記第二時間経過毎に前記第二同期信号を出力する第二同期制御と、前記第一同期制御と、を選択的に行い、
     前記撮像部は、前記第二同期制御が行われる場合は、前記第二同期信号の入力を受けたタイミングにてローリングシャッタ方式によって前記撮像素子からの信号の読み出しを開始し、当該タイミングの露光時間前のタイミングにて、ローリングシャッタ方式によって前記撮像素子の露光を開始する撮像装置。
  4.  請求項3記載の撮像装置であって、
     前記制御部は、前記露光時間に基づいて前記第一同期制御と前記第二同期制御のいずれかを選択する撮像装置。
  5.  請求項4記載の撮像装置であって、
     前記制御部は、前記露光時間が閾値以下となる場合には前記第一同期制御を行う撮像装置。
  6.  請求項4又は5記載の撮像装置であって、
     前記連続撮像が前記撮像素子の受光面内にて露光の時間に分布を持たせるものである場合には、前記制御部は、前記受光面内における露光の時間の最大値を、前記第一同期制御と前記第二同期制御の選択に用いる前記露光時間とする撮像装置。
  7.  請求項3から6のいずれか1項記載の撮像装置であって、
     フリッカを検出するフリッカ検出部を備え、
     前記制御部は、前記フリッカが検出された場合には、前記フリッカによる画質劣化を防止する駆動条件にて前記撮像部に前記撮像素子を駆動させ、且つ、前記第二同期制御を行う撮像装置。
  8.  請求項3から6のいずれか1項記載の撮像装置であって、
     前記制御部は、外部にて生成された外部同期信号の周期に前記第二時間を一致させるモードにおいては、前記第二同期制御を行う撮像装置。
  9.  請求項3から6のいずれか1項記載の撮像装置であって、
     前記制御部は、外部にて生成された外部同期信号の周期に前記第二時間を一致させるモードにおいては、前記第一時間を、前記指示を受けてから最初の前記外部同期信号の入力タイミングに基づいて決定する撮像装置。
  10.  請求項1から9のいずれか1項記載の撮像装置であって、
     前記制御部は、前記第一同期制御を行う場合に、前記第一タイミングから最初の前記撮像素子の露光が開始されるまでの間に、前記撮像素子の全画素を一斉にリセットさせる撮像装置。
  11.  請求項1から9のいずれか1項記載の撮像装置であって、
     前記制御部は、前記撮像素子の温度が閾値以下の場合、且つ、前記第一同期制御を行う場合に、前記第一タイミングから最初の前記撮像素子の露光が開始されるまでの間に、前記撮像素子の全画素を一斉にリセットさせる撮像装置。
  12.  請求項1から11のいずれか1項記載の撮像装置であって、
     前記制御部は、前記第一時間を前記露光時間に基づいて制御する撮像装置。
  13.  請求項1から12のいずれか1項記載の撮像装置であって、
     前記制御部は、前記第一時間から前記露光時間を差し引いた時間の下限値を制御する撮像装置。
  14.  請求項13記載の撮像装置であって、
     前記制御部は、処理負荷に応じて前記下限値を制御する撮像装置。
  15.  請求項13記載の撮像装置であって、
     前記制御部は、前記撮像部の処理負荷に応じて前記下限値を制御する撮像装置。
  16.  連続撮像の指示を受けた後、第一タイミングにて第一同期信号を出力し、前記第一タイミングから第一時間経過後の第二タイミングにて第二同期信号を出力し、前記第二タイミングの後は前記第一時間よりも長い第二時間経過毎に前記第二同期信号を出力する第一同期制御を行う制御ステップと、
     前記第二タイミング以降の前記第二同期信号の入力を受けたタイミングにてローリングシャッタ方式によって撮像素子からの信号の読み出しを開始し、当該タイミングの露光時間前のタイミングにて、ローリングシャッタ方式によって前記撮像素子の露光を開始する撮像ステップと、を含む撮像方法。
  17.  請求項16記載の撮像方法であって、
     前記第一同期信号と前記第二同期信号は、同一の信号線によって伝達される撮像方法。
  18.  請求項16又は17記載の撮像方法であって、
     前記制御ステップは、連続撮像の指示を受けた後、前記第一同期信号を出力し当該第一同期信号の出力後は前記第二時間経過毎に前記第二同期信号を出力する第二同期制御と、前記第一同期制御と、を選択的に行い、
     前記撮像ステップは、前記第二同期制御が行われる場合は、前記第二同期信号の入力を受けたタイミングにてローリングシャッタ方式によって前記撮像素子からの信号の読み出しを開始し、当該タイミングの露光時間前のタイミングにて、ローリングシャッタ方式によって前記撮像素子の露光を開始する撮像方法。
  19.  請求項18記載の撮像方法であって、
     前記制御ステップは、前記露光時間に基づいて前記第一同期制御と前記第二同期制御のいずれかを選択する撮像方法。
  20.  請求項19記載の撮像方法であって、
     前記制御ステップは、前記露光時間が閾値以下となる場合には前記第一同期制御を行う撮像方法。
  21.  請求項19又は20記載の撮像方法であって、
     前記連続撮像が前記撮像素子の受光面内にて露光の時間に分布を持たせるものである場合には、前記制御ステップは、前記受光面内における露光の時間の最大値を、前記第一同期制御と前記第二同期制御の選択に用いる前記露光時間とする撮像方法。
  22.  請求項18から21のいずれか1項記載の撮像方法であって、
     フリッカを検出するフリッカ検出ステップを含み、
     前記制御ステップは、前記フリッカが検出された場合には、前記フリッカによる画質劣化を防止する駆動条件にて前記撮像素子を駆動させ、且つ、前記第二同期制御を行う撮像方法。
  23.  請求項18から21のいずれか1項記載の撮像方法であって、
     前記制御ステップは、前記制御ステップを行う制御部の外部にて生成された外部同期信号の周期に前記第二時間を一致させるモードにおいては、前記第二同期制御を行う撮像方法。
  24.  請求項18から21のいずれか1項記載の撮像方法であって、
     前記制御ステップは、前記制御ステップを行う制御部の外部にて生成された外部同期信号の周期に前記第二時間を一致させるモードにおいては、前記第一時間を、前記指示を受けてから最初の前記外部同期信号の入力タイミングに基づいて決定する撮像方法。
  25.  請求項16から24のいずれか1項記載の撮像方法であって、
     前記制御ステップは、前記第一同期制御を行う場合に、前記第一タイミングから最初の前記撮像素子の露光が開始されるまでの間に、前記撮像素子の全画素を一斉にリセットさせる撮像方法。
  26.  請求項16から24のいずれか1項記載の撮像方法であって、
     前記制御ステップは、前記撮像素子の温度が閾値以下の場合、且つ、前記第一同期制御を行う場合に、前記第一タイミングから最初の前記撮像素子の露光が開始されるまでの間に、前記撮像素子の全画素を一斉にリセットさせる撮像方法。
  27.  請求項16から26のいずれか1項記載の撮像方法であって、
     前記制御ステップは、前記第一時間を前記露光時間に基づいて制御する撮像方法。
  28.  請求項16から27のいずれか1項記載の撮像方法であって、
     前記制御ステップは、前記第一時間から前記露光時間を差し引いた時間の下限値を制御する撮像方法。
  29.  請求項28記載の撮像方法であって、
     前記制御ステップは、前記制御ステップを行う制御部の処理負荷に応じて前記下限値を制御する撮像方法。
  30.  請求項28記載の撮像方法であって、
     前記制御ステップは、前記撮像ステップを行う撮像部の処理負荷に応じて前記下限値を制御する撮像方法。
  31.  連続撮像の指示を受けた後、第一タイミングにて第一同期信号を出力し、前記第一タイミングから第一時間経過後の第二タイミングにて第二同期信号を出力し、前記第二タイミングの後は前記第一時間よりも長い第二時間経過毎に前記第二同期信号を出力する第一同期制御を行う制御ステップと、
     前記第二タイミング以降の前記第二同期信号の入力を受けたタイミングにてローリングシャッタ方式によって撮像素子からの信号の読み出しを開始し、当該タイミングの露光時間前のタイミングにて、ローリングシャッタ方式によって前記撮像素子の露光を開始する撮像ステップと、をコンピュータに実行させるための撮像プログラム。
     
PCT/JP2020/023762 2019-08-27 2020-06-17 撮像装置、撮像方法、及び撮像プログラム WO2021039044A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202080060212.2A CN114365477A (zh) 2019-08-27 2020-06-17 摄像装置、摄像方法及摄像程序
JP2021542032A JP7266102B2 (ja) 2019-08-27 2020-06-17 撮像装置、撮像方法、及び撮像プログラム
US17/670,663 US11683591B2 (en) 2019-08-27 2022-02-14 Imaging apparatus, imaging method, and imaging program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-154882 2019-08-27
JP2019154882 2019-08-27

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/670,663 Continuation US11683591B2 (en) 2019-08-27 2022-02-14 Imaging apparatus, imaging method, and imaging program

Publications (1)

Publication Number Publication Date
WO2021039044A1 true WO2021039044A1 (ja) 2021-03-04

Family

ID=74683657

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/023762 WO2021039044A1 (ja) 2019-08-27 2020-06-17 撮像装置、撮像方法、及び撮像プログラム

Country Status (4)

Country Link
US (1) US11683591B2 (ja)
JP (1) JP7266102B2 (ja)
CN (1) CN114365477A (ja)
WO (1) WO2021039044A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005260733A (ja) * 2004-03-12 2005-09-22 Fuji Photo Film Co Ltd 撮影装置及びその制御方法
JP2010161572A (ja) * 2009-01-07 2010-07-22 Canon Inc 撮像装置及びその制御方法及びプログラム
JP2012129817A (ja) * 2010-12-15 2012-07-05 Canon Inc 撮像装置及び撮像素子の制御方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5342969B2 (ja) * 2009-09-10 2013-11-13 富士フイルム株式会社 撮像装置及び撮像方法
KR101817655B1 (ko) * 2011-11-07 2018-01-12 삼성전자주식회사 삼차원 영상 촬영 장치 및 방법
WO2014156442A1 (ja) * 2013-03-27 2014-10-02 富士フイルム株式会社 レンズ交換式デジタルカメラ
JP2017203829A (ja) * 2016-05-10 2017-11-16 キヤノン株式会社 制御装置、撮像装置、制御方法、プログラム、記憶媒体

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005260733A (ja) * 2004-03-12 2005-09-22 Fuji Photo Film Co Ltd 撮影装置及びその制御方法
JP2010161572A (ja) * 2009-01-07 2010-07-22 Canon Inc 撮像装置及びその制御方法及びプログラム
JP2012129817A (ja) * 2010-12-15 2012-07-05 Canon Inc 撮像装置及び撮像素子の制御方法

Also Published As

Publication number Publication date
US11683591B2 (en) 2023-06-20
CN114365477A (zh) 2022-04-15
JPWO2021039044A1 (ja) 2021-03-04
US20220166913A1 (en) 2022-05-26
JP7266102B2 (ja) 2023-04-27

Similar Documents

Publication Publication Date Title
JP6569022B2 (ja) 撮像装置、撮像方法、及び撮像プログラム
JP6175587B2 (ja) 撮像装置、フリッカ検出方法、及びフリッカ検出プログラム
WO2018088120A1 (ja) 撮像装置、撮像方法、及び、撮像プログラム
JP6839768B2 (ja) 撮像制御装置、撮像装置、撮像制御方法、及び撮像制御プログラム
CN110326285B (zh) 图像传感器和控制系统
JP6175585B2 (ja) 撮像装置、フリッカ検出方法、及びフリッカ検出プログラム
US10750105B2 (en) Imaging apparatus, operation method of imaging apparatus, and operation program of imaging apparatus
JP6928663B2 (ja) 撮像制御装置、撮像装置、撮像制御方法、及び撮像制御プログラム
US10944925B2 (en) Global shuttering, first rolling readout and second rolling readout employed with an imaging apparatus, imaging method, and imaging program
WO2021039044A1 (ja) 撮像装置、撮像方法、及び撮像プログラム
US10778880B2 (en) Imaging device, imaging method, and imaging program
JP7474342B2 (ja) 撮像装置、電力制御方法、及び電力制御プログラム
JP7042368B2 (ja) 表示制御装置、撮像装置、表示制御方法、及び表示制御プログラム
US11861874B2 (en) Imaging apparatus, imaging control method, and imaging control program
US20230388669A1 (en) Imaging control device, imaging apparatus, imaging control method, and imaging control program

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20857070

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2021542032

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20857070

Country of ref document: EP

Kind code of ref document: A1