JP2013192088A - Imaging apparatus, control method, and control program - Google Patents

Imaging apparatus, control method, and control program Download PDF

Info

Publication number
JP2013192088A
JP2013192088A JP2012057550A JP2012057550A JP2013192088A JP 2013192088 A JP2013192088 A JP 2013192088A JP 2012057550 A JP2012057550 A JP 2012057550A JP 2012057550 A JP2012057550 A JP 2012057550A JP 2013192088 A JP2013192088 A JP 2013192088A
Authority
JP
Japan
Prior art keywords
posture
imaging device
acceleration
unit
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012057550A
Other languages
Japanese (ja)
Inventor
Satoshi Sawaguchi
聡 澤口
Noriyuki Terao
典之 寺尾
Yoshiaki Irino
祥明 入野
Toru Harada
亨 原田
Hiroichi Takenaka
博一 竹中
Tomonori Tanaka
智憲 田中
Nozomi Imae
望 今江
Daisuke Bessho
大介 別所
Kensuke Masuda
憲介 増田
Hiroyuki Sato
裕之 佐藤
Makoto Shohara
誠 庄原
Hideaki Yamamoto
英明 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2012057550A priority Critical patent/JP2013192088A/en
Publication of JP2013192088A publication Critical patent/JP2013192088A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an imaging apparatus and a control method of the same which are capable of reducing wasteful power consumption due to an AE function.SOLUTION: An imaging apparatus 10 comprises: an acceleration detection unit 100 which detects acceleration occurring in the imaging apparatus 10; an exposure control unit 101 which performs exposure control to obtain a taken image corresponding to the brightness of a subject; and a posture determination unit 102 which detects the posture of the imaging apparatus 10 from the detected acceleration, determines whether the posture is a previously designated posture, and if determining that the posture is the previously designated posture, instructs the exposure control unit 101 to start the exposure control.

Description

本発明は、加速度を検出するための加速度センサを備えた撮像装置、その撮像装置により実行される制御方法およびその方法を実現するための撮像装置により読み取り可能な制御プログラムに関する。   The present invention relates to an imaging device including an acceleration sensor for detecting acceleration, a control method executed by the imaging device, and a control program readable by the imaging device for realizing the method.

近年、デジタルカメラ等の撮像装置として、加速度を検出するための加速度センサを備え、この加速度センサにより検出された検出値に基づき、被写体の像と撮像面との相対的な位置関係を一定に保つように制御する手ぶれ補正機能を有する装置が増加してきている。このため、撮像装置を手に持って撮影する場合であっても、ぶれのないきれいな画像を撮像することが可能となっている。   In recent years, an imaging device such as a digital camera has been provided with an acceleration sensor for detecting acceleration, and the relative positional relationship between the subject image and the imaging surface is kept constant based on the detection value detected by the acceleration sensor. The number of devices having a camera shake correction function to be controlled is increasing. For this reason, even when the image pickup apparatus is held and photographed, it is possible to capture a clear image without blurring.

加速度センサは、この手ぶれ補正機能を実現するほか、その他の処理や機能を実現するためにも使用されている。例えば、特許文献1では、加速度センサにより検出された加速度(重力)を、デジタルカメラでカメラを構える前のシャッターチャンスを逃さないようにするための処理に使用している。   The acceleration sensor is used not only to realize this camera shake correction function but also to realize other processes and functions. For example, in Patent Document 1, acceleration (gravity) detected by an acceleration sensor is used for processing so as not to miss a photo opportunity before holding the camera with a digital camera.

特許文献1では、検出された重力から、Y軸方向の重力に急激な増加があるかどうかを判断し、急激な増加があると判断した場合、撮像系に電力を供給して、構える前での撮影を開始し、画像を撮影時の傾き、振動とともに記録し、その傾き、振動のデータを画像の補正、選択の際に利用している。これにより、撮像装置を把持し持ち上げる動作において撮影を開始することができ、構える前にシャッターチャンスに遭遇しても充分に対応でき、取り逃しなく撮影することを可能にしている。   In Patent Document 1, it is determined whether or not there is a sudden increase in the gravity in the Y-axis direction from the detected gravity. If it is determined that there is a sudden increase, power is supplied to the imaging system before holding. The image is recorded together with the tilt and vibration at the time of shooting, and the data of the tilt and vibration are used when correcting and selecting the image. As a result, shooting can be started in the operation of gripping and lifting the imaging device, and even when a photo opportunity is encountered before holding, shooting can be performed without missing.

また、特許文献2では、加速度センサにより検出された加速度値を、そのレンズを合焦位置に移動させるレンズ合焦動作を開始させるかどうかを判断するために使用している。この特許文献2では、加速度センサにより検出された加速度値が、予め設定された加速度判定値より大きい値から小さい値に変化したときに、レンズ合焦動作を開始させるように制御している。これにより、これまでの撮影モードになった時点からレンズ合焦動作を行う場合に比較して、レンズ合焦動作の実行に伴う無駄な消費電力を低減することが可能となっている。   In Patent Document 2, the acceleration value detected by the acceleration sensor is used to determine whether or not to start a lens focusing operation for moving the lens to the in-focus position. In Patent Document 2, control is performed so as to start the lens focusing operation when the acceleration value detected by the acceleration sensor changes from a value larger than a preset acceleration determination value to a smaller value. Accordingly, it is possible to reduce wasteful power consumption associated with the execution of the lens focusing operation, as compared with the case where the lens focusing operation is performed from the time when the shooting mode is reached.

さらに、特許文献3では、加速度センサにより検出された撮像装置の姿勢または振動を、三脚や台等を用いて静止された状態で撮影しているかどうかを判断するために使用している。この特許文献3では、加速度センサにより検出された装置の傾きが所定時間変化していないかどうかにより静止状態にあるかどうかを判断し、静止状態にあると判断した場合に、手ぶれ補正手段の少なくとも一部への通電を停止している。これにより、三脚や台等を用いて静止された状態で撮影する場合に、有効に消費電力を軽減することが可能となっている。   Furthermore, in Patent Document 3, the posture or vibration of the imaging device detected by the acceleration sensor is used to determine whether or not the image is captured in a stationary state using a tripod, a stand, or the like. In this Patent Document 3, it is determined whether or not the apparatus is in a stationary state based on whether or not the inclination of the apparatus detected by the acceleration sensor has not changed for a predetermined time. The power supply to a part has been stopped. This makes it possible to effectively reduce power consumption when shooting in a stationary state using a tripod or a stand.

特許文献1に記載の技術では、加速度センサにより検出された重力が、画像の補正、選択の際に利用されるのみで、電力を削減する目的には使用されていない。   In the technique described in Patent Document 1, the gravity detected by the acceleration sensor is only used for image correction and selection, and is not used for the purpose of reducing power.

その一方で、特許文献2および3に記載の技術では、加速度センサにより検出された加速度値や、装置の姿勢または振動が、無駄な電力消費を低減する目的に使用されている。しかしながら、電力の無駄は、撮影モードになった時点からレンズ合焦動作を開始させる場合や、三脚や台等を用いて静止された状態でも手ぶれ補正手段を動作させる場合以外にも生じている。   On the other hand, in the techniques described in Patent Documents 2 and 3, the acceleration value detected by the acceleration sensor and the attitude or vibration of the device are used for the purpose of reducing wasteful power consumption. However, power is wasted not only when the lens focusing operation is started from the time when the photographing mode is entered, but also when the camera shake correction means is operated even when the camera is stationary using a tripod or a stand.

例えば、デジタルカメラには、露出を自動で行うAE(Automatic Exposure)機能を備える製品が数多く販売されている。しかしながら、これらの製品は、通常モニタリングにより常時露出を自動で行っているため、実際に露出が必要とされる撮像時までの間、無駄に電力を消費している。   For example, many products having an AE (Automatic Exposure) function for automatically performing exposure are sold for digital cameras. However, since these products always perform exposure automatically by normal monitoring, power is wasted until the time of imaging that actually requires exposure.

加速度センサを用いることで、検出された加速度値が、予め設定された加速度判定値より大きい値から小さい値に変化したときや、装置の傾きが所定時間変化していないかどうかにより静止状態にあるかどうかを判断して、静止状態にあると判断したときを撮像時とし、そこから露出制御を開始させることにより、消費電力を低減させることは可能である。   By using the acceleration sensor, the detected acceleration value changes from a value greater than a preset acceleration judgment value to a smaller value, or whether or not the inclination of the device has not changed for a predetermined time. It is possible to reduce power consumption by determining whether or not the image is still and determining that the camera is in a stationary state as the time of imaging and starting exposure control therefrom.

しかしながら、判定値より大きい値から小さい値に変化したときを撮像時とする方法では、実際にはまだカメラを構えていないが、電源を入れ、手でもっているときに、たまたまそのように変化する場合がある。すると、撮像時と判断されてしまい、実際にカメラを構えて撮影する時まで無駄に電力を消費してしまう。   However, in the method of taking an image when changing from a value larger than the judgment value to a smaller value, the camera is not actually held yet, but it happens to change as it happens when the power is turned on and held by hand. There is a case. Then, it is determined that the image is being picked up, and power is consumed wastefully until the image is actually taken while holding the camera.

また、静止状態にあると判断したときを撮像時とする方法では、手でもって撮影する場合には、いつまで経っても静止状態と判断されない可能性が高い。これでは、露出制御を開始させることができない。   In addition, in the method in which the time when it is determined that the camera is in a stationary state is set to the time of imaging, there is a high possibility that the camera will not be determined to be in a stationary state after a long time. With this, exposure control cannot be started.

したがって、加速度センサを用いて、撮像時を適切に判断し、その適切な撮像時から露出制御を開始させることにより無駄な電力消費を低減させることができる撮像装置やその制御方法を提供することが望まれている。   Therefore, it is possible to provide an imaging device and a control method thereof that can reduce wasteful power consumption by appropriately determining the time of imaging using an acceleration sensor and starting exposure control from the time of the appropriate imaging. It is desired.

撮影しようとしてカメラを構えるとき、多くの人はカメラを水平状態に保持する。それから撮影動作に入る。このため、撮影動作に入る直前、カメラは一定の姿勢となる。そこで、その姿勢を加速度センサにより検出したときに露出制御を開始させるようにする。   Many people hold the camera in a horizontal position when holding the camera for shooting. Then start shooting. For this reason, the camera is in a certain posture immediately before entering the shooting operation. Therefore, exposure control is started when the posture is detected by the acceleration sensor.

本発明は、これを実現するための撮像装置として、当該撮像装置に生じる加速度を検出する加速度検出部と、被写体の明度に応じた撮像画像を得るために露出制御を行う露出制御部と、検出された加速度から撮像装置の姿勢を検出し、当該姿勢が予め指定された姿勢であるか否かを判断して、当該指定された姿勢であると判断した場合に露出制御部に指示して露出制御を開始させる姿勢判断部とを含む構成とされる。   The present invention provides, as an imaging device for realizing this, an acceleration detection unit that detects acceleration generated in the imaging device, an exposure control unit that performs exposure control to obtain a captured image according to the brightness of the subject, and detection The posture of the imaging apparatus is detected from the acceleration thus determined, and it is determined whether or not the posture is a pre-designated posture. When it is determined that the posture is the designated posture, the exposure control unit is instructed to perform exposure. And a posture determination unit that starts control.

本実施形態の撮像装置のハードウェア構成を例示した図。The figure which illustrated the hardware constitutions of the imaging device of this embodiment. 図1に示すISP1−AおよびISP1−Bの構成を例示した図。The figure which illustrated the structure of ISP1-A and ISP1-B shown in FIG. 図1に示すISP2−AおよびISP2−Bの構成を例示した図。The figure which illustrated the structure of ISP2-A and ISP2-B shown in FIG. 図1に示す撮像装置の機能ブロック図。FIG. 2 is a functional block diagram of the imaging device shown in FIG. 1. 撮像装置の姿勢を例示した図。The figure which illustrated the attitude | position of the imaging device. 図3に示す撮像装置により実行される処理の流れを示したフローチャート。4 is a flowchart showing a flow of processing executed by the imaging apparatus shown in FIG. 3.

図1は、本実施形態の撮像装置のハードウェア構成を例示した図である。撮像装置としては、デジタルカメラを挙げることができるが、静止画像や動画像を撮像することができるものであれば、これに限定されるものではない。   FIG. 1 is a diagram illustrating a hardware configuration of the imaging apparatus according to the present embodiment. Examples of the imaging device include a digital camera, but the imaging device is not limited to this as long as it can capture still images and moving images.

図1に示す撮像装置10は、装置本体に設けられる鏡胴ユニット11を備える。鏡胴ユニット11は、被写体に向けられるレンズ12により構成される光学系と、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサやCCD(Charge Coupled Device)イメージセンサ等の撮像素子13とを2つずつ備える。図1に示す撮像装置10は、2つのレンズと、2つの撮像素子とにより、全方位、いわゆる360度を撮像することができるデジタルカメラである。この場合、2つのレンズは、画角が180度以上ある広角レンズである。   An imaging apparatus 10 illustrated in FIG. 1 includes a lens barrel unit 11 provided in the apparatus main body. The lens barrel unit 11 includes two optical systems each composed of a lens 12 directed toward a subject, and two imaging elements 13 such as a complementary metal oxide semiconductor (CMOS) image sensor and a charge coupled device (CCD) image sensor. An imaging apparatus 10 shown in FIG. 1 is a digital camera that can capture images in all directions, so-called 360 degrees, using two lenses and two imaging elements. In this case, the two lenses are wide-angle lenses having an angle of view of 180 degrees or more.

撮像素子13は、装置本体に設けられる後述するプロセッサ20内にあるCPUブロック31からの制御指令により制御される。なお、CMOSイメージセンサおよびCCDイメージセンサは、光学画像を光電変換するための固体撮像素子である。レンズ12を介して撮像素子13へ入力された光学画像は、撮像素子13によりイメージ信号へ光電変換され、プロセッサ20へ送られる。   The image sensor 13 is controlled by a control command from a CPU block 31 in a processor 20 (described later) provided in the apparatus main body. The CMOS image sensor and the CCD image sensor are solid-state imaging devices for photoelectrically converting an optical image. The optical image input to the image sensor 13 via the lens 12 is photoelectrically converted into an image signal by the image sensor 13 and sent to the processor 20.

プロセッサ20内では、2つのイメージ信号プロセッサ(ISP)21の各々が各撮像素子13からイメージ信号を画像データとして受け取り、ホワイトバランス(WB)処理やガンマ補正を行う。WB処理では、白色を正確に白く映し出すように補正を行う。ガンマ補正では、撮像装置10の特性を考慮し、出力が線形性を保つように予め入力信号に処理を行う。   Within the processor 20, each of the two image signal processors (ISP) 21 receives an image signal as image data from each imaging device 13 and performs white balance (WB) processing and gamma correction. In the WB process, correction is performed so that white is accurately projected white. In the gamma correction, the input signal is processed in advance so that the output maintains linearity in consideration of the characteristics of the imaging device 10.

また、ISP21は、フィルタリング処理を行い、画像データを輝度データおよび色差データへ変換する。変換後の輝度データおよび色差データは、DMAC(Direct Memory Access Controller)22によってARB(Arbiter)メモリコントローラ23へ送られる。   The ISP 21 performs a filtering process to convert the image data into luminance data and color difference data. The converted luminance data and color difference data are sent to an ARB (Arbiter) memory controller 23 by a DMAC (Direct Memory Access Controller) 22.

DMAC22は、CPUブロック31を介さずにARBメモリコントローラ23へ直接データを送信する。ARBコントローラメモリ23は、データの競合を調停し、歪曲補正合成部24、SDRAM25、CPUブロック31等へデータを適切に送る。これらへデータを送る際、DMAC22およびメモリコントローラを使用して送信する。   The DMAC 22 transmits data directly to the ARB memory controller 23 without going through the CPU block 31. The ARB controller memory 23 mediates data conflict and appropriately sends the data to the distortion correction synthesis unit 24, SDRAM 25, CPU block 31, and the like. When sending data to these, they are sent using the DMAC 22 and the memory controller.

SDRAM25は、ISP21または歪曲補正合成部24による処理を施す前に、データを一時的に保存する。このときに保存されるデータは、WB処理およびガンマ補正を行った後のRAW−RGB画像データ、輝度データおよび色差データへの変換が行われた後のYUV画像データ、およびJPEGCODEブロック35でJPEG圧縮を行った後のJPEG画像データ等である。   The SDRAM 25 temporarily stores data before performing processing by the ISP 21 or the distortion correction synthesis unit 24. The data saved at this time are RAW-RGB image data after WB processing and gamma correction, YUV image data after being converted into luminance data and color difference data, and JPEG compression in the JPEGCODE block 35. JPEG image data after performing the above.

歪曲補正合成部24は、レンズ12の仕様により歪曲収差が生じることから、これを画像補正処理により歪曲が少なくなるように補正を行う。ここで、歪曲収差は、被写体の幾何学的形状を正確に再現することができず、歪ませてしまう収差をいう。また、歪曲補正合成部24は、2つのISP21で処理され、上記の歪曲補正が行われた2つのデータを合成する処理も行う。   The distortion correcting / combining unit 24 corrects the distortion so that the distortion is reduced by the image correction processing because distortion aberration is generated due to the specification of the lens 12. Here, the distortion aberration refers to an aberration that cannot accurately reproduce the geometric shape of the subject and is distorted. The distortion correction combining unit 24 also performs a process of combining the two data processed by the two ISPs 21 and subjected to the above distortion correction.

歪曲補正合成部24は、合成処理したデータを、DMAC22を使用してARBメモリコントローラ23へ戻し、ARBメモリコントローラ23がDMAC22を使用してイメージ処理ブロック26へ送る。イメージ処理ブロック26は、そのデータをイメージデータ転送部27へ送り、イメージデータ転送部27がSDRAMコントローラ28によりSDRAM29へ転送し、SDRAM29がそのデータを一時的に保存する。   The distortion correction combining unit 24 returns the combined data to the ARB memory controller 23 using the DMAC 22, and the ARB memory controller 23 sends the data to the image processing block 26 using the DMAC 22. The image processing block 26 sends the data to the image data transfer unit 27. The image data transfer unit 27 transfers the data to the SDRAM 29 by the SDRAM controller 28, and the SDRAM 29 temporarily stores the data.

ROMとして機能するNAND型フラッシュメモリ30は、CPUブロック31が解読可能なコードで記述された制御プログラムや、制御に必要とされる各種のパラメータが格納される。電源スイッチ(SW)32は、ユーザにより電源がONにされると、フラッシュメモリ30に格納されている制御プログラムが図示しないメインメモリへロードされる。CPUブロック31は、メインメモリにロードされた制御プログラムに従って撮像装置10の各部の動作を制御するとともに、制御に必要なデータ等をSDRAM29と図示しないローカルSRAMに一時的に保存する。   The NAND flash memory 30 functioning as a ROM stores a control program written in code readable by the CPU block 31 and various parameters required for control. When the user turns on the power switch (SW) 32, the control program stored in the flash memory 30 is loaded into a main memory (not shown). The CPU block 31 controls the operation of each unit of the imaging device 10 according to a control program loaded in the main memory, and temporarily stores data necessary for control in the SDRAM 29 and a local SRAM (not shown).

図1では、書き換え可能なフラッシュメモリ30を使用しているが、書き換え不能なEPROM(Erasable Programmable Read Only Memory)等を使用してもよい。なお、書き換え可能なフラッシュメモリ30を使用することで、制御プログラムや制御するためのパラメータを変更することが可能であり、機能のバージョンアップを容易に行うことができる。   In FIG. 1, a rewritable flash memory 30 is used, but an erasable programmable read only memory (EPROM) or the like may be used. In addition, by using the rewritable flash memory 30, it is possible to change the control program and parameters for control, and the function can be easily upgraded.

プロセッサ20は、そのほか、PC等の外部機器とUSB通信を行うUSBブロック33と、PC等の外部機器とシリアル通信を行うシリアルブロックSPI34と、JPEG圧縮・伸張を行うJPEGCODEブロック35と、H.264動画圧縮・伸張を行うH.264codecブロック36と、画像データのサイズを補間処理により拡大/縮小するRESIZEブロック37と、撮像することにより得られた画像データを記録するメモリカードの制御を行うメモリカードコントローラブロック38とを備えている。   In addition, the processor 20 includes a USB block 33 that performs USB communication with an external device such as a PC, a serial block SPI 34 that performs serial communication with an external device such as a PC, a JPEGCODE block 35 that performs JPEG compression / decompression, H.264 video compression / decompression A H.264 codec block 36, a RESIZE block 37 for enlarging / reducing the size of image data by interpolation processing, and a memory card controller block 38 for controlling a memory card for recording image data obtained by imaging. .

メモリカードコントローラブロック38に接続されるメモリカードスロットル39は、撮像装置10にメモリカードを着脱可能に装着するためのスロットルである。プロセッサ20は、内蔵メモリと接続されており、これにより、メモリカードスロットル39にメモリカードが装着されていない場合であっても、上記画像データを記録することができる。   A memory card throttle 39 connected to the memory card controller block 38 is a throttle for detachably attaching a memory card to the imaging apparatus 10. The processor 20 is connected to a built-in memory, so that the image data can be recorded even when no memory card is attached to the memory card throttle 39.

USBコネクタ40は、PC等の外部機器とUSB接続を行うためのコネクタである。Wi−Fi(登録商標)等により無線通信を行う無線通信部41は、無線通信を行うことにより画像データを外部機器であるスマートフォン等の表示端末に転送し、その表示端末に画像データを表示させることができる。このため、撮像装置10は、被写体の画像を表示させるための表示部を備えていなくてもよい。また、撮像装置10には、表示部を備えていてもよいし、外部機器に画像データを転送することができるようになっていてもよい。   The USB connector 40 is a connector for performing USB connection with an external device such as a PC. A wireless communication unit 41 that performs wireless communication using Wi-Fi (registered trademark) or the like transfers image data to a display terminal such as a smartphone that is an external device by performing wireless communication, and causes the display terminal to display the image data. be able to. For this reason, the imaging device 10 may not include a display unit for displaying the image of the subject. In addition, the imaging device 10 may include a display unit, or image data may be transferred to an external device.

音声ユニット42は、音声記録ユニットと、音声再生ユニットとから構成される。音声記録ユニットは、ユーザが音声信号を入力するマイク43と、入力された音声信号を増幅するマイクAMPと、増幅された音声信号を記録する音声記録回路とから構成される。また、音声再生ユニットは、記録された音声信号をスピーカー44から出力できる信号に変換する音声再生回路と、変換された音声信号を増幅し、スピーカー44を駆動するためのオーディオAMPと、音声信号を出力するスピーカー44とから構成される。音声ユニット42は、CPUブロック31の制御の下で動作する。   The audio unit 42 includes an audio recording unit and an audio reproduction unit. The audio recording unit includes a microphone 43 to which a user inputs an audio signal, a microphone AMP that amplifies the input audio signal, and an audio recording circuit that records the amplified audio signal. The audio reproduction unit also converts an audio reproduction circuit that converts a recorded audio signal into a signal that can be output from the speaker 44, an audio AMP that amplifies the converted audio signal and drives the speaker 44, and an audio signal. And an output speaker 44. The audio unit 42 operates under the control of the CPU block 31.

撮像装置10は、さらに、撮像装置10の加速度を検出するための加速度検出部としての加速度センサ45を備える。加速度センサ45は、機械式、光学式、半導体式の3種類のいずれを採用してもよい。機械式は、コイルばねや板ばねを使用し、光学式は、光センサを使用する。半導体式には、静電容量型、ピエゾ抵抗型、ガス温度分布型がある。なお、加速度センサ45は、水平方向の2軸(x軸およびy軸)の2軸加速度センサ、あるいはその2軸と鉛直方向の1軸(z軸)の3軸加速度センサとすることができる。3軸加速度センサは、各軸方向の加速度を検出することにより、撮像装置10の傾き、振動、動き、衝撃、落下等を検出することができる。   The imaging device 10 further includes an acceleration sensor 45 as an acceleration detection unit for detecting the acceleration of the imaging device 10. The acceleration sensor 45 may employ any of three types: mechanical, optical, and semiconductor. The mechanical type uses a coil spring or a leaf spring, and the optical type uses an optical sensor. The semiconductor type includes a capacitance type, a piezoresistive type, and a gas temperature distribution type. The acceleration sensor 45 may be a two-axis acceleration sensor with two horizontal axes (x-axis and y-axis), or a three-axis acceleration sensor with two axes and one vertical axis (z-axis). The triaxial acceleration sensor can detect the tilt, vibration, movement, impact, drop, and the like of the imaging apparatus 10 by detecting the acceleration in each axial direction.

この撮像装置10が備えるISP21で行われる処理について、図2および図3を参照して簡単に説明する。撮像装置10は、2つの撮像素子13を備える。図2では、2つの撮像素子13がセンサA、Bとして参照される。センサA、Bは、ベイヤーRAWデータを出力する。このRAWデータは、ISP1−A、ISP1−Bへそれぞれ入力され、オプティカルブラック(OB)補正部50でOB補正処理が実行される。OB補正処理は、オプティカルブラック領域の出力信号を黒の基準レベルとして、有効画素領域の出力信号をクランプ補正する処理である。より具体的には、黒レベルを取得し、元の画像からその黒レベルを減算して画像を補正する。   Processing performed by the ISP 21 included in the imaging apparatus 10 will be briefly described with reference to FIGS. 2 and 3. The imaging device 10 includes two imaging elements 13. In FIG. 2, two image pickup devices 13 are referred to as sensors A and B. Sensors A and B output Bayer RAW data. This RAW data is input to ISP 1 -A and ISP 1 -B, respectively, and an optical black (OB) correction unit 50 performs OB correction processing. The OB correction process is a process in which the output signal of the effective pixel area is clamp-corrected using the output signal of the optical black area as the black reference level. More specifically, the black level is acquired, and the image is corrected by subtracting the black level from the original image.

OB補正処理部50は、OB補正処理されたデータを欠陥画素補正部51へ送り、欠陥画素補正処理を実行させる。撮像素子13には、多数の画素が配列されており、撮像画素は半導体基板上に多数のフォトダイオード等の感光素子を形成することにより製造される。撮像素子13の製造にあたり、半導体基板に不純物が混入する等の原因により、局所的に画素値の取り込みが不能な欠陥画素が発生する場合がある。このような欠陥画素を有する撮像素子を救済するために、この欠陥画素補正処理において、欠陥画素に隣接した複数の画素からの合成信号に基づき、その欠陥画素の画素値を補正する。   The OB correction processing unit 50 sends the data subjected to the OB correction processing to the defective pixel correction unit 51 to execute the defective pixel correction processing. A large number of pixels are arranged in the imaging element 13, and the imaging pixel is manufactured by forming a large number of photosensitive elements such as photodiodes on a semiconductor substrate. When manufacturing the image pickup device 13, there may be a case where a defective pixel is locally incapable of taking in a pixel value due to impurities mixed into the semiconductor substrate. In order to relieve an image sensor having such a defective pixel, in this defective pixel correction process, the pixel value of the defective pixel is corrected based on a composite signal from a plurality of pixels adjacent to the defective pixel.

次に、リニア補正部52でリニア補正処理を行い、シェーディング補正部53でシェーディング補正処理を行い、それに続いて領域分割平均部54で領域分割平均処理を行う。
リニア補正部52は、色ごとにリニア補正を行う。センサA、Bから出力される信号は、複雑にカーブした特性を有している。リニア補正では、これを直線的で入力に比例した特性に変換する。シェーディング補正部53は、予め用意された補正係数を有効画素領域の出力信号に乗じることによって、有効画素領域のシェーディング(陰影)の歪みを補正する。領域分割平均部54は、領域を分割し、平均輝度を算出する。この平均輝度は、AE処理に使用される。なお、AE処理では、センサA、BのAEレジスタに設定するAE値を計算し、その計算値をAEレジスタに設定する。また、この平均輝度は、WB処理におけるWB値を計算するためにも使用される。
Next, linear correction processing is performed by the linear correction unit 52, shading correction processing is performed by the shading correction unit 53, and region division averaging processing is then performed by the region division averaging unit 54.
The linear correction unit 52 performs linear correction for each color. The signals output from the sensors A and B have complicated curved characteristics. In linear correction, this is converted into a linear characteristic proportional to the input. The shading correction unit 53 corrects the distortion of the shading (shadow) in the effective pixel region by multiplying the output signal of the effective pixel region by a correction coefficient prepared in advance. The area division average unit 54 divides the area and calculates the average luminance. This average luminance is used for AE processing. In the AE process, an AE value set in the AE registers of the sensors A and B is calculated, and the calculated value is set in the AE register. This average luminance is also used to calculate the WB value in the WB process.

ISP1−A、ISP1−Bでこのような処理が実行された後、画像データはSDRAM25に一時的に保存される。図3に示すISP2−A、ISP2−Bは、SDRAM25に保存されたデータを取り出し、WB処理部55、ガンマ補正部56、ベイヤー補間部57、YUV変換部58、YCFLT処理部59、色補正部60の順に送られ、処理される。   After such processing is executed by the ISP 1 -A and ISP 1 -B, the image data is temporarily stored in the SDRAM 25. The ISP2-A and ISP2-B shown in FIG. 3 extract data stored in the SDRAM 25, and a WB processing unit 55, a gamma correction unit 56, a Bayer interpolation unit 57, a YUV conversion unit 58, a YCFLT processing unit 59, and a color correction unit. 60 is sent in order and processed.

被写体からの光量を蓄積するCMOSのフォトダイオード上には、1つの画素につき赤(R)、緑(G)、青(B)のいずれか1色のカラーフィルタが貼付される。カラーフィルタは、その色によって透過する光量が変わるため、フォトダイオードに蓄積される電荷量が異なる。これら3色のうち緑が最も感度が高く、赤および青は、緑の約半分程度である。このように色によって感度が異なることから、WB処理部55は、これらの感度差を補い、撮影画像の中の白色を白く見せるために、赤と青にゲインをかける処理を行う。また、WB処理部55は、物の色が光源色(例えば、太陽光、蛍光灯等)によって変わってくることから、光源が変わっても、白色を白く見せるように赤および青のゲインを変更し、制御する。   A color filter of any one of red (R), green (G), and blue (B) is attached to each pixel on a CMOS photodiode that accumulates the amount of light from the subject. Since the amount of transmitted light varies depending on the color of the color filter, the amount of charge accumulated in the photodiode differs. Of these three colors, green is the most sensitive, and red and blue are about half of green. Since the sensitivity varies depending on the color as described above, the WB processing unit 55 performs a process of multiplying red and blue in order to compensate for these sensitivity differences and make white in the captured image appear white. In addition, the WB processing unit 55 changes the gain of red and blue so that the white color looks white even if the light source changes because the color of the object changes depending on the light source color (for example, sunlight, fluorescent lamp, etc.). And control.

モニタ等の出力装置へ入力信号をそのまま渡すと、画像が暗くなり、RGBの明るさの比が変わってしまい、色を正しく表示することができない。これを防止するためには、RGBの値を予め大きくし、出力信号の線形性を保つことが必要となる。そこで、ガンマ補正部56は、出力装置の特性を考慮し、出力信号の線形性を保つために、予め入力信号に対してRGBの値を大きくする等の補正を行う。   If the input signal is directly passed to an output device such as a monitor, the image becomes dark and the RGB brightness ratio changes, so that the color cannot be displayed correctly. In order to prevent this, it is necessary to increase the RGB values in advance and maintain the linearity of the output signal. Therefore, the gamma correction unit 56 takes into account the characteristics of the output device and performs correction such as increasing the RGB value in advance with respect to the input signal in order to maintain the linearity of the output signal.

CMOSイメージセンサは、ベイヤー配列と呼ばれる配列で、1つの画素につき赤、緑、青のいずれか1色のカラーフィルタが貼付される。CMOSイメージセンサから出力されるRAWデータは、1画素につき1色の情報しかもたない。しかしながら、RAWデータから画像として見るためには、1画素に赤、緑、青の3色の情報が必要である。そこで、ベイヤー補間部57は、足りない2色の情報を補うために周辺の画素の情報を用い、補間処理を行う。   The CMOS image sensor is an array called a Bayer array, and a color filter of any one of red, green, and blue is attached to each pixel. The RAW data output from the CMOS image sensor has only one color information per pixel. However, in order to view an image from RAW data, information of three colors of red, green, and blue is required for one pixel. Therefore, the Bayer interpolation unit 57 performs interpolation processing using information on neighboring pixels in order to compensate for the missing two colors of information.

RAWデータは、赤、緑、青の3色によるRGBデータ形式である。撮像装置10で一般的に用いられるファイル形式は、JPEG形式であり、このJPEG形式の画像は、YUVデータから作成される。このため、YUV変換部58は、RGBデータ形式のRAWデータを、輝度信号Yと色差信号UVのYUVデータ形式へ変換する。   RAW data is an RGB data format with three colors of red, green and blue. A file format generally used in the imaging apparatus 10 is a JPEG format, and an image in the JPEG format is created from YUV data. Therefore, the YUV conversion unit 58 converts the RAW data in the RGB data format into the YUV data format of the luminance signal Y and the color difference signal UV.

YCFLT処理部59は、エッジ強調処理を行う。YCFLT処理部59は、このエッジ強調処理を行うために、エッジ抽出フィルタと、ゲイン乗算部と、ローパスフィルタ(LPF)と、データ加算部とを備える。エッジ抽出フィルタは、画像の輝度信号Yからエッジ部分を抽出する。ゲイン乗算部は、エッジ抽出フィルタにより抽出されたエッジ部分に対してゲインをかける。LPFは、エッジ抽出フィルタによるエッジ抽出と並行して、画像のノイズを除去する。データ加算部は、ゲイン乗算部によるゲイン乗算後のエッジ抽出データと、LPFによるLPF処理後の画像データとを加算する。   The YCFLT processing unit 59 performs edge enhancement processing. The YCFLT processing unit 59 includes an edge extraction filter, a gain multiplication unit, a low-pass filter (LPF), and a data addition unit in order to perform this edge enhancement processing. The edge extraction filter extracts an edge portion from the luminance signal Y of the image. The gain multiplier applies a gain to the edge portion extracted by the edge extraction filter. The LPF removes image noise in parallel with edge extraction by the edge extraction filter. The data addition unit adds the edge extraction data after gain multiplication by the gain multiplication unit and the image data after LPF processing by the LPF.

色補正部60は、彩度設定、色相設定、部分的な色相変更設定、色抑圧設定等を行う。彩度設定は、色の濃さを決定するパラメータ設定であり、UV色空間を示すものである。UV色空間では、例えば、第2象限で赤に対して原点から赤のドットまでのベクトルの長さが長い程、色の濃さが濃くなる。   The color correction unit 60 performs saturation setting, hue setting, partial hue change setting, color suppression setting, and the like. The saturation setting is a parameter setting that determines the color intensity, and indicates the UV color space. In the UV color space, for example, the longer the vector length from the origin to the red dot with respect to red in the second quadrant, the darker the color.

上述したように、センサAから出力されたベイヤーRAWデータは、ISP1−A内およびISP1−B内で、オプティカル補正処理、欠陥画素補正処理、リニア補正処理、シェーディング補正処理、領域分割平均処理が行われ、図1に示すSDRAM25に保存される。その後、ISP2−A内およびISP2−B内で、WB処理、ガンマ補正処理、ベイヤー補間処理、YUV変換処理、YCFLT処理、色補正処理が行われ、図1に示すSDRAM25に保存される。   As described above, the Bayer RAW data output from the sensor A is subjected to an optical correction process, a defective pixel correction process, a linear correction process, a shading correction process, and a region division average process in the ISP 1-A and the ISP 1-B. It is stored in the SDRAM 25 shown in FIG. Thereafter, WB processing, gamma correction processing, Bayer interpolation processing, YUV conversion processing, YCFLT processing, and color correction processing are performed in ISP2-A and ISP2-B, and are stored in SDRAM 25 shown in FIG.

図1に示すSDRAM25に保存されたデータは、センサA、Bのそれぞれにつき、正則画像に切り取るクロップ処理が施され、その後、歪曲補正合成部24で歪曲補正、合成処理が行われる。その後、JPEGCODEブロック35により、約0.16の圧縮係数でデータが圧縮される。   The data stored in the SDRAM 25 shown in FIG. 1 is subjected to crop processing for cutting out a regular image for each of the sensors A and B, and thereafter, distortion correction and synthesis processing is performed by the distortion correction synthesis unit 24. Thereafter, the data is compressed by the JPEGCODE block 35 with a compression coefficient of about 0.16.

このように圧縮されたデータは、SDRAM29に保存され、ファイル保存(タグ付け)が行われる。また、この圧縮されたデータは、メモリカードコントローラブロック38を経由してメモリカードスロットル39に装着されたSDカード等のメディアに保存される。スマートフォン等に転送する際は、無線通信部41を使用して無線通信を行う。無線通信は、Wi−Fi(登録商標)やBluetooth(登録商標)等の無線LANを使用して行うことができる。   The data compressed in this way is stored in the SDRAM 29, and file storage (tagging) is performed. The compressed data is stored in a medium such as an SD card mounted on the memory card throttle 39 via the memory card controller block 38. When transferring to a smartphone or the like, wireless communication is performed using the wireless communication unit 41. Wireless communication can be performed using a wireless LAN such as Wi-Fi (registered trademark) or Bluetooth (registered trademark).

撮像装置10は、AE機能を備えており、AE制御を行う。AE制御では、絞りやシャッタースピードを自動的に制御し、被写体の明度に応じた露光が得られるようにする。具体的には、AE制御は、上記のように平均輝度からAE値を計算し、AEレジスタにその計算されたAE値を設定することにより行われる。   The imaging device 10 has an AE function and performs AE control. In the AE control, the aperture and shutter speed are automatically controlled so that exposure according to the brightness of the subject can be obtained. Specifically, the AE control is performed by calculating the AE value from the average luminance as described above and setting the calculated AE value in the AE register.

従来の撮像装置では、このAE制御が、モニタリング時に常に実行されることになっている。このため、実際にAE制御が必要とされる撮像時までの間も実行され、無駄に電力を消費している。本発明の撮像装置は、実際にAE制御が必要とされる撮像時にその制御を開始させるように構成される。これにより、撮像時までの間にAE制御が実行されることはなくなり、無駄な電力消費を低減させることができる。   In a conventional imaging apparatus, this AE control is always executed during monitoring. For this reason, it is executed until the time of imaging where AE control is actually required, and power is consumed wastefully. The image pickup apparatus of the present invention is configured to start control at the time of image pickup that actually requires AE control. Thereby, the AE control is not executed until the time of imaging, and wasteful power consumption can be reduced.

図4は、それを実現するための装置構成を例示した機能ブロック図である。撮像装置10は、撮像装置10に生じる加速度を検出する加速度検出部100と、被写体の明度に応じた撮像画像を得るために露出制御を行う露出制御部101と、検出された加速度から撮像装置10の姿勢を検出し、その姿勢が予め指定された姿勢であるか否かを判断して、その指定された姿勢であると判断した場合に露出制御部101に指示して露出制御を開始させる姿勢判断部102とを含んで構成される。   FIG. 4 is a functional block diagram exemplifying a device configuration for realizing it. The imaging apparatus 10 includes an acceleration detection unit 100 that detects acceleration generated in the imaging apparatus 10, an exposure control unit 101 that performs exposure control to obtain a captured image corresponding to the brightness of the subject, and the imaging apparatus 10 based on the detected acceleration. A posture that detects the posture of the camera, determines whether or not the posture is a pre-specified posture, and instructs the exposure control unit 101 to start exposure control when the posture is determined to be the predetermined posture And a determination unit 102.

加速度検出部100は、図1に示す加速度センサ45である。露出制御部101は、上記のAE制御を行う。姿勢判断部102は、フラッシュメモリ30に格納された制御プログラムをCPUブロック31が読み出し実行することにより実現される。   The acceleration detection unit 100 is the acceleration sensor 45 shown in FIG. The exposure control unit 101 performs the above AE control. The posture determination unit 102 is realized by the CPU block 31 reading and executing a control program stored in the flash memory 30.

姿勢判断部102が参照する予め指定された姿勢は、いかなる姿勢であってもよいが、撮像装置10が備えるレンズ12を水平方向に向けて配置したときの当該撮像装置10が水平状態にある場合の姿勢とすることができる。撮影しようとしてカメラを構えるとき、多くの人はカメラを水平状態に保持し、それから撮影動作に入るためである。   The posture designated in advance by the posture determination unit 102 may be any posture, but when the imaging device 10 is in a horizontal state when the lens 12 included in the imaging device 10 is arranged in the horizontal direction. It can be the posture of. This is because when holding a camera to take a picture, many people hold the camera in a horizontal state and then enter a shooting operation.

この水平状態は、加速度検出部100により検出された加速度から検出することができる。加速度検出部100として3軸加速度センサを用いる場合、水平方向における2軸(x軸、y軸)の加速度と、鉛直方向における1軸(z軸)の加速度とを検出することができる。撮像装置10内に加速度センサ45が実装され、図5(a)に示すようにx軸方向へ傾いた姿勢である場合、矢線に示すように、z軸方向のみならず、x軸方向へも重力加速度がかかる。このとき、y軸方向へは重力加速度はかからない。   This horizontal state can be detected from the acceleration detected by the acceleration detection unit 100. When a three-axis acceleration sensor is used as the acceleration detection unit 100, it is possible to detect two-axis (x-axis, y-axis) acceleration in the horizontal direction and one-axis (z-axis) acceleration in the vertical direction. When the acceleration sensor 45 is mounted in the imaging apparatus 10 and the posture is tilted in the x-axis direction as shown in FIG. 5A, not only in the z-axis direction but also in the x-axis direction as indicated by the arrow line. Even gravitational acceleration is applied. At this time, gravitational acceleration is not applied in the y-axis direction.

これに対し、図5(b)に示すように水平状態である場合には、理論上、x軸方向およびy軸方向へは重力加速度はかからず、矢線に示すように、z軸方向にのみ重力加速度がかかる。これを利用し、z軸方向にのみ重力加速度を検出した場合に水平状態であることを検出することができる。なお、図5(a)、(b)には、鏡胴ユニット11と、撮影時に押下されるシャッター46とが示されていて、図5(b)では、鏡胴ユニット11内の図示しないレンズが水平方向に向けて配置されている。   On the other hand, in the case of a horizontal state as shown in FIG. 5 (b), theoretically, gravitational acceleration is not applied in the x-axis direction and the y-axis direction, and the z-axis direction as shown by the arrow line. Only gravitational acceleration is applied. By utilizing this, it is possible to detect the horizontal state when the gravitational acceleration is detected only in the z-axis direction. 5 (a) and 5 (b) show the lens barrel unit 11 and a shutter 46 that is pressed during photographing. In FIG. 5 (b), a lens (not shown) in the lens barrel unit 11 is shown. Are arranged in the horizontal direction.

水平状態にあれば、x軸方向およびy軸方向の重力加速度が理論上0であるため、2軸加速度センサを用いても検出することが可能である。すなわち、2軸のいずれの方向の重力加速度も0となる状態が水平状態だからである。   If it is in a horizontal state, the gravitational acceleration in the x-axis direction and the y-axis direction is theoretically 0, so that it can be detected even by using a biaxial acceleration sensor. That is, the state where the gravitational acceleration in any direction of the two axes is zero is a horizontal state.

しかしながら、撮像装置10を正確に水平方向に向けて配置し、固定することは、現実には困難である。したがって、x軸方向およびy軸方向への重力加速度が0になることはまれである。そこで、x軸方向およびy軸方向への重力加速度に対し、0に近い閾値を設け、その閾値以下である場合に0とみなし、水平状態であることを検出することができる。この方法は一例であるので、これ以外の方法を採用することも可能である。   However, it is actually difficult to arrange and fix the imaging device 10 in the horizontal direction accurately. Therefore, the gravitational acceleration in the x-axis direction and the y-axis direction is rarely zero. Therefore, a threshold value close to 0 is provided for the gravitational acceleration in the x-axis direction and the y-axis direction. Since this method is an example, other methods may be employed.

また、本発明は、水平状態に限定されるものではないので、水平方向に対して任意の角度にレンズ12が向けられたときの姿勢や、天頂方向にレンズ12が向けられたときの姿勢を指定してもよく、2以上の姿勢を指定することも可能である。3軸加速度センサを用いれば、傾きも検出することができるからである。このように、撮像装置10の姿勢を加速度センサ45により検出することが可能であるため、表示部により水平状態であるかどうかを確認する必要がない。   Further, since the present invention is not limited to the horizontal state, the posture when the lens 12 is directed at an arbitrary angle with respect to the horizontal direction and the posture when the lens 12 is directed in the zenith direction are used. It is possible to specify two or more postures. This is because if a three-axis acceleration sensor is used, tilt can also be detected. As described above, since the attitude of the imaging apparatus 10 can be detected by the acceleration sensor 45, it is not necessary to check whether the display unit is in a horizontal state.

撮像装置10は、無線通信部41を使用して外部機器の表示部へ画像を表示させることができ、水平状態を表示部により確認する必要がないので、LCDパネル等の表示部を備えていなくてよい。このため、撮像装置10は、操作が簡単で、より簡易な装置とすることができ、さらには安価で提供することが可能となる。   The imaging apparatus 10 can display an image on the display unit of the external device using the wireless communication unit 41 and does not need to check the horizontal state with the display unit, and thus does not include a display unit such as an LCD panel. It's okay. For this reason, the imaging device 10 is easy to operate, can be a simpler device, and can be provided at a low cost.

図6は、撮像装置10において実行される処理の流れを示したフローチャートである。撮像装置10は、ステップ600で、SW32がONにされたことに応答して起動する。ステップ605では、この起動に伴い、プロセッサ20を起動させる。プロセッサ20内のCPUブロック31が起動すると、フラッシュメモリ30から制御プログラムを読み出し実行する。   FIG. 6 is a flowchart showing the flow of processing executed in the imaging apparatus 10. In step 600, the imaging apparatus 10 is activated in response to the SW 32 being turned on. In step 605, the processor 20 is activated along with the activation. When the CPU block 31 in the processor 20 is activated, the control program is read from the flash memory 30 and executed.

ステップ610では、ユーザの選択により、通常撮影モードまたはタイマー撮影モードのいずれが選択されたかを受け付ける。次に、ステップ615では、加速度センサ45により撮像装置10に生じる加速度を検出し、その加速度から撮像装置10の姿勢、例えば撮像装置10が水平状態であるか否かを判断する。   In step 610, it is accepted whether the normal shooting mode or the timer shooting mode is selected by the user's selection. Next, in step 615, acceleration generated in the imaging device 10 is detected by the acceleration sensor 45, and the posture of the imaging device 10, for example, whether the imaging device 10 is in a horizontal state is determined from the acceleration.

水平状態ではないと判断された場合、水平状態と判断されるまで、ステップ615においてこの判断を繰り返す。水平状態と判断された場合、ステップ620へ進み、AE制御を開始する。すなわち、絞り、シャッタースピードを自動的に制御し、被写体の明度に応じた露光が得られるように制御を行う。   If it is determined that the state is not the horizontal state, this determination is repeated in step 615 until it is determined that the state is horizontal. If it is determined that the state is horizontal, the process proceeds to step 620 to start AE control. In other words, the aperture and shutter speed are automatically controlled so that exposure according to the brightness of the subject is obtained.

絞りは、レンズ12といった光学系を通過する光量を調節する機構である。また、シャッタースピードは、シャッターが切れる速さである。これらは、撮像素子に当たる光量を調整し、写真の明るさを決めるための指標として用いられる。   The diaphragm is a mechanism that adjusts the amount of light passing through the optical system such as the lens 12. The shutter speed is the speed at which the shutter can be released. These are used as an index for adjusting the amount of light hitting the image sensor and determining the brightness of the photograph.

ステップ625では、ステップ610で受け付けたモードが、タイマー撮影モードであるかを判断する。そうである場合、ステップ630へ進み、タイマーをスタートさせる。そうでない場合は、ステップ635へ直接進む。ステップ635では、タイマー撮影の場合、一定時間経過後にシャッターを押下し、その押下に応答して撮像動作を開始し、通常撮影の場合、シャッターボタンが押下されたことに応答して撮像動作を開始する。   In step 625, it is determined whether the mode accepted in step 610 is the timer shooting mode. If so, proceed to step 630 to start the timer. Otherwise, go directly to step 635. In step 635, in the case of timer shooting, the shutter is pressed after a lapse of a certain time, and in response to the pressing, the imaging operation is started. In normal shooting, the imaging operation is started in response to the shutter button being pressed. To do.

撮影が終了すると、ステップ640でAE制御を停止させ、ステップ645でSW32がONであるかどうかを判定する。撮影が終了してSW32がOFFにされた場合は、ステップ650へ進み、撮像装置10が実行するこの処理を終了する。これに対し、SW32がONのままの状態である場合は、ほかに撮影したいものが存在することから、ステップ615へ戻り、再び水平状態であるかどうかを判断する。   When shooting is completed, AE control is stopped in step 640, and it is determined in step 645 whether SW32 is ON. When the photographing is finished and the SW 32 is turned off, the process proceeds to step 650, and this process executed by the imaging device 10 is finished. On the other hand, if the SW 32 remains ON, there are other objects to be photographed, so that the process returns to step 615 to determine again whether or not the camera is in the horizontal state.

このように、本発明では、撮像装置10を一定の姿勢にしない限り、AE制御を開始しないため、AE制御を常に行う従来の撮像装置に比較して、無駄な電力消費を低減させることができる。また、撮影するためにカメラを構えたときに、AE制御を開始するので、電力の無駄をより効果的に削減することができる。さらに、加速度センサのみによって撮像装置10の姿勢を検出し、AE制御を開始させることができるので、表示部が不要となり、簡易で、安価な装置を提供することが可能となる。   Thus, in the present invention, since the AE control is not started unless the imaging device 10 is in a fixed posture, it is possible to reduce wasteful power consumption as compared with the conventional imaging device that always performs the AE control. . Further, since the AE control is started when the camera is held for taking a picture, waste of power can be more effectively reduced. Furthermore, since the posture of the imaging device 10 can be detected only by the acceleration sensor and the AE control can be started, a display unit is not necessary, and a simple and inexpensive device can be provided.

これまで本発明を上述した実施の形態をもって説明してきたが、本発明は上述した実施の形態に限定されるものではなく、他の実施の形態、追加、変更、削除など、当業者が想到することができる範囲内で変更することができ、いずれの態様においても本発明の作用・効果を奏する限り、本発明の範囲に含まれるものである。したがって、本発明は、上記の撮像装置、その撮像装置により実行される制御方法および制御プログラムのほか、そのプログラムが記録された記録媒体も提供することができるものである。なお、この制御プログラムは、ネットワークに接続されたサーバ装置に格納され、撮像装置からの要求に応じて無線または有線ネットワークを通じて提供することも可能である。   The present invention has been described with the above-described embodiments, but the present invention is not limited to the above-described embodiments, and those skilled in the art will conceive other embodiments, additions, changes, deletions, and the like. It can be changed within the range that can be performed, and any embodiment is included in the scope of the present invention as long as the operation and effect of the present invention are exhibited. Therefore, the present invention can provide a recording medium on which the program is recorded, in addition to the above-described imaging device, a control method and a control program executed by the imaging device. The control program is stored in a server device connected to a network, and can be provided through a wireless or wired network in response to a request from the imaging device.

10…撮像装置、11…鏡胴ユニット、12…レンズ、13…撮像素子、20…プロセッサ、21…ISP、22…DMAC、23…ARBメモリコントローラ、24…歪曲補正合成部、25…SDRAM、26…イメージ処理ブロック、27…イメージデータ転送部、28…SDRAMコントローラ、29…SDRAM、30…フラッシュメモリ、31…CPUブロック、32…SW、33…USBブロック、34…シリアルブロックSPI、35…JPEGCODEブロック、36…H.264codecブロック、37…RESIZEブロック、38…メモリカードコントローラブロック、39…メモリカードスロットル、40…USBコネクタ、41…無線通信部、42…音声ユニット、43…マイク、44…スピーカー、45…加速度センサ、46…シャッター、50…OB補正部、51…欠陥画素補正部、52…リニア補正部、53…シェーディング補正部、54…領域分割平均部、55…WB処理部、56…ガンマ補正部、57…ベイヤー補間部、58…YUV変換部、59…YCFLT処理部、60…色補正部、100…加速度検出部、101…露出制御部、102…姿勢判断部 DESCRIPTION OF SYMBOLS 10 ... Imaging device, 11 ... Lens barrel unit, 12 ... Lens, 13 ... Imaging element, 20 ... Processor, 21 ... ISP, 22 ... DMAC, 23 ... ARB memory controller, 24 ... Distortion correction composition part, 25 ... SDRAM, 26 ... Image processing block, 27 ... Image data transfer unit, 28 ... SDRAM controller, 29 ... SDRAM, 30 ... Flash memory, 31 ... CPU block, 32 ... SW, 33 ... USB block, 34 ... Serial block SPI, 35 ... JPEGCODE block 36 ... H. H.264 codec block, 37 ... RESIZE block, 38 ... memory card controller block, 39 ... memory card throttle, 40 ... USB connector, 41 ... wireless communication unit, 42 ... audio unit, 43 ... microphone, 44 ... speaker, 45 ... acceleration sensor, 46 ... Shutter, 50 ... OB correction unit, 51 ... Defective pixel correction unit, 52 ... Linear correction unit, 53 ... Shading correction unit, 54 ... Area division averaging unit, 55 ... WB processing unit, 56 ... Gamma correction unit, 57 ... Bayer interpolation unit, 58 ... YUV conversion unit, 59 ... YCFLT processing unit, 60 ... color correction unit, 100 ... acceleration detection unit, 101 ... exposure control unit, 102 ... attitude determination unit

特開2010−268112号公報JP 2010-268112 A 特開2006−337689号公報JP 2006-337689 A 特開2009−015184号公報JP 2009-015184 A

Claims (8)

被写体を撮像するための撮像装置であって、
前記撮像装置に生じる加速度を検出する加速度検出部と、
前記被写体の明度に応じた撮像画像を得るために露出制御を行う露出制御部と、
検出された前記加速度から前記撮像装置の姿勢を検出し、前記姿勢が予め指定された姿勢であるか否かを判断して、当該指定された姿勢であると判断した場合に前記露出制御部に指示して前記露出制御を開始させる姿勢判断部とを含む、撮像装置。
An imaging device for imaging a subject,
An acceleration detector that detects acceleration generated in the imaging device;
An exposure control unit that performs exposure control to obtain a captured image according to the brightness of the subject;
When the posture of the imaging device is detected from the detected acceleration, it is determined whether or not the posture is a predetermined posture, and when it is determined that the posture is the designated posture, the exposure control unit An imaging apparatus including an attitude determination unit that instructs and starts the exposure control.
前記指定された姿勢は、前記撮像装置が備えるレンズを水平方向に向けて配置したときの当該撮像装置が水平状態にある場合の姿勢である、請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the designated attitude is an attitude when the imaging apparatus is in a horizontal state when a lens included in the imaging apparatus is arranged in a horizontal direction. 前記加速度検出部が、3軸方向の加速度を検出するものであって、前記3軸方向のうちの鉛直方向における重力加速度のみを検出した場合、前記姿勢判断部は、前記撮像装置の姿勢を、前記水平状態の姿勢として検出する、請求項2に記載の撮像装置。   When the acceleration detection unit detects acceleration in three axis directions and detects only gravitational acceleration in the vertical direction of the three axis directions, the posture determination unit determines the posture of the imaging device, The imaging device according to claim 2, wherein the imaging device detects the posture in the horizontal state. 前記撮像装置は、前記被写体の画像を表示するための表示部を備えない、請求項1〜3のいずれか1項に記載の撮像装置。   The imaging device according to claim 1, wherein the imaging device does not include a display unit for displaying an image of the subject. 被写体を撮像するための撮像装置により実行される制御方法であって、前記撮像装置は、当該撮像装置に生じる加速度を検出する加速度検出部と、前記被写体の明度に応じた撮像画像を得るために露出制御を行う露出制御部とを備えており、
前記加速度検出部により検出された前記加速度から前記撮像装置の姿勢を検出するステップと、
検出された前記姿勢が予め指定された姿勢であるか否かを判断するステップと、
前記指定された姿勢であると判断した場合に、前記露出制御部に指示して前記露出制御を開始させるステップとを含む、制御方法。
A control method executed by an imaging device for imaging a subject, wherein the imaging device obtains an acceleration detection unit that detects acceleration generated in the imaging device and a captured image corresponding to the brightness of the subject And an exposure control unit that performs exposure control.
Detecting the posture of the imaging device from the acceleration detected by the acceleration detector;
Determining whether the detected posture is a pre-designated posture;
And a step of instructing the exposure control unit to start the exposure control when it is determined that the posture is designated.
前記指定された姿勢は、前記撮像装置が備えるレンズを水平方向に向けて配置したときの当該撮像装置が水平状態にある場合の姿勢である、請求項5に記載の制御方法。   The control method according to claim 5, wherein the designated posture is a posture when the imaging device is in a horizontal state when a lens included in the imaging device is disposed in a horizontal direction. 前記加速度検出部は、3軸方向の加速度を検出するものであり、前記3軸方向のうちの鉛直方向における重力加速度のみを検出した場合、前記検出するステップでは、前記撮像装置の姿勢を、前記水平状態の姿勢として検出する、請求項6に記載の制御方法。   The acceleration detection unit detects acceleration in three axis directions, and when only the gravitational acceleration in the vertical direction of the three axis directions is detected, in the detecting step, the posture of the imaging device is The control method according to claim 6, wherein the control method is detected as an attitude in a horizontal state. 請求項5〜7のいずれか1項に記載の制御方法を実行させるための撮像装置により読み取り可能な制御プログラム。   The control program which can be read by the imaging device for performing the control method of any one of Claims 5-7.
JP2012057550A 2012-03-14 2012-03-14 Imaging apparatus, control method, and control program Pending JP2013192088A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012057550A JP2013192088A (en) 2012-03-14 2012-03-14 Imaging apparatus, control method, and control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012057550A JP2013192088A (en) 2012-03-14 2012-03-14 Imaging apparatus, control method, and control program

Publications (1)

Publication Number Publication Date
JP2013192088A true JP2013192088A (en) 2013-09-26

Family

ID=49391920

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012057550A Pending JP2013192088A (en) 2012-03-14 2012-03-14 Imaging apparatus, control method, and control program

Country Status (1)

Country Link
JP (1) JP2013192088A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101834674B1 (en) * 2015-07-31 2018-03-05 시아오미 아이엔씨. Method and device for image photographing
JP2020526096A (en) * 2017-06-29 2020-08-27 リンクフロー カンパニー リミテッド Optimal situation determination imaging method and apparatus for performing such method
US11914039B2 (en) 2019-03-20 2024-02-27 Ricoh Company, Ltd. Range finding device and range finding method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101834674B1 (en) * 2015-07-31 2018-03-05 시아오미 아이엔씨. Method and device for image photographing
JP2020526096A (en) * 2017-06-29 2020-08-27 リンクフロー カンパニー リミテッド Optimal situation determination imaging method and apparatus for performing such method
US11914039B2 (en) 2019-03-20 2024-02-27 Ricoh Company, Ltd. Range finding device and range finding method

Similar Documents

Publication Publication Date Title
JP6455601B2 (en) Control system, imaging apparatus, and program
JP5971207B2 (en) Image adjustment apparatus, image adjustment method, and program
JP6065474B2 (en) Imaging control apparatus, imaging control method, and program
JP5843027B1 (en) Imaging apparatus, control method, and program
JP6119235B2 (en) Imaging control apparatus, imaging system, imaging control method, and program
KR102072731B1 (en) Photographing apparatus, method for controlling the same, and computer-readable storage medium
JP5957705B2 (en) Imaging device
JP6299116B2 (en) Imaging apparatus, imaging method, and recording medium
JP7247609B2 (en) Imaging device, imaging method and program
JP2013192088A (en) Imaging apparatus, control method, and control program
KR20170011555A (en) Digital photographing apparatus and the method for the same
JP2006148550A (en) Image processor and imaging device
JP4844220B2 (en) Exposure compensation device, photographing device, exposure value setting device, exposure compensation value calculation method, and control program
JP6492452B2 (en) Control system, imaging apparatus, control method, and program
JP2016040870A (en) Image processing apparatus, image forming method and program
JP2013182218A (en) Image capturing apparatus, image capturing method, and program
JP6123079B2 (en) Imaging device
JP7379884B2 (en) Imaging device, image processing system, method and program
US10911676B2 (en) Memory card and moving image reproduction device
JP7451888B2 (en) Imaging device, imaging system, method and program
JP6601062B2 (en) Imaging control apparatus, imaging control method, and program
JP2007006103A (en) Photographing apparatus
JP2008028704A (en) Camera system