JP2008047976A - Imaging apparatus and imaging method - Google Patents

Imaging apparatus and imaging method Download PDF

Info

Publication number
JP2008047976A
JP2008047976A JP2006218886A JP2006218886A JP2008047976A JP 2008047976 A JP2008047976 A JP 2008047976A JP 2006218886 A JP2006218886 A JP 2006218886A JP 2006218886 A JP2006218886 A JP 2006218886A JP 2008047976 A JP2008047976 A JP 2008047976A
Authority
JP
Japan
Prior art keywords
unit
imaging
image signal
face detection
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006218886A
Other languages
Japanese (ja)
Other versions
JP4702220B2 (en
Inventor
Katsunori Ogawa
克徳 小河
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2006218886A priority Critical patent/JP4702220B2/en
Publication of JP2008047976A publication Critical patent/JP2008047976A/en
Application granted granted Critical
Publication of JP4702220B2 publication Critical patent/JP4702220B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B7/00Control of exposure by setting shutters, diaphragms or filters, separately or conjointly
    • G03B7/08Control effected solely on the basis of the response, to the intensity of the light received by the camera, of a built-in light-sensitive device
    • G03B7/091Digital circuits
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B7/00Control of exposure by setting shutters, diaphragms or filters, separately or conjointly
    • G03B7/28Circuitry to measure or to take account of the object contrast

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Exposure Control For Cameras (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To increase precision in face detection when capturing an image under a backlight environment. <P>SOLUTION: A face region is detected for an image signal obtained by converting object light photoelectrically. When imaging processing, such as autofocus and automatic exposure adjustment, is performed corresponding to the detected face region, the date and time in imaging are counted. The position in imaging is calculated. An orientation to the lens optical axis of an imaging apparatus is detected. The counted date and time information and the calculated current position information are used for calculating the position of the sun in imaging. When it is determined that the calculated position of the sun exists in the orientation on the lens optical axis, the gain of the image signal is amplified by a prescribed value. The face region is detected for the image signal, where the gain is amplified. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、例えば顔検出を行って露出やフォーカスの自動調整を行うものに適用して好適な撮像装置及びその撮像方法に関する。   The present invention relates to an imaging apparatus suitable for application to, for example, an apparatus that performs face detection and automatically adjusts exposure and focus, and an imaging method therefor.

一般に、自動露出調整を行うカメラ(いわゆるAE(Automatic Exposure)カメラ)では、被写体の輝度に基づいて適切な露出値が算出され、その露出値に基づいて自動的に絞りとシャッタスピードが調整されて撮像が行われる。   Generally, in a camera that performs automatic exposure adjustment (so-called AE (Automatic Exposure) camera), an appropriate exposure value is calculated based on the brightness of the subject, and the aperture and shutter speed are automatically adjusted based on the exposure value. Imaging is performed.

ところが、逆光の環境において撮像を行う場合には、背景の明るさを基準に露出が調整されてしまい、被写体が暗く撮像されてしまうという問題がある。このため、逆光環境下においても適切な露出調整を行えるよう、様々な手法が考案されている。   However, when imaging is performed in a backlight environment, there is a problem that the exposure is adjusted based on the brightness of the background, and the subject is imaged darkly. For this reason, various methods have been devised so that appropriate exposure adjustment can be performed even in a backlight environment.

特許文献1には、GPS(Global Positioning System)による測位と方位センサと日時情報を用いて逆光環境か否かを判断して、逆光であると判断した場合に警告を発生させるか、又は必要な露出補正を行うことについての開示がある。   In Patent Document 1, it is determined whether or not the backlight environment is determined by using GPS (Global Positioning System) positioning, an azimuth sensor, and date and time information. There is disclosure about performing exposure compensation.

特許文献2には、GPSによる測位と日時情報とを用いて太陽の方位と高度を算出し、露出値及びホワイトバランス値の補正を行って撮像を行うことについての開示がある。
特開平8−95146号公報 特開2000−41800号公報
Japanese Patent Application Laid-Open No. 2004-228561 discloses that imaging is performed by calculating the azimuth and altitude of the sun using GPS positioning and date / time information, and correcting the exposure value and the white balance value.
JP-A-8-95146 JP 2000-41800 A

一方、近年では、被写体が人物である場合に人物の顔部分を検出し、検出された顔を中心にフォーカスを合わせたり、ホワイトバランスを合わせたりするということが行われている。ところが、逆光環境下においては、顔検出を行うべき人物の顔自体が暗く撮像されてしまうため顔検出率が下がってしまい、顔に露出を合わせることができないという現象が起きてしまうことがあった。このように、せっかく顔検出による自動露出調整機能を備えていても顔検出自体ができないため、実際は自動露出調整ができないという問題が生じていていた。   On the other hand, in recent years, when a subject is a person, a face portion of the person is detected, and focusing is performed around the detected face or white balance is adjusted. However, in a backlit environment, the face of the person who should perform face detection is picked up darkly, so the face detection rate decreases, and the phenomenon that the exposure cannot be adjusted to the face may occur. . As described above, since the face detection itself cannot be performed even if the automatic exposure adjustment function by the face detection is provided, there is a problem that the automatic exposure adjustment cannot actually be performed.

本発明はかかる点に鑑みてなされたものであり、逆光環境下において撮像を行う場合に、顔検出の精度を向上させることを目的とする。   The present invention has been made in view of this point, and an object thereof is to improve the accuracy of face detection when imaging is performed in a backlight environment.

本発明は、レンズを介して結像された被写体光を光電変換して得た画像信号に対して、顔領域の検出を行い、検出された顔領域に合わせて撮像処理を行う場合に、撮影時点の日付及び時刻を計時し、撮影時の位置を算出し、撮像装置のレンズ光軸に対する方位を検出し、計時された日付及び時刻情報と、算出された現在位置情報を用いて撮像時点での太陽の位置を算出して、算出された太陽の位置がレンズ光軸上の方位の近傍にあると判断した場合に、画像信号の利得を所定量増幅し、利得が増幅された画像信号に対して顔領域の検出を行うようにしたものである。   In the present invention, a face area is detected from an image signal obtained by photoelectrically converting subject light imaged through a lens, and image capturing is performed in accordance with the detected face area. Measure the date and time of the time, calculate the position at the time of shooting, detect the orientation with respect to the lens optical axis of the imaging device, and at the time of imaging using the time and date information and the calculated current position information When the position of the sun is calculated and it is determined that the calculated sun position is in the vicinity of the azimuth on the lens optical axis, the gain of the image signal is amplified by a predetermined amount, and the gain is amplified to the image signal. On the other hand, the face area is detected.

このようにしたことで、太陽の位置が撮像装置のレンズ光軸上の方位にあると判断された場合、つまり逆光環境で撮像が行われた場合に、画像信号の利得が所定量増幅されるため、撮像された画像全体の輝度が向上する。   By doing so, the gain of the image signal is amplified by a predetermined amount when it is determined that the position of the sun is in the azimuth on the lens optical axis of the imaging device, that is, when imaging is performed in a backlight environment. Therefore, the brightness of the entire captured image is improved.

本発明によると、逆光環境で撮像が行われた場合に画像信号の利得が所定量増幅されるため、撮像された画像全体の輝度が向上し、併せて顔部分の輝度も向上する。   According to the present invention, when imaging is performed in a backlit environment, the gain of the image signal is amplified by a predetermined amount, so that the luminance of the entire captured image is improved and the luminance of the face portion is also improved.

この場合、顔部分の輝度が向上した状態で顔検出を行えるようになるため、顔検出の検出精度が向上する。   In this case, since face detection can be performed with the brightness of the face portion improved, the detection accuracy of face detection is improved.

以下、本発明の一実施の形態を、図1及び図2を参照して説明する。   Hereinafter, an embodiment of the present invention will be described with reference to FIGS. 1 and 2.

図1は、本実施の形態例のデジタルスチルカメラの構成例を示したブロック図である。図1に示すデジタルスチルカメラ100において、CCD(charge-coupled device)又はCMOS(complementary metal oxide silicon)を用いた固体撮像素子により構成される撮像素子12の前面には、レンズ1が配置してある。被写体の光学像はレンズ1を介して、撮像素子12の図示せぬ受光部に入射され、光電変換される。レンズ1と撮像素子12との間の光路には、絞り2が配置してあり、絞り駆動部11で開口量が調整される。絞り駆動部11による駆動で、制御部16からの指令に基づいて絞り2の開口量を調整することで、撮像素子12に入射される光量を制御することができる。また、レンズ1内のフォーカスレンズは、フォーカス駆動部10によりフォーカス調整ができる構成としてあり、フォーカス駆動部10は、制御部16からの指令に基づいてレンズ1内のフォーカスレンズの位置を変動させ、フォーカスが所望の位置の被写体に合うように調整する。   FIG. 1 is a block diagram illustrating a configuration example of a digital still camera according to the present embodiment. In the digital still camera 100 shown in FIG. 1, a lens 1 is disposed on the front surface of an image sensor 12 constituted by a solid-state image sensor using a charge-coupled device (CCD) or a complementary metal oxide silicon (CMOS). . The optical image of the subject is incident on a light receiving unit (not shown) of the image sensor 12 via the lens 1 and is subjected to photoelectric conversion. An aperture 2 is disposed in the optical path between the lens 1 and the image sensor 12, and the aperture amount is adjusted by the aperture drive unit 11. The amount of light incident on the image sensor 12 can be controlled by adjusting the aperture amount of the diaphragm 2 based on a command from the control unit 16 by driving by the diaphragm driving unit 11. Further, the focus lens in the lens 1 is configured such that the focus can be adjusted by the focus drive unit 10. The focus drive unit 10 varies the position of the focus lens in the lens 1 based on a command from the control unit 16. Adjust so that the focus is on the subject at the desired position.

デジタルスチルカメラ100内の各部は制御部16により制御される。制御部16は、ユーザからの操作部27への操作を通して得られた操作信号、もしくは予め規定された設定等に基づいて、内蔵のROM(Read Only Memory)等の不揮発性記憶部に記録されているコンピュータプログラムに従い、所定の演算及びデジタルカメラ100を構成する各部に対する制御を行う。   Each unit in the digital still camera 100 is controlled by the control unit 16. The control unit 16 is recorded in a non-volatile storage unit such as a built-in ROM (Read Only Memory) based on an operation signal obtained through a user operation on the operation unit 27, or a predetermined setting. In accordance with the computer program, predetermined calculation and control of each part constituting the digital camera 100 are performed.

撮像素子12での撮像タイミングは、タイミングジェネレータ17により制御される。タイミングジェネレータ17は、制御部16のクロック生成部(図示せず)から供給されるクロック信号に同期させてパルス信号を生成し、生成したパルス信号を撮像素子12に供給する。撮像素子12では、タイミングジェネレータ17から入力されたパルス信号に従って、撮像素子12の受光部に蓄積された信号電荷が走査され、画像信号として出力される。   The imaging timing at the imaging element 12 is controlled by the timing generator 17. The timing generator 17 generates a pulse signal in synchronization with a clock signal supplied from a clock generation unit (not shown) of the control unit 16, and supplies the generated pulse signal to the image sensor 12. In the image sensor 12, the signal charge accumulated in the light receiving unit of the image sensor 12 is scanned in accordance with the pulse signal input from the timing generator 17 and output as an image signal.

撮像素子12の出力は、アナログ信号処理部13に供給する。アナログ信号処理部13は、相関二重サンプリング回路やAGC(Automatic Gain Control)回路(いずれも図示せず)等で構成され、相関二重サンプリング回路は、入力された画像信号に含まれるリセットノイズの除去を行い、AGC回路は入力された画像信号を増幅して一定の信号レベルに制御する。但し、後述するようにAGC回路内の増幅部で、通常とは異なる増幅を行う場合がある。アナログ信号処理部13の出力は、アナログ/デジタル変換部14に供給する。アナログ/デジタル変換部14は、アナログ処理部13から入力されるアナログの画像信号をデジタルの画像信号に変換する。変換した画像信号は、画像信号処理部15に供給する。   The output of the image sensor 12 is supplied to the analog signal processing unit 13. The analog signal processing unit 13 includes a correlated double sampling circuit, an AGC (Automatic Gain Control) circuit (both not shown), and the like, and the correlated double sampling circuit detects reset noise included in the input image signal. The AGC circuit amplifies the input image signal and controls it to a constant signal level. However, as will be described later, the amplification unit in the AGC circuit may perform amplification different from normal. The output of the analog signal processing unit 13 is supplied to the analog / digital conversion unit 14. The analog / digital conversion unit 14 converts the analog image signal input from the analog processing unit 13 into a digital image signal. The converted image signal is supplied to the image signal processing unit 15.

画像信号処理部15は、アナログ/デジタル変換部14から供給された画像信号に対して種々の信号処理を行い、出力画像信号を生成する。例えば、画像信号のあるレベル以上を圧縮するニー補正、画像信号のレベルを予め設定されたγカーブに従って補正するγ補正、画像信号の信号レベルが所定範囲となるように制限するホワイトクリップ処理やブラッククリップ処理等を行う。また画像信号処理部15では、JPEG(Joint Photographic Experts Group)方式やMPEG(Moving Picture Experts Group)方式の画像信号に変換するエンコード処理を行い、そのエンコード処理された画像信号をメモリ25に供給して記憶(記録)させる。或いは、NTSC(National Television System Committee)やPAL(Phase Alternating Line)等の標準テレビジョン方式の信号に変換するエンコード処理を行うようにしてもよい。表示部26で表示させる画像信号についても、画像信号処理部15から供給する。   The image signal processing unit 15 performs various signal processing on the image signal supplied from the analog / digital conversion unit 14 to generate an output image signal. For example, knee correction that compresses a certain level or higher of the image signal, γ correction that corrects the level of the image signal according to a preset γ curve, white clip processing that restricts the signal level of the image signal to be within a predetermined range, or black Perform clip processing. The image signal processing unit 15 performs an encoding process for converting the image signal into a JPEG (Joint Photographic Experts Group) system or an MPEG (Moving Picture Experts Group) system, and supplies the encoded image signal to the memory 25. Remember (record). Or you may make it perform the encoding process converted into the signals of standard television systems, such as NTSC (National Television System Committee) and PAL (Phase Alternating Line). The image signal to be displayed on the display unit 26 is also supplied from the image signal processing unit 15.

また、画像信号処理部15で処理された画像信号を処理する処理部として、AE検出部18とAF(Auto Focus)検出部19と顔検出部20とを備える。
AE検出部18は、アナログ/デジタル変換部14から入力される画像信号から被写体の輝度データを算出して、撮像に適した絞り値とシャッタスピードを算出する。画像信号を増幅させるゲインの調整が必要な場合には、ゲインの調整値(増幅量)についても算出する。輝度データの算出は、例えば1画面を複数の領域に分割して、それぞれの領域で重み付けをした上で各エリアの輝度を積分したり、輝度のピーク値を除外した上で積分するといった処理で行われる。AE検出部18で求められた輝度データは制御部16に供給され、制御部16でその値に基づいた指令信号が生成された上で、指令信号が絞り駆動部11に供給される。
In addition, an AE detection unit 18, an AF (Auto Focus) detection unit 19, and a face detection unit 20 are provided as processing units that process the image signal processed by the image signal processing unit 15.
The AE detection unit 18 calculates luminance data of the subject from the image signal input from the analog / digital conversion unit 14 and calculates an aperture value and a shutter speed suitable for imaging. When adjustment of the gain for amplifying the image signal is necessary, the gain adjustment value (amplification amount) is also calculated. The brightness data is calculated by, for example, dividing one screen into a plurality of areas and integrating the brightness of each area after weighting each area or excluding the peak value of the brightness. Done. The luminance data obtained by the AE detection unit 18 is supplied to the control unit 16, and a command signal based on the value is generated by the control unit 16, and then the command signal is supplied to the aperture driving unit 11.

AF(Auto Focus)検出部19は、画像信号の高周波成分を取り出して、画面内の所定の設定エリア内に存在するこの高周波成分を積分したデータを生成する。この積分されたデータは、その設定エリア内にどれだけ高周波成分が存在するかを示すデータであって、この積分したデータを利用することによって、コントラストの高低が判断できる。一般にこのデータを評価値と呼んでおり、制御部16は、評価値が最大となるように、即ち、コントラストが最大になるようにフォーカス駆動部10に指令信号を供給して、レンズ1を駆動することにより、オートフォーカスを実現する。   An AF (Auto Focus) detection unit 19 extracts a high frequency component of the image signal and generates data obtained by integrating the high frequency component existing in a predetermined setting area on the screen. The integrated data is data indicating how much high-frequency components are present in the set area, and the level of contrast can be determined by using the integrated data. Generally, this data is called an evaluation value, and the control unit 16 drives the lens 1 by supplying a command signal to the focus driving unit 10 so that the evaluation value is maximized, that is, the contrast is maximized. By doing so, auto focus is realized.

顔検出部20は、画像信号処理部15から入力されたデジタル信号に対して、特徴点の抽出や肌色領域の抽出を行い、予めメモリ25等に登録されている顔の主要な部位についてのパターンマッチングを行うことで顔領域の検出を行う。検出された顔領域の位置及び大きさは、制御部16に供給される。なお、画面内に複数の顔を検出した場合は、複数の顔検出結果情報を制御部16に送信する。   The face detection unit 20 performs feature point extraction and skin color region extraction on the digital signal input from the image signal processing unit 15, and patterns for main parts of the face registered in advance in the memory 25 and the like. The face area is detected by matching. The position and size of the detected face area are supplied to the control unit 16. If a plurality of faces are detected in the screen, a plurality of face detection result information is transmitted to the control unit 16.

制御部16での制御に必要なデータを供給する処理部としては、RTC(Real Time clock)生成部21とGPS(Global Positioning System)測位部22と方位センサ24とを備える。RTC生成部21は、時計用発振器とカウンタとを備え、時計用発振器が生成する信号を基に、カウンタが計時することによって日付及び時刻の計時を行う。   The processing unit that supplies data necessary for control by the control unit 16 includes an RTC (Real Time Clock) generation unit 21, a GPS (Global Positioning System) positioning unit 22, and an orientation sensor 24. The RTC generation unit 21 includes a clock oscillator and a counter, and measures the date and time by counting the time based on a signal generated by the clock oscillator.

GPS測位部22は、GPS衛星からの衛星信号を受信するGPS用アンテナ23が接続してあり、GPS用アンテナ23が受信した衛星信号から現在位置(緯度・経度・高度)を算出し、算出結果の現在位置情報を制御部16に供給する。制御部16では、GPS測位部22から入力された現在位置情報を基に、その日時のその撮像位置における太陽の位置を算出する。   The GPS positioning unit 22 is connected to a GPS antenna 23 that receives satellite signals from GPS satellites, calculates the current position (latitude / longitude / altitude) from the satellite signals received by the GPS antenna 23, and the calculation result Is supplied to the controller 16. Based on the current position information input from the GPS positioning unit 22, the control unit 16 calculates the position of the sun at the imaging position at that date and time.

方位センサ24は2軸の磁界センサであり、2軸は互いに直交する例えばX軸とY軸とで構成される。地磁気はX軸成分、Y軸成分として出力され、その比を取ることでX軸Y軸に対する地磁気ベクトルの方位を検出する。検出された地磁気ベクトルの方位は、制御部16に出力される。本例では、デジタルスチルカメラ100のレンズ光軸に対する地磁気ベクトル方向を検出し、太陽の位置がレンズの光軸の方向の近傍の方向にあると判断された場合に、撮像環境が逆光環境であると判断する。   The azimuth sensor 24 is a two-axis magnetic field sensor, and the two axes are composed of, for example, an X axis and a Y axis that are orthogonal to each other. The geomagnetism is output as an X-axis component and a Y-axis component, and the azimuth of the geomagnetic vector with respect to the X-axis and Y-axis is detected by taking the ratio. The direction of the detected geomagnetic vector is output to the control unit 16. In this example, when the geomagnetic vector direction with respect to the lens optical axis of the digital still camera 100 is detected and it is determined that the position of the sun is in the direction near the direction of the optical axis of the lens, the imaging environment is a backlight environment. Judge.

メモリ25は、制御部16の制御で書き込み及び読み出しが可能な記憶媒体であり、上述した画像信号の記憶の他に、GPS測位部22により算出された現在位置情報や、顔検出部20による顔検出情報、顔検出にあたって必要となる顔の特徴情報、方位センサ24による方位情報等が記憶される。メモリ25は、例えば不揮発性メモリで構成される。   The memory 25 is a storage medium that can be written to and read out under the control of the control unit 16. In addition to storing the above-described image signal, the memory 25 stores the current position information calculated by the GPS positioning unit 22 and the face detected by the face detection unit 20. Detection information, facial feature information necessary for face detection, orientation information by the orientation sensor 24, and the like are stored. The memory 25 is composed of, for example, a nonvolatile memory.

表示部26は、画像信号処理部15から入力される画像信号に基づいて、液晶パネル等のディスプレイ(図示せず)を駆動し、ディスプレイに撮像画像を表示させる。
また、デジタルスチルカメラ100は、操作部27を備える。操作部27は、シャッタボタン等の各種操作キーで構成される。シャッタボタン(図示せず)は、半押しと全押しの2段階で動作する構成としてあり、シャッタボタンを半押しすると露出及びフォーカスの自動調整機能が働き、全押しすると、撮像された画像信号をメモリ25に記憶させる撮像動作が行われる。なお、本例ではシャッタボタンが半押し、全押しの2段階で動作する例を挙げたが、シャッタボタンの動作はこれに限られるものではない。
The display unit 26 drives a display (not shown) such as a liquid crystal panel based on the image signal input from the image signal processing unit 15 to display a captured image on the display.
In addition, the digital still camera 100 includes an operation unit 27. The operation unit 27 includes various operation keys such as a shutter button. A shutter button (not shown) is configured to operate in two stages of half-press and full-press. When the shutter button is half-pressed, an automatic adjustment function of exposure and focus works. When the shutter button is fully pressed, a captured image signal is displayed. An imaging operation to be stored in the memory 25 is performed. In this example, the shutter button is operated in two stages of half-press and full-press, but the operation of the shutter button is not limited to this.

また本例においては、撮像の前段階で顔検出の精度向上処理を行うための「顔検出モード」を選択できるものとする。この「顔検出モード」の設定は、表示部26に表示させたメニュー画面での操作などで設定させ、その設定を制御部16が記憶する。なお、「顔検出モード」の選択はシャッタボタンに対する操作により行えるようにしてもよい。例えば、上述したように、シャッタボタンを半押しすることで、「顔検出モード」となって、顔検出が行われるようにしてもよい。   Further, in this example, it is assumed that a “face detection mode” for performing face detection accuracy improvement processing at a stage before imaging can be selected. The “face detection mode” is set by an operation on the menu screen displayed on the display unit 26, and the setting is stored in the control unit 16. The “face detection mode” may be selected by operating the shutter button. For example, as described above, the face detection may be performed by pressing the shutter button halfway to enter the “face detection mode”.

制御部16と画像信号処理部15、顔検出部20、メモリ25とのデータ伝送は、バス28を介して行われる。   Data transmission between the control unit 16, the image signal processing unit 15, the face detection unit 20, and the memory 25 is performed via a bus 28.

次に、図2のフローチャートを参照して、本例の撮像処理例について説明する。本例においては、顔検出精度向上処理を行うための例としてある。本例における顔検出精度向上処理は、通常の撮像の前段階で行うものであり、ユーザにより「顔検出モード」が予め選択されており、シャッタボタンの半押し等の操作により操作信号が入力されたことを制御部16が検知した場合に行われる。まずステップS1では、逆光環境であるか否かの判断がされる。つまり、RTC生成部21による日時情報とGPS測位部22による現在位置情報から、その日時のその撮像位置における太陽の位置が制御部16で算出され、制御部16は、方位センサ24による測位によってデジタルスチルカメラ100のレンズ光軸が太陽のある方向を向いている場合は、逆光環境であると判断し、レンズ光軸が太陽のある方向を向いていない場合には、逆光環境でないと判断する。   Next, an example of the imaging process of this example will be described with reference to the flowchart of FIG. This example is an example for performing face detection accuracy improvement processing. The face detection accuracy improving process in this example is performed at a stage prior to normal imaging, and the “face detection mode” is selected in advance by the user, and an operation signal is input by an operation such as half-pressing the shutter button. This is performed when the control unit 16 detects this. First, in step S1, it is determined whether or not the backlight environment. That is, from the date and time information by the RTC generation unit 21 and the current position information by the GPS positioning unit 22, the position of the sun at the imaging position at the date and time is calculated by the control unit 16, and the control unit 16 digitally performs positioning by the direction sensor 24. When the lens optical axis of the still camera 100 is directed in the direction with the sun, it is determined that the environment is a backlight environment. When the lens optical axis is not directed in the direction with the sun, it is determined that the environment is not a backlight environment.

ステップS1で、逆光環境であると判断された場合は、アナログ信号処理部13内の増幅部によって画像信号のアナログゲインが増幅される(ステップS2)。これにより、撮像された画像全体の輝度が上がり、同時に顔部分の輝度も向上するため、顔検出部20における顔検出の精度が向上する。この場合のゲイン増幅は、メモリ25に記憶(記録)させる画像信号又は表示部26で表示させる画像信号のゲイン増幅とは異なり、顔検出が可能な程度まで輝度が上げられることを目的としている。よって、増幅率は固定値として予め設定しておいた率を使用してもよく、任意に変更させるようにしてもよい。   If it is determined in step S1 that the environment is backlit, the analog gain of the image signal is amplified by the amplification unit in the analog signal processing unit 13 (step S2). As a result, the brightness of the entire captured image is increased, and the brightness of the face portion is improved at the same time, so that the accuracy of face detection in the face detection unit 20 is improved. Unlike the gain amplification of the image signal stored (recorded) in the memory 25 or the image signal displayed on the display unit 26, the gain amplification in this case is intended to increase the luminance to the extent that face detection is possible. Therefore, the amplification factor may be a preset value as a fixed value, or may be arbitrarily changed.

この状態で顔検出部20による顔検出処理が行われ(ステップS3)、検出した顔の位置に合焦させるオートフォーカス制御が行われる(ステップS4)。つまり、顔を検出した領域でAF検出部19で算出される評価値が最大となるように、制御部16よりフォーカス駆動部10に指令信号が供給され、フォーカス駆動部10による指令信号によりレンズ1が駆動されて、顔検出位置にフォーカスが調整される。   In this state, face detection processing is performed by the face detection unit 20 (step S3), and autofocus control for focusing on the detected face position is performed (step S4). That is, a command signal is supplied from the control unit 16 to the focus driving unit 10 so that the evaluation value calculated by the AF detection unit 19 is maximized in the face detection area, and the lens 1 is received by the command signal from the focus driving unit 10. Is driven to adjust the focus to the face detection position.

顔検出位置に合焦された後は、検出された顔を中心に自動露出制御が行われる(ステップS5)。この場合の露出制御は、アナログ信号処理部13でアナログ信号に対するゲイン調整により行うようにしてもよく、画像信号処理部15でデジタル信号に対するゲイン調整により行うようにしてもよい。または、電子シャッタスピードの調整により行うようにしてもよい。また、ここでの自動露出制御時には、ステップS2での顔検出用のゲイン増幅は行なわず、記憶(記録)や表示を適正に行なうためのゲイン増幅が行なわれる。   After focusing on the face detection position, automatic exposure control is performed around the detected face (step S5). In this case, the exposure control may be performed by the gain adjustment for the analog signal by the analog signal processing unit 13 or may be performed by the gain adjustment for the digital signal by the image signal processing unit 15. Alternatively, the electronic shutter speed may be adjusted. At the time of automatic exposure control here, gain amplification for face detection in step S2 is not performed, but gain amplification for properly storing (recording) and displaying is performed.

このように、逆光環境であると判断した場合に、画像信号自体を増幅することで、画像の全体的な輝度が向上し、顔検出の精度が上がる。そして、顔検出後に、検出された人物の顔に合わせて再度露出の調整がされることで、人物の顔に露出が合った状態での撮像が可能となる。   As described above, when it is determined that the environment is a backlight environment, by amplifying the image signal itself, the overall luminance of the image is improved and the accuracy of face detection is increased. Then, after the face is detected, the exposure is adjusted again according to the detected face of the person, so that it is possible to take an image in a state where the exposure of the face of the person is appropriate.

なお、上述した実施の形態では、アナログ信号処理部13でアナログゲインを上げることにより顔検出の検出率を上げるようにしてあるが、画像信号処理部15でデジタルゲインを上げることによっても、同様の効果を得られる。この場合の処理例について、図3のフローチャートを参照して説明する。   In the above-described embodiment, the analog signal processing unit 13 increases the analog gain to increase the detection rate of face detection. However, the image signal processing unit 15 can increase the digital gain in the same manner. The effect can be obtained. A processing example in this case will be described with reference to the flowchart of FIG.

まず、逆光環境であるか否かの判断がされる(ステップS11)。つまり、RTC生成部21による日時情報とGPS測位部22による現在位置情報から、その日時のその撮像位置における太陽の位置が制御部16で算出され、方位センサ24による測位によってデジタルスチルカメラ100のレンズ光軸が太陽のある方向をほぼ向いていると判断した場合は、制御部16は逆光環境であると判断し、レンズ光軸が太陽のある方向を向いていない場合には、制御部16は逆光環境でないと判断する。   First, it is determined whether or not the backlight environment is present (step S11). That is, from the date and time information by the RTC generation unit 21 and the current position information by the GPS positioning unit 22, the position of the sun at the imaging position at that date and time is calculated by the control unit 16, and the lens of the digital still camera 100 is measured by the direction sensor 24. When it is determined that the optical axis is substantially directed in the direction with the sun, the control unit 16 determines that the environment is a backlight environment, and when the lens optical axis is not directed in the direction with the sun, the control unit 16 Judged not to be backlit.

ステップS11で、逆光環境であると判断された場合は、画像信号処理部15によって画像信号のデジタルゲインが増幅される(ステップS12)。これにより、撮像された画像全体の輝度が上がり、同時に顔部分の輝度も向上するため、顔検出部20における顔検出の精度も向上する。この場合のゲイン調整率は、固定値として予め設定しておいた率を使用してもよく、任意に変更させるようにしてもよい。   When it is determined in step S11 that the environment is a backlight environment, the digital gain of the image signal is amplified by the image signal processing unit 15 (step S12). As a result, the brightness of the entire captured image is increased, and the brightness of the face portion is also improved. Therefore, the accuracy of face detection in the face detection unit 20 is also improved. The gain adjustment rate in this case may be a rate set in advance as a fixed value, or may be arbitrarily changed.

次に、顔検出部20による顔検出処理が行われ(ステップS13)、検出した顔に合わせてオートフォーカス制御が行われる(ステップS14)。つまり、AF検出部19で算出される評価値が最大となるように、制御部16よりフォーカス駆動部10に指令信号が供給され、フォーカス駆動部10による指令信号によりレンズ1が駆動されることで、顔検出位置にフォーカスが調整される。   Next, face detection processing by the face detection unit 20 is performed (step S13), and autofocus control is performed according to the detected face (step S14). That is, a command signal is supplied from the control unit 16 to the focus driving unit 10 so that the evaluation value calculated by the AF detection unit 19 is maximized, and the lens 1 is driven by the command signal from the focus driving unit 10. The focus is adjusted to the face detection position.

顔検出位置に合焦された後は、検出された顔を中心に自動露出制御が行われる(ステップS15)。この場合の露出制御は、アナログ信号処理部13でアナログ信号に対するゲイン調整により行うようにしてもよく、画像信号処理部15でデジタル信号に対するゲイン調整により行うようにしてもよい。または、自動シャッタスピードの調整により行うようにしてもよい。   After focusing on the face detection position, automatic exposure control is performed around the detected face (step S15). In this case, the exposure control may be performed by the gain adjustment for the analog signal by the analog signal processing unit 13 or may be performed by the gain adjustment for the digital signal by the image signal processing unit 15. Alternatively, the automatic shutter speed may be adjusted.

また、上述したように、顔検出精度向上処理を画像信号処理部15でのデジタルゲイン増幅により行う場合には、画像信号処理部15内のゲイン増幅回路を2系統に分離し、顔検出部20用の信号にだけ、顔検出用に専用の増幅部でゲイン増幅を行うようにし、記憶(記録)や表示用の画像信号については、それとは異なる増幅部で通常のゲイン増幅を行なうようにしてもよい。この場合の構成例を図4に示してある。図4において、既に説明した図1に対応する部分には同一符号を付す。   Further, as described above, when the face detection accuracy improving process is performed by digital gain amplification in the image signal processing unit 15, the gain amplification circuit in the image signal processing unit 15 is separated into two systems, and the face detection unit 20. The gain amplification is performed by the dedicated amplification unit for face detection only for the signal for use, and the normal gain amplification is performed for the image signal for storage (recording) and display by a different amplification unit. Also good. A configuration example in this case is shown in FIG. In FIG. 4, parts corresponding to those already described with reference to FIG.

図4において、撮像素子12で撮像され、アナログ信号処理部13でアナログ信号処理された画像信号は、アナログ/デジタル変換部14に供給される。画像信号処理部15は第1のデジタルゲイン回路30aと第2のデジタルゲイン回路30bとを備え、第1のデジタルゲイン回路30aは記憶(記録)や表示用の画像信号に対する増幅を行う通常の増幅部として設けてあり、第2のデジタルゲイン回路30bは、顔検出用に専用の増幅部として設けてある。通常の増幅部として設けられた第1のデジタルゲイン回路30aは、A/D変換部14から入力された画像信号に対して記憶(記録)や表示を適正に行なうための通常のゲイン調整を行い、ゲイン調整後の画像信号をそのままバス28を介してメモリ25や表示部26に伝送する。これに対して顔検出用の増幅部として設けられた第2のデジタルゲイン回路30bでは、A/D変換部14から入力された画像信号に対し、顔検出が可能な程度まで輝度を向上させるために一定量のゲイン増幅が行われ、ゲインが増幅された画像信号を顔検出部20へ伝送する。   In FIG. 4, an image signal captured by the image sensor 12 and subjected to analog signal processing by the analog signal processing unit 13 is supplied to the analog / digital conversion unit 14. The image signal processing unit 15 includes a first digital gain circuit 30a and a second digital gain circuit 30b, and the first digital gain circuit 30a performs normal amplification for amplifying an image signal for storage (recording) or display. The second digital gain circuit 30b is provided as a dedicated amplification unit for face detection. The first digital gain circuit 30a provided as a normal amplifying unit performs normal gain adjustment for appropriately storing (recording) and displaying the image signal input from the A / D conversion unit 14. Then, the image signal after gain adjustment is transmitted to the memory 25 and the display unit 26 through the bus 28 as they are. On the other hand, in the second digital gain circuit 30b provided as an amplification unit for face detection, the luminance of the image signal input from the A / D conversion unit 14 is improved to such an extent that face detection is possible. Then, a certain amount of gain amplification is performed, and the image signal with the gain amplified is transmitted to the face detection unit 20.

このように、画像信号処理部15内での処理系統を2つに分割することで、メモリ25に記憶させる画像信号や表示部26で表示させる画像信号に対しては通常のゲイン増幅が行われ、顔検出部20へ伝送される画像信号に対してのみ、顔検出の検出率を上げるための所定量のゲイン増幅がなされるようになるため、表示部26で表示させる画像が、顔検出のためのゲイン増幅で見難い画像となることがない。つまり、顔検出用の画像信号のゲインのみを効率的に増幅させることができる。また、顔検出用のゲイン増幅と、記憶(記録)や表示を適正に行なうための通常のゲイン増幅とが並行して行われるため、撮像から記録又は表示までの全体の処理時間が短縮される。   Thus, by dividing the processing system in the image signal processing unit 15 into two, normal gain amplification is performed on the image signal stored in the memory 25 and the image signal displayed on the display unit 26. Since a predetermined amount of gain amplification for increasing the detection rate of the face detection is performed only on the image signal transmitted to the face detection unit 20, the image displayed on the display unit 26 is the face detection signal. Therefore, it is not difficult to see an image by gain amplification. That is, only the gain of the image signal for face detection can be efficiently amplified. Further, since gain amplification for face detection and normal gain amplification for properly storing (recording) and displaying are performed in parallel, the entire processing time from imaging to recording or display is shortened. .

また、上述した実施の形態では、本発明による撮像装置をデジタルスチルカメラに適用した例を説明したが、これに限らず、例えば、ビデオカメラ、又はそれらと同等の機能を有するその他の装置等であってもよく、様々な装置に広く適用可能である。   In the above-described embodiment, an example in which the imaging apparatus according to the present invention is applied to a digital still camera has been described. However, the present invention is not limited to this, and for example, a video camera or other apparatus having a function equivalent thereto. It may be present and is widely applicable to various devices.

本発明の一実施の形態によるデジタルスチルカメラの構成例を示すブロック図である。It is a block diagram which shows the structural example of the digital still camera by one embodiment of this invention. 本発明の一実施の形態による顔検出精度向上処理例を示すフローチャートである。It is a flowchart which shows the example of a face detection accuracy improvement process by one embodiment of this invention. 本発明の他の実施の形態による顔検出精度向上処理例を示すフローチャートである。It is a flowchart which shows the example of a face detection accuracy improvement process by other embodiment of this invention. 本発明の他の実施の形態によるデジタルスチルカメラの構成例を示すブロック図である。It is a block diagram which shows the structural example of the digital still camera by other embodiment of this invention.

符号の説明Explanation of symbols

1…レンズ、2…絞り、10…フォーカス駆動部、11…絞り駆動部、12…撮像素子、13…アナログ信号処理部、14…A/D変換部、15…画像信号処理部、16…制御部、17…タイミングジェネレータ、18…AE検出部、19…AF検出部、20…顔検出部、21…RTC、22…GPS、23…GPS用アンテナ、24…方位センサ、25…メモリ、26…表示部、27…操作部、28…バス、30…デジタルゲイン回路、100…デジタルスチルカメラ   DESCRIPTION OF SYMBOLS 1 ... Lens, 2 ... Diaphragm, 10 ... Focus drive part, 11 ... Diaphragm drive part, 12 ... Image sensor, 13 ... Analog signal processing part, 14 ... A / D conversion part, 15 ... Image signal processing part, 16 ... Control , 17 ... Timing generator, 18 ... AE detector, 19 ... AF detector, 20 ... Face detector, 21 ... RTC, 22 ... GPS, 23 ... GPS antenna, 24 ... Direction sensor, 25 ... Memory, 26 ... Display unit 27 ... Operation unit 28 28 Bus 30 Digital gain circuit 100 Digital still camera

Claims (5)

レンズを介して結像された被写体光を光電変換して画像信号を生成する撮像部と、
前記撮像部で生成された画像信号に対して顔領域の検出を行う顔検出部を備え、前記顔検出部で検出された顔領域に合わせて撮像処理を行うことが可能な撮像装置において、
前記撮像部での撮像時点の日付及び時刻を計時する日時計時部と、
前記撮像部での撮像時の位置を算出する位置算出部と、
前記レンズの光軸に対する方位を検出する方位検出部と、
前記撮像部が出力した画像信号を増幅する増幅部と、
前記日時計時部が計時した日付及び時刻情報と、前記位置算出部が算出した位置情報を用いて撮像時点での太陽の位置を算出して、該算出された太陽の位置が前記方位検出部で検出したレンズ光軸上の方位の近傍にあると判断した場合に、前記増幅部で画像信号の利得を所定量増幅させ、該利得が増幅された画像信号を前記顔検出部に供給させる制御を行う制御部とを備えたことを特徴とする
撮像装置。
An imaging unit that photoelectrically converts subject light imaged through a lens to generate an image signal;
In an imaging apparatus that includes a face detection unit that detects a face area with respect to an image signal generated by the imaging unit, and that can perform an imaging process according to the face area detected by the face detection unit,
A sundial time unit for measuring the date and time at the time of imaging in the imaging unit;
A position calculation unit that calculates a position at the time of imaging in the imaging unit;
An azimuth detector that detects the azimuth of the lens relative to the optical axis;
An amplification unit for amplifying the image signal output by the imaging unit;
The sun position at the time of imaging is calculated using the date and time information timed by the sundial time unit and the position information calculated by the position calculating unit, and the calculated sun position is the azimuth detecting unit. Control for amplifying the gain of the image signal by a predetermined amount in the amplification unit and supplying the amplified image signal to the face detection unit when the amplification unit determines that the image signal is in the vicinity of the orientation on the lens optical axis An imaging apparatus comprising: a control unit that performs the above.
請求項1記載の撮像装置において、
前記撮像処理は、前記利得が増幅された画像信号に対して前記顔検出部が検出を行った顔領域に合わせて、オートフォーカス調整又は露出調整を行うとを特徴とする
撮像装置。
The imaging device according to claim 1,
The imaging apparatus is characterized in that the imaging processing performs autofocus adjustment or exposure adjustment on an image signal with the gain amplified in accordance with a face area detected by the face detection unit.
請求項1記載の撮像装置において、
前記増幅部での所定量の増幅は、顔検出部で画像信号から顔検出を行う期間だけ行い、
顔検出処理が終了した後は、前記増幅部での所定量の増幅を終了させることを特徴とする
撮像装置。
The imaging device according to claim 1,
The amplification of a predetermined amount in the amplification unit is performed only during a period in which face detection is performed from the image signal in the face detection unit,
An imaging apparatus characterized in that after the face detection process ends, a predetermined amount of amplification in the amplifying unit ends.
請求項1記載の撮像装置において、
前記顔検出用の画像信号増幅部とは別に、記録用又は表示用の画像信号に対して増幅処理を行う第2の画像信号増幅部を設け、
前記第2の画像信号増幅部では、撮像の露出調整に応じた増幅を行うようにしたことを特徴とする
撮像装置。
The imaging device according to claim 1,
In addition to the face detection image signal amplification unit, a second image signal amplification unit that performs amplification processing on the recording or display image signal is provided.
An image pickup apparatus, wherein the second image signal amplifying unit performs amplification according to exposure adjustment of image pickup.
レンズを介して結像された被写体光を光電変換して得た画像信号に対して顔領域の検出を行い、検出された顔領域に合わせて撮像処理を行う撮像方法において、
撮像時点の日付及び時刻を計時し、
撮像時の位置を算出し、
前記レンズの光軸に対する方位を検出し、
前記計時された日付及び時刻情報と、前記算出された位置情報を用いて撮像時点での太陽の位置を算出して、該算出された太陽の位置がレンズの光軸上の方位の近傍にあると判断した場合に、前記画像信号の利得を所定量増幅し、該利得が増幅された画像信号に対して顔領域の検出を行うことを特徴とする
撮像方法。
In an imaging method in which a face area is detected for an image signal obtained by photoelectrically converting subject light imaged through a lens, and an imaging process is performed in accordance with the detected face area.
Measure the date and time at the time of imaging,
Calculate the position at the time of imaging,
Detecting the orientation of the lens with respect to the optical axis;
The sun position at the time of imaging is calculated using the timed date and time information and the calculated position information, and the calculated sun position is in the vicinity of the orientation on the optical axis of the lens. When it is determined, the imaging method is characterized in that a gain of the image signal is amplified by a predetermined amount, and a face area is detected from the image signal with the gain amplified.
JP2006218886A 2006-08-10 2006-08-10 Imaging apparatus and imaging method Expired - Fee Related JP4702220B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006218886A JP4702220B2 (en) 2006-08-10 2006-08-10 Imaging apparatus and imaging method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006218886A JP4702220B2 (en) 2006-08-10 2006-08-10 Imaging apparatus and imaging method

Publications (2)

Publication Number Publication Date
JP2008047976A true JP2008047976A (en) 2008-02-28
JP4702220B2 JP4702220B2 (en) 2011-06-15

Family

ID=39181327

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006218886A Expired - Fee Related JP4702220B2 (en) 2006-08-10 2006-08-10 Imaging apparatus and imaging method

Country Status (1)

Country Link
JP (1) JP4702220B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2423899A1 (en) * 2009-04-20 2012-02-29 Imagsa Technologies S. A. Method for identifying reflecting objects subjected to variable lighting conditions and system for performing said method
JP2013003298A (en) * 2011-06-15 2013-01-07 Canon Inc Imaging apparatus, control method therefor, and program
JP2016058885A (en) * 2014-09-09 2016-04-21 キヤノン株式会社 Imaging apparatus and control method
JP2016057462A (en) * 2014-09-09 2016-04-21 キヤノン株式会社 Imaging device and control method
WO2017208991A1 (en) * 2016-06-01 2017-12-07 シャープ株式会社 Image capturing and processing device, electronic instrument, image capturing and processing method, and image capturing and processing device control program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004201228A (en) * 2002-12-20 2004-07-15 Fuji Photo Film Co Ltd Method and device for extracting face area
JP2004312243A (en) * 2003-04-04 2004-11-04 Nec Corp Electronic camera attached mobile apparatus
JP2005347873A (en) * 2004-05-31 2005-12-15 Matsushita Electric Works Ltd Imaging apparatus
JP2006041800A (en) * 2004-07-26 2006-02-09 Fuji Photo Film Co Ltd Photography device
JP2006174106A (en) * 2004-12-16 2006-06-29 Canon Inc Image input apparatus
JP2006209277A (en) * 2005-01-26 2006-08-10 Sony Corp Object detecting device, object detecting method and imaging device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004201228A (en) * 2002-12-20 2004-07-15 Fuji Photo Film Co Ltd Method and device for extracting face area
JP2004312243A (en) * 2003-04-04 2004-11-04 Nec Corp Electronic camera attached mobile apparatus
JP2005347873A (en) * 2004-05-31 2005-12-15 Matsushita Electric Works Ltd Imaging apparatus
JP2006041800A (en) * 2004-07-26 2006-02-09 Fuji Photo Film Co Ltd Photography device
JP2006174106A (en) * 2004-12-16 2006-06-29 Canon Inc Image input apparatus
JP2006209277A (en) * 2005-01-26 2006-08-10 Sony Corp Object detecting device, object detecting method and imaging device

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2423899A1 (en) * 2009-04-20 2012-02-29 Imagsa Technologies S. A. Method for identifying reflecting objects subjected to variable lighting conditions and system for performing said method
EP2423899A4 (en) * 2009-04-20 2013-07-03 Imagsa Technologies S A Method for identifying reflecting objects subjected to variable lighting conditions and system for performing said method
JP2013003298A (en) * 2011-06-15 2013-01-07 Canon Inc Imaging apparatus, control method therefor, and program
JP2016058885A (en) * 2014-09-09 2016-04-21 キヤノン株式会社 Imaging apparatus and control method
JP2016057462A (en) * 2014-09-09 2016-04-21 キヤノン株式会社 Imaging device and control method
WO2017208991A1 (en) * 2016-06-01 2017-12-07 シャープ株式会社 Image capturing and processing device, electronic instrument, image capturing and processing method, and image capturing and processing device control program
CN109314741A (en) * 2016-06-01 2019-02-05 夏普株式会社 Camera treatment device, electronic equipment, image pickup processing method, camera treatment device control program
JPWO2017208991A1 (en) * 2016-06-01 2019-03-28 シャープ株式会社 Imaging processing apparatus, electronic apparatus, imaging processing method, imaging processing apparatus control program
US11012631B2 (en) 2016-06-01 2021-05-18 Sharp Kabushiki Kaisha Image capturing and processing device, electronic instrument, image capturing and processing method, and recording medium

Also Published As

Publication number Publication date
JP4702220B2 (en) 2011-06-15

Similar Documents

Publication Publication Date Title
US8786762B2 (en) Imaging device and automatic focus adjustment method
US9473698B2 (en) Imaging device and imaging method
JP5230376B2 (en) Imaging apparatus and imaging method
US7424213B2 (en) Camera system, image capturing apparatus, and a method of an image capturing apparatus
US7693406B2 (en) Image capturing apparatus, method of controlling the same, and storage medium
US20120268621A1 (en) Imaging apparatus, azimuth recording method, and program
US10298862B2 (en) Imaging apparatus and imaging method
JP2003307669A (en) Camera
JP2006262220A (en) Imaging apparatus
US9407842B2 (en) Image pickup apparatus and image pickup method for preventing degradation of image quality
JP4702220B2 (en) Imaging apparatus and imaging method
US20120274825A1 (en) Imaging apparatus
US20100272423A1 (en) Shake correcting apparatus and imaging apparatus having the same
JP4360318B2 (en) Digital still camera
US8345150B2 (en) Imaging apparatus
JP2011217311A (en) Imaging apparatus and method of controlling the same
JP2011217334A (en) Imaging apparatus and method of controlling the same
US10873701B2 (en) Image pickup apparatus and control method thereof
US7961231B2 (en) Apparatus, method and computer-readable recording medium containing program for photographing
JP2004145022A (en) Digital camera
JP2011029759A (en) Imaging apparatus, control method thereof, and program
JP2010130590A (en) Imaging apparatus and imaging method
JP2008283477A (en) Image processor, and image processing method
JP2007129328A (en) Imaging apparatus
US10771675B2 (en) Imaging control apparatus and imaging control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090728

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110118

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110221

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees