JP2011160026A - Imaging system - Google Patents

Imaging system Download PDF

Info

Publication number
JP2011160026A
JP2011160026A JP2010017709A JP2010017709A JP2011160026A JP 2011160026 A JP2011160026 A JP 2011160026A JP 2010017709 A JP2010017709 A JP 2010017709A JP 2010017709 A JP2010017709 A JP 2010017709A JP 2011160026 A JP2011160026 A JP 2011160026A
Authority
JP
Japan
Prior art keywords
imaging
information
signal
image
imaging system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010017709A
Other languages
Japanese (ja)
Inventor
Kunihiro Imamura
邦博 今村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2010017709A priority Critical patent/JP2011160026A/en
Priority to PCT/JP2010/007307 priority patent/WO2011092789A1/en
Publication of JP2011160026A publication Critical patent/JP2011160026A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B7/00Control of exposure by setting shutters, diaphragms or filters, separately or conjointly
    • G03B7/08Control effected solely on the basis of the response, to the intensity of the light received by the camera, of a built-in light-sensitive device
    • G03B7/091Digital circuits
    • G03B7/097Digital circuits for control of both exposure time and aperture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B7/00Control of exposure by setting shutters, diaphragms or filters, separately or conjointly
    • G03B7/16Control of exposure by setting shutters, diaphragms or filters, separately or conjointly in accordance with both the intensity of the flash source and the distance of the flash source from the object, e.g. in accordance with the "guide number" of the flash bulb and the focusing of the camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging system for imaging video and still pictures, which allows a user to select a more optimal image processing method without requiring any complicated user operation. <P>SOLUTION: The imaging system having an image sensor 53 (solid-state imaging device) which outputs light incident from an object as an imaging signal S1, has a digital signal processing circuit 10 (signal processing unit) which applies signal processing to the imaging signal S1 and generates a YC signal S2 (image signal). An external information interface 70 (information acquiring unit) is provided which acquires information for estimation for estimating an imaging scene. A CPU 20 (control unit) is provided which estimates the imaging scene using the information for estimation, and performs at least one of imaging control and signal processing control in the digital signal processing circuit 10. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、動画や静止画を撮像する撮像システムに関し、特に撮像システムの画像処理や撮像の制御に関するものである。   The present invention relates to an imaging system that captures moving images and still images, and more particularly to image processing and imaging control of the imaging system.

デジタルカメラ等の撮像システムでは、撮像した画像(静止画、又は動画)に対して、同時化、フィルタリング処理、周波数補正等の画像処理が行われることが多い。そして、より好ましい画像出力(例えば表示など)を得るために、画像処理方法の選択方法が種々提案されている。例えば、画像調整用メニュー画面に複数の言語または地域を表示し、その言語または地域を選択することにより、その言語または地域に対応する肌色に合った色合の初期値を自動設定するようにしたものがある(例えば特許文献1を参照)。また、入力画像から被写体人物の肌の色を特定し、予め実施される統計結果に基づいた近似式にこの肌の色を代入することにより、被写体人物の肌の色から正常な瞳の色成分を推定するものや(例えば、特許文献2を参照)、ユーザがスイッチによって画像処理方法を切替えられるようにしたものがある(例えば、特許文献3を参照)。   In an imaging system such as a digital camera, image processing such as synchronization, filtering processing, and frequency correction is often performed on a captured image (still image or moving image). In order to obtain a more preferable image output (for example, display), various methods for selecting an image processing method have been proposed. For example, multiple languages or regions are displayed on the menu screen for image adjustment, and by selecting the language or region, the initial value of the color that matches the skin color corresponding to that language or region is automatically set (For example, refer to Patent Document 1). In addition, by specifying the skin color of the subject person from the input image and substituting the skin color into an approximate expression based on statistical results performed in advance, the color component of the normal pupil from the skin color of the subject person (For example, refer to Patent Document 2), and the user can switch the image processing method with a switch (for example, refer to Patent Document 3).

特開平11−202844JP-A-11-202844 特開2005−158033JP2005-158033 特許第3047448号Japanese Patent No. 3047448

しかしながら、文化圏によって好まれる画質(色再現など)は異なる傾向があるので、特許文献1に記載されているように言語を設定しても、その言語を使用する地域(国など)が特定の文化圏に限定されない場合には、適切な画像処理方法が選択されず、好ましい画像処理結果が得ることができない可能性がある。例えば言語として「英語」を選択した場合でも、英語圏のユーザは特定の文化圏に限定されない。また、より適切に画像処理方法を選択するためには、より多くの地域を画像調整用メニュー画面に表示する必要があり、表示された多くのメニュー項目(地域)からユーザが適切なものを選択するのは煩雑な作業である。また、特許文献2に記載されているように、入力画像から被写体人物の肌の色を特定するのでは、撮影条件(例えば照明光色温度等)によっては正しい推定が行われず、適切な画像処理の方法が選択されない可能性がある。また、特許文献3に記載されているように、撮像時にユーザが一々スイッチによって画像処理方法を切替えるのでは煩雑である。   However, the preferred image quality (color reproduction, etc.) tends to differ depending on the cultural sphere, so even if a language is set as described in Patent Document 1, the region (country, etc.) in which the language is used is specified. If the cultural area is not limited, an appropriate image processing method may not be selected, and a preferable image processing result may not be obtained. For example, even when “English” is selected as the language, English-speaking users are not limited to a specific cultural zone. In order to select an image processing method more appropriately, it is necessary to display more regions on the image adjustment menu screen, and the user selects an appropriate one from the displayed menu items (regions). This is a cumbersome task. Also, as described in Patent Document 2, when the skin color of a subject person is specified from an input image, correct estimation may not be performed depending on shooting conditions (for example, illumination light color temperature). The method may not be selected. Further, as described in Patent Document 3, it is complicated for the user to switch the image processing method by a switch at the time of imaging.

本発明は上記の問題に着目してなされたものであり、動画や静止画を撮像する撮像システムにおいて、撮影者に煩雑な操作を要求することなく、より最適な画像処理方法を選択できるようにすることを目的としている。   The present invention has been made paying attention to the above problem, and in an imaging system that captures moving images and still images, a more optimal image processing method can be selected without requiring a complicated operation from the photographer. The purpose is to do.

上記の課題を解決するため、本発明の一態様は、
被写体から入射した光を撮像信号として出力する固体撮像装置を有した撮像システムにおいて、
前記撮像信号に信号処理を行った画像信号を生成する信号処理部と、
撮像シーンを推定するための推定用情報を取得する情報取得部と、
前記推定用情報を用いて前記撮像シーンを推定し、推定した撮像シーンに応じて撮像の制御、及び前記信号処理部における信号処理の制御の少なくとも一方の制御を行う制御部と、
を備えたことを特徴とする。
In order to solve the above problems, one embodiment of the present invention provides:
In an imaging system having a solid-state imaging device that outputs light incident from a subject as an imaging signal,
A signal processing unit that generates an image signal obtained by performing signal processing on the imaging signal;
An information acquisition unit for acquiring information for estimation for estimating the imaging scene;
A control unit that estimates the imaging scene using the estimation information, performs control of imaging according to the estimated imaging scene, and control of signal processing in the signal processing unit; and
It is provided with.

この構成では、情報取得部が取得した推定用情報に基づいて、制御部が撮像シーンを推定し、その推定結果に基づいて信号処理部での信号処理を制御する。すなわち、本発明では、撮影者が画像処理方法を選択する必要がない。また、制御部によって、撮像シーンに応じた画像処理方法が選択されるので、撮影者にとって好ましいと考えられる画像処理結果を得ることが可能になる。   In this configuration, the control unit estimates a captured scene based on the estimation information acquired by the information acquisition unit, and controls signal processing in the signal processing unit based on the estimation result. That is, in the present invention, the photographer does not need to select an image processing method. Moreover, since the image processing method according to the imaging scene is selected by the control unit, it is possible to obtain an image processing result that is considered preferable for the photographer.

以上のように、本発明によれば、撮影者に煩雑な操作を要求することなく、より最適な画像処理方法を選択することが可能になる。   As described above, according to the present invention, it is possible to select a more optimal image processing method without requiring a complicated operation from the photographer.

図1は、本発明の実施形態1に係るデジタルビデオカメラの構成を示すブロック図である。FIG. 1 is a block diagram showing a configuration of a digital video camera according to Embodiment 1 of the present invention.

以下、本発明の実施形態について図面を参照しながら説明する。なお、以下の実施形態は、本質的に好ましい例示であって、本発明、その適用物、あるいはその用途の範囲を制限することを意図するものではない。また、以下の各実施形態や変形例の説明において、一度説明した構成要素と同様の機能を有する構成要素については、同一の符号を付して説明を省略する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. The following embodiments are essentially preferable examples, and are not intended to limit the scope of the present invention, its application, or its use. In the following description of each embodiment and modification, components having the same functions as those described once will be given the same reference numerals and description thereof will be omitted.

《発明の実施形態1》
〈概要〉
本発明の撮像システムは、動画用の撮像システム、静止画用の撮像システム、或いは動画と静止画の両方を撮像する撮像システムの何れにも適用できる。以下では、本発明の撮像システムの一例として動画の撮像及び静止画の撮像が可能なデジタルビデオカメラの例を説明する。以下に説明するデジタルビデオカメラには、撮像シーンを推定するためにデジタルビデオカメラの外部から取得した情報(後述の推定用情報)を用いて撮像動作や撮像した画像の処理(信号処理)を行う第1の動作モードと、該推定用情報を用いずに撮像動作や信号処理の制御を行う第2の動作モードがあり、これらの動作モードを切換できるようになっている。
Embodiment 1 of the Invention
<Overview>
The imaging system of the present invention can be applied to any of an imaging system for moving images, an imaging system for still images, or an imaging system that captures both moving images and still images. Hereinafter, an example of a digital video camera capable of capturing moving images and still images will be described as an example of the imaging system of the present invention. The digital video camera described below performs an imaging operation and processing (signal processing) of a captured image using information (information to be described later) acquired from the outside of the digital video camera in order to estimate an imaging scene. There are a first operation mode and a second operation mode in which the imaging operation and signal processing are controlled without using the estimation information, and these operation modes can be switched.

図1は、本発明の実施形態1に係るデジタルビデオカメラ1の構成を示すブロック図である。デジタルビデオカメラ1は、同図に示すように、デジタル信号処理回路10(図中ではDSPと略記)、CPU20、SDRAM30、SDカード40、表示装置41(図中ではLCDと略記)、外部情報インターフェース70、及び撮像モジュール50を備えている。以下では、デジタルビデオカメラ1の各構成要素について説明する。   FIG. 1 is a block diagram showing a configuration of a digital video camera 1 according to Embodiment 1 of the present invention. As shown in the figure, the digital video camera 1 includes a digital signal processing circuit 10 (abbreviated as DSP in the figure), a CPU 20, SDRAM 30, an SD card 40, a display device 41 (abbreviated as LCD in the figure), an external information interface. 70 and an imaging module 50. Below, each component of the digital video camera 1 is demonstrated.

〈表示装置41〉
本実施形態の表示装置41は、液晶ディスプレイにより構成され、撮像した画像のプレビューや、デジタルビデオカメラ1の設定を行う際のメニュー表示や、いわゆるOSD(On Screen Display)に使用される。
<Display device 41>
The display device 41 of the present embodiment is configured by a liquid crystal display, and is used for a preview of a captured image, a menu display when setting the digital video camera 1, and a so-called OSD (On Screen Display).

〈撮像モジュール50〉
撮像モジュール50は、レンズ51、タイミングジェネレータ52、及びイメージセンサ53を備えている。レンズ51は、被写体からの光をイメージセンサ53上に結像させる。また、タイミングジェネレータ52は、イメージセンサ53を駆動するのに必要な制御信号を生成する。イメージセンサ53は、本発明の固体撮像装置の一例である。本実施形態のイメージセンサ53は、いわゆるMOSイメージセンサである。図示は省略するが、イメージセンサ53は、複数の画素が二次元状に配置された画素アレイを備えている。画素アレイでは、それぞれの画素が光電変換を行って、レンズ51からの入射光を電荷に変換している。そして、イメージセンサ53は、各画素の信号をA/D変換して撮像信号S1としてデジタル信号処理回路10へ出力する。なお、イメージセンサ53には2つの動作モードがある。一方の動作モードは、それぞれの画素からの信号(アナログ信号)をデジタル化した画素データで構成された画像(原画像データ)を撮像信号S1として出力する動作モードである。また、もう一方の動作モードは、複数の画素からの画素データを混合した混合画素データで構成された減数画像データを撮像信号S1として出力する動作モード(以下、画素混合モード)である。
<Imaging Module 50>
The imaging module 50 includes a lens 51, a timing generator 52, and an image sensor 53. The lens 51 forms an image of light from the subject on the image sensor 53. The timing generator 52 generates a control signal necessary to drive the image sensor 53. The image sensor 53 is an example of a solid-state imaging device of the present invention. The image sensor 53 of this embodiment is a so-called MOS image sensor. Although illustration is omitted, the image sensor 53 includes a pixel array in which a plurality of pixels are two-dimensionally arranged. In the pixel array, each pixel performs photoelectric conversion to convert incident light from the lens 51 into electric charge. Then, the image sensor 53 performs A / D conversion on the signal of each pixel and outputs it to the digital signal processing circuit 10 as an imaging signal S1. The image sensor 53 has two operation modes. One operation mode is an operation mode in which an image (original image data) configured by pixel data obtained by digitizing a signal (analog signal) from each pixel is output as the imaging signal S1. The other operation mode is an operation mode (hereinafter referred to as pixel mixture mode) in which reduced image data composed of mixed pixel data obtained by mixing pixel data from a plurality of pixels is output as the imaging signal S1.

〈SDRAM30〉
SDRAM30は、デジタル信号処理回路10での信号処理(後述)において、処理中の信号(データ)を一時的に保持するためなどに使用される記録媒体である。
<SDRAM 30>
The SDRAM 30 is a recording medium used for temporarily holding a signal (data) being processed in signal processing (described later) in the digital signal processing circuit 10.

〈デジタル信号処理回路10(DSP)〉
デジタル信号処理回路10は、メモリコントローラ11、レベル検出部12、YC処理部13、圧縮処理部14、及びデジタル信号処理部15を備え、イメージセンサ53からの出力(撮像信号S1)を処理する。デジタル信号処理回路10は、本発明の信号処理部の一例である。
<Digital signal processing circuit 10 (DSP)>
The digital signal processing circuit 10 includes a memory controller 11, a level detection unit 12, a YC processing unit 13, a compression processing unit 14, and a digital signal processing unit 15, and processes an output (imaging signal S1) from the image sensor 53. The digital signal processing circuit 10 is an example of a signal processing unit of the present invention.

-メモリコントローラ11-
メモリコントローラ11は、レベル検出部12、YC処理部13、圧縮処理部14、及びデジタル信号処理部15(以下これらの各部を総称して機能ブロックと呼ぶ)のそれぞれと、SDRAM30との間のデータの転送(SDRAM30からの読出しや書き込み)を行う。デジタル信号処理回路10では、それぞれの機能ブロックにおける処理に必要な画素数分の撮像信号S1が揃うまで、SDRAM30に撮像信号S1を書き込むことで保持する。そして、必要な画素数分の撮像信号S1が揃うと、メモリコントローラ11は適宜必要に応じ、SDRAM30から撮像信号S1を読み出し、撮像信号S1を必要とする機能ブロックに出力する。また、デジタルビデオカメラ1では、撮像信号S1だけでなく、YC処理部13で処理されることで得られる輝度信号や色信号(R,G,Bの各信号)、さらには圧縮処理部14で処理されることで得られる符号データ等もSDRAM30に記録される。そのため、メモリコントローラ11は、これらの種類のデータや信号の読出しや書き込みも行う。
-Memory controller 11-
The memory controller 11 includes data between the level detection unit 12, the YC processing unit 13, the compression processing unit 14, and the digital signal processing unit 15 (hereinafter, these units are collectively referred to as function blocks) and the SDRAM 30. Transfer (reading or writing from the SDRAM 30). In the digital signal processing circuit 10, the imaging signal S <b> 1 is written and held in the SDRAM 30 until the imaging signals S <b> 1 corresponding to the number of pixels necessary for processing in each functional block are prepared. When the imaging signals S1 corresponding to the required number of pixels are prepared, the memory controller 11 reads the imaging signal S1 from the SDRAM 30 as necessary and outputs the imaging signal S1 to the function block that requires the imaging signal S1. In the digital video camera 1, not only the image pickup signal S 1 but also luminance signals and color signals (R, G, and B signals) obtained by being processed by the YC processing unit 13, and further, the compression processing unit 14 Code data and the like obtained by processing are also recorded in the SDRAM 30. Therefore, the memory controller 11 also reads and writes these types of data and signals.

-レベル検出部12-
レベル検出部12は、撮像信号S1のレベルを検出し、該撮像信号S1のレベルをCPU20に通知する。詳しくは、このレベル検出部12は、撮像モジュール50から出力される撮像信号S1について、イメージセンサ53の画面全体、或いは一部分の平均値等から、撮像信号S1のレベルを算出し、その算出結果をCPU20に通知する。
-Level detector 12-
The level detection unit 12 detects the level of the imaging signal S1, and notifies the CPU 20 of the level of the imaging signal S1. Specifically, the level detection unit 12 calculates the level of the imaging signal S1 from the entire screen of the image sensor 53 or an average value of a part of the imaging signal S1 output from the imaging module 50, and calculates the calculation result. The CPU 20 is notified.

-YC処理部13-
YC処理部13は、撮像信号S1に対して実際に信号処理を行う機能ブロックである。具体的に、YC処理部13は、所定の画像処理用のパラメータを用いて、同時化、フィルタリング処理、周波数補正等を行うとともに、輝度信号と色差信号(以下これらの信号をまとめてYC信号S2と呼ぶ)を生成する。YC信号S2は、本発明の画像信号の一例である。なお、デジタル信号処理回路10は、前記YC信号S2の代わりに、画像信号として、色信号や、イメージセンサ53に入射した光に応じたレベル出力などを取り扱うように構成してもよい。
-YC processing unit 13-
The YC processing unit 13 is a functional block that actually performs signal processing on the imaging signal S1. Specifically, the YC processing unit 13 performs synchronization, filtering processing, frequency correction, and the like using predetermined image processing parameters, and also performs luminance signals and color difference signals (hereinafter these signals are collectively referred to as YC signal S2). Is called). The YC signal S2 is an example of the image signal of the present invention. The digital signal processing circuit 10 may be configured to handle a color signal, a level output corresponding to light incident on the image sensor 53, or the like as an image signal instead of the YC signal S2.

デジタルビデオカメラ1では、複数種類の前記パラメータを記憶したテーブル(パラメータテーブル)が用意されており、YC処理部13は、CPU20の制御に応じ、パラメータテーブル内のパラメータを用いて撮像信号S1に信号処理を行う。このパラメータテーブルでは、複数種類の撮像シーンのそれぞれに対して前記パラメータが対応付けられている。実施形態1での撮像シーンとは撮像が行われる文化圏を意味し、パラメータテーブルには、地域(文化圏)とその地域に適したパラメータが対応付けられている。パラメータテーブルをこのような構成にするのは、文化圏によって好まれる画質(色再現など)が異なる傾向にあるからである。例えば、日本向けの画像処理では肌を血色がよい色合い(この地域では健康的と考えられている)に仕上げた画像が好まれる場合が多い。しかしながら、アメリカ等ではそのような色再現は好まれない場合が多いので、地域毎に、当該地域で好まれる画像処理を行うパラメータをパラメータテーブルに設定する。なお、パラメータテーブルは、YC処理部13が保持しておいてもよいし、CPU20が保持したり、不揮発性の記憶媒体を別途設けて保持したりすることが可能である。   In the digital video camera 1, a table (parameter table) storing a plurality of types of the parameters is prepared, and the YC processing unit 13 uses the parameters in the parameter table as a signal to the imaging signal S1 under the control of the CPU 20. Process. In the parameter table, the parameter is associated with each of a plurality of types of imaging scenes. The imaging scene in the first embodiment means a cultural area where imaging is performed, and the parameter table associates a region (cultural area) with a parameter suitable for the region. The reason why the parameter table is configured as described above is that the image quality (color reproduction, etc.) preferred by the cultural sphere tends to be different. For example, in image processing for Japan, it is often preferred to use an image in which the skin is finished in a brilliant shade (which is considered healthy in this region). However, in the United States and the like, such color reproduction is often not preferred. Therefore, for each region, a parameter for performing image processing that is preferred in the region is set in the parameter table. The parameter table may be held by the YC processing unit 13, or may be held by the CPU 20 or may be held by separately providing a non-volatile storage medium.

-圧縮処理部14-
圧縮処理部14は、YC信号S2(輝度信号や色差信号)を所定のフォーマットに従って圧縮する。具体的には、例えば、静止画ならばJPEGのフォーマットに従い、動画ならばH.264等のフォーマットに従ってデータ量の圧縮を行う。
-Compression processing unit 14-
The compression processing unit 14 compresses the YC signal S2 (luminance signal and color difference signal) according to a predetermined format. Specifically, for example, according to the JPEG format for still images and H.264 for moving images. The amount of data is compressed according to a format such as H.264.

-デジタル信号処理部15-
デジタル信号処理部15は、画角サイズの調整のための拡大縮小処理(いわゆるズーム処理)、傷補正、照明光色温度検出等のデジタルビデオカメラとしての動作に必要な信号処理を行う。さらに、デジタル信号処理部15は、装着されているSDカード40に対して、データの読み込み及び書き出しを行う。また、さらに、デジタル信号処理部15は、表示媒体であるLCD41に対してプレビュー等の画像を表示する。
-Digital signal processor 15-
The digital signal processing unit 15 performs signal processing necessary for operation as a digital video camera, such as enlargement / reduction processing (so-called zoom processing) for adjusting the angle of view, flaw correction, and illumination light color temperature detection. Further, the digital signal processing unit 15 reads and writes data from and on the SD card 40 that is mounted. Further, the digital signal processing unit 15 displays an image such as a preview on the LCD 41 which is a display medium.

〈SDカード40〉
SDカード40は、YC信号S2(画像信号)を所定のフォーマットで記録するとともに、地図情報を格納した記録媒体である。本実施形態では、SDカード40には、SDメモリーカードを採用している。勿論、SDカード40には、他の種類の記録媒体の採用が可能である。
<SD card 40>
The SD card 40 is a recording medium that records the YC signal S2 (image signal) in a predetermined format and stores map information. In the present embodiment, an SD memory card is adopted as the SD card 40. Of course, other types of recording media can be used for the SD card 40.

〈外部情報インターフェース70〉
外部情報インターフェース70は、本発明の情報取得部の一例であり、撮像シーンを推定するための推定用情報S4を取得する。本実施形態では、外部情報インターフェース70には、計時機能とカレンダー機能を有して日時情報(時刻及び日付)を出力する時計80と、位置情報を取得するための全地球測位システム81(図1ではGPSと略記)とが接続され、推定用情報S4として日時情報と位置情報(以下、これらの情報を含め、外部情報インターフェース70に入力される情報を外部情報ともよぶ)を取得し、取得したこれらの情報をCPU20に送信するようになっている。なお、時計80は、カレンダー機能を有しており、現在の日付の情報も外部情報インターフェース70に出力する。
<External information interface 70>
The external information interface 70 is an example of the information acquisition unit of the present invention, and acquires estimation information S4 for estimating a captured scene. In this embodiment, the external information interface 70 has a clock function and a calendar function, and outputs a date and time information (time and date) 80, and a global positioning system 81 (FIG. 1) for acquiring position information. The GPS is abbreviated as GPS), and the date and time information and the position information (hereinafter, the information input to the external information interface 70 is also referred to as external information) are obtained as the estimation information S4. These pieces of information are transmitted to the CPU 20. Note that the clock 80 has a calendar function, and outputs the current date information to the external information interface 70.

〈CPU20〉
CPU20は、本発明の制御部の一例であり、撮像動作の制御や、デジタル信号処理回路10における信号処理の制御を行う。例えば撮影時には、CPU20は、デジタルビデオカメラ1がユーザの期待する動作を実現するのに必要な制御信号を、撮像モジュール50(イメージセンサ53)、及びデジタル信号処理回路10の各機能ブロックに出力する。例えば、CPU20は、イメージセンサ53から原画像データ、及び減数画像データの何れを出力するかの切り替えを制御する。また、CPU20は、撮影者がデジタルビデオカメラ1を購入した直後に行った電源投入により、デジタル信号処理回路10や撮像モジュール50の初期設定を行う。なお、初期設定については後に詳述する。
<CPU 20>
The CPU 20 is an example of a control unit of the present invention, and performs control of imaging operation and signal processing in the digital signal processing circuit 10. For example, at the time of shooting, the CPU 20 outputs a control signal necessary for the digital video camera 1 to realize an operation expected by the user to each functional block of the imaging module 50 (image sensor 53) and the digital signal processing circuit 10. . For example, the CPU 20 controls switching between output of original image data and reduced image data from the image sensor 53. Further, the CPU 20 performs initial settings of the digital signal processing circuit 10 and the imaging module 50 by turning on the power immediately after the photographer purchases the digital video camera 1. The initial setting will be described in detail later.

CPU20がこのような撮像動作や信号処理の制御等を行えるようにするため、CPU20には、レリーズボタンやデジタルビデオカメラ1の動作を設定するための信号(外部入力S3)が外部から入力されると共に、外部情報インターフェース70からの情報(推定用情報S4)も入力されている。CPU20は、これらの情報を適宜利用して前記制御を行うのである(詳細な動作は後述)。なお、デジタルビデオカメラ1では、前記第1の動作モードと第2の動作モードの切換を外部入力S3により行う。   In order to enable the CPU 20 to perform such an imaging operation and signal processing control, a signal for setting the release button and the operation of the digital video camera 1 (external input S3) is input to the CPU 20 from the outside. At the same time, information (estimation information S4) from the external information interface 70 is also input. The CPU 20 uses the information as appropriate to perform the control (detailed operation will be described later). In the digital video camera 1, switching between the first operation mode and the second operation mode is performed by an external input S3.

《デジタルビデオカメラ1の動作》
〈動作の概要〉
デジタルビデオカメラ1で撮影を行うと、被写体からの光は、レンズ51を通してイメージセンサ53に入光し、イメージセンサ53上の画素において光電変換される。CPU20は、このときの露光量の制御や撮像モジュール50の動作モードの制御などの撮像動作の制御を行う。イメージセンサ53は、光電変換した信号を撮像信号S1としてデジタル信号処理回路10へ出力する。また、CPU20は、所定の制御信号をメモリコントローラ11やデジタル信号処理回路10の各機能ブロックに出力する。これにより、メモリコントローラ11がSDRAM30への撮像信号S1の書き込みや、SDRAM30からの読み出し行い、レベル検出部12、YC処理部13、圧縮処理部14、デジタル信号処理部15、SDカード40、LCD41に対して、信号の入出力が実現される。また、デジタル信号処理回路10では、YC処理部13が、CPU20の制御に応じて、入力された撮像信号S1に所定の信号処理を行い、処理結果であるYC信号S2(画像信号)を、記録媒体として装着されているSDカード40に記録したり、表示媒体であるLCD41に表示したりする。
<< Operation of Digital Video Camera 1 >>
<Overview of operation>
When shooting is performed with the digital video camera 1, light from the subject enters the image sensor 53 through the lens 51 and is photoelectrically converted in the pixels on the image sensor 53. The CPU 20 controls the imaging operation such as the exposure amount control and the operation mode control of the imaging module 50 at this time. The image sensor 53 outputs the photoelectrically converted signal to the digital signal processing circuit 10 as an imaging signal S1. Further, the CPU 20 outputs a predetermined control signal to each functional block of the memory controller 11 and the digital signal processing circuit 10. As a result, the memory controller 11 writes the image signal S1 to the SDRAM 30 and reads it from the SDRAM 30 to the level detection unit 12, the YC processing unit 13, the compression processing unit 14, the digital signal processing unit 15, the SD card 40, and the LCD 41. On the other hand, signal input / output is realized. In the digital signal processing circuit 10, the YC processing unit 13 performs predetermined signal processing on the input imaging signal S <b> 1 under the control of the CPU 20, and records the YC signal S <b> 2 (image signal) as a processing result. The data is recorded on the SD card 40 mounted as a medium or displayed on the LCD 41 which is a display medium.

ここで、外部入力S3によって第2の動作モードが選択されている場合には、CPU20は、外部情報インターフェース70を介して取得した推定用情報(外部情報)を使用せず、例えば被写体から得られる情報やユーザの設定にしたがって、前記撮像動作の制御やデジタル信号処理回路10における信号処理の制御を行う。   Here, when the second operation mode is selected by the external input S3, the CPU 20 does not use the estimation information (external information) acquired via the external information interface 70, and is obtained from, for example, a subject. Control of the imaging operation and signal processing in the digital signal processing circuit 10 are performed according to information and user settings.

〈第1の動作モード(外部情報を用いた画像処理)〉
次に、デジタルビデオカメラ1の特徴である、外部情報を用いた画像処理、すなわち第1の動作モードについて説明する。デジタルビデオカメラ1では、ユーザが購入の直後に行った電源投入によりCPU20が初期設定を行う。具体的には、CPU20は、GPS81から得た外部情報を基に初期設定時の位置情報(初期位置情報)を記録する。また、CPU20は、SDカード40に格納されている地図情報と前記初期位置情報とを照合してユーザ(撮影者)の言語圏に適切な言語を選択し、デジタルビデオカメラ1の設定を行う際にユーザが使用するメニューの言語等に使用する。また、CPU20は、前記パラメータテーブルから前記初期位置情報に対応した画像処理用パラメータを選択し、選択結果(制御信号)を該YC処理部13に送信する。すなわち、CPU20は、前記初期位置情報に基づいて、撮影者の文化圏(撮像シーン)を推定するのである。さらに、CPU20は、GPS81から得た時間情報と、初期位置情報を基に、デジタルビデオカメラ1の時計80に、撮影者の現地時間と日時の設定を行う。
<First operation mode (image processing using external information)>
Next, image processing using external information, that is, a first operation mode, which is a feature of the digital video camera 1, will be described. In the digital video camera 1, the CPU 20 performs an initial setting when the user turns on the power immediately after purchase. Specifically, the CPU 20 records position information at the time of initial setting (initial position information) based on external information obtained from the GPS 81. Further, the CPU 20 collates the map information stored in the SD card 40 with the initial position information, selects a language appropriate for the user's (photographer) language sphere, and sets the digital video camera 1. Used for the menu language used by the user. Further, the CPU 20 selects an image processing parameter corresponding to the initial position information from the parameter table, and transmits a selection result (control signal) to the YC processing unit 13. That is, the CPU 20 estimates the photographer's cultural area (imaging scene) based on the initial position information. Further, the CPU 20 sets the photographer's local time and date / time in the clock 80 of the digital video camera 1 based on the time information obtained from the GPS 81 and the initial position information.

初期設定の後、撮影者が外部入力S3を介してシャッタ押下による撮影をデジタルビデオカメラ1に通知することで、デジタルビデオカメラ1では、静止画、或いは動画の撮影が行われる。その際にCPU20は、前記初期位置情報から選択した画像処理用のパラメータをYC処理部13に通知する。YC処理部13はそのパラメータにしたがって、撮像信号S1に対して、同時化、フィルタリング処理、周波数補正等を行ってYC信号S2(画像信号)を出力する。   After the initial setting, the photographer notifies the digital video camera 1 of shooting by pressing the shutter via the external input S3, so that the digital video camera 1 takes a still image or a moving image. At that time, the CPU 20 notifies the YC processing unit 13 of the image processing parameters selected from the initial position information. In accordance with the parameters, the YC processing unit 13 performs synchronization, filtering processing, frequency correction, and the like on the imaging signal S1 and outputs a YC signal S2 (image signal).

《本実施形態における効果》
以上のように、デジタルビデオカメラ1では、初期設定時の位置情報に基づいて、画像処理用のパラメータが選択される。すなわち、デジタルビデオカメラ1では、撮影者が画像処理方法を一々選択する必要がない。そして、CPU20が選択した画像処理用のパラメータは、撮影者の文化圏に対応しているので、撮影者にとって好ましいと考えられる色再現を行った画像処理結果(YC信号S2)を得ることが可能になる。すなわち、本実施形態によれば、撮影者に煩雑な操作を要求することなく、容易に好ましい画像処理結果を得る環境を提供することが可能になる。
<< Effect in this embodiment >>
As described above, in the digital video camera 1, the parameter for image processing is selected based on the position information at the time of initial setting. That is, in the digital video camera 1, the photographer does not need to select an image processing method one by one. Since the image processing parameters selected by the CPU 20 correspond to the photographer's cultural sphere, it is possible to obtain an image processing result (YC signal S2) obtained by performing color reproduction that is considered preferable for the photographer. become. That is, according to the present embodiment, it is possible to provide an environment in which a preferable image processing result can be easily obtained without requiring a complicated operation from the photographer.

《実施形態1の変形例》
〈1〉前記初期位置情報は不揮発性の記憶媒体に保持しておく形態でもよい。このようにすれば、撮影者が誤った操作によりデジタルビデオカメラ1に対して意図しない初期設定動作を実施した際に、初期位置情報を修復できる。そして、このように初期位置情報を保護することで、誤った画像処理用のパラメータが選択されるのを防止することが可能になり、YC処理部13による信号処理が好ましくない画像処理結果となることを回避することが可能になる。
<< Modification of Embodiment 1 >>
<1> The initial position information may be stored in a nonvolatile storage medium. In this way, the initial position information can be restored when the photographer performs an unintended initial setting operation on the digital video camera 1 due to an erroneous operation. By protecting the initial position information in this way, it is possible to prevent selection of an incorrect image processing parameter, and the signal processing by the YC processing unit 13 results in an unfavorable image processing result. It becomes possible to avoid that.

〈2〉また、初期位置情報を手動で設定する仕組みを別途設けておいてもよい。このようにすれば、例えば、電源投入時に設定された初期位置情報が遠隔地で破損した場合等でも、撮影者が正しい初期位置情報を再設定することが可能になる。さらに、撮影結果を他の文化圏の鑑賞者に提示することを意図して、意図的に鑑賞者の位置情報を、初期位置情報とすることで、鑑賞者にとって好ましい画像処理が行われた画像を提示することが可能になる。   <2> A mechanism for manually setting the initial position information may be provided separately. This makes it possible for the photographer to reset the correct initial position information even when, for example, the initial position information set when the power is turned on is damaged at a remote location. Furthermore, an image that has been subjected to image processing preferable for the viewer by intentionally presenting the shooting result to viewers in other cultural areas and intentionally using the viewer's location information as initial location information. Can be presented.

また、初期位置情報に加えてさらに複数の位置情報を記憶できるようにし、画像処理を行う際に、YC処理部13に対して記憶した位置情報に対応した画像処理用のパラメータを必要な種類だけ通知し、それぞれ別個のパラメータで処理した画像信号を2種類以上保存するようにしてもよい。このようにすることで、撮影者以外の鑑賞者が複数存在するような場合に、それぞれの鑑賞者に対して好ましい画像処理結果(画像信号)を提供することが可能になる。また、保存する2種類以上の画像処理結果が、例えば静止画であるような場合は、公知のマルチピクチャーフォーマット(CIPAの提唱規格)のような複数枚数の静止画を一つのファイルとしてあつかえるファイルフォーマットにしてまとめてもよい。   Further, in addition to the initial position information, a plurality of pieces of position information can be stored. When performing image processing, only necessary types of parameters for image processing corresponding to the position information stored in the YC processing unit 13 are used. Two or more types of image signals that have been notified and processed with different parameters may be stored. In this way, when there are a plurality of viewers other than the photographer, it is possible to provide a preferable image processing result (image signal) to each viewer. In addition, when two or more types of image processing results to be stored are, for example, still images, a file format that can handle a plurality of still images as a single file, such as a known multi-picture format (a standard proposed by CIPA). It may be put together.

また、2種類以上の画像処理結果を保存する代わりに、例えば画像データのビット精度が十分大きいデータを1種類保存しておいて、画像の再生や、画像データの移動時に、所望の位置情報に対応した画像処理パラメータで再度処理しなおすようにしてもよい。また、撮影結果のデータをRawデータとして保存しておいて、初期位置情報を付加情報として、鑑賞者が鑑賞に使用する機器に通知し、再生時に画像処理を行うような形態であってもよい。このようにすれば、デジタルビデオカメラ1内に保存しておく画像のデータサイズを小さくすることが可能になるので、画像のデータを保存するための記憶媒体(例えばSDカード40)を有効に活用することが可能になる。   Also, instead of storing two or more types of image processing results, for example, one type of data with sufficiently high bit accuracy of the image data is stored, and the desired position information is obtained when the image is reproduced or moved. The processing may be performed again with the corresponding image processing parameter. Alternatively, the image data may be stored as raw data, the initial position information may be used as additional information, and the viewer may notify the device used for viewing, and image processing may be performed during playback. . This makes it possible to reduce the data size of the image stored in the digital video camera 1, so that a storage medium (for example, the SD card 40) for storing the image data can be used effectively. It becomes possible to do.

〈3〉地図情報は、SDカード40に記録する代わりに、デジタルビデオカメラ1内に別途ROM等を用意し、そこに地図情報を記録する形態としてもよい。デジタルビデオカメラ1内に地図情報を記録する場合は、精度が荒い地図情報としておいてもよい。こうすることで、使用する内部のメモリサイズの軽減し、コストの増大を低減できる。また、SDカード40に地図情報を記憶させるような場合でも、使用する記憶容量の軽減のために、精度が荒い地図情報としておいてもよい。   <3> Instead of recording the map information on the SD card 40, a separate ROM or the like may be prepared in the digital video camera 1, and the map information may be recorded there. When the map information is recorded in the digital video camera 1, the map information may have rough accuracy. By doing so, the internal memory size to be used can be reduced and the increase in cost can be reduced. Further, even when the map information is stored in the SD card 40, the map information may be rough in order to reduce the storage capacity used.

また、デジタルビデオカメラ1内部と外部記録媒体であるSDカード40の両方に地図情報を記憶させる形態であってもよい。このような場合は、デジタルビデオカメラ1内には精度の荒い地図情報を記憶しておき、外部記録媒体であるSDカード40には、予め撮影者が撮影を想定している地域の詳細な地図情報を記憶しておくようにすれば、必要な地図情報の精度を確保しつつ、地図情報により消費される記憶容量の軽減を図ることが可能になる。   Further, the map information may be stored in both the digital video camera 1 and the SD card 40 which is an external recording medium. In such a case, rough digital map information is stored in the digital video camera 1, and the SD card 40, which is an external recording medium, stores a detailed map of the area that the photographer assumes in advance. If the information is stored, it is possible to reduce the storage capacity consumed by the map information while ensuring the accuracy of the necessary map information.

〈4〉例えばカナダのように、複数の言語圏(複数の公用語)が存在するような場合は、複数の言語を選択できるようにしておいてもよい。また、複数の言語圏の中間に位置するような場合には、複数の言語圏の言語を組み合わせたものの中から選択できるようにしてもよい。このようにすれば、撮影者にとって、より使いやすい環境を提供することが可能になる。また、言語選択が行われる前のOSDには、位置情報の取得等の初期設定が完了するまで例えば砂時計を表示するなど、言語に依存せず直感的に判断することが可能なアイコンを表示することで、待ち時間による撮影者のストレスを軽減することが可能になる。   <4> For example, when there are a plurality of language zones (a plurality of official languages) as in Canada, a plurality of languages may be selected. Further, in the case of being located in the middle of a plurality of language areas, it may be possible to select from a combination of languages of a plurality of language areas. This makes it possible to provide an environment that is easier for the photographer to use. In addition, an icon that can be intuitively determined without depending on the language is displayed on the OSD before language selection is performed, for example, an hourglass is displayed until initial setting such as acquisition of position information is completed. Thus, it becomes possible to reduce the photographer's stress due to the waiting time.

〈5〉前記パラメータテーブルには、想定される全ての地域のパターンを保持しておいてもよいし、基準位置に対して離散的にそのパラメータを保持しておくようにして、初期設定時の位置情報と離散的に保持されているパラメータの基準位置の情報から画像処理用のパラメータを算出するようにしておいてもよい。例えば、距離に応じた重み付け加算等が演算のコストや実装の面などからも好適である。基準位置は、地図情報に対して等間隔に保持されていてもよいし、人口の多い地域のみ保持しておいてもよいし、人口の密度に応じた間隔で保持されていてもよい。   <5> In the parameter table, patterns of all assumed regions may be held, or the parameters may be held discretely with respect to the reference position, so The parameters for image processing may be calculated from the position information and information on the reference positions of the parameters that are discretely held. For example, weighted addition according to the distance is suitable from the viewpoint of calculation cost and mounting. The reference positions may be held at regular intervals with respect to the map information, may be held only in areas with a large population, or may be held at intervals according to the density of the population.

《発明の実施形態2》
次に本発明の実施形態2に係るデジタルビデオカメラについて説明する。実施形態2のデジタルビデオカメラは、実施形態1のデジタルビデオカメラ1と同様に第1及び第2の動作モードを有しているが、第1の動作モードでは、前記外部情報によりデジタルビデオカメラにおける撮像の制御を行うという点で実施形態1のデジタルビデオカメラ1と相違している。具体的に本実施形態のデジタルビデオカメラは、撮像に人工光源が使用されていることが推定される場合に人工光源の種類の推定を行い、その推定結果に基づいて撮像の制御を行う。本実施形態でも撮影を行う基本機能に関しては実施形態1のデジタルビデオカメラと同様なので、以下では実施形態1のデジタルビデオカメラ1との差異についてのみ説明を行なう。
<< Embodiment 2 of the Invention >>
Next, a digital video camera according to Embodiment 2 of the present invention will be described. The digital video camera according to the second embodiment has the first and second operation modes similarly to the digital video camera 1 according to the first embodiment. In the first operation mode, the digital video camera uses the external information in the digital video camera. This is different from the digital video camera 1 of the first embodiment in that imaging control is performed. Specifically, the digital video camera of the present embodiment estimates the type of artificial light source when it is estimated that an artificial light source is used for imaging, and controls imaging based on the estimation result. In this embodiment, the basic function for shooting is the same as that of the digital video camera of the first embodiment, so only the difference from the digital video camera 1 of the first embodiment will be described below.

本実施形態のCPU20は、第1の動作モードにおいて、撮像時の光源を推定するとともに、推定結果に基づいて、ストロボ(補助発光装置)の発光、露光時間、レンズ51の絞りの開放量(絞り値)、イメージセンサ53の動作モード、ISO感度などの撮像の制御を行うようになっている。CPU20は、光源の種類の推定を以下のように行う。例えば、屋内などにおいて、GPS81が測位用の衛星と通信が不可能な状況においては、GPS81から位置情報を得ることができない。このような場合は、撮影者が室内などの、自然光ではなく人工光源が被写体に対して支配的な照明光となっている位置に存在することが推定できる。人工光源は地域により種類に偏りが存在する傾向があるので、撮影位置が分かれば、照明光の測定によって人工光源を推定する方法と比べ、人工光源の種類をより正確かつ素早く推定することが可能になる。具体的には、本実施形態のCPU20は、位置情報と日時情報とを所定の間隔で記憶するようになっており、記憶したこれらの情報と、現在の位置情報及び日時情報を用いて撮像時の光源の種類を推定する。   In the first operation mode, the CPU 20 of the present embodiment estimates the light source at the time of imaging, and based on the estimation result, the light emission of the strobe (auxiliary light emitting device), the exposure time, and the opening amount of the aperture of the lens 51 (aperture) Value), the operation mode of the image sensor 53, ISO sensitivity, and the like. The CPU 20 estimates the type of light source as follows. For example, in a situation where the GPS 81 cannot communicate with a positioning satellite indoors, position information cannot be obtained from the GPS 81. In such a case, it can be estimated that the photographer is present at a position such as indoors where the artificial light source is the dominant illumination light rather than the natural light. Artificial light sources tend to be biased by type, so if you know the shooting position, you can estimate the type of artificial light source more accurately and quickly than the method of estimating artificial light sources by measuring illumination light. become. Specifically, the CPU 20 of the present embodiment stores position information and date / time information at a predetermined interval, and at the time of imaging using the stored information, current position information and date / time information. Estimate the type of light source.

例えば、GPS81が測位用の衛星と通信が不可能な状況になって撮影者が室内、或いは自然光ではなく人工光源が被写体に対して支配的な照明光となっている位置に存在することが推定できる場合には、CPU20は、測位用の衛星とのリンクがGPS81において失われる直前の時間情報と、実際に撮影が行われる際の時間情報と比較を行う。比較の結果、2つの時間情報の間隔が十分広い場合には、CPU20は、公知の技術である、イメージセンサ53や照明光色温度を測定するデバイスを使用した照明光の測定を行う。また、2つの時間情報の間隔が十分狭い場合には、測位用の衛星とのリンクが失われる直前の位置と、撮影者の現在の位置が大きく離れていないことが推定できる。そこで、CPU20は、撮像信号に基づいた光源推定とともに、測位用の衛星とのリンクが失われる直前の位置情報を使用して光源推定を行う。撮像信号に基づいた光源推定では、例えば被写体の無彩色の部分を推定し、無彩色と推定された部分が無彩色になるように画像処理用パラメータを算出する。また、直前の位置情報を使用した光源推定では、その地域(位置情報)における人工照明の使用傾向に基づいて光源推定を行って画像処理用パラメータを算出する。そして、使用される人工照明の種類に特色を有した地域で撮影された場合には、直前の位置情報を使用した光源推定の結果を優先的に採用する。具体的には、直前の位置情報を使用した光源推定の結果寄りに重みをつけた画像処理用パラメータを用いて信号処理を行う。撮像信号に基づいた光源推定のみでは、例えば、蛍光灯下で撮影した赤い被写体か、白熱球下で撮影した無彩色の被写体かの判断が難しい場合があるが、撮像信号に基づいての光源推定を行いつつ、直前の位置情報を使用した光源推定の方に重みをつけることで、より好ましい画像信号が得られるのである。例えば、白熱球の多い地域(例えばアメリカ等)で撮影が行われたと推定された場合には、直前の位置情報を使用した光源推定の結果を優先的に採用し、白熱球が光源であると推定する。同様に、電化の進んでいない地域などで撮影が行われたと推定された時は、蝋燭や自然光の漏れこみなどを光源として推定する。このように本実施形態では、光源の推定結果を精度よく、かつ早く出すことが可能になる。   For example, it is estimated that the GPS 81 cannot communicate with the positioning satellite and the photographer is present indoors or in a position where the artificial light source is the dominant illumination light rather than the natural light. If possible, the CPU 20 compares the time information immediately before the link with the positioning satellite is lost in the GPS 81 with the time information when the shooting is actually performed. As a result of the comparison, when the interval between the two pieces of time information is sufficiently wide, the CPU 20 measures the illumination light using the image sensor 53 or a device for measuring the illumination light color temperature, which is a known technique. If the interval between the two pieces of time information is sufficiently narrow, it can be estimated that the position immediately before the link with the positioning satellite is lost and the current position of the photographer are not far apart. Therefore, the CPU 20 performs light source estimation using position information immediately before the link with the positioning satellite is lost, together with light source estimation based on the imaging signal. In the light source estimation based on the imaging signal, for example, an achromatic portion of the subject is estimated, and image processing parameters are calculated so that the portion estimated to be an achromatic color becomes an achromatic color. In the light source estimation using the immediately preceding position information, the image processing parameters are calculated by performing the light source estimation based on the usage tendency of the artificial illumination in the area (position information). And when it image | photographed in the area | region which has the special color in the kind of artificial lighting used, the result of the light source estimation using the last positional information is preferentially employ | adopted. Specifically, signal processing is performed using image processing parameters weighted closer to the result of light source estimation using the immediately preceding position information. For example, it may be difficult to determine whether the subject is a red subject photographed under a fluorescent lamp or an achromatic subject photographed under an incandescent bulb, but it is difficult to determine the light source based on the image signal. A more preferable image signal can be obtained by weighting the light source estimation using the immediately preceding position information while performing the above. For example, if it is estimated that shooting was performed in an area with many incandescent bulbs (for example, the United States, etc.), the result of light source estimation using the immediately preceding position information is preferentially adopted, and the incandescent bulb is the light source. presume. Similarly, when it is estimated that shooting was performed in an area where electrification has not progressed, a light source such as a candle or a leak of natural light is estimated. As described above, in the present embodiment, it is possible to accurately and quickly obtain the light source estimation result.

また、測位用の衛星とのリンクが失われていない場合には、撮影者が屋外に存在することが推定できる。この場合には、撮影時の時間情報を使用することで、自然光用の照明光色温度を推定することができる。例えば、朝焼け時、日中、夕焼け等時間帯に応じた照明光の推定を行う。また、日没より明らかに遅い時間であれば、ストロボ発光を推奨したり、或いはシャッタスピードを制御してイメージセンサ53の露光時間を延長したり、レンズ51の絞りの開放量を調整したり、イメージセンサ53の画素を混合して読み出すことで高感度撮影を行ったり、ISO感度を上げるようにOSDによりLCD41に表示して撮影者に通知したりすることで、撮影者が好ましい撮影結果が得られるように露光量の制御の補助を行う。   If the link with the positioning satellite is not lost, it can be estimated that the photographer is outdoors. In this case, the illumination light color temperature for natural light can be estimated by using time information at the time of photographing. For example, the illumination light is estimated according to the time zone such as sunrise, daytime, and sunset. If the time is clearly later than sunset, strobe light emission is recommended, the shutter speed is controlled to extend the exposure time of the image sensor 53, the aperture of the lens 51 is adjusted, A high-sensitivity shooting is performed by mixing and reading out the pixels of the image sensor 53, or a photographer can obtain a preferable shooting result by displaying on the LCD 41 with the OSD so as to increase the ISO sensitivity and notifying the photographer. To assist in controlling the exposure amount.

《本実施形態における効果》
以上のように、本実施形態では、位置情報や日時情報に基づいて、撮影時の人工光源の種類や自然光の状態を効率的に推定することが可能になる。すなわち、本実施形態のデジタルビデオカメラでは、種々の撮像シーン(この例では、撮影時の人工光源の種類や自然光の状態)において、より最適な撮像の制御が行われる。したがって、本実施形態によれば、撮影者に煩雑な操作を要求することなく、容易に好ましい画像処理結果を得る環境を提供することが可能になる。
<< Effect in this embodiment >>
As described above, in the present embodiment, it is possible to efficiently estimate the type of artificial light source and the state of natural light at the time of shooting based on position information and date / time information. That is, in the digital video camera of this embodiment, more optimal imaging control is performed in various imaging scenes (in this example, the type of artificial light source and the state of natural light at the time of shooting). Therefore, according to the present embodiment, it is possible to provide an environment for easily obtaining a preferable image processing result without requiring a complicated operation from the photographer.

《実施形態2の変形例》
〈1〉実施形態2では測位用の衛星とのリンクが失われる直前の時間情報と実際に撮影が行われる時間情報の2つの時間情報の間隔によって、2つの推定方法(地域による推定と、イメージセンサ53等を用いた推定(測定))を切り替える形態としたが、両方の方法で推定を行い、前記2つの時間間隔に応じてそれぞれの推定結果に重みを付けて推定する形態でもよい。
<< Modification of Embodiment 2 >>
<1> In the second embodiment, there are two estimation methods (estimation by region and image) depending on the interval between two pieces of time information: time information immediately before the link with the positioning satellite is lost and time information actually taken. (Estimation (measurement)) using the sensor 53 or the like is switched. However, estimation may be performed by both methods, and estimation may be performed by weighting each estimation result according to the two time intervals.

〈2〉光源が蛍光灯であると推定される場合には、フリッカ補正を行うために商用電源の周波数の推定を行ってもよい。例えば、商用電源が50Hz地帯と60Hz地帯であるかどうかを位置情報により推定すれば、イメージセンサ53の露光時間の制御を、商用電源が50Hz地帯用の制御にするか、60Hz地帯用の制御にするかを容易に切り替えることが可能になる。   <2> When it is estimated that the light source is a fluorescent lamp, the frequency of the commercial power source may be estimated in order to perform flicker correction. For example, if it is estimated from the position information whether the commercial power source is a 50 Hz zone or a 60 Hz zone, the exposure time of the image sensor 53 is controlled for the 50 Hz zone or the control for the 60 Hz zone. It becomes possible to switch easily.

〈3〉測位用の衛星とのリンクが失われる直前の位置情報と、再度測位用の衛星とリンクが確立できた位置情報の距離に応じて、CPU20がデジタルビデオカメラの制御を行ってもよい。例えば、2つの距離が十分離れており、航空機を使用した移動が推定された場合は、高高度にデジタルビデオカメラが存在していたことにより、α線の影響でイメージセンサ53の光電変換部(画素)が破壊されている可能性がある。そこで、再度測位用の衛星とリンクが確立できた時点で、イメージセンサ53の欠陥画素検出と登録を行い、撮影の際の画像処理時に欠陥画素として補正を行うような形態としてもよい。   <3> The CPU 20 may control the digital video camera according to the distance between the position information immediately before the link with the positioning satellite is lost and the position information with which the link with the positioning satellite can be established again. . For example, if the two distances are sufficiently far apart and movement using an aircraft is estimated, the photoelectric conversion unit of the image sensor 53 (due to the influence of α rays due to the presence of a digital video camera at a high altitude. Pixel) may be destroyed. In view of this, it is possible to detect and register the defective pixel of the image sensor 53 at the time when the link with the positioning satellite is established again, and to correct the defective pixel at the time of image processing at the time of photographing.

《発明の実施形態3》
次に実施形態3に係るデジタルビデオカメラについて説明する。実施形態3のデジタルビデオカメラは、GPS81等の測位による位置情報を取得する手段を持たないという点が実施形態1のデジタルビデオカメラ1と相違している。なお、実施形態1のデジタルビデオカメラ1と同様に第1及び第2の動作モードを有し、撮影を行う基本機能に関しては、実施形態1のデジタルビデオカメラと同様である。以下では、デジタルビデオカメラ1との差異を中心に説明を行なう。
<< Embodiment 3 of the Invention >>
Next, a digital video camera according to Embodiment 3 will be described. The digital video camera according to the third embodiment is different from the digital video camera 1 according to the first embodiment in that the digital video camera according to the third embodiment has no means for acquiring position information obtained by positioning such as GPS81. Note that the first and second operation modes are provided in the same manner as the digital video camera 1 of the first embodiment, and the basic functions for performing shooting are the same as those of the digital video camera of the first embodiment. Below, it demonstrates focusing on the difference with the digital video camera 1. FIG.

本実施形態においては、外部情報インターフェース70には、GPS81は接続されていないが、その代わりに、デジタルビデオカメラのバッテリー(不図示)に搭載されている認識タグから読み取られた情報が通信されている。CPU20は、外部情報インターフェース70を介して前記認識タグの情報を取得し、前記初期位置情報の設定を行うようになっている。バッテリーに搭載されている認識タグには、バッテリー固体の識別情報の他に、バッテリーを販売する地域の情報が予め埋め込まれており、撮影者が撮影時にバッテリーを着用(交換)した時点で、バッテリーを販売する地域の情報を外部情報インターフェース70が取得しCPU20に通知する。CPU20は、第1の動作モードにおいて、前記パラメータテーブルの中から、該当地域に相当する画像処理用のパラメータを選択してYC処理部13に通知し、YC処理部13は、そのパラメータに基づいて画像処理を行う。   In the present embodiment, the GPS 81 is not connected to the external information interface 70, but instead, information read from a recognition tag mounted on a battery (not shown) of the digital video camera is communicated. Yes. The CPU 20 acquires the information of the recognition tag via the external information interface 70 and sets the initial position information. The identification tag mounted on the battery is pre-embedded with information on the area where the battery is sold, in addition to the identification information of the battery solid, and when the photographer wears (replaces) the battery at the time of shooting, the battery The external information interface 70 acquires information on the area where the product is sold and notifies the CPU 20 of the information. In the first operation mode, the CPU 20 selects an image processing parameter corresponding to the corresponding area from the parameter table and notifies the YC processing unit 13 of the image processing parameter, and the YC processing unit 13 is based on the parameter. Perform image processing.

《本実施形態における効果》
以上のように、本実施形態では撮影時の位置情報をリアルタイムに更新する手段を持たないが、バッテリーに備えられている認識タグの情報に基づいて、撮影者に好ましい処理結果を得ることが可能になる。すなわち、本実施形態によれば、測位にコストをかけずに、且つ撮影者に煩雑な操作を要求することなく、容易に好ましい画像処理結果を得る環境を提供することが可能になる。
<< Effect in this embodiment >>
As described above, in this embodiment, there is no means for updating the position information at the time of shooting in real time, but it is possible to obtain a processing result preferable for the photographer based on the information of the recognition tag provided in the battery. become. That is, according to the present embodiment, it is possible to provide an environment in which a preferable image processing result can be easily obtained without costing positioning and without requiring a complicated operation from the photographer.

《実施形態3の変形例》
〈1〉バッテリーに付属した認識タグのほかにも、例えば、デジタルビデオカメラに接続される各種の機器である、レンズや、フラッシュなどの外部光源などに情報タグが供えられている場合には、その情報タグの情報を使用して位置情報を取得してもよい。また、複数の地域が検出された場合は、最も多いものを初期設定時の位置情報としてもよい。さらに、撮影時に直接接続される機器ではなく、パーソナルコンピュータ等からも情報を取得する形態であってもよい。
<< Modification of Embodiment 3 >>
<1> In addition to the identification tag attached to the battery, for example, when an information tag is provided on an external light source such as a lens or a flash, which are various devices connected to the digital video camera, The position information may be acquired using the information of the information tag. Further, when a plurality of areas are detected, the largest number may be used as position information at the time of initial setting. Furthermore, the information may be acquired from a personal computer or the like instead of a device directly connected at the time of shooting.

〈2〉位置情報は、初期設定時に取得するほかに、バッテリーを充電する際(例えば、デジタルビデオカメラに外部電源を接続した時点)に接続される商用電源によって、現在の撮影位置を推定するようにしてもよい。この場合は、バッテリーの認識タグの情報に、充電される毎に更新される記憶領域を備えておき、接続される商用電源の種類を判定して、その情報を充電される毎に更新される記憶領域に対して書き込むようにしておく。そして、外部情報インターフェース70は、デジタルビデオカメラにバッテリーが接続される際に、初期設定時の位置情報と合わせて、充電される毎に更新される記憶領域から情報をCPU20に通知するようにしておく。また、CPU20は、商用電源から位置情報を推定し、推定した位置情報から撮影者に好ましい画像処理用のパラメータを選択し、選択したパラメータを制御信号としてYC処理部13に通知する。なお、CPU20は、充電される毎に更新される記憶領域から得られた情報に基づいて、被写体の照明などの撮影条件を推定する形態としてもよい。   <2> The position information is acquired at the time of initial setting, and the current shooting position is estimated by a commercial power source connected when the battery is charged (for example, when an external power source is connected to the digital video camera). It may be. In this case, the information of the battery recognition tag is provided with a storage area that is updated each time it is charged, and the type of commercial power source to be connected is determined, and this information is updated each time it is charged. Write to the storage area. Then, when the battery is connected to the digital video camera, the external information interface 70 notifies the CPU 20 of information from the storage area that is updated each time the battery is charged together with the position information at the time of initial setting. deep. Further, the CPU 20 estimates position information from the commercial power source, selects a parameter for image processing that is preferable for the photographer from the estimated position information, and notifies the YC processing unit 13 of the selected parameter as a control signal. Note that the CPU 20 may be configured to estimate shooting conditions such as illumination of a subject based on information obtained from a storage area that is updated each time the battery is charged.

《発明の実施形態4》
次に実施形態4に係るデジタルビデオカメラについて説明する。実施形態4のデジタルビデオカメラは、デジタルビデオカメラが携帯電話の機能の一部として組み込まれている点で実施形態1のデジタルビデオカメラ1と相違している。本実施形態のデジタルビデオカメラも、実施形態1のデジタルビデオカメラ1と同様に第1及び第2の動作モードを有し、撮影を行う機能に関しては、デジタルビデオカメラ1と同様なので、以下差異についてのみ説明を行なう。
<< Embodiment 4 of the Invention >>
Next, a digital video camera according to Embodiment 4 will be described. The digital video camera of the fourth embodiment is different from the digital video camera 1 of the first embodiment in that the digital video camera is incorporated as part of the function of the mobile phone. Similarly to the digital video camera 1 of the first embodiment, the digital video camera of the present embodiment also has the first and second operation modes, and the functions for performing shooting are the same as those of the digital video camera 1, and therefore the following differences will be described. Only the explanation will be given.

本実施形態では、外部情報インターフェース70には、前記携帯電話が基地局と通信した情報が入力されている。一般的に基地局と通信した情報には、位置を示す情報が含まれている。本実施形態のCPU20は、外部情報インターフェース70を通じて撮影者の位置情報を確認する。例えば、屋内などにおいて、基地局から通知される、基地局の位置情報を用いて撮影時の位置情報を取得するのである。特に基地との通信が、屋内用のリピータ等により実現している場合には、デジタルビデオカメラの動作を、実施の形態2に示したような屋内の撮影用の処理に切り替えを行う。   In the present embodiment, the external information interface 70 is inputted with information that the mobile phone communicates with the base station. In general, information indicating a position is included in information communicated with a base station. The CPU 20 of this embodiment confirms the photographer's position information through the external information interface 70. For example, the position information at the time of shooting is acquired using the position information of the base station notified from the base station indoors. In particular, when communication with the base is realized by an indoor repeater or the like, the operation of the digital video camera is switched to the processing for indoor shooting as shown in the second embodiment.

《本実施形態における効果》
以上のように、本実施形態では位置情報を検出する手段をデジタルビデオカメラ内に設けることなく、位置情報を得ることができ、撮影者に好ましい処理結果を得ることが可能になる。すなわち、本実施形態によれば、測位にコストをかけずに、且つ撮影者に煩雑な操作を要求することなく、容易に好ましい画像処理結果を得る環境を提供することが可能になる。
<< Effect in this embodiment >>
As described above, in this embodiment, position information can be obtained without providing a means for detecting position information in the digital video camera, and a processing result preferable for the photographer can be obtained. That is, according to the present embodiment, it is possible to provide an environment in which a preferable image processing result can be easily obtained without costing positioning and without requiring a complicated operation from the photographer.

《実施形態4の変形例》
〈1〉携帯電話から得られる情報が屋内用のリピータからのものである場合には、設置されている施設を識別可能な場合があるので、その施設で多用されている光源を被写体の照明光として推定してもよい。また、施設内であれば、特定のエリアにおいて、撮影自体を行えないように、CPU20で制御を行ってもよいし、或いは圧縮処理部14において画像データを圧縮する際の圧縮率を極端に上げることで、意図的に被写体が認識しにくい撮影結果を得るようにしてもよい。また、施設内の特定のエリアにおいて、外部発光装置の発光制御やシャッタ音の音量を制御するような形態であってもよい。
<< Modification of Embodiment 4 >>
<1> If the information obtained from the mobile phone is from an indoor repeater, the installed facility may be identifiable, so the light source frequently used in the facility is used as the illumination light of the subject. May be estimated. Further, if it is in a facility, the CPU 20 may perform control so that photographing cannot be performed in a specific area, or the compression rate when the compression processing unit 14 compresses image data is extremely increased. In this way, it is possible to intentionally obtain a photographing result that makes it difficult for the subject to be recognized. Moreover, the form which controls the light emission control of an external light-emitting device and the volume of a shutter sound in the specific area in a facility may be sufficient.

〈2〉また、前記基地局を経由してインターネットに接続することで得られる情報を用いて撮像の制御や信号処理の制御を行ってもよい。例えば、ある特定の被写体が撮影できるような場所であると推定できる場合は、その情報をLCD41上にOSDで表示してもよいし、撮影のタイミングを通知してもよい。特に、被写体が撮影可能な状態になるタイミングが事前に判明しているような場合は、撮影タイミングの通知だけではなく、そのタイミングに合わせて撮影を行ったり、そのタイミングの一定期間前から周期的に撮影を行ったり、被写体を認識して撮影を行ったりするような形態であってもよい。被写体の認識に合わせて、レンズ51の合焦度を制御する場合には、撮像信号S1から得られる高周波成分の検波結果のみ、或いは、撮影者の位置と被写体の大まかな位置から得られる大まかな距離と前記検波結果とを組み合わせて、レンズ51の焦点距離を制御するとよい。このようにすることで、レンズ51の焦点距離を迅速、かつ正確に行うことが可能になる。   <2> Further, imaging control and signal processing control may be performed using information obtained by connecting to the Internet via the base station. For example, when it can be estimated that a certain subject can be photographed, the information may be displayed on the LCD 41 as an OSD, or the photographing timing may be notified. In particular, when the timing at which a subject is ready for shooting is known in advance, not only shooting timing notification but also shooting at that timing or periodic shooting from a certain period before that timing It is also possible to take a picture or to take a picture by recognizing the subject. When controlling the degree of focus of the lens 51 in accordance with the recognition of the subject, only a result of detection of the high-frequency component obtained from the imaging signal S1, or a rough result obtained from the photographer's position and the rough position of the subject. The focal length of the lens 51 may be controlled by combining the distance and the detection result. By doing so, the focal length of the lens 51 can be quickly and accurately performed.

〈3〉静止画を撮影するような場合は、撮影間隔が大きくなることが多いので、動画データと撮影しておき、撮影者が撮影結果の動画データから所望のコマを抜き出すような形態としてもよいし、動画データの所望のコマの前後の動画データを使用して解像度を改善した静止画を得られる形態としてもよい。また、撮影タイミングだけでなく、他の撮影者が事前に撮影した際の撮影パラメータを基地局との通信を通じて、デジタルビデオカメラに通知して画像処理を行う形態としてもよい。こうすることで、撮影者が撮影に関して高い技術や知識を有していなくても、より好ましい撮影結果を得ることが可能になる。   <3> When shooting a still image, the shooting interval is often large. Therefore, it is possible to take a video and video, and the photographer extracts a desired frame from the video data of the shooting result. Alternatively, a still image with improved resolution may be obtained using moving image data before and after a desired frame of moving image data. Furthermore, not only the shooting timing but also a mode in which image processing is performed by notifying the digital video camera of shooting parameters when other shooting is performed in advance through communication with the base station. By doing so, it is possible to obtain a more preferable shooting result even if the photographer does not have high technology or knowledge regarding shooting.

〈4〉また、基地局から通信されてくる情報に、日時情報を取得するための時計80と、位置情報を取得するためのGPS81との情報を組み合わせて、デジタルビデオカメラの撮像の制御を行ってもよい。例えば、天候情報などが基地局を通じて通知される場合は、通知された晴天、曇天、雨天などの天候情報に基づいて、被写体の光源を推定してもよい。特に、撮影場所が、位置情報、時間情報、日付の情報(時計80のカレンダー機能)、天候情報等から夏の浜辺や冬の雪山等と推定できる場合においては、イメージセンサ53に入射する光量の制御を調整するような形態であってもよい。また、天候情報などから得られる温度の情報に基づいて、事前にイメージセンサ53に傷を登録した際の温度情報と大きく異なる場合には、再度イメージセンサ53の傷情報を登録しておくようにしておいてもよい。こうすることで、高温時に顕著化するイメージセンサ53の傷やノイズの劣化等に対応することが可能になる。また、YC処理部13に備えられているノイズ低減のためのノイズリダクション用の画像処理の強度(具体的には、画像処理用パラメータの設定)を温度情報に応じて変化させる形態であってもよい。   <4> Also, the information communicated from the base station is combined with the information of the clock 80 for acquiring the date and time information and the GPS 81 for acquiring the position information to control the imaging of the digital video camera. May be. For example, when the weather information is notified through the base station, the light source of the subject may be estimated based on the notified weather information such as clear sky, cloudy weather, and rainy weather. In particular, when the shooting location can be estimated as a summer beach, a snowy mountain in winter, etc. from position information, time information, date information (calendar function of the clock 80), weather information, etc., the amount of light incident on the image sensor 53 is reduced. It may be a form that adjusts the control. Further, if the temperature information is greatly different from the temperature information when the scratch is registered in the image sensor 53 based on the temperature information obtained from the weather information or the like, the scratch information of the image sensor 53 is registered again. You may keep it. By doing so, it becomes possible to deal with scratches, noise degradation, and the like of the image sensor 53 that become prominent at high temperatures. Further, the intensity of noise reduction image processing for noise reduction (specifically, setting of image processing parameters) provided in the YC processing unit 13 may be changed according to temperature information. Good.

〈5〉また、撮影する場所をデジタルビデオカメラに事前に設定しておくことで、撮影場所に撮影者が位置した場合に、自動的に撮影を開始してもよいし、リマインダーとして撮影者に撮影のポイントであることを通知するようにしてもよい。さらに、事前に登録された撮影の場所と天気予報などの情報と組み合わせることで、より好ましい撮影結果を得るために撮影時に必要な機材である、レンズや光学フィルタなどを事前に撮影者に対して通知する形態であってもよい。   <5> Also, by setting the shooting location in the digital video camera in advance, when the photographer is located at the shooting location, shooting may be started automatically, or as a reminder to the photographer. You may make it notify that it is a point of imaging | photography. Furthermore, in combination with pre-registered shooting location and information such as weather forecasts, lenses and optical filters, which are equipment necessary for shooting to obtain more favorable shooting results, are provided to the photographer in advance. It may be in the form of notification.

〈6〉また、光学手振れ補正に使用されるジャイロ(不図示)と、位置情報と時間情報を組み合わせる方式であってもよい、例えば、空を撮影するような場合、ジャイロにより画角が空を向いているのか、人物などの地上の被写体の撮影をしているのかを判別できる。また、時間と位置が分かれば、夕焼けか、青空か、夜空かを判定することが可能になるので、例えば、画像処理において夕焼けの赤い色や青空の青い色などを保持するような画像処理を実現してもよい。例えば、夜空を撮影するような場合は、基地局から通知される情報から、星座等の情報を撮影者に通知したり、デジタルビデオカメラの露光方法を長時間露光に切り替えたりしてもよい。特に、露光方法を長時間露光に切り替えたような場合は、暗電流成分の蓄積やイメージセンサ53の傷が顕著になるので、イメージセンサ53の傷などを補正するためのデータを生成し、画像処理の際に使用する形態であってもよい。暗電流成分とイメージセンサ53の傷を補正するためのデータは、具体的には、長時間露光撮影の前あるいは後に、暗電流成分を補正するためにシャッタを閉じた状態で長時間の撮影を行ったデータを取得して生成しておくとよい。また、撮影対象が樹木であるのか否か、人工の建築物が占める割合などを推定してもよい。   <6> In addition, a gyro (not shown) used for optical camera shake correction may be combined with position information and time information. For example, when shooting the sky, the angle of view is cleared by the gyro. It is possible to determine whether the subject is facing or shooting a ground subject such as a person. In addition, if the time and position are known, it is possible to determine whether the sunset, blue sky, or night sky. For example, image processing that retains the red color of the sunset or the blue color of the blue sky in image processing, for example. It may be realized. For example, when shooting the night sky, information such as a constellation may be notified to the photographer from information notified from the base station, or the exposure method of the digital video camera may be switched to long exposure. In particular, when the exposure method is switched to long exposure, accumulation of dark current components and scratches on the image sensor 53 become prominent. Therefore, data for correcting the scratches on the image sensor 53 is generated, and the image It may be in the form used for processing. Specifically, the data for correcting the dark current component and the flaws of the image sensor 53 can be taken for a long time with the shutter closed to correct the dark current component before or after the long exposure shooting. It is advisable to obtain and generate the data you have done. Moreover, you may estimate whether the imaging | photography object is a tree, the ratio for which an artificial building accounts, etc.

《発明の実施形態5》
次に実施形態5に係るデジタルビデオカメラについて説明する。本実施形態のデジタルビデオカメラは、位置情報の取得タイミングが前記の各実施形態や変形例とは異なっている。ただし、本実施形態のデジタルビデオカメラも、実施形態1のデジタルビデオカメラ1と同様に第1及び第2の動作モードを有し、撮影を行う基本機能に関してはデジタルビデオカメラ1等と同様である。すなわち、第1の動作モードでは、CPU20が外部情報インターフェース70から得られる情報により、画像処理用のパラメータ設定に加え、デジタルビデオカメラの動作制御も行う。具体的には、外部情報インターフェース70には、日時情報を取得するための時計80と、位置情報を取得するためのGPS81とが接続されており、日時情報と位置情報がCPU20に通信されている。また、実施形態4のデジタルビデオカメラのように、基地局との通信手段を有しており、外部情報インターフェース70には、基地局と通信した情報が通知されている。CPU20は、第1の動作モードでは、基地局と通信した情報も利用して画像処理用のパラメータ設定と動作制御を行う。すなわち、CPU20は、基地局との通信により得られた情報に対応した動作をデジタルビデオカメラが行うように制御信号を生成するのである。
<< Embodiment 5 of the Invention >>
Next, a digital video camera according to Embodiment 5 will be described. The digital video camera of the present embodiment is different in position information acquisition timing from the above-described embodiments and modifications. However, the digital video camera according to the present embodiment also has the first and second operation modes like the digital video camera 1 according to the first embodiment, and the basic functions for performing shooting are the same as those of the digital video camera 1 and the like. . In other words, in the first operation mode, the CPU 20 performs operation control of the digital video camera in addition to image processing parameter setting based on information obtained from the external information interface 70. Specifically, the external information interface 70 is connected to a clock 80 for acquiring date / time information and a GPS 81 for acquiring position information, and the date / time information and position information are communicated to the CPU 20. . Further, like the digital video camera of the fourth embodiment, it has means for communicating with the base station, and the external information interface 70 is notified of information communicated with the base station. In the first operation mode, the CPU 20 performs parameter setting and operation control for image processing using information communicated with the base station. That is, the CPU 20 generates a control signal so that the digital video camera performs an operation corresponding to information obtained by communication with the base station.

次に、本実施形態の特徴である位置情報の取得タイミングについて説明する。本実施形態では、外部情報インターフェース70は、撮影時の位置情報の取得を、撮影時のシャッタ押下のタイミングではなく、予め撮影者が設定したタイミングで行うようになっている。GPS81等の測位手段は、実際の位置を測定するための計算が煩雑なため、デジタルビデオカメラに搭載したGPS81では、性能不足やバッテリーの残量保護のための省エネルギー動作のため、リアルタイムでその情報を取得するのが難しい場合が想定される。そこで、本実施形態では、外部情報インターフェース70は、予め撮影者が設定したタイミングで周期的に位置情報を取得してCPU20に通知し、CPU20は、第1の動作モードでは、周期的に外部情報インターフェース70から通知される位置情報に基づいて画像処理や動作の制御を行う。   Next, position information acquisition timing, which is a feature of the present embodiment, will be described. In the present embodiment, the external information interface 70 acquires position information at the time of shooting not at the timing of pressing the shutter at the time of shooting but at the timing set by the photographer in advance. Positioning means such as GPS81 have a complicated calculation for measuring the actual position. Therefore, GPS81 mounted on the digital video camera has its information in real time for energy saving operation for performance deficiency and battery remaining protection. The case where it is difficult to acquire is assumed. Therefore, in the present embodiment, the external information interface 70 periodically acquires position information at a timing preset by the photographer and notifies the CPU 20 of the position information, and the CPU 20 periodically acquires the external information in the first operation mode. Based on the position information notified from the interface 70, image processing and operation control are performed.

《本実施形態における効果》
以上のように、本実施形態では撮影時の位置情報をリアルタイムに更新しないため、バッテリーの消費量を抑えることが可能になる。また、GPS81の性能不足によって、撮影時にリアルタイムに測位ができないような場合にも、位置情報に基づいた画像処理や動作の制御が可能になる。
<< Effect in this embodiment >>
As described above, according to the present embodiment, the position information at the time of shooting is not updated in real time, so that it is possible to reduce battery consumption. Also, image processing and operation control based on position information can be performed even when positioning cannot be performed in real time at the time of shooting due to insufficient performance of the GPS 81.

《実施形態5の変形例》
なお、位置情報の取得の周期は一定でもよいし、例えば、撮影の頻度をカウントしておき、単位時間あたりの撮影回数が所定の回数を超えた場合に、位置情報を取得する周期を短くし、単位時間当たりの撮影回数が所定の回数を下回った場合は、予め撮影者が設定した周期を限度に、位置情報を取得する周期を長くする形態であってもよい。
<< Modification of Embodiment 5 >>
The position information acquisition cycle may be constant. For example, the frequency of shooting is counted, and when the number of shooting times per unit time exceeds a predetermined number, the cycle of acquiring position information is shortened. When the number of photographings per unit time is less than a predetermined number, the period for acquiring the position information may be extended up to the period preset by the photographer.

《発明の実施形態6》
次に実施形態6に係るデジタルビデオカメラについて説明する。実施形態6のデジタルビデオカメラは、撮影時の位置情報の取得タイミングが前記の各実施形態や変形例とは異なっている。なお、本実施形態のデジタルビデオカメラも、実施形態1のデジタルビデオカメラ1と同様に第1及び第2の動作モードを有し、撮影を行う基本機能に関しては、実施形態1などのデジタルビデオカメラと同様である。本実施形態でも第1の動作モードでは、CPU20が外部情報インターフェース70から得られる情報により、画像処理用のパラメータ設定に加え、デジタルビデオカメラの動作制御も行う。また、実施形態4のデジタルビデオカメラのように、所定の基地局との通信手段を有しており、基地局と通信した情報も利用して画像処理用のパラメータ設定と動作制御を行う。具体的には、本実施形態においても、外部情報インターフェース70には、日時情報を取得するための時計80と、位置情報を取得するためのGPS81とが接続されており、日時情報と位置情報がCPU20に通信されている。さらに、外部情報インターフェース70には、基地局と通信した情報が通知され、CPU20は、基地局との通信により得られた情報に対応した動作をデジタルビデオカメラが行われるように制御信号を生成する。
Embodiment 6 of the Invention
Next, a digital video camera according to Embodiment 6 will be described. The digital video camera of Embodiment 6 differs from the above-described embodiments and modification examples in the position information acquisition timing at the time of shooting. Note that the digital video camera of the present embodiment also has the first and second operation modes like the digital video camera 1 of the first embodiment, and the basic functions for performing shooting are the digital video camera of the first embodiment and the like. It is the same. Also in this embodiment, in the first operation mode, the CPU 20 performs operation control of the digital video camera in addition to image processing parameter setting based on information obtained from the external information interface 70. Further, like the digital video camera of the fourth embodiment, it has means for communicating with a predetermined base station, and performs image processing parameter setting and operation control using information communicated with the base station. Specifically, also in this embodiment, the external information interface 70 is connected to a clock 80 for acquiring date / time information and a GPS 81 for acquiring position information. Communicating with the CPU 20. Further, the external information interface 70 is notified of information communicated with the base station, and the CPU 20 generates a control signal so that the digital video camera performs an operation corresponding to the information obtained by communication with the base station. .

次に、本実施形態の特徴である位置情報の取得タイミングについて説明を行なう。本実施形態では、撮影時の位置情報の取得を、撮影時のシャッタ押下のタイミングではなく、デジタルビデオカメラにより撮影された結果を再生する際に行う。具体的には、CPU20は、外部情報インターフェース70より通知された再生時の場所(例えば屋外や屋内)に応じて、最適な再生画像の色再現やγ補正等を行うようにする。例えば、再生時の環境において赤みの強い光源があるような場合は何もケアしなければ、赤みがかった状態で再生画像が鑑賞されることになるため、好ましい色の再現が行われているとはいえない。このような場合、鑑賞者は再生された画像に対して違和感を覚えることになる。そこで、CPU20は、再生時には、デジタル信号処理回路10に対して、赤色を弱くするような画像を再生するように画像処理パラメータの変更を指示する制御信号を通信する。   Next, position information acquisition timing, which is a feature of the present embodiment, will be described. In the present embodiment, acquisition of position information at the time of shooting is performed not when the shutter is pressed at the time of shooting but when the result shot by the digital video camera is played back. Specifically, the CPU 20 performs optimal color reproduction, γ correction, and the like of the reproduced image according to the reproduction location (for example, outdoors or indoors) notified from the external information interface 70. For example, if there is a light source with strong redness in the environment at the time of reproduction, if nothing is taken care of, the reproduced image will be viewed in a reddish state, so that preferable color reproduction is performed I can't say that. In such a case, the viewer will feel uncomfortable with the reproduced image. Therefore, at the time of reproduction, the CPU 20 communicates a control signal for instructing the digital signal processing circuit 10 to change the image processing parameter so as to reproduce an image that weakens red.

《本実施形態における効果》
以上のように、本実施形態では、画像の再生時に、再生場所に応じた画像処理用のパラメータが選択される。それゆえ、本実施形態のデジタルビデオカメラでは、より好ましい色再現を実現することが可能になる。すなわち、本実施形態では、再生時や撮影結果の受け渡しにおいても、撮影環境に応じて、最適な再生画像の色再現を行うことが、撮影者に煩雑な操作を要求することなく可能になる。
<< Effect in this embodiment >>
As described above, in the present embodiment, the parameter for image processing corresponding to the reproduction location is selected when the image is reproduced. Therefore, the digital video camera according to the present embodiment can realize more preferable color reproduction. That is, in the present embodiment, it is possible to perform optimal color reproduction of a reproduced image according to the photographing environment without requiring a complicated operation even during reproduction or delivery of a photographing result.

《実施形態6の変形例》
〈1〉なお、再生時にもデジタルビデオカメラの撮影機能を駆動させて、再生環境における撮像データを撮影して、再生環境における照明光の状況を判断するための補助として使用する形態であってもよい。
<< Modification of Embodiment 6 >>
<1> Note that, even during playback, the shooting function of the digital video camera may be driven to capture captured image data in the playback environment, and may be used as an aid for determining the state of illumination light in the playback environment. Good.

〈2〉他の撮像装置で撮影された結果を再生する際には、予めCPU20に対し、他の撮像装置の色再現のための色空間のプロファイル(例えば、AdobeRGBやsRGBなど)が通知されていると好適である。この場合、CPU20がそのプロファイルを元に、再生時の位置情報から得られた再生環境における照明光の状況を判断と組み合わせて、より好ましい色再現を行う形態であってもよい。   <2> When reproducing a result captured by another imaging apparatus, a color space profile (for example, AdobeRGB or sRGB) for color reproduction of the other imaging apparatus is notified to the CPU 20 in advance. It is preferable that In this case, the CPU 20 may perform more preferable color reproduction by combining the determination of the illumination light situation in the reproduction environment obtained from the position information at the time of reproduction based on the profile.

〈3〉再生時にLCD41以外の表示デバイス(外部表示デバイス)が接続される場合には、外部表示デバイスの色再現のための色空間のプロファイル(例えば、AdobeRGBやsRGBなど)が通知されていると好適である。   <3> When a display device (external display device) other than the LCD 41 is connected during playback, a color space profile (for example, AdobeRGB or sRGB) for color reproduction of the external display device is notified. Is preferred.

〈4〉位置情報は、デジタルビデオカメラに記録された撮像データを、他の記録媒体に移動、或いはコピーする際に取得する形態であってもよい。これは、撮影したデータを第三者の観察者に譲渡する際などに、撮影結果が第三者の観察者にとって、より好ましい色再現として再生できるように、撮影したデータの移動、或いはコピーの時点の位置情報をもとに再度画像処理されるという形態となる。なお、再度画像処理を行わずに、色変換を行うための変換テーブルや、色空間のプロファイルなどを、移動(或いはコピー)するデータに付加するような形態であってもよい。   <4> The position information may be acquired when moving or copying the imaging data recorded in the digital video camera to another recording medium. This is because when the captured data is transferred to a third party observer, the captured data can be moved or copied so that the captured result can be reproduced as a more preferable color reproduction for the third party observer. The image is processed again based on the position information at the time. It is also possible to add a conversion table for color conversion, a color space profile, or the like to the data to be moved (or copied) without performing image processing again.

本発明は、撮影者に煩雑な操作を要求することなく、より最適な画像処理方法を選択することが可能になるという効果を有し、動画や静止画を撮像する撮像システム等として有用である。   INDUSTRIAL APPLICABILITY The present invention has an effect that it is possible to select a more optimal image processing method without requiring a complicated operation from a photographer, and is useful as an imaging system that captures moving images and still images. .

1 デジタルビデオカメラ(撮像システム)
10 デジタル信号処理回路(信号処理部)
20 CPU(制御部)
53 イメージセンサ(固体撮像装置)
70 外部情報インターフェース(情報取得部)
80 時計
81 GPS(全地球測位システム)
S1 撮像信号
S2 YC信号(画像信号)
S4 推定用情報
1 Digital video camera (imaging system)
10 Digital signal processing circuit (signal processing unit)
20 CPU (control unit)
53 Image sensor (Solid-state imaging device)
70 External information interface (information acquisition unit)
80 Clock 81 GPS (Global Positioning System)
S1 imaging signal S2 YC signal (image signal)
S4 Information for estimation

Claims (8)

被写体から入射した光を撮像信号として出力する固体撮像装置を有した撮像システムにおいて、
前記撮像信号に信号処理を行った画像信号を生成する信号処理部と、
撮像シーンを推定するための推定用情報を取得する情報取得部と、
を備え、
前記推定用情報を用いて前記撮像シーンを推定し、推定した撮像シーンに応じて撮像の制御、及び前記信号処理部における信号処理の制御の少なくとも一方の制御を行うことを特徴とする撮像システム。
In an imaging system having a solid-state imaging device that outputs light incident from a subject as an imaging signal,
A signal processing unit that generates an image signal obtained by performing signal processing on the imaging signal;
An information acquisition unit for acquiring information for estimation for estimating the imaging scene;
With
An imaging system, wherein the imaging scene is estimated using the estimation information, and at least one of imaging control and signal processing control in the signal processing unit is performed according to the estimated imaging scene.
請求項1の撮像システムにおいて、
前記推定用情報を解析し、前記信号処理部の動作を制御する制御信号を生成する制御部を備え、
前記信号処理部は、前記制御信号により前記画像処理方法を選択することを特徴とする撮像装置。
The imaging system of claim 1.
A controller that analyzes the estimation information and generates a control signal for controlling the operation of the signal processor;
The image processing apparatus, wherein the signal processing unit selects the image processing method according to the control signal.
請求項1又は請求項2の撮像システムにおいて、
前記推定用情報は、位置情報、日時情報、天候情報、及び温度情報の少なくとも1つであることを特徴とする撮像システム。
The imaging system according to claim 1 or 2,
The estimation system is at least one of position information, date / time information, weather information, and temperature information.
請求項1又は請求項2の撮像システムにおいて、
前記制御部は、撮影時点、前記推定用情報が該撮像システムの外部から通知された時点、所定の周期的な間隔、該撮像システムに供給される電源を交換した時点、該撮像システムに外部電源を接続した時点、前記撮像データを再生した時点、及び前記撮像データを該撮像システムの外部に移動した時点の少なくとも1つのタイミングで、該推定用情報を該撮像システムに反映することを特徴とする撮像システム。
The imaging system according to claim 1 or 2,
The control unit includes an imaging power source, a time when the estimation information is notified from the outside of the imaging system, a predetermined periodic interval, a time when the power supplied to the imaging system is replaced, and an external power source for the imaging system. The estimation information is reflected in the imaging system at at least one of the timing when the image data is connected, the time when the imaging data is reproduced, and the time when the imaging data is moved outside the imaging system. Imaging system.
請求項1又は請求項2の撮像システムにおいて、
前記撮像の制御は、前記固体撮像装置の駆動方法、前記固体撮像装置上の欠陥画素の検出、前記欠陥画素の補正、露光量、ISO感度、シャッタスピード、レンズの絞り値、補助発光装置の発光、レンズの合焦、暗電流レベルの推定、暗電流成分の補正、照明光色温度の推定、照明光色温度の補正、前記信号処理部が使用する画像処理用のパラメータ画像信号生成処理用のパラメータ、前記画像信号のノイズリダクション用のパラメータ、撮影タイミング、撮影回数、被写体認識、撮像データの保存、及び撮像データを保存する際の圧縮率のうちの少なくとも一つであることを特徴とする撮像システム。
The imaging system according to claim 1 or 2,
The imaging control includes a driving method of the solid-state imaging device, detection of defective pixels on the solid-state imaging device, correction of the defective pixels, exposure amount, ISO sensitivity, shutter speed, lens aperture value, and light emission of the auxiliary light emitting device. Lens focusing, dark current level estimation, dark current component correction, illumination light color temperature estimation, illumination light color temperature correction, parameter image signal generation processing for image processing used by the signal processing unit The imaging is characterized by at least one of a parameter, a parameter for noise reduction of the image signal, shooting timing, number of shooting, subject recognition, saving of imaging data, and compression rate when saving imaging data system.
請求項1又は請求項2の撮像システムにおいて、
前記画像信号は、輝度信号、色差信号、色信号、及び前記固体撮像装置に入射した光に応じたレベル出力のうちの少なくとも1つであることを特徴とする撮像システム。
The imaging system according to claim 1 or 2,
The imaging system is characterized in that the image signal is at least one of a luminance signal, a color difference signal, a color signal, and a level output corresponding to light incident on the solid-state imaging device.
請求項1から請求項6のうちの何れか1つの撮像システムにおいて、
前記制御部は、前記推定用情報を用いて前記制御を行う第1の動作モードと、前記推定用情報を用いずに前記制御を行う第2の動作モードとを備え、前記第1の動作モードと前記第2の動作モードの切り替えが可能であることを特徴とする撮像システム。
In any one imaging system in Claim 1-6,
The control unit includes a first operation mode in which the control is performed using the estimation information, and a second operation mode in which the control is performed without using the estimation information. And the second operation mode can be switched.
請求項1から請求項7のうちの何れか1つの撮像システムにおいて、
前記情報取得部は、前記推定用情報を、全地球測位システム、時計、カレンダー、インターネット、及び通信先の基地局のうちの少なくとも1つから得ることを特徴とする撮像システム。
The imaging system according to any one of claims 1 to 7,
The information acquisition unit obtains the estimation information from at least one of a global positioning system, a clock, a calendar, the Internet, and a communication destination base station.
JP2010017709A 2010-01-29 2010-01-29 Imaging system Pending JP2011160026A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010017709A JP2011160026A (en) 2010-01-29 2010-01-29 Imaging system
PCT/JP2010/007307 WO2011092789A1 (en) 2010-01-29 2010-12-16 Image pickup system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010017709A JP2011160026A (en) 2010-01-29 2010-01-29 Imaging system

Publications (1)

Publication Number Publication Date
JP2011160026A true JP2011160026A (en) 2011-08-18

Family

ID=44318802

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010017709A Pending JP2011160026A (en) 2010-01-29 2010-01-29 Imaging system

Country Status (2)

Country Link
JP (1) JP2011160026A (en)
WO (1) WO2011092789A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015119401A (en) * 2013-12-19 2015-06-25 キヤノン株式会社 Imaging apparatus, control method of the same, and program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5017989B2 (en) * 2006-09-27 2012-09-05 ソニー株式会社 Imaging apparatus and imaging method
JP2008124885A (en) * 2006-11-14 2008-05-29 Sony Corp Imaging system, and imaging method
JP2008288723A (en) * 2007-05-15 2008-11-27 Panasonic Corp Imaging apparatus, imaging method, program, and integrated circuit

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015119401A (en) * 2013-12-19 2015-06-25 キヤノン株式会社 Imaging apparatus, control method of the same, and program

Also Published As

Publication number Publication date
WO2011092789A1 (en) 2011-08-04

Similar Documents

Publication Publication Date Title
JP5784704B2 (en) Digital camera system that detects indoor / outdoor scenes using GPS
US9165377B2 (en) Imaging apparatus with scene analysis
US20120188426A1 (en) Flash control for electronic rolling shutter
KR20090098197A (en) Digital photographing apparatus to control flash lighting, controlling method for the same, and recording medium which records the program for carrying the same method
JP2010081112A (en) Image processor, method of controlling the same, and program
JP2010098697A (en) Imaging device and imaging method
JP2009290694A (en) Imaging device
JP2006108759A (en) Imaging apparatus
JP2008085581A (en) Imaging apparatus
JP5311922B2 (en) Imaging apparatus and control method thereof
JP4842919B2 (en) Display device, photographing device, and display method
JP2005277957A (en) Imaging device
US10341604B2 (en) Camera system, camera, interchangeable lens, and storage medium storing control program for camera system thereon
WO2011092789A1 (en) Image pickup system
JP2013062711A (en) Photographing device, photographed image processing method, and program
US8547447B2 (en) Image sensor compensation
JP2006303967A (en) Imaging device and its control method
JP2007281532A (en) Apparatus and method for generating image data
JP2008180840A (en) Photographing device
JP2008005034A (en) System and method for setting photographic conditions, photographing condition providing server, and photographic device
JP2017092544A (en) Output control device, output control method and program
JP2008160406A (en) Photographing device
JP2008219128A (en) Photographing device
JP2007324888A (en) Camera, display control method and program
WO2016159107A1 (en) Digital camera and recording card for digital camera