JP2009290818A - Camera, camera control program, and photographing method - Google Patents

Camera, camera control program, and photographing method Download PDF

Info

Publication number
JP2009290818A
JP2009290818A JP2008144088A JP2008144088A JP2009290818A JP 2009290818 A JP2009290818 A JP 2009290818A JP 2008144088 A JP2008144088 A JP 2008144088A JP 2008144088 A JP2008144088 A JP 2008144088A JP 2009290818 A JP2009290818 A JP 2009290818A
Authority
JP
Japan
Prior art keywords
setting
shooting
photographing
image
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008144088A
Other languages
Japanese (ja)
Other versions
JP4645685B2 (en
Inventor
Makoto Watanabe
誠 渡邉
Hiroki Hosaka
浩紀 保坂
Yuichi Dainumata
裕一 大沼田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=40933185&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP2009290818(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2008144088A priority Critical patent/JP4645685B2/en
Priority to EP11005564.7A priority patent/EP2395745B1/en
Priority to EP09160706A priority patent/EP2131573B1/en
Priority to AT09160706T priority patent/ATE543332T1/en
Priority to US12/473,470 priority patent/US8149313B2/en
Priority to TW098117915A priority patent/TWI406564B/en
Priority to CN2009101639948A priority patent/CN101621628B/en
Priority to KR1020090048578A priority patent/KR101056103B1/en
Publication of JP2009290818A publication Critical patent/JP2009290818A/en
Priority to HK10104056.1A priority patent/HK1136728A1/en
Publication of JP4645685B2 publication Critical patent/JP4645685B2/en
Application granted granted Critical
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes

Abstract

<P>PROBLEM TO BE SOLVED: To eliminate disadvantages of both a full automatic camera and a manual camera. <P>SOLUTION: Once a photographic scene is decided, automatic parameters corresponding to the decided photographic scene are set, and respective portions are controlled according to the set automatic parameters (step S3). Further, a tag for manual setting corresponding to the photographic scene decided in the step S2 is superimposed and displayed on a through image (step S5). It is determined which of touches on tags is detected or not (step S9). Once a touch is detected, a manual parameter corresponding to the touched tag among the automatic parameters stored in a RAM in the step S3 is changed by one stage to be updated (step S13). When a shutter key is operated, primary photographic processing is carried out using the parameter updated and stored in the RAM in the step S13, and image data are recorded in a storing memory (step S23). <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、マニュアル設定された撮影条件で撮影を行うカメラ、カメラ制御プログラム及び撮影方法に関するものである。   The present invention relates to a camera that performs shooting under manually set shooting conditions, a camera control program, and a shooting method.

従来、撮影条件をオート設定して撮影を行う所謂フルオートカメラが提案されている。このフルオートカメラは、撮像素子から得られる被写体像に基づいて撮影シーンを判定し、この判定した撮影シーンに応じて当該カメラの撮影条件(撮影モード)を自動的に設定する。したがって、ユーザは撮影条件の設定操作に煩わされることなく、撮影シーンに応じた適切な撮影条件で撮影、記録を行うことができる(例えば、特許文献1参照。)。
特開2008−11289号公報
Conventionally, so-called full-auto cameras have been proposed in which shooting conditions are set automatically for shooting. This full-auto camera determines a shooting scene based on a subject image obtained from an image sensor, and automatically sets shooting conditions (shooting mode) of the camera according to the determined shooting scene. Therefore, the user can perform shooting and recording under appropriate shooting conditions according to the shooting scene without being bothered by the shooting condition setting operation (see, for example, Patent Document 1).
JP 2008-11289 A

しかしながら、フルオートカメラにあっては、前述のようにユーザは撮影条件の設定操作に煩わされることなく、撮影シーンに応じた適切な撮影条件で撮影を行うことができる反面、撮影条件にユーザの意図が全く反映されない。したがって、記録された画像もユーザの意図が全く反映されていない特性となってしまうデメリットが生ずる。
一方、このフルオートカメラの対極のカメラとして、マニュアルカメラが存在する。マニュアルカメラにおいては、撮影条件が全てマニュアル設定されることから、撮影条件にユーザの意図が如実に反映される。したがって、記録された画像もユーザの意図が如実に反映された特性とすることもできる。しかし、マニュアルカメラにあっては、ユーザ自身が撮影シーンを判断して撮影条件を全てマニュアル設定しなければならないことから、記録された画像にユーザの意図が如実に反映できる反面、ユーザは撮影条件の設定操作に煩わされるデメリットが生ずる。
However, in the case of a full-auto camera, the user can perform shooting under an appropriate shooting condition according to the shooting scene without being bothered by the shooting condition setting operation as described above. The intention is not reflected at all. Therefore, there is a demerit that the recorded image does not reflect the user's intention at all.
On the other hand, there is a manual camera as a camera opposite to the full-auto camera. In the manual camera, since all shooting conditions are set manually, the user's intention is reflected in the shooting conditions. Therefore, the recorded image can also have a characteristic that clearly reflects the user's intention. However, in the case of a manual camera, the user himself / herself must determine the shooting scene and manually set all shooting conditions. Therefore, while the user's intention can be reflected in the recorded image, the user can There is a disadvantage that is bothered by the setting operation.

本発明は、かかる従来の課題に鑑みてなされたものであり、フルオートカメラとマニュアルカメラのデメリットを共に解消したカメラ、カメラ制御プログラム及び撮影方法を提供することを目的とする。   The present invention has been made in view of such a conventional problem, and an object of the present invention is to provide a camera, a camera control program, and a photographing method in which the disadvantages of a full-auto camera and a manual camera are eliminated.

前記課題を解決するため請求項1記載の発明に係るカメラにあっては、被写体像に基づき撮影シーンを判定する撮影シーン判定手段と、この撮影シーン判定手段により判定された撮影シーンに応じた撮影条件をマニュアル設定するための設定メニューを表示手段に表示させる表示制御手段と、前記表示手段に表示された前記設定メニューに対するマニュアル操作に応じた撮影条件を設定する設定手段と、この設定手段により設定された撮影条件に従って前記被写体像を撮影する撮影手段と、を備えることを特徴とする。   In order to solve the above-mentioned problem, in the camera according to the first aspect of the present invention, a shooting scene determination unit that determines a shooting scene based on a subject image, and shooting according to the shooting scene determined by the shooting scene determination unit. Display control means for displaying a setting menu for manually setting conditions on the display means, setting means for setting photographing conditions according to manual operation for the setting menu displayed on the display means, and setting by this setting means Photographing means for photographing the subject image according to the photographing conditions.

また、請求項2記載の発明に係るカメラにあっては、前記設定手段は、前記判定手段により判定された撮影シーンに応じて撮影条件を設定するオート設定手段と、前記マニュアル操作に応じて撮影条件を設定するマニュアル設定手段とを備えることを特徴とする。   In the camera according to the second aspect of the present invention, the setting unit includes an auto setting unit that sets a shooting condition according to the shooting scene determined by the determination unit, and a shooting according to the manual operation. Manual setting means for setting conditions.

また、請求項3記載の発明に係るカメラにあっては、前記マニュアル設定手段は、前記オート設定手段より設定された撮影条件における前記設定メニューに対応する撮影条件を、前記マニュアル操作に応じて変更設定することを特徴とする。   Further, in the camera according to the invention of claim 3, the manual setting means changes the shooting condition corresponding to the setting menu in the shooting condition set by the auto setting means in accordance with the manual operation. It is characterized by setting.

また、請求項4記載の発明に係るカメラにあっては、前記マニュアル設定手段は、前記撮影条件を、前記マニュアル操作に応じて段階的に変更設定することを特徴とする。   In the camera according to the fourth aspect of the invention, the manual setting means changes and sets the photographing condition stepwise in accordance with the manual operation.

また、請求項5記載の発明に係るカメラにあっては、前記表示制御手段は、前記オート設定手段により設定された設定条件で前記撮影手段により撮影される被写体像を前記表示手段に表示させることを特徴とする。   In the camera according to the fifth aspect of the invention, the display control unit causes the display unit to display a subject image photographed by the photographing unit under the setting condition set by the auto setting unit. It is characterized by.

また、請求項6記載の発明に係るカメラにあっては、前記表示制御手段は、前記マニュアル設定手段により設定された撮影条件に従って前記撮影手段が撮影した第1の被写体像と、前記マニュアル設定手段により撮影条件が設定される前に設定されていた撮影条件に従って前記撮影手段が撮影した第2の被写体像とを前記表示手段に表示させることを特徴とする。   In the camera according to the sixth aspect of the present invention, the display control means includes a first subject image photographed by the photographing means in accordance with photographing conditions set by the manual setting means, and the manual setting means. The display means displays the second subject image photographed by the photographing means in accordance with the photographing conditions set before the photographing conditions are set.

また、請求項7記載の発明に係るカメラにあっては、前記判別手段は、前記撮影シーンにおける主要被写体を判別する被写体判別手段を更に備え、前記表示制御手段は、前記被写体判別手段により判別された主要被写体にリンクさせた表示形態で、前記設定メニューを表示させることを特徴とする。   In the camera according to the seventh aspect of the invention, the determination unit further includes a subject determination unit that determines a main subject in the shooting scene, and the display control unit is determined by the subject determination unit. The setting menu is displayed in a display form linked to the main subject.

また、請求項8記載の発明に係るカメラにあっては、人物の特徴を記憶した記憶手段を更に備え、前記被写体判別手段は、前記撮影シーンにおける被写体が前記記憶手段に記憶されている人物である場合、当該人物を前記主要被写体して判別することを特徴とする。   The camera according to the eighth aspect of the present invention further includes storage means for storing the characteristics of a person, and the subject determination means is a person whose subject in the shooting scene is stored in the storage means. In some cases, the person is identified as the main subject.

また、請求項9記載の発明に係るカメラにあっては、前記表示手段に表示される設定メニューは、対応する撮影条件で撮影された場合の画像の特性を表記したものを含むことを特徴とする。   In the camera according to the ninth aspect of the invention, the setting menu displayed on the display means includes a description of the characteristics of the image when the image is captured under a corresponding imaging condition. To do.

また、請求項10記載の発明に係るカメラ制御プログラムにあっては、撮影手段を備えるカメラが有するコンピュータを、被写体像に基づき撮影シーンを判定する撮影シーン判定手段と、この撮影シーン判定手段により判定された撮影シーンに応じた撮影条件をマニュアル設定するための設定メニューを表示手段に表示させる表示制御手段と、前記表示手段に表示された前記設定メニューに対するマニュアル操作に応じた撮影条件を設定する設定手段と、この設定手段により設定された撮影条件に従って前記撮影手段を制御し、前記被写体像を撮影させる撮影制御手段と、して機能させることを特徴とする。   In the camera control program according to the tenth aspect of the present invention, the computer having the camera having the photographing means is determined by the photographing scene determining means for determining the photographing scene based on the subject image, and the photographing scene determining means. Display control means for displaying on the display means a setting menu for manually setting the shooting conditions according to the shooting scene, and a setting for setting the shooting conditions according to the manual operation for the setting menu displayed on the display means And a photographing control means for controlling the photographing means in accordance with the photographing condition set by the setting means and photographing the subject image.

また、請求項11記載の発明に係る撮影方法にあっては、被写体像に基づき撮影シーンを判定する撮影シーン判定ステップと、この撮影シーン判定ステップにより判定された撮影シーンに応じた撮影条件をマニュアル設定するための設定メニューを表示手段に表示させる表示制御ステップと、前記表示手段に表示された前記設定メニューに対するマニュアル操作に応じた撮影条件を設定する設定ステップと、この設定ステップにより設定された撮影条件に従って前記被写体像を撮影する撮影ステップと、を含むことを特徴とする。   In the photographing method according to the eleventh aspect, the photographing scene determining step for determining the photographing scene based on the subject image, and the photographing conditions according to the photographing scene determined by the photographing scene determining step are manually set. A display control step for displaying a setting menu for setting on the display means, a setting step for setting photographing conditions according to a manual operation for the setting menu displayed on the display means, and a photographing set by the setting step A photographing step of photographing the subject image according to a condition.

本発明によれば、フルオートカメラとマニュアルカメラのデメリットを共に解消することができ、ユーザが撮影条件の設定操作に煩わされる不都合を解消しつつ、ユーザの意図を撮影条件に反映させることができるという利点がある。   ADVANTAGE OF THE INVENTION According to this invention, the demerit of both a full auto camera and a manual camera can be eliminated, and a user's intention can be reflected in imaging conditions, eliminating the trouble which a user is troubled by setting operation of imaging conditions. There is an advantage.

以下、本発明の一実施の形態を図に従って説明する。図1は、本発明の一実施の形態にかかるデジタルカメラ1の電子回路構成を示す図である。このデジタルカメラ1は、基本モードである撮影モードにおいて、ズームレンズ12−1を移動させて光学ズーム動作を行わせるズーム駆動部11−1、フォーカスレンズ12−2を移動させて合焦動作を行わせるAF駆動部11−2、ズームレンズ12−1及びフォーカスレンズ12−2を含む撮像レンズを構成するレンズ光学系12、このレンズ光学系12の光軸上に配置された絞り32、この絞り32を駆動する絞り駆動部33、撮像素子であるCCD13、タイミング発生器(TG)14、垂直ドライバ15、サンプルホールド回路(S/H)16、A/D変換器17、カラープロセス回路18、DMA(Direct Memory Access)コントローラ19、DRAMインターフェイス(I/F)20、DRAM21を備えていている。また、制御部22、VRAMコントローラ23、VRAM24、デジタルビデオエンコーダ25、表示部26、JPEG(Joint Photograph cording Experts Group)回路27、保存メモリ28を備えているとともに、データベース29及びキー入力部30を備えている。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a diagram showing an electronic circuit configuration of a digital camera 1 according to an embodiment of the present invention. In the photographing mode which is the basic mode, the digital camera 1 performs a focusing operation by moving the zoom lens 12-1 and moving the zoom lens 11-1 and the focus lens 12-2. A lens optical system 12 constituting an imaging lens including an AF driving unit 11-2, a zoom lens 12-1, and a focus lens 12-2, a diaphragm 32 disposed on the optical axis of the lens optical system 12, and the diaphragm 32 , A CCD 13 as an image sensor, a timing generator (TG) 14, a vertical driver 15, a sample hold circuit (S / H) 16, an A / D converter 17, a color process circuit 18, a DMA ( A direct memory access controller 19, a DRAM interface (I / F) 20, and a DRAM 21 are provided. In addition, a control unit 22, a VRAM controller 23, a VRAM 24, a digital video encoder 25, a display unit 26, a JPEG (Joint Photographing Experts Group) circuit 27, a storage memory 28, a database 29, and a key input unit 30 are provided. ing.

撮影モードでのモニタリング状態においては、ズーム駆動部11−1は、光学ズーム指示があると制御部22からの制御信号に基づいて、図示しないズームレンズ駆動モータを駆動してズームレンズ12−1を光軸に沿って前後に移動させることによりCCD13に結像させる画像の倍率そのものを変化させる。また、AF駆動部11−2は図示しないフォーカスレンズ駆動モータを駆動してフォーカスレンズ12−2を移動させる。そして、前記撮像レンズ2を構成するレンズ光学系12の撮影光軸後方に配置された撮像素子であるCCD13が、タイミング発生器(TG)14、垂直ドライバ15によって走査駆動され、一定周期毎に結像した光像に対応する光電変換出力を1フレーム分出力する。   In the monitoring state in the photographing mode, the zoom driving unit 11-1 drives a zoom lens driving motor (not shown) based on a control signal from the control unit 22 when there is an optical zoom instruction, thereby moving the zoom lens 12-1. The magnification itself of the image formed on the CCD 13 is changed by moving back and forth along the optical axis. The AF drive unit 11-2 drives a focus lens drive motor (not shown) to move the focus lens 12-2. Then, a CCD 13 which is an image pickup element disposed behind the photographing optical axis of the lens optical system 12 constituting the image pickup lens 2 is scanned and driven by a timing generator (TG) 14 and a vertical driver 15, and is connected at regular intervals. A photoelectric conversion output corresponding to the imaged optical image is output for one frame.

CCD13は被写体の二次元画像を撮像する固体撮像デバイスであり、典型的には毎秒数十フレームの画像を撮像する。なお、撮像素子はCCDに限定されずCMOS(Complementary Metal Oxide Semiconductor)などの固体撮像デバイスでもよい。   The CCD 13 is a solid-state imaging device that captures a two-dimensional image of a subject, and typically captures an image of several tens of frames per second. The imaging element is not limited to a CCD, and may be a solid-state imaging device such as a CMOS (Complementary Metal Oxide Semiconductor).

この光電変換出力は、アナログ値の信号の状態でRGBの原色成分毎に適宜ゲイン調整された後に、サンプルホールド回路(S/H)16でサンプルホールドされ、A/D変換器17でデジタルデータ(画素)に変換され、カラープロセス回路18で画素補間処理及びγ補正処理を含むカラープロセス処理が行われて、デジタル値の輝度信号Y及び色差信号Cb、Crが生成され、DMA(Direct Memory Access)コントローラ19に出力される。   The photoelectric conversion output is appropriately gain-adjusted for each RGB primary color component in the state of an analog value signal, sampled and held by a sample hold circuit (S / H) 16, and digital data ( The color process circuit 18 includes a pixel interpolation process and a γ correction process, and a digital luminance signal Y and color difference signals Cb and Cr are generated. The DMA (Direct Memory Access) It is output to the controller 19.

DMAコントローラ19は、カラープロセス回路18の出力する輝度信号Y及び色差信号Cb、Crを、同じくカラープロセス回路18からの複合(composite)同期信号、メモリ書き込みイネーブル信号、及びクロック信号を用いてDRAMインターフェイス(I/F)20を介してバッファメモリとして使用されるDRAM21にDMA転送する。   The DMA controller 19 uses the luminance signal Y and the color difference signals Cb and Cr output from the color process circuit 18 by using the composite synchronization signal, the memory write enable signal, and the clock signal from the color process circuit 18 as well as a DRAM interface. DMA transfer is performed via the (I / F) 20 to the DRAM 21 used as a buffer memory.

制御部22は、このデジタルカメラ1全体の制御動作を司るものであり、CPU若しくはMPU(以下、CPU)と、後述するフローチャートに示す処理を実行するためのプログラム等を記憶したフラッシュメモリ等のプログラム格納メモリ、及びワークメモリとして使用されるRAM等により構成される。そして、前記輝度及び色差信号のDRAM21へのDMA転送終了後に、この輝度及び色差信号を、DRAMインターフェイス20を介してDRAM21から読み出し、VRAMコントローラ23を介してVRAM24に書込む。   The control unit 22 is responsible for the overall control operation of the digital camera 1, and is a program such as a flash memory that stores a CPU or MPU (hereinafter referred to as a CPU) and a program for executing processing shown in the flowcharts described later. It is composed of a storage memory, a RAM used as a work memory, and the like. After the DMA transfer of the luminance and color difference signals to the DRAM 21 is completed, the luminance and color difference signals are read from the DRAM 21 via the DRAM interface 20 and written to the VRAM 24 via the VRAM controller 23.

また、制御部22は、キー入力部30からの状態信号に対応してフラッシュメモリ等のプログラム格納用メモリに格納されている各モードに対応の処理プログラムやメニューデータを取り出して、デジタルカメラ1の各機能の実行制御、具体的には撮影動作や、光学ズーム時のズームレンズの動作制御や、スルー画像表示、自動合焦、撮影、記録、及び記録した画像の再生・表示等の実行制御等や機能選択時の機能選択メニューの表示制御、設定画面の表示制御等を行う。   In addition, the control unit 22 extracts processing programs and menu data corresponding to each mode stored in a program storage memory such as a flash memory in response to the status signal from the key input unit 30, and Execution control of each function, specifically shooting operation, zoom lens operation control during optical zoom, execution control such as through image display, automatic focusing, shooting, recording, and playback / display of recorded image, etc. Control display of function selection menu at the time of function selection and display control of setting screen.

デジタルビデオエンコーダ25は、前記輝度及び色差信号を、VRAMコントローラ23を介してVRAM24から定期的に読み出し、これらのデータを基にビデオ信号を生成して前記表示部26に出力する。表示部26は、撮影モード時にはモニタ表示部(電子ファインダ)として機能するもので、デジタルビデオエンコーダ25からのビデオ信号に基づいた表示を行うことで、その時点でVRAMコントローラ23から取り込んでいる画像情報に基づくスルー画像をリアルタイムに表示する。   The digital video encoder 25 periodically reads out the luminance and color difference signals from the VRAM 24 via the VRAM controller 23, generates a video signal based on these data, and outputs the video signal to the display unit 26. The display unit 26 functions as a monitor display unit (electronic finder) in the shooting mode, and performs display based on the video signal from the digital video encoder 25, so that image information captured from the VRAM controller 23 at that time is displayed. A live view based on the image is displayed in real time.

また、制御部22は撮影指示に応じて、本撮影処理を実行する。この本撮影処理においては、制御部22は、シャッターキーの操作をトリガとして、CCD13、垂直ドライバ15、サンプルホールド回路16、カラープロセス回路18、DMAコントローラ19に対してスルー画撮影モードから静止画撮影モードへの切り替えを指示し、この静止画撮影モードによる撮影処理により得られた画像データをSDRAM21に一時記憶する。   Further, the control unit 22 executes the main photographing process in response to the photographing instruction. In this main photographing process, the control unit 22 uses the shutter key operation as a trigger to take a still image from the through image photographing mode to the CCD 13, vertical driver 15, sample hold circuit 16, color process circuit 18, and DMA controller 19. The switch to the mode is instructed, and the image data obtained by the photographing process in the still image photographing mode is temporarily stored in the SDRAM 21.

この保存記録の状態では、制御部22がDRAM21に書き込まれている1フレーム分の輝度及び色差信号を、DRAMインターフェイス20を介してY、Cb、Crのコンポーネント毎に縦8画素×横8画素の基本ブロックと呼称される単位で読み出してJPEG回路27に書き込み、このJPEG回路27でADCT(Adaptive Discrete Cosine Transform:適応離散コサイン変換)、エントロピー符号化方式であるハフマン符号化等の処理によりデータ圧縮する。そして得た符号データを1画像のデータファイルとしてJPEG回路27から読み出し、保存メモリ28に記録保存する。また、1フレーム分の輝度及び色差信号の圧縮処理及び保存メモリ28への全圧縮データの書き込み終了に伴って、制御部22は前記静止画撮影モードからスルー画撮影モードへの切り替えを指示する。   In this stored recording state, the control unit 22 transmits the luminance and color difference signals for one frame written in the DRAM 21 to each of Y, Cb, and Cr components of 8 pixels by 8 pixels by the DRAM interface 20. The data is read in units called basic blocks and written into the JPEG circuit 27. The JPEG circuit 27 compresses data by processing such as ADCT (Adaptive Discrete Cosine Transform) and Huffman coding which is an entropy coding method. . The obtained code data is read out from the JPEG circuit 27 as a data file of one image, and is recorded and stored in the storage memory 28. Further, as the compression processing of the luminance and color difference signals for one frame and the completion of the writing of all the compressed data to the storage memory 28, the control unit 22 instructs to switch from the still image shooting mode to the through image shooting mode.

また、基本モードである再生モード時には、制御部22が保存メモリ28に記録されている画像データを選択的に読み出し、JPEG回路27で撮影モード時にデータ圧縮した手順と全く逆の手順で圧縮されている画像データを伸張し、伸張した画像データを、VRAMコントローラ23を介してVRAM24に展開して記憶させた上で、このVRAM24から定期的に読み出し、これらの画像データを元にビデオ信号を生成して表示部26で再生出力させる。   In the playback mode, which is the basic mode, the control unit 22 selectively reads out the image data recorded in the storage memory 28, and is compressed by a procedure that is completely opposite to the procedure in which data is compressed in the shooting mode by the JPEG circuit 27. The decompressed image data is decompressed, the decompressed image data is expanded and stored in the VRAM 24 via the VRAM controller 23, and then periodically read out from the VRAM 24 to generate a video signal based on the image data. The display unit 26 reproduces and outputs.

また、表示部26には、透明のタッチパネル31が積層されており、タッチパネル31はタッチ位置を検出して制御部22に入力する。   In addition, a transparent touch panel 31 is stacked on the display unit 26, and the touch panel 31 detects a touch position and inputs it to the control unit 22.

なお、後述のオート設定パラメータにおける「フォーカス制御」は、AF駆動部11−2がフォーカスレンズ12−2を駆動する制御であり、「絞り」は絞り駆動部33が絞り32を駆動する制御である。また、「EVシフト量」は、絞り32とシャッター速度との組み合わせに応じて,露出する光量をあらわす値の変化値であり、「感度」はCCD13に対するゲインアップにより感度を上げる処理であり、シャッター速度は前記CCD13の電荷蓄積時間である。   “Focus control” in auto setting parameters described later is control for driving the focus lens 12-2 by the AF driving unit 11-2, and “aperture” is control for driving the diaphragm 32 by the diaphragm driving unit 33. . The “EV shift amount” is a change value of the value representing the amount of light to be exposed according to the combination of the aperture 32 and the shutter speed. “Sensitivity” is a process for increasing the sensitivity by increasing the gain with respect to the CCD 13. The speed is the charge accumulation time of the CCD 13.

前記JPEG回路27は複数の圧縮率に対応しており、圧縮率に対応させて記憶するモードには圧縮率の低い高解像度(一般に、高精細、ファイン、ノーマルなどと呼ばれる)に対応するモードと圧縮率の高い低解像度(一般にエコノミーなどと呼ばれる)モードがある。また、高画素数から低画素数にも対応している。例えば、SXGA(1600×1200)、XGA(1024×786)、SVGA(800×600)、VGA(640×480)、QVGA(320×240)等と呼ばれる記録画素サイズがある。   The JPEG circuit 27 supports a plurality of compression ratios, and a mode for storing data corresponding to the compression ratio includes a mode corresponding to a high resolution (generally called high definition, fine, normal, etc.) with a low compression ratio. There is a low-resolution (commonly called economy) mode with a high compression rate. It also supports high to low pixel counts. For example, there are recording pixel sizes called SXGA (1600 × 1200), XGA (1024 × 786), SVGA (800 × 600), VGA (640 × 480), QVGA (320 × 240) and the like.

保存メモリ28は、内蔵メモリ(フラッシュメモリ)やハードディスク、あるいは着脱可能なメモリカード等の記録媒体からなり画像データや撮影情報等を保存記録する。   The storage memory 28 includes a recording medium such as a built-in memory (flash memory), a hard disk, or a removable memory card, and stores and records image data, photographing information, and the like.

データベース29は、個人A,B,C等の顔認識データや画質パラメータ等からなる顔認識レコードを複数記憶してなる顔認識テーブルや照合用画像データを格納してなる。データベース29は、ユーザのキー入力操作によって新規登録、調整、又は削除等の更新が可能である。   The database 29 stores a face recognition table that stores a plurality of face recognition records including face recognition data of individual A, B, C, etc., image quality parameters, and the like, and collation image data. The database 29 can be updated such as new registration, adjustment, or deletion by a user key input operation.

キー入力部30は、モードダイアル、カーソルキー、SETキー、ズームボタン(Wボタン、Tボタン)、シャッターキー、クリアキー及び電源ボタン等と、それらのキーが操作されると操作されたキーの操作信号を生成して制御部22に送出するキー処理部(図示せず)等から構成されている。   The key input unit 30 includes a mode dial, a cursor key, a SET key, a zoom button (W button, T button), a shutter key, a clear key, a power button, and the like. A key processing unit (not shown) that generates a signal and sends it to the control unit 22 is configured.

図2は、本実施の形態において制御部22内のROMに格納されている撮影シーン対応テーブル221を示す図である。この撮影シーン対応テーブル221は、「撮影シーン」に対応して、「表示タグ」、「マニュアル設定パラメータ(マニュアルパラメータ)」、「オート設定パラメータ(オートパラメータ)」が記憶されている。「オート設定パラメータ(オートパラメータ)」としては、当該パラメータのある値が記憶されており、「マニュアル設定パラメータ(マニュアルパラメータ)」としては、当該パラメータの値を1段階変化させる補正値、つまり±αの値が記憶されている。   FIG. 2 is a diagram showing the shooting scene correspondence table 221 stored in the ROM in the control unit 22 in the present embodiment. This shooting scene correspondence table 221 stores “display tag”, “manual setting parameter (manual parameter)”, and “auto setting parameter (auto parameter)” corresponding to “shooting scene”. As the “auto setting parameter (auto parameter)”, a certain value of the parameter is stored, and as the “manual setting parameter (manual parameter)”, a correction value that changes the value of the parameter by one step, that is, ± α Value is stored.

なお、図2のマニュアル設定パラメータとオート設定パラメータは、あくまでも前記本撮影時(静止画撮影モード)用のパラメータであって、スルー画撮影モード時には、本撮影時用のパラメータを擬似的に画像処理(ソフト処理)で実現することになる。したがって、撮影シーン対応テーブル221には、図示しないが各種パラメータに対応して、画像処理ソフトが記憶されており、この対応する画像処理ソフトを用いて、スルー画像を画像処理し、擬似的に当該パラメータで本撮影した場合の特性を有するスルー画像を生成する。より具体的には、例えばパラメータ「シャッター速度」である場合には、シャッター速度が遅くなるに従って、画像処理によりスルー画像の明るさを高める画像処理が実行されることとなる。   Note that the manual setting parameter and the auto setting parameter in FIG. 2 are parameters for the main shooting (still image shooting mode) to the last, and in the through image shooting mode, the parameters for the main shooting are processed in a pseudo manner. (Software processing). Therefore, although not shown, image processing software is stored in the shooting scene correspondence table 221 corresponding to various parameters. The corresponding image processing software is used to perform image processing on the through image, and to simulate the image processing software. A through image having the characteristics of actual shooting with parameters is generated. More specifically, for example, in the case of the parameter “shutter speed”, image processing for increasing the brightness of the through image by image processing is executed as the shutter speed decreases.

前記「撮影シーン」は、「人(男性)」、「人(女性)」・・・「夜景」等の後述する処理により判定された撮影シーンである。「表示タグ」は、判定された撮影シーンにおいて撮影条件をマニュアル設定することのできる設定メニューの名称であり、「カッコよく」、「シブく」、「かわいらしく」のように、対応する撮影条件で撮影された場合の画像の特性を感覚的に表記したものが含まれている。   The “photographing scene” is a photographing scene determined by processing to be described later, such as “person (male)”, “person (woman)”. “Display tag” is the name of the setting menu that allows manual setting of shooting conditions in the determined shooting scene. The “display tag” indicates the corresponding shooting conditions such as “cool”, “smooth”, and “pretty”. It includes a sensuous description of the characteristics of the image when it was taken.

「マニュアル設定パラメータ」は、これら設定メニューが撮影者により選択あるいは指定された際に設定される撮影条件であって、例えば設定メニュー「カッコよく」が選択あるいは指定された場合には「フォーカス制御」がマニュアル設定されることを示し、「シブく」が選択あるいは指定された場合には「絞り」がマニュアル設定されること等を示す。前記「オート設定パラメータ」は、判定された撮影シーンにおいて自動的に設定される撮影条件であって、「フォーカス制御」、「シャッター速度」、「絞り」、「EVシフト量」、「感度」・・・等の値が撮影シーン毎に記憶されている。   “Manual setting parameters” are shooting conditions set when these setting menus are selected or specified by the photographer. For example, when the setting menu “cool” is selected or specified, “focus control” is selected. Indicates that manual setting is to be performed, and “squeeze” is selected or designated to indicate that “aperture” is manually set. The “auto setting parameter” is a shooting condition automatically set in the determined shooting scene, and includes “focus control”, “shutter speed”, “aperture”, “EV shift amount”, “sensitivity”, ··· etc. are stored for each shooting scene.

以上の構成に係る本実施の形態において、ユーザが顔登録モードを設定して登録すべき人物、例えば人物を予め撮影すると、制御部22は、登録処理を実行する。この登録処理により、撮影された被写体人物における顔の特徴を検出し、検出した顔の特徴データと撮影された顔画像等からなる顔認識用データをデータベース29に格納する。したがって、データベース29には、予め顔登録モードにおいて撮影された人物の顔認識用データが登録されている。   In the present embodiment having the above configuration, when the user sets a face registration mode and photographs a person to be registered, for example, a person in advance, the control unit 22 executes a registration process. Through this registration process, the facial features of the photographed subject person are detected, and face recognition data including the detected facial feature data and the photographed facial image is stored in the database 29. Therefore, data for recognizing a person's face photographed in advance in the face registration mode is registered in the database 29.

そして、ユーザが撮影を行うべく、キー入力部30のモードダイアルを操作することにより、撮影モードを設定し、かつ「選べるオートモード」を選択すると、制御部22は、プログラムに従って図3のフローチャートに示すように処理を実行する。まず、表示部26にて前記スルー画像の表示を開始する(ステップS1)。次に、このスルー画像の表示に伴って、順次DRAM21に転送されてくる1フレーム分の画像に基づき、撮影シーンを判定する(ステップS2)。   Then, when the user operates the mode dial of the key input unit 30 to perform shooting, when the shooting mode is set and “selectable auto mode” is selected, the control unit 22 displays the flowchart of FIG. 3 according to the program. Perform processing as shown. First, display of the through image is started on the display unit 26 (step S1). Next, as the through image is displayed, a shooting scene is determined based on the image for one frame sequentially transferred to the DRAM 21 (step S2).

この撮影シーンの判定は、例えば特開平2008−11289号公報に開示されているように、前記撮影シーン対応テーブル221に記憶されている各「撮影シーン」それぞれについて色相データと彩度データとの色相−彩度座標上における分布をROMに記憶しておき、前記DRAM21内の画像についての色相データと彩度データの分布を前記各「撮影シーン」についての分布と比較することにより、当該撮影画像(DRAM21内の画像)がいずれの「撮影シーン」に該当するかにより判定する。   For example, as disclosed in Japanese Patent Application Laid-Open No. 2008-11289, this shooting scene determination is performed for the hue of hue data and saturation data for each “shooting scene” stored in the shooting scene correspondence table 221. -The distribution on the saturation coordinates is stored in the ROM, and the hue data and the saturation data distribution for the image in the DRAM 21 are compared with the distribution for each of the "photographing scenes". It is determined by which “shooting scene” the image in the DRAM 21 corresponds to.

そして、このようにして撮影シーンを判定したならば、判定した撮影シーンに対応するオートパラメータを撮影シーン対応テーブル221から読み出して、制御部22内のRAMに記憶する(ステップS3)。したがって、撮影シーンに対応するオートパラメータは制御部22内のRAMに保存された状態となる。   If the shooting scene is determined in this way, the auto parameter corresponding to the determined shooting scene is read from the shooting scene correspondence table 221 and stored in the RAM in the control unit 22 (step S3). Accordingly, the auto parameters corresponding to the shooting scene are stored in the RAM in the control unit 22.

次に、前記ステップS3での判定結果に基づき、画像中に人物が存在するか否かを判断する(ステップS4)。このステップS4での判断の結果、人物が存在しない場合、つまり人物が存在しない撮影シーンである場合には、前記ステップS2で判定した撮影シーンに対応する表示タグを撮影シーン対応テーブル221から読み出して、スルー画像上に重畳表示する(ステップS5)。したがって、ステップS2で撮影シーンが「花」であったとすると、先ず撮影シーン対応テーブル221から撮影シーン「花」対応する表示タグ「鮮やかに」、「幻想的に」、「しっとりと」が読み出される。そして、図4(a)に示すように、これら読み出された表示タグがスルー画像上に重畳表示される。これらタグの表示は、例えば表示部26の隅部等に配列して表示する。   Next, based on the determination result in step S3, it is determined whether or not a person is present in the image (step S4). As a result of the determination in step S4, if there is no person, that is, a shooting scene in which no person exists, a display tag corresponding to the shooting scene determined in step S2 is read from the shooting scene correspondence table 221. Then, it is superimposed and displayed on the through image (step S5). Therefore, if the shooting scene is “flower” in step S2, first, the display tags “brightly”, “fantasy”, and “moist” corresponding to the shooting scene “flower” are read from the shooting scene correspondence table 221. . Then, as shown in FIG. 4A, these read display tags are superimposed and displayed on the through image. These tags are displayed, for example, arranged in the corner of the display unit 26 or the like.

また、ステップS4での判断の結果、人物が存在する撮影シーンである場合には、当該人物が登録人物であるか否かを判断する(ステップS6)。すなわち、前記DRAM21内の1フレーム分の画像から顔を検出して、顔の特徴データを抽出する。顔が複数あった場合、つまり1フレーム内に複数の顔が写っている場合は複数の人物の顔をそれぞれ検出し、それぞれの顔の特徴データを抽出する。そして、この抽出した特徴データとデータベース29に格納されている特徴データと比較して類似度を判定し、検出された顔がデータベース29に登録されている顔であるか否かを判断する。   If the result of determination in step S4 is a shooting scene in which a person exists, it is determined whether or not the person is a registered person (step S6). That is, a face is detected from an image of one frame in the DRAM 21 and face feature data is extracted. When there are a plurality of faces, that is, when a plurality of faces are captured in one frame, the faces of a plurality of persons are detected, and feature data of each face is extracted. Then, the similarity is determined by comparing the extracted feature data with the feature data stored in the database 29, and it is determined whether or not the detected face is a face registered in the database 29.

データベース29に登録されている顔がある場合(登録人物が存在する場合)には、前記ステップS2で判定した撮影シーンに対応する表示タグを撮影シーン対応テーブル221から読み出して、登録人物にリンクさせてスルー画像上に重畳表示する処理を開始する(ステップS7)。したがって、ステップS2で撮影シーンが「子供」であったとすると、先ず撮影シーン対応テーブル221から撮影シーン「子供」に対応する表示タグ「かわいらしく」、「ほのぼの」が読み出される。そして、図4(b)に示すように、これら読み出された表示タグ265、266がスルー画像264上に重畳表示される。また、このスルー画像264において、人物A,B,Cの内、人物Bが登録人物であったとすると、前記タグ265、266が各々引き出し線267を介して、登録人物Bにリンクされた状態で表示される。   When there is a face registered in the database 29 (when a registered person exists), the display tag corresponding to the shooting scene determined in step S2 is read from the shooting scene correspondence table 221 and linked to the registered person. Then, the process of superimposing and displaying on the through image is started (step S7). Accordingly, if the shooting scene is “child” in step S2, first, the display tags “cute” and “honobono” corresponding to the shooting scene “child” are read from the shooting scene correspondence table 221. Then, as shown in FIG. 4B, the read display tags 265 and 266 are superimposed and displayed on the through image 264. In the through image 264, if the person B is a registered person among the persons A, B, and C, the tags 265 and 266 are linked to the registered person B through the lead lines 267, respectively. Is displayed.

したがって、ユーザがスルー画像264とともに、これらタグ265、266を視認することにより、マニュアル設定に不慣れな撮影初心者であってもリンクされた登録人物Bをより「かわいらしく」撮影するマニュアル設定が可能であること、より「ほのぼの」と撮影するマニュアル設定が可能であることを認識ことができる。   Therefore, when the user visually recognizes these tags 265 and 266 together with the through image 264, it is possible to perform manual setting for photographing the linked registered person B more “cutely” even for a shooting beginner unfamiliar with the manual setting. In addition, it is possible to recognize that it is possible to manually set the shooting as “Honobono”.

また、ステップS6での判断の結果、登録人物が存在しない場合には、前記ステップS2で判定した撮影シーンに対応する表示タグを撮影シーン対応テーブル221から読み出し、画面中央の人物にリンクさせてスルー画像上に重畳表示する処理を開始する(ステップS8)。したがって、ステップS2で撮影シーンが「子供」であったとすると、先ず撮影シーン対応テーブル221から撮影シーン「子供」に対応する表示タグ「かわいらしく」、「ほのぼの」が読み出される。そして、図4(b)に示すように、これら読み出された表示タグ265、266がスルー画像264上に重畳表示される。また、このスルー画像264において、人物A,B,Cの内、登録人物Bが中央の人物であるから、前記タグ265、266が各々引き出し線267を介して、登録人物Bにリンクされた状態で表示される。   If no registered person exists as a result of the determination in step S6, the display tag corresponding to the shooting scene determined in step S2 is read from the shooting scene correspondence table 221 and linked to the person in the center of the screen. A process of superimposing and displaying on the image is started (step S8). Accordingly, if the shooting scene is “child” in step S2, first, the display tags “cute” and “honobono” corresponding to the shooting scene “child” are read from the shooting scene correspondence table 221. Then, as shown in FIG. 4B, the read display tags 265 and 266 are superimposed and displayed on the through image 264. Further, in this through image 264, among the persons A, B, and C, the registered person B is the central person, so that the tags 265 and 266 are linked to the registered person B via the lead lines 267, respectively. Is displayed.

なお、このフローチャートにおいては、ステップS4の判断がNOであって、スルー画像中に人物が存在しない場合には、引き出し線267によりリンクさせることなくタグを表示するようにしたが、この場合にも図4(a)に示すように当該撮影シーンにおける主要被写体(本例の場合「花」)に、引き出し線267によりリンクさせてタグ261、262、263を表示するようにしてもよい。これにより、撮影者がこれらタグ261、262、263を視認した際に、リンクされた主要被写体を「鮮やかに」撮影するマニュアル設定が可能であること等を認識することができる。   In this flowchart, if the determination in step S4 is NO and no person is present in the through image, the tag is displayed without being linked by the lead line 267. As shown in FIG. 4A, the tags 261, 262, and 263 may be displayed by linking to the main subject (“flower” in this example) in the shooting scene by linking with the lead line 267. As a result, when the photographer visually recognizes these tags 261, 262, 263, it can be recognized that a manual setting for “brilliantly” photographing the linked main subject is possible.

また、これらとは逆に、撮影シーンに拘わらずタグを特定の被写体とリンクさせず、単に表示部26の側部等に配列して表示するようにしてもよい。あるいは、特定の被写体とリンクさせたタグと、リンクさせないタグとを表示し、リンクさせないタグに関しては、表示部26の隅部に配列して表示するようにしてもよい。   On the other hand, the tag may be simply arranged and displayed on the side of the display unit 26 or the like without linking the tag to a specific subject regardless of the shooting scene. Alternatively, a tag linked to a specific subject and a tag that is not linked may be displayed, and the tag that is not linked may be arranged and displayed at the corner of the display unit 26.

そして、ステップS5、S7、S8のいずれかに続くステップS9においては、タッチパネル31の走査結果に基づき、いずれかのタグに対するタッチが検出されたか否かを判断する(ステップS9)。タッチが検出されない場合には、Tフラッグ(タッチフラグ)がセットされているか否かを判断する(ステップS19)。このTフラグは、後述するステップS11でタッチ後にセットされるフラグであることから、ユーザが未だいずれかのタグにもタッチしていない場合は、Tフラグ=0の状態にある。したがって、この場合には、ステップS19の判断がYESとなり、ステップS20に進む。   In step S9 following any one of steps S5, S7, and S8, it is determined based on the scanning result of the touch panel 31 whether or not a touch on any tag is detected (step S9). If no touch is detected, it is determined whether or not a T flag (touch flag) is set (step S19). Since this T flag is a flag that is set after the touch in step S11 described later, if the user has not yet touched any tag, the T flag = 0. Therefore, in this case, the determination in step S19 is YES, and the process proceeds to step S20.

そして、ステップS20においては、画像ソフト処理により、前記画像処理ソフトを用いてスルー画像に対し、前記オートパラメータを擬似的に実現する画像処理を実行する。したがって、このステップS20での処理により、擬似的にオートパラメータで本撮影した場合の特性を有するスルー画像(動画)が生成されることとなる。   In step S20, image processing for performing the pseudo auto parameter on the through image is executed on the through image using the image processing software by image software processing. Therefore, through the processing in step S20, a through image (moving image) having characteristics in the case of actual shooting with pseudo auto parameters is generated.

そこで、前記オートパラメータを擬似的に実現する画像処理したスルー画像、つまり擬似的にではあるが撮影シーンに応じたフルオート撮影モードでの画像(以下、「フルオートスルー画像」という)を表示(ステップS21)。したがって、このステップS21での処理により、表示部26にはフルオートスルー画像が表示されれる。   Accordingly, a through image that has been subjected to image processing that realizes the auto parameter in a pseudo manner, that is, an image in a full auto shooting mode corresponding to a shooting scene (hereinafter referred to as a “full auto through image”) is displayed (hereinafter referred to as a “pseudo auto through image”). Step S21). Therefore, a full auto-through image is displayed on the display unit 26 by the processing in step S21.

他方ステップS9でタッチが検出されたならば、後述するステップS12でタッチ後にセット(=1)されるTフラグ(タッチフラグ)がリセット状態(=0)であるか否かを判断する。Tフラグ=0であって、撮影シーン判定後初めてのタッチである場合には、Tフラグをセット(=1)する(ステップS11)。   On the other hand, if a touch is detected in step S9, it is determined whether or not the T flag (touch flag) set (= 1) after the touch is in a reset state (= 0) in step S12 described later. If the T flag = 0 and the first touch after the shooting scene determination, the T flag is set (= 1) (step S11).

引き続き、表示部26の画面を例えば左右に二分割する(ステップS12)。そして、前記判定された撮影シーンであってタッチされたタグに対応するマニュアルパラメータを撮影シーン対応テーブル221にて特定し、前記ステップS3で制御部22内のRAMに保存されたオートパラメータにおける、タッチされたタグに対応するマニュアルパラメータを1段階変化させて記憶する(ステップS13)。   Subsequently, the screen of the display unit 26 is divided into, for example, left and right (step S12). Then, the manual parameter corresponding to the touched tag in the determined shooting scene is specified in the shooting scene correspondence table 221, and the touch in the auto parameter stored in the RAM in the control unit 22 in the step S3. The manual parameter corresponding to the tag thus changed is stored in one step (step S13).

したがって、制御部22内のRAMには、前記ステップS3で記憶されたオートパラメータと、ステップS13で記憶された前記オートパラメータのタッチされたタグに対応するマニュアルパラメータを1段階変化させたパラメータであるパートマニュアルパラメータとが併存して記憶された状態となる。   Therefore, the RAM in the control unit 22 is a parameter obtained by changing the auto parameter stored in step S3 and the manual parameter corresponding to the touched tag of the auto parameter stored in step S13 by one step. The part manual parameters are stored together.

このとき、タッチされたタグに対応するマニュアルパラメータが、既に前記ステップS3の処理で設定されたオートパラメータである場合には、ステップS3で設定されているパラメータの値を1段階変更し、オートパラメータでない場合には、新たなパラメータを設定、記憶することとなる。   At this time, if the manual parameter corresponding to the touched tag is already an auto parameter set in the process of step S3, the parameter value set in step S3 is changed by one step, and the auto parameter is set. If not, a new parameter is set and stored.

そして、次の画像ソフト処理により、前記画像処理ソフトを用いてスルー画像に対し、前記オートパラメータを擬似的に実現する画像処理と、前記パートマニュアルパラメータを擬似的に実現する画像処理とをパラレルに実行する(ステップS14)。したがって、このステップS14での処理により、擬似的にオートパラメータで本撮影した場合の特性を有するスルー画像(動画)と、擬似的にパートマニュアルパラメータで本撮影した場合の特性を有するスルー画像(動画)とが生成されることとなる。   Then, in the next image software processing, the image processing that realizes the auto parameter in a pseudo manner and the image processing that realizes the part manual parameter in a pseudo manner for the through image using the image processing software in parallel. Execute (Step S14). Therefore, through the processing in step S14, a through image (moving image) having characteristics when the actual shooting is performed with a pseudo auto parameter and a through image (moving images) having characteristics when the actual shooting is performed with a pseudo part manual parameter. ) And are generated.

そこで、前記ステップS13で二分割した画面において、左側には前記オートパラメータを擬似的に実現する画像処理したスルー画像、つまり擬似的にではあるが撮影シーンに応じたフルオート撮影モードでの画像(以下、「フルオートスルー画像」という)を表示し、右側には前記パートマニュアルパラメータを擬似的に実現する画像処理したスルー画像、つまり擬似的にではある一部マニュアル設定された画像(以下「パートマニュアルスルー画像」という)を表示する(ステップS15)。したがって、このステップS15での処理により、図4(c)に示すように、表示部26の左側にはフルオートスルー画像268が表示され、右側にはパートマニュアルスルー画像269が表示される。   Therefore, in the screen divided into two in the step S13, on the left side is an image-processed through image that realizes the auto parameter in a pseudo manner, that is, an image in the full auto shooting mode according to the shooting scene (although it is pseudo). Hereinafter, a “full auto-through image” is displayed, and on the right side, an image-processed through image that realizes the part manual parameter in a pseudo manner, that is, a partially manually set image (hereinafter “part”). "Manual through image") is displayed (step S15). Therefore, as a result of the processing in step S15, as shown in FIG. 4C, the full auto-through image 268 is displayed on the left side of the display unit 26, and the part manual through image 269 is displayed on the right side.

よって、撮影者がこのフルオートスルー画像268とパートマニュアルスルー画像269とを見比べることにより、タグへのタッチによるマニュアル設定により画像がどのように変化するかを確認したり、学習することができる。   Therefore, the photographer can check or learn how the image changes by manual setting by touching the tag by comparing the full auto through image 268 with the part manual through image 269.

なお、前記パートマニュアルスルー画像269には、図示のように引き続きタグ265、266を表示させる。   In the part manual through image 269, the tags 265 and 266 are continuously displayed as shown in the figure.

次に、キー入力部30のクリアキーが操作されたか否かを判断し(ステップS16)、クリアキーが操作された場合には、Tフラグをリセットして(ステップS17)、ステップS2に戻る。無論、Tフラグ=0の状態にある場合には、ステップS17をスキップしてステップS2に戻る。また、クリアキーが操作されない場合には、シャッターキーが操作されたか否かを判断し(ステップS18)、シャッターキーが操作されない場合には、ステップS9に戻る。   Next, it is determined whether or not the clear key of the key input unit 30 has been operated (step S16). If the clear key has been operated, the T flag is reset (step S17), and the process returns to step S2. Of course, if the T flag = 0, the process skips step S17 and returns to step S2. If the clear key is not operated, it is determined whether or not the shutter key is operated (step S18). If the shutter key is not operated, the process returns to step S9.

このとき、前述のように、パートマニュアルスルー画像269には、タグ265、266が表示されていることから、タグ265、266にタッチすると、ステップS9の判断がYESとなる。しかし、前記ステップS12での処理により、Tフラグ=1となっていることから、ステップS10の判断がNOとなって、ステップS10からステップS14に進む。そして、前述したステップS14及びステップS15の処理が実行されることにより、パートマニュアルスルー画像269の特性は、ユーザがタグにタッチする都度変化していく。つまり、オート設定パラメータが反映されたスルー画像(動画)と、マニュアル設定パラメータが逐次反映されたスルー画像(動画)とが表示されることになる。   At this time, as described above, since the tags 265 and 266 are displayed in the part manual through image 269, when the tags 265 and 266 are touched, the determination in step S9 becomes YES. However, since the T flag is set to 1 by the process in step S12, the determination in step S10 is NO and the process proceeds from step S10 to step S14. The characteristics of the part manual through image 269 change each time the user touches the tag by executing the above-described processing of step S14 and step S15. That is, a through image (moving image) in which the auto setting parameters are reflected and a through image (moving image) in which the manual setting parameters are sequentially reflected are displayed.

このように特性が変化するパートマニュアルスルー画像269を確認した撮影者がシャッターキーを操作すると、ステップS18からステップS22に進み、Tフラグ=1であるか否かを判断する。Tフラグ=1である場合、つまりユーザが1度でもタグにタッチした後シャッターキーを操作した場合には、前記ステップS13で制御部22内のRAMに保存されたパラメータを撮影条件として前述した本撮影処理を実行する(ステップS23)。つまり、制御部22は、シャッターキーの操作をトリガとして、スルー画撮影モードから静止画撮影モードへの切り替えを指示し、この静止画撮影モードにおいて前記ステップS13で制御部22のRAMに更新記憶されているパラメータで撮影処理し、この撮影処理により得られた画像データをSDRAM21に一時記憶した後、保存メモリ28に記録する(ステップS19)。   When the photographer confirming the part manual through image 269 whose characteristics change in this way operates the shutter key, the process proceeds from step S18 to step S22, and it is determined whether or not T flag = 1. When the T flag = 1, that is, when the user has operated the shutter key after touching the tag even once, the above-described book is obtained using the parameters stored in the RAM in the control unit 22 in step S13 as shooting conditions. An imaging process is executed (step S23). That is, the control unit 22 instructs to switch from the through image shooting mode to the still image shooting mode with the operation of the shutter key as a trigger, and is updated and stored in the RAM of the control unit 22 in step S13 in this still image shooting mode. The image data obtained by the photographing process is temporarily stored in the SDRAM 21 and then recorded in the storage memory 28 (step S19).

この保存メモリ28に記録された撮影画像データにあっては、撮影条件がフルオート設定された後、その一部が撮影者の操作によってマニュアル設定されたものである。したがって、ユーザが撮影条件の設定操作に煩わされる不都合を解消しつつ、ユーザの意図を撮影条件に反映させたものとすることができる。   In the photographed image data recorded in the storage memory 28, after the photographing condition is set to full auto, a part thereof is manually set by the photographer's operation. Accordingly, it is possible to reflect the user's intention in the shooting conditions while eliminating the inconvenience that the user is troubled by the setting operation of the shooting conditions.

また、ステップS22での判断の結果、Tフラグ=0である場合、つまりユーザが1度もタグにタッチすることなく、シャッターキーを操作した場合には、前記ステップS3で制御部22内のRAMに保存されたオートパラメータを撮影条件として前述した本撮影処理を実行する(ステップS24)。   As a result of the determination in step S22, if the T flag = 0, that is, if the user operates the shutter key without touching the tag, the RAM in the control unit 22 in step S3. The above-described main photographing process is executed using the auto parameters stored in the above as photographing conditions (step S24).

この保存メモリ28に記録された撮影画像データにあっては、撮影条件がフルオート設定されたものである。したがって、ユーザはタグにタッチせずにシャッターキーを操作することにより、フルオート撮影を行うこともできる。   In the photographed image data recorded in the storage memory 28, the photographing conditions are set to full auto. Therefore, the user can perform full-auto shooting by operating the shutter key without touching the tag.

なお、本実施の形態においては、判定した撮影シーンに応じてオートパラメータを設定するようにしたが、オートパラメータを設定することなく、つまりフルオート制御することなく、判定した撮影シーンに応じたタグを表示し、このタグに対するタッチに応じて撮影条件を設定するようにしてもよい。この場合であっても、表示されるタグは判定した撮影シーンに応じて絞り込まれていることから、その種類が限定される。よって、当該撮影シーンにおいては無意味な撮影条件の設定を行ってしまう不都合を未然に防止することができ、その結果、撮影条件の設定操作に煩わされる不都合を抑制することができる。   In the present embodiment, the auto parameter is set according to the determined shooting scene. However, the tag corresponding to the determined shooting scene is not set without setting the auto parameter, that is, without performing full auto control. May be displayed, and shooting conditions may be set in response to a touch on the tag. Even in this case, the types of tags to be displayed are limited because they are narrowed down according to the determined shooting scene. Therefore, it is possible to prevent the inconvenience of setting a meaningless shooting condition in the shooting scene, and as a result, it is possible to suppress the inconvenience caused by the shooting condition setting operation.

また、本実施の形態においては、タグに対するタッチ検出によりマニュアルパラメータを設定するようにしたが、表示部26にタグとともにカーソルを表示し、キー入力部30でのカーソルキー操作により所望のタグ上にカーソルを移動させた後、SETキー操作によりそのタグを選択させて、この選択させたタグに応じたマニュアルパラメータを設定するようにしてもよい。   In the present embodiment, manual parameters are set by detecting a touch on a tag. However, a cursor is displayed on the display unit 26 together with the tag, and a cursor key operation on the key input unit 30 is performed on a desired tag. After the cursor is moved, the tag may be selected by operating the SET key, and the manual parameter corresponding to the selected tag may be set.

また、実施の形態においては、タグにタッチする都度、補正値(±α)より当該パラメータの値を1段階ずつ変化させることにより、操作回数に比例して補正値が変化するようにしたが、タッチ継続時間(操作継続時間)に比例して、補正値が変化するようにしてもよいし、タグに対する1回の操作で所定値からなるマニュアルパラメータを設定するようにしてもよい。   In the embodiment, each time the tag is touched, the correction value is changed in proportion to the number of operations by changing the value of the parameter step by step from the correction value (± α). The correction value may be changed in proportion to the touch duration (operation duration), or a manual parameter having a predetermined value may be set by one operation on the tag.

また、本撮影直後に撮影画像を表示し、この表示されている撮影画像に対してシーン判定を行い、このシーン判定結果に応じたタグを表示し、このタグに対するタッチによりマニュアル設定調整を行なえるようにし、つまりソフト的な画像処理により擬似的に、あるパラメータで本撮影した場合の特性を有する画像に変更して表示し、次の本撮影時にこのマニュアル設定が反映された撮影が行えるようにしてもよい。この場合、本撮影直後に表示される撮影画像は、オートパラメータのみが反映された画像、オートパラメータとマニュアルパラメータとが反映された画像、あるいはマニュアルパラメータのみが反映された画像のいずれかである。   In addition, a captured image is displayed immediately after the actual shooting, scene determination is performed on the displayed captured image, a tag corresponding to the scene determination result is displayed, and manual setting adjustment can be performed by touching the tag. In other words, the image is changed to an image having the characteristics of actual shooting with a certain parameter by software image processing and displayed so that this manual setting can be captured at the next actual shooting. May be. In this case, the photographed image displayed immediately after the main photographing is either an image reflecting only the auto parameter, an image reflecting the auto parameter and the manual parameter, or an image reflecting only the manual parameter.

また、実施の形態では、この発明をデジタルカメラに適用した場合を例にして説明しているが、デジタルカメラばかりでなく、光学系及び撮像素子を介して取り込んだ画像データを記録する機能を備えた装置、例えば、カメラ付携帯電話や撮像機能を備えた電子機器にも適用することができる。   Further, in the embodiments, the case where the present invention is applied to a digital camera is described as an example, but not only a digital camera but also a function of recording image data captured via an optical system and an image sensor. The present invention can also be applied to a device such as a mobile phone with a camera or an electronic device having an imaging function.

本発明の一実施の形態に係るデジタルカメラの電子回路構成を示す図である。It is a figure which shows the electronic circuit structure of the digital camera which concerns on one embodiment of this invention. 撮影シーン対応テーブルを示す概念図であるIt is a key map showing a photography scene correspondence table. 同実施の形態の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the embodiment. 同実施の形態の表示遷移図である。It is a display transition diagram of the same embodiment.

符号の説明Explanation of symbols

1 デジタルカメラ
12 レンズ光学系
13 CCD
15 垂直ドライバ
17 A/D変換器
18 カラープロセス回路
19 DMAコントローラ
21 DRAM
22 制御部
24 VRAM
25 デジタルビデオエンコーダ
26 表示部
27 JPEG回路
28 保存メモリ
29 データベース
30 キー入力部
31 タッチパネル
221 撮影シーン対応テーブル
261 タグ
264 スルー画像
265 タグ
267 引き出し線
268 フルオートスルー画像
269 パートマニュアルスルー画像
1 Digital Camera 12 Lens Optical System 13 CCD
15 Vertical Driver 17 A / D Converter 18 Color Process Circuit 19 DMA Controller 21 DRAM
22 Control unit 24 VRAM
25 Digital video encoder 26 Display unit 27 JPEG circuit 28 Storage memory 29 Database 30 Key input unit 31 Touch panel 221 Shooting scene correspondence table 261 Tag 264 Through image 265 Tag 267 Lead line 268 Full auto through image 269 Part manual through image

Claims (11)

被写体像に基づき撮影シーンを判定する撮影シーン判定手段と、
この撮影シーン判定手段により判定された撮影シーンに応じた撮影条件をマニュアル設定するための設定メニューを表示手段に表示させる表示制御手段と、
前記表示手段に表示された前記設定メニューに対するマニュアル操作に応じた撮影条件を設定する設定手段と、
この設定手段により設定された撮影条件に従って前記被写体像を撮影する撮影手段と、
を備えることを特徴とするカメラ。
Shooting scene determination means for determining a shooting scene based on a subject image;
Display control means for displaying on the display means a setting menu for manually setting the shooting conditions according to the shooting scene determined by the shooting scene determining means;
Setting means for setting shooting conditions according to manual operation for the setting menu displayed on the display means;
Photographing means for photographing the subject image according to the photographing conditions set by the setting means;
A camera comprising:
前記設定手段は、
前記判定手段により判定された撮影シーンに応じて撮影条件を設定するオート設定手段と、前記マニュアル操作に応じて撮影条件を設定するマニュアル設定手段とを備えることを特徴とする請求項1記載のカメラ。
The setting means includes
2. The camera according to claim 1, further comprising: auto setting means for setting shooting conditions according to the shooting scene determined by the determination means; and manual setting means for setting shooting conditions according to the manual operation. .
前記マニュアル設定手段は、前記オート設定手段より設定された撮影条件における前記設定メニューに対応する撮影条件を、前記マニュアル操作に応じて変更設定することを特徴とする請求項2記載のカメラ。   3. The camera according to claim 2, wherein the manual setting unit changes and sets the shooting condition corresponding to the setting menu in the shooting condition set by the auto setting unit according to the manual operation. 前記マニュアル設定手段は、前記撮影条件を、前記マニュアル操作に応じて段階的に変更設定することを特徴とする請求項3記載のカメラ。   4. The camera according to claim 3, wherein the manual setting means changes and sets the photographing condition in a stepwise manner according to the manual operation. 前記表示制御手段は、前記オート設定手段により設定された設定条件で前記撮影手段により撮影される被写体像を前記表示手段に表示させることを特徴とする請求項2、3又は4記載のカメラ。   The camera according to claim 2, 3 or 4, wherein the display control means causes the display means to display a subject image photographed by the photographing means under the setting conditions set by the auto setting means. 前記表示制御手段は、前記マニュアル設定手段により設定された撮影条件に従って前記撮影手段が撮影した第1の被写体像と、前記マニュアル設定手段により撮影条件が設定される前に設定されていた撮影条件に従って前記撮影手段が撮影した第2の被写体像とを前記表示手段に表示させることを特徴とする請求項1から5にいずれか記載のカメラ。   The display control means includes a first subject image photographed by the photographing means according to the photographing conditions set by the manual setting means, and a photographing condition set before the photographing conditions are set by the manual setting means. 6. The camera according to claim 1, wherein a second subject image photographed by the photographing means is displayed on the display means. 前記判別手段は、前記撮影シーンにおける主要被写体を判別する被写体判別手段を更に備え、
前記表示制御手段は、前記被写体判別手段により判別された主要被写体にリンクさせた表示形態で、前記設定メニューを表示させることを特徴とする請求項1から6にいずれか記載のカメラ。
The determination means further includes subject determination means for determining a main subject in the shooting scene,
7. The camera according to claim 1, wherein the display control unit displays the setting menu in a display form linked to the main subject determined by the subject determination unit.
人物の特徴を記憶した記憶手段を更に備え、
前記被写体判別手段は、前記撮影シーンにおける被写体が前記記憶手段に記憶されている人物である場合、当該人物を前記主要被写体して判別することを特徴とする請求項7記載のカメラ。
It further comprises storage means for storing the characteristics of the person,
8. The camera according to claim 7, wherein when the subject in the shooting scene is a person stored in the storage unit, the subject determination unit determines the person as the main subject.
前記表示手段に表示される設定メニューは、対応する撮影条件で撮影された場合の画像の特性を表記したものを含むことを特徴とする請求項1から8にいずれか記載のカメラ。   The camera according to claim 1, wherein the setting menu displayed on the display unit includes a menu that describes the characteristics of an image captured under a corresponding imaging condition. 撮影手段を備えるカメラが有するコンピュータを、
被写体像に基づき撮影シーンを判定する撮影シーン判定手段と、
この撮影シーン判定手段により判定された撮影シーンに応じた撮影条件をマニュアル設定するための設定メニューを表示手段に表示させる表示制御手段と、
前記表示手段に表示された前記設定メニューに対するマニュアル操作に応じた撮影条件を設定する設定手段と、
この設定手段により設定された撮影条件に従って前記撮影手段を制御し、前記被写体像を撮影させる撮影制御手段と、
して機能させることを特徴とするカメラ制御プログラム。
A computer having a camera equipped with photographing means;
Shooting scene determination means for determining a shooting scene based on a subject image;
Display control means for displaying on the display means a setting menu for manually setting the shooting conditions according to the shooting scene determined by the shooting scene determining means;
Setting means for setting shooting conditions according to manual operation for the setting menu displayed on the display means;
Shooting control means for controlling the shooting means according to the shooting conditions set by the setting means and shooting the subject image;
A camera control program characterized by being made to function.
被写体像に基づき撮影シーンを判定する撮影シーン判定ステップと、
この撮影シーン判定ステップにより判定された撮影シーンに応じた撮影条件をマニュアル設定するための設定メニューを表示手段に表示させる表示制御ステップと、
前記表示手段に表示された前記設定メニューに対するマニュアル操作に応じた撮影条件を設定する設定ステップと、
この設定ステップにより設定された撮影条件に従って前記被写体像を撮影する撮影ステップと、
を含むことを特徴とする撮影方法。
A shooting scene determination step for determining a shooting scene based on the subject image;
A display control step for causing the display means to display a setting menu for manually setting the shooting conditions according to the shooting scene determined in the shooting scene determination step;
A setting step for setting shooting conditions according to manual operation for the setting menu displayed on the display means;
A shooting step of shooting the subject image according to the shooting conditions set by the setting step;
A photographing method characterized by comprising:
JP2008144088A 2008-06-02 2008-06-02 Camera, camera control program, and photographing method Expired - Fee Related JP4645685B2 (en)

Priority Applications (9)

Application Number Priority Date Filing Date Title
JP2008144088A JP4645685B2 (en) 2008-06-02 2008-06-02 Camera, camera control program, and photographing method
EP11005564.7A EP2395745B1 (en) 2008-06-02 2009-05-20 Photographic apparatus, setting method of photography conditions, and recording medium
EP09160706A EP2131573B1 (en) 2008-06-02 2009-05-20 Photographic apparatus, setting method of photography conditions, and recording medium
AT09160706T ATE543332T1 (en) 2008-06-02 2009-05-20 PHOTOGRAPHIC APPARATUS, METHOD FOR SETTING PHOTOGRAPHIC PARAMETERS AND RECORDING MEDIUM
US12/473,470 US8149313B2 (en) 2008-06-02 2009-05-28 Photographic apparatus, setting method of photography conditions, and recording medium
TW098117915A TWI406564B (en) 2008-06-02 2009-06-01 Photographic apparatus, and photographing method
CN2009101639948A CN101621628B (en) 2008-06-02 2009-06-02 Photographic apparatus, setting method of photography conditions, and recording medium
KR1020090048578A KR101056103B1 (en) 2008-06-02 2009-06-02 Photographing apparatus, setting method of photographing conditions, and recording medium
HK10104056.1A HK1136728A1 (en) 2008-06-02 2010-04-26 Photographic apparatus, setting method of photography conditions, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008144088A JP4645685B2 (en) 2008-06-02 2008-06-02 Camera, camera control program, and photographing method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2010262209A Division JP5170217B2 (en) 2010-11-25 2010-11-25 Camera, camera control program, and photographing method

Publications (2)

Publication Number Publication Date
JP2009290818A true JP2009290818A (en) 2009-12-10
JP4645685B2 JP4645685B2 (en) 2011-03-09

Family

ID=40933185

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008144088A Expired - Fee Related JP4645685B2 (en) 2008-06-02 2008-06-02 Camera, camera control program, and photographing method

Country Status (8)

Country Link
US (1) US8149313B2 (en)
EP (2) EP2395745B1 (en)
JP (1) JP4645685B2 (en)
KR (1) KR101056103B1 (en)
CN (1) CN101621628B (en)
AT (1) ATE543332T1 (en)
HK (1) HK1136728A1 (en)
TW (1) TWI406564B (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011010273A (en) * 2009-05-22 2011-01-13 Olympus Imaging Corp Photographing condition control device, camera, image quality control device and program
JP2011217275A (en) * 2010-04-01 2011-10-27 Sanyo Electric Co Ltd Electronic device
US11140331B2 (en) 2017-06-21 2021-10-05 Fujifilm Corporation Image capturing apparatus, control method for image capturing apparatus, and control program for image capturing apparatus

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4131052B2 (en) 1998-07-17 2008-08-13 ソニー株式会社 Imaging device
EP2793217A3 (en) * 2007-03-26 2015-02-18 NEC Corporation Portable phone terminal, image display controlling method, program thereof, and program recording medium
JP4438871B2 (en) * 2008-02-12 2010-03-24 ソニー株式会社 Imaging apparatus, control method thereof, and program
JP5402409B2 (en) * 2009-08-31 2014-01-29 ソニー株式会社 Shooting condition setting device, shooting condition setting method, and shooting condition setting program
KR101643321B1 (en) * 2010-02-02 2016-07-27 삼성전자주식회사 A digital photographing apparatus, a method for controlling the same, and a computer-readable medium
CN102215339A (en) * 2010-04-01 2011-10-12 三洋电机株式会社 Electronic device and image sensing device
JP2011239149A (en) * 2010-05-10 2011-11-24 Sony Corp Control apparatus, camera system, and program
US20110317034A1 (en) * 2010-06-28 2011-12-29 Athreya Madhu S Image signal processor multiplexing
US9584733B2 (en) * 2010-09-30 2017-02-28 Apple Inc. High dynamic range transition
US20130201297A1 (en) * 2012-02-07 2013-08-08 Alcatel-Lucent Usa Inc. Lensless compressive image acquisition
KR101755598B1 (en) * 2010-10-27 2017-07-07 삼성전자주식회사 Digital photographing apparatus and control method thereof
CN102300163A (en) * 2011-09-22 2011-12-28 宇龙计算机通信科技(深圳)有限公司 Information pushing method, mobile terminal and system
KR101924835B1 (en) 2011-10-10 2018-12-05 삼성전자주식회사 Method and apparatus for function of touch device
KR20140021821A (en) * 2012-08-09 2014-02-21 삼성전자주식회사 Image capturing apparatus and image capturing method
JP5725049B2 (en) 2013-01-24 2015-05-27 カシオ計算機株式会社 Imaging apparatus, imaging method, and program
KR102093474B1 (en) * 2013-08-27 2020-03-25 현대모비스 주식회사 Method for processing image using Ethernet Camera and Apparatus therefor
US10225457B1 (en) * 2017-09-06 2019-03-05 Mitutoyo Corporation Stabilizing operation of a high speed variable focal length tunable acoustic gradient lens in an imaging system
CN107820020A (en) * 2017-12-06 2018-03-20 广东欧珀移动通信有限公司 Method of adjustment, device, storage medium and the mobile terminal of acquisition parameters
US10944907B2 (en) * 2017-12-13 2021-03-09 Qualcomm Incorporated Generating an image using automatic mode settings while in manual mode
US11093743B2 (en) * 2018-08-10 2021-08-17 International Business Machines Corporation Intelligent personalization of operations of an image capturing device
WO2020181483A1 (en) * 2019-03-12 2020-09-17 深圳市大疆创新科技有限公司 Camera control method and apparatus

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002158903A (en) * 2000-11-22 2002-05-31 Casio Comput Co Ltd Image pickup device and method of controlling the same
JP2005109607A (en) * 2003-09-29 2005-04-21 Fuji Photo Film Co Ltd Photographic equipment
JP2005151375A (en) * 2003-11-19 2005-06-09 Casio Comput Co Ltd Camera apparatus and its photographic condition setting method
JP2006261912A (en) * 2005-03-16 2006-09-28 Casio Comput Co Ltd Photographing apparatus
JP2007288449A (en) * 2006-04-14 2007-11-01 Olympus Corp Imaging device
JP2008085737A (en) * 2006-09-28 2008-04-10 Nikon Corp Electronic camera

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5557358A (en) * 1991-10-11 1996-09-17 Minolta Camera Kabushiki Kaisha Camera having an electronic viewfinder for displaying an object image under different photographic conditions
US7106887B2 (en) * 2000-04-13 2006-09-12 Fuji Photo Film Co., Ltd. Image processing method using conditions corresponding to an identified person
US6301440B1 (en) * 2000-04-13 2001-10-09 International Business Machines Corp. System and method for automatically setting image acquisition controls
JP2005062370A (en) * 2003-08-08 2005-03-10 Ricoh Co Ltd Imaging apparatus
JP2006238076A (en) * 2005-02-25 2006-09-07 Fuji Photo Film Co Ltd Photographic apparatus
JP4840848B2 (en) * 2005-09-21 2011-12-21 ソニー株式会社 Imaging apparatus, information processing method, and program
JP2007306418A (en) * 2006-05-12 2007-11-22 Fujifilm Corp Imaging apparatus and imaging control method
JP4432054B2 (en) * 2006-06-20 2010-03-17 富士フイルム株式会社 Imaging apparatus and method
JP4703498B2 (en) 2006-06-30 2011-06-15 三洋電機株式会社 Digital camera
JP4818999B2 (en) * 2006-07-25 2011-11-16 富士フイルム株式会社 Imaging apparatus, method, and program
CN101115147B (en) * 2006-07-25 2010-07-14 富士胶片株式会社 System for and method of taking image
JP2008144088A (en) 2006-12-13 2008-06-26 Du Pont Toray Co Ltd Thermoplastic elastomer resin composition and molded article
JP4799511B2 (en) * 2007-08-30 2011-10-26 富士フイルム株式会社 Imaging apparatus and method, and program
JP4930302B2 (en) * 2007-09-14 2012-05-16 ソニー株式会社 Imaging apparatus, control method thereof, and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002158903A (en) * 2000-11-22 2002-05-31 Casio Comput Co Ltd Image pickup device and method of controlling the same
JP2005109607A (en) * 2003-09-29 2005-04-21 Fuji Photo Film Co Ltd Photographic equipment
JP2005151375A (en) * 2003-11-19 2005-06-09 Casio Comput Co Ltd Camera apparatus and its photographic condition setting method
JP2006261912A (en) * 2005-03-16 2006-09-28 Casio Comput Co Ltd Photographing apparatus
JP2007288449A (en) * 2006-04-14 2007-11-01 Olympus Corp Imaging device
JP2008085737A (en) * 2006-09-28 2008-04-10 Nikon Corp Electronic camera

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011010273A (en) * 2009-05-22 2011-01-13 Olympus Imaging Corp Photographing condition control device, camera, image quality control device and program
JP2011217275A (en) * 2010-04-01 2011-10-27 Sanyo Electric Co Ltd Electronic device
US11140331B2 (en) 2017-06-21 2021-10-05 Fujifilm Corporation Image capturing apparatus, control method for image capturing apparatus, and control program for image capturing apparatus

Also Published As

Publication number Publication date
EP2395745A1 (en) 2011-12-14
KR101056103B1 (en) 2011-08-10
EP2131573A1 (en) 2009-12-09
EP2131573B1 (en) 2012-01-25
HK1136728A1 (en) 2010-07-02
TWI406564B (en) 2013-08-21
CN101621628B (en) 2012-08-08
US20090295945A1 (en) 2009-12-03
CN101621628A (en) 2010-01-06
TW201004322A (en) 2010-01-16
KR20090125716A (en) 2009-12-07
EP2395745B1 (en) 2013-12-18
ATE543332T1 (en) 2012-02-15
US8149313B2 (en) 2012-04-03
JP4645685B2 (en) 2011-03-09

Similar Documents

Publication Publication Date Title
JP4645685B2 (en) Camera, camera control program, and photographing method
JP4702401B2 (en) Camera, camera control program, and camera control method
US8089527B2 (en) Image capturing apparatus, image capturing method and storage medium
US7151564B2 (en) Image recording apparatus and method
JP4577252B2 (en) Camera, best shot shooting method, program
JP5050465B2 (en) Imaging apparatus, imaging control method, and program
JP4696614B2 (en) Image display control device and program
JP5181841B2 (en) Imaging apparatus, imaging control program, image reproducing apparatus, and image reproducing program
JP4609315B2 (en) Imaging device, method of displaying angle frame at zoom, and program
JP5168320B2 (en) Camera, best shot shooting method, program
JP2006276683A (en) Imaging apparatus and program
JP5170217B2 (en) Camera, camera control program, and photographing method
JP5267645B2 (en) Imaging apparatus, imaging control method, and program
JP5003803B2 (en) Image output apparatus and program
JP2007166447A (en) Imaging apparatus, zoom display method, and program
JP2010062655A (en) Image processor, program, and method for detecting object
JP2007041097A (en) Electronic camera, photographic method and program
JP4923722B2 (en) Imaging apparatus, imaging method, and program
JP4571111B2 (en) Information processing apparatus and recording medium
JP2006333156A (en) Electronic camera, zoom area displaying method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090916

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100513

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100608

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100804

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101109

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101122

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131217

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4645685

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131217

Year of fee payment: 3

R157 Certificate of patent or utility model (correction)

Free format text: JAPANESE INTERMEDIATE CODE: R157

LAPS Cancellation because of no payment of annual fees