JP5980535B2 - Imaging device and image data recording method - Google Patents

Imaging device and image data recording method Download PDF

Info

Publication number
JP5980535B2
JP5980535B2 JP2012069972A JP2012069972A JP5980535B2 JP 5980535 B2 JP5980535 B2 JP 5980535B2 JP 2012069972 A JP2012069972 A JP 2012069972A JP 2012069972 A JP2012069972 A JP 2012069972A JP 5980535 B2 JP5980535 B2 JP 5980535B2
Authority
JP
Japan
Prior art keywords
image
unit
touch
slide
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012069972A
Other languages
Japanese (ja)
Other versions
JP2013201701A (en
Inventor
いづみ 佐久間
いづみ 佐久間
岳之 鈴木
岳之 鈴木
健世 伊藤
健世 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2012069972A priority Critical patent/JP5980535B2/en
Publication of JP2013201701A publication Critical patent/JP2013201701A/en
Application granted granted Critical
Publication of JP5980535B2 publication Critical patent/JP5980535B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

この発明は、簡単な操作によって所定の画像処理を施した画像データを取得し記録し得る撮影機器と、上記画像データ記録方法に関するものである。   The present invention relates to a photographing apparatus capable of acquiring and recording image data subjected to predetermined image processing by a simple operation, and the image data recording method.

従来、撮影光学系により結像された光学像を光電変換素子等によって順次画像信号に変換し、これにより得られた画像信号を所定の形態の画像データとして記録媒体に記録し得ると共に、この記録媒体に記録された画像データを画像として再生表示する液晶表示装置(LCD)等の画像表示装置を備えて構成された撮影機器、例えばデジタルカメラやビデオカメラ等(以下、これらを総称してカメラという)が一般に実用化され、広く普及している。   Conventionally, an optical image formed by a photographing optical system is sequentially converted into an image signal by a photoelectric conversion element or the like, and the obtained image signal can be recorded on a recording medium as image data in a predetermined form. An imaging device configured to include an image display device such as a liquid crystal display device (LCD) that reproduces and displays image data recorded on a medium as an image, such as a digital camera or a video camera (hereinafter collectively referred to as a camera) ) Is generally put into practical use and widely used.

この種の撮影機器(カメラ)においては、取得された画像データに対して様々な信号処理を施すことによって、多種多様な画像出力結果を容易に得ることができるという特徴がある。例えば、各種の光学フイルタを用いた画像効果や、特殊形態の撮影レンズ(例えば魚眼レンズやアオリ機構付き撮影レンズ等)を用いた画像効果,露出調節やホワイトバランス調整,カラーバランス調整等の各種撮影設定値の調整により得られる画像効果等、従来行われてきた各種の撮影手法等の工夫によって得られる画像効果に略相当する同様の画像効果を、画像データに対する画像信号処理によって容易に実現し得る。   This type of photographing device (camera) has a feature that various image output results can be easily obtained by performing various signal processing on the acquired image data. For example, image effects using various optical filters, image effects using special forms of shooting lenses (such as fish-eye lenses and shooting lenses with tilt mechanism, etc.), various shooting settings such as exposure adjustment, white balance adjustment, color balance adjustment, etc. Similar image effects substantially corresponding to image effects obtained by contrivances such as various image capturing methods that have been conventionally performed, such as image effects obtained by adjusting values, can be easily realized by image signal processing on image data.

そのために、従来の撮影機器(カメラ)においては、例えば予め特定の画像効果を得るための手順をまとめた一連の画像処理プログラム群からなる撮影動作モードを、各種様々な画像効果に対応させて複数備えて構成したものが実用化されている。   Therefore, in a conventional photographing device (camera), for example, a plurality of photographing operation modes including a series of image processing program groups in which a procedure for obtaining a specific image effect in advance is associated with various image effects. What has been configured is put to practical use.

撮影者が、このような撮影機器(カメラ)を用いて撮影を行う際には、その場の状況に応じて所望の撮影動作モードを選択設定することで、所望の画像効果を含む画像を取得することができるというものである。   When a photographer takes a picture using such a photographing device (camera), an image including a desired image effect is obtained by selecting and setting a desired photographing operation mode according to the situation of the place. It can be done.

ところが、従来の撮影機器(カメラ)においては、例えば特定の画像効果を得るためプログラムは予め決められた設定によるものが用意されているのみであるので、あらゆる状況に対応し切れないという問題点がある。また、全ての撮影者が満足し得るものではなかった。   However, in the conventional photographing device (camera), for example, in order to obtain a specific image effect, only a program with a predetermined setting is prepared, so that there is a problem that it cannot cope with every situation. is there. Also, not all photographers could be satisfied.

撮影者が自身の撮影意図に応じて所望の画像効果を得るためには、各種の画像処理に応じた各種の設定値等を個々に直接設定すればよいが、設定項目が膨大であり、また各種の設定を行う煩雑さもあり、さらに、各種設定を直接設定するためには、各種画像処理についての深い知識も必要であるので、このような手段は現実的ではない。   In order for a photographer to obtain a desired image effect according to his / her intention to shoot, various setting values or the like corresponding to various image processing may be directly set individually, but the setting items are enormous, Since various settings are complicated, and in order to directly set various settings, deep knowledge about various image processing is also necessary, so such means is not practical.

一方、近年においては、撮影機器(カメラ)に具備される表示装置の表示画面上に、いわゆるタッチパネル等の操作部材を設け、表示装置の表示画面に表示される画像や、指示指標等をタッチパネル越しにタッチ操作あるいはスライド操作等を行うことで、各種の操作を行い得るようにしたものが、種々実用化されている。このタッチパネルに代表される操作部材を用いる操作体系は、従来のボタンやダイヤル等の操作部材を用いる操作系に比べて直感的な操作を行い得るという利点がある。   On the other hand, in recent years, an operation member such as a so-called touch panel is provided on a display screen of a display device provided in a photographing apparatus (camera), and an image displayed on the display screen of the display device, an instruction index, and the like are passed through the touch panel. Various devices have been put to practical use that can perform various operations by performing a touch operation or a slide operation. An operation system using an operation member typified by this touch panel has an advantage that an intuitive operation can be performed compared to a conventional operation system using an operation member such as a button or a dial.

そこで、このようなタッチパネル等の操作部材を積極的に採用することにより、使用者の直感的な操作を、画像処理に関する各種の設定値の変更設定に連動させることができれば至便である。   Therefore, it is convenient if an operation member such as a touch panel is positively adopted so that a user's intuitive operation can be linked to various setting value change settings related to image processing.

本発明は、上述した点に鑑みてなされたものであって、その目的とするところは、直感的で簡単な操作を行うのみで撮影者の意図を反映した好みの写真を容易に取得し得る撮影機器を提供することである。   The present invention has been made in view of the above-described points, and an object of the present invention is to easily acquire a favorite photograph reflecting the photographer's intention by performing an intuitive and simple operation. It is to provide photographing equipment.

上記目的を達成するために、本発明の一態様の撮影機器は、被写体を撮像する撮像素子を有する撮像部と、上記撮像部によって取得された画像データに基く画像を表示する表示部と、上記表示部の表示面上に配置されたタッチパネルと、上記表示部に表示中の画像内の光源を検出する光源検出部と、上記タッチパネルに対する入力操作に応じた座標データを検出し判定する操作入力判定部と、上記操作入力判定部によって検出された座標データに基いて上記画像内の指定領域を設定する制御部と、上記操作入力判定部によって判定された座標データに対応する領域の輝度分布を判定する輝度分布判定部と、上記制御部によって設定された上記画像内の上記指定領域の輝度を強調処理する輝度分布強調部と、上記画像データを記録する記録部と、を具備し、上記輝度分布強調部は、上記タッチパネルに対するスライド操作の移動距離に応じて輝度分布強調処理を施す範囲を設定し、上記タッチパネルに対する上記スライド操作の回数に応じて輝度分布強調レベルを設定する。 In order to achieve the above object, an imaging device of one embodiment of the present invention includes an imaging unit having an imaging element that images a subject, a display unit that displays an image based on image data acquired by the imaging unit, and A touch panel arranged on the display surface of the display unit, a light source detection unit for detecting a light source in an image being displayed on the display unit, and an operation input determination for detecting and determining coordinate data according to an input operation on the touch panel A luminance distribution of a region corresponding to the coordinate data determined by the operation input determination unit, a control unit that sets a designated region in the image based on the coordinate data detected by the operation input determination unit a luminance distribution determining unit that the luminance distribution enhancement section to emphasize processing the luminance of the designated area within the image set by the control unit, and a recording unit for recording the image data Comprising a, the luminance distribution enhancement unit sets a range for performing the luminance distribution enhancement processing according to the movement distance of the slide operation on the touch panel, setting the luminance distribution enhancement level according to the number of the slide operation on the touch panel To do.

また、本発明の一態様の画像データ記録方法は、タッチ操作を判定するタッチ判定ステップと、スライド操作によるスライド移動量を判定するスライド判定ステップと、画像中の顔画像を検出する顔検出ステップと、上記スライド判定ステップにより判定されたスライド移動量と上記顔検出ステップにより検出された顔画像情報とに基いて輝度分布強調処理を施す範囲を設定し、輝度分布強調レベルを設定する輝度分布強調ステップと、上記輝度分布強調ステップにより施された画像処理を含む画像データを記録する記録ステップと、を備える。   The image data recording method of one embodiment of the present invention includes a touch determination step for determining a touch operation, a slide determination step for determining a slide movement amount by the slide operation, and a face detection step for detecting a face image in the image. A luminance distribution enhancement step for setting a luminance distribution enhancement level by setting a range for performing luminance distribution enhancement processing based on the slide movement amount determined by the slide determination step and the face image information detected by the face detection step And a recording step for recording image data including the image processing performed by the luminance distribution enhancement step.

本発明によれば、直感的で簡単な操作を行うのみで撮影者の意図を反映した好みの写真を容易に取得し得る撮影機器を提供することができる。   According to the present invention, it is possible to provide a photographing device that can easily acquire a favorite photograph reflecting a photographer's intention by performing an intuitive and simple operation.

本発明の一実施形態の撮影機器(カメラ)の内部構成の概略を示すブロック構成図The block block diagram which shows the outline of the internal structure of the imaging device (camera) of one Embodiment of this invention 本実施形態の撮影機器(カメラ)における作用を示し、図1の撮影機器(カメラ)の表示部を操作している様子を示す概念図The conceptual diagram which shows the effect | action in the imaging device (camera) of this embodiment, and shows a mode that the display part of the imaging device (camera) of FIG. 1 is operated. 図1の撮影機器(カメラ)の表示部に表示される画像であって、図2の操作結果によって変化した後の画像の表示例を示す図The figure which is an image displayed on the display part of the imaging device (camera) of FIG. 1, Comprising: The figure which shows the example of a display of the image after changing with the operation result of FIG. 図2のスライド操作時のスライド軌跡(仮想直線L)に対応する画像の輝度分布を示すグラフThe graph which shows the luminance distribution of the image corresponding to the slide locus | trajectory (virtual straight line L) at the time of the slide operation of FIG. 図1の撮影機器(カメラ)の作用の概略を示すメインフローチャートThe main flowchart which shows the outline of an effect | action of the imaging device (camera) of FIG. 図1の撮影機器(カメラ)による画像効果設定操作の結果なされる画像処理を説明する図であり、図6(A)は画像処理結果を示す表示画面の例示、図6(B)は図6(A)の一部を拡大して示す要部拡大図FIGS. 6A and 6B are diagrams illustrating image processing performed as a result of an image effect setting operation performed by the photographing apparatus (camera) in FIG. 1. FIG. 6A illustrates an example of a display screen showing the image processing result, and FIG. The principal part enlarged view which expands and shows a part of (A) 図1の撮影機器(カメラ)の作用(主に画像効果設定操作に伴う処理の流れ)を示すフローチャートThe flowchart which shows the effect | action (the flow of a process mainly with image effect setting operation) of the imaging device (camera) of FIG. 図7のフローチャートに並行して実行される表示処理の流れを示すフローチャートThe flowchart which shows the flow of the display process performed in parallel with the flowchart of FIG.

以下、図示の実施の形態によって本発明を説明する。
以下に説明する各実施形態は、例えば光学レンズにより形成される光学像を固体撮像素子を用いて光電変換し、これによって得られる画像信号を静止画像や動画像を表わすデジタル画像データとして記録媒体に記録し、また記録媒体に記録されたデジタル画像データに基いて静止画像や動画像を表示装置に再生表示し得るように構成される撮影機器(以下、単にカメラという)に対し、本発明を適用した場合の例示である。
The present invention will be described below with reference to the illustrated embodiments.
In each of the embodiments described below, for example, an optical image formed by an optical lens is photoelectrically converted using a solid-state imaging device, and an image signal obtained thereby is stored on a recording medium as digital image data representing a still image or a moving image. The present invention is applied to a photographing device (hereinafter simply referred to as a camera) configured to be able to record and reproduce and display a still image or a moving image on a display device based on digital image data recorded on a recording medium. This is an example of the case.

なお、以下の説明に用いる各図面においては、各構成要素を図面上で認識可能な程度の大きさとするため、各構成要素毎に縮尺を異ならせて示している場合がある。したがって、本発明は、これらの図面に記載された構成要素の数量,構成要素の形状,構成要素の大きさの比率及び各構成要素の相対的な位置関係は、図示の形態のみに限定されるものではない。   In each drawing used for the following description, each component may be shown with a different scale in order to make each component large enough to be recognized on the drawing. Therefore, according to the present invention, the number of constituent elements, the shape of the constituent elements, the ratio of the constituent element sizes, and the relative positional relationship of the constituent elements described in these drawings are limited to the illustrated embodiments. It is not a thing.

図1は、本発明の一実施形態の撮影機器(カメラ)の内部構成の概略を示すブロック構成図である。図2〜図5は、本実施形態の撮影機器(カメラ)における作用を示す図である。このうち、図2は、本実施形態の撮影機器(カメラ)の表示部を操作している様子を示す概念図である。図3は、本実施形態の撮影機器(カメラ)の表示部に表示される画像であって、図2の操作結果によって変化した後の画像の表示例を示す図である。図4は、図2のスライド操作時のスライド軌跡(仮想直線L)に対応する画像の輝度分布を示すグラフである。図5は、本実施形態の撮影機器(カメラ)の作用の概略を示すメインフローチャートである。   FIG. 1 is a block configuration diagram showing an outline of an internal configuration of a photographing apparatus (camera) according to an embodiment of the present invention. 2-5 is a figure which shows the effect | action in the imaging device (camera) of this embodiment. Among these, FIG. 2 is a conceptual diagram showing a state in which the display unit of the photographing apparatus (camera) of the present embodiment is operated. FIG. 3 is a diagram showing an image displayed on the display unit of the photographing apparatus (camera) of the present embodiment, and shows an example of the image after changing according to the operation result of FIG. FIG. 4 is a graph showing the luminance distribution of the image corresponding to the slide locus (virtual straight line L) at the time of the slide operation of FIG. FIG. 5 is a main flowchart showing an outline of the operation of the photographing apparatus (camera) of the present embodiment.

まず、本実施形態の撮影機器であるカメラの内部構成の概略について、図1を用いて以下に説明する。   First, an outline of an internal configuration of a camera that is a photographing apparatus according to the present embodiment will be described below with reference to FIG.

本実施形態の撮影機器(以下、単にカメラというものとする)1は、図1に示すように、撮影光学系41と、絞り機構42と、レンズドライバ43と、絞りドライバ44と、シャッタ機構51と、撮像素子52と、アナログ処理部53と、アナログデジタル変換部(以下、AD変換部と略称する)54と、AE処理部55と、AF処理部56と、画像処理部57と、画像圧縮展開部58と、表示駆動部(以下、表示ドライバと略記する)59と、表示部60と、メモリインターフェース(以下、メモリIFと略記する)61と、記録媒体62と、SDRAM63と、フラッシュメモリ64と、操作部65と、制御部66と、タッチスライド判定部67と、明るさ(輝度)分布判定部68と、顔検出部69と、明るさ(輝度)分布強調部70と、シャッタドライバ71と、電源回路72と、通信用バス73等を具備して構成されている。   As shown in FIG. 1, a photographing apparatus (hereinafter simply referred to as a camera) 1 according to the present embodiment includes a photographing optical system 41, a diaphragm mechanism 42, a lens driver 43, a diaphragm driver 44, and a shutter mechanism 51. An image sensor 52, an analog processing unit 53, an analog-digital conversion unit (hereinafter abbreviated as AD conversion unit) 54, an AE processing unit 55, an AF processing unit 56, an image processing unit 57, and an image compression unit. Development unit 58, display drive unit (hereinafter abbreviated as display driver) 59, display unit 60, memory interface (hereinafter abbreviated as memory IF) 61, recording medium 62, SDRAM 63, and flash memory 64 An operation unit 65, a control unit 66, a touch slide determination unit 67, a brightness (luminance) distribution determination unit 68, a face detection unit 69, and a brightness (luminance) distribution enhancement unit 70. A shutter driver 71, a power supply circuit 72 is configured by including a communication bus 73 or the like.

撮影光学系41は、被写体からの光束を透過させて被写体像を形成し、その被写体像を撮像素子52の受光面上に結像させるユニットである。撮影光学系41は、例えば光軸Oに沿って並べて配設される複数の光学レンズと、これら複数の光学レンズをそれぞれ支持するレンズ枠等によって構成される。撮影光学系41は、レンズドライバ43を介して制御部66によって駆動制御される。   The photographing optical system 41 is a unit that forms a subject image by transmitting a light beam from the subject and forms the subject image on the light receiving surface of the image sensor 52. The photographing optical system 41 includes, for example, a plurality of optical lenses arranged along the optical axis O, and a lens frame that supports each of the plurality of optical lenses. The photographing optical system 41 is driven and controlled by the control unit 66 via the lens driver 43.

レンズドライバ43は、上記撮影光学系41の少なくとも一部の光学レンズ(を支持するレンズ枠)を光軸Oに沿う方向に進退移動させるためのユニットである。レンズドライバ43は、アクチュエータ等の駆動源や、この駆動源からの駆動力を伝達する駆動機構等の構成要素と、上記駆動源を駆動制御するための電気回路等を含んで構成される。   The lens driver 43 is a unit for moving at least a part of the optical lens (a lens frame supporting the lens lens) of the photographing optical system 41 in a direction along the optical axis O. The lens driver 43 includes a driving source such as an actuator, components such as a driving mechanism that transmits a driving force from the driving source, and an electric circuit for driving and controlling the driving source.

絞り機構42は、上記撮影光学系41内に配設されており、この撮影光学系41を通過する被写体からの光量を調節するユニットである。絞り機構42は、絞りドライバ44を介して制御部66によって駆動制御される。   The aperture mechanism 42 is disposed in the photographing optical system 41 and is a unit that adjusts the amount of light from a subject passing through the photographing optical system 41. The aperture mechanism 42 is driven and controlled by the controller 66 via the aperture driver 44.

絞りドライバ44は、例えばステッピングモータ等の駆動源や、この駆動源からの駆動力を伝達する駆動機構等の構成要素と、上記駆動源を駆動制御するための電気回路等を含んで構成される。   The aperture driver 44 includes, for example, a driving source such as a stepping motor, components such as a driving mechanism that transmits a driving force from the driving source, and an electric circuit for driving and controlling the driving source. .

シャッタ機構51は、撮像素子52の受光面上に結像される被写体像の露出時間を制御するユニットである。シャッタ機構51は、シャッタドライバ71を介して制御部66によって駆動制御される。   The shutter mechanism 51 is a unit that controls the exposure time of the subject image formed on the light receiving surface of the image sensor 52. The shutter mechanism 51 is driven and controlled by the control unit 66 via the shutter driver 71.

シャッタドライバ71は、シャッタ機構51を制御部66の制御下で駆動制御する制御ユニットである。   The shutter driver 71 is a control unit that drives and controls the shutter mechanism 51 under the control of the control unit 66.

撮像素子52は、撮影光学系41によって形成され自身の受光面上に受光された光学像(被写体像)を光電変換処理することによって、その被写体像の光量を電荷量を表わすアナログ信号へと変換する光電変換素子である。撮像素子52は、例えばCMOS,CCD等の光電変換素子が適用される。撮像素子52によって生成された電気信号(アナログ画像信号)はアナログ処理部53へと出力される。   The image sensor 52 converts the light amount of the subject image into an analog signal representing the amount of charge by photoelectrically converting an optical image (subject image) formed by the photographing optical system 41 and received on its light receiving surface. It is a photoelectric conversion element. As the image sensor 52, for example, a photoelectric conversion element such as a CMOS or a CCD is applied. The electrical signal (analog image signal) generated by the image sensor 52 is output to the analog processing unit 53.

なお、上記撮影光学系41,絞り機構42,シャッタ機構51,撮像素子52等によって、本カメラ1の撮像部が構成されている。   The imaging optical system 41, the aperture mechanism 42, the shutter mechanism 51, the imaging element 52, and the like constitute an imaging unit of the camera 1.

アナログ処理部53は、撮像素子52から出力された電気信号(アナログ画像信号)を受けて、リセットノイズ等を低減した上で波形整形を行った後、所望の明るさとなるようにゲインアップ処理等を行う信号処理部である。アナログ処理部53による処理済み信号は、AD変換部54へと出力される。   The analog processing unit 53 receives an electrical signal (analog image signal) output from the image sensor 52, performs waveform shaping after reducing reset noise and the like, and then performs gain-up processing or the like so as to obtain a desired brightness. It is a signal processing part which performs. A signal processed by the analog processing unit 53 is output to the AD conversion unit 54.

AD変換部54は、アナログ処理部53から出力されたアナログ画像信号を受けて、これをデジタル画像データに変換する信号処理部である。AD変換部54から出力された画像データは、通信用バス73を介してSDRAM63へと送られ、これに一時的に記憶される。   The AD conversion unit 54 is a signal processing unit that receives the analog image signal output from the analog processing unit 53 and converts the analog image signal into digital image data. The image data output from the AD conversion unit 54 is sent to the SDRAM 63 via the communication bus 73 and temporarily stored therein.

AE処理部55は、SDRAM63に一時的に記憶されたAD変換後の画像データに基いて画像内の被写体輝度を算出するデータ処理部であり、また画像内の光源を検出する光源検出部でもある。なお、AE処理部55において扱うデータ、即ち被写体輝度算出用データとしては、上記の画像データ以外に、例えば専用測光センサを設け、この専用測光センサからの出力データとしてもよい。   The AE processing unit 55 is a data processing unit that calculates subject luminance in an image based on image data after AD conversion temporarily stored in the SDRAM 63, and is also a light source detection unit that detects a light source in the image. . In addition to the image data, for example, a dedicated photometric sensor may be provided as the data handled in the AE processing unit 55, that is, the subject luminance calculation data, and output data from the dedicated photometric sensor may be used.

AF処理部56は、上記画像データから高周波成分の信号を取り出して、AF(Auto Focus;オートフォーカス)積算処理を行って合焦評価値を取得するデータ処理部である。   The AF processing unit 56 is a data processing unit that extracts a high-frequency component signal from the image data and performs AF (Auto Focus) integration processing to acquire a focus evaluation value.

画像処理部57は、上記SDRAM63から読み出した画像データに対して様々な画像処理を施すデータ処理部である。この画像処理部57において各種の処理が行われた後の画像データは、再度SDRAM63に一時的に記憶される。   The image processing unit 57 is a data processing unit that performs various image processing on the image data read from the SDRAM 63. The image data after various processes are performed in the image processing unit 57 is temporarily stored in the SDRAM 63 again.

画像圧縮展開部58は、所定の圧縮方式による画像データの圧縮処理や、所定の圧縮方式により圧縮された圧縮画像データの展開(伸長)処理等を行うデータ処理部である。この画像圧縮展開部58において取り扱う画像データが静止画像データである場合には、例えばJPEG規格に準拠した方式等による圧縮及び展開処理を行う。また、画像圧縮展開部58において取り扱う画像データが動画像データである場合には、例えばMotion−JPEG規格やH.264規格等に準拠した各種方式等による圧縮及び展開処理を行う。なお、静止画に係る画像データの記録を行う場合には、画像圧縮展開部58は、SDRAM63から画像データを読み出し、読み出した画像データを、例えばJPEG圧縮方式に従った圧縮処理を施して、圧縮処理済みのJPEG画像データを、再度SDRAM63に一時記憶するという、一連の処理が実行される。   The image compression / decompression unit 58 is a data processing unit that performs compression processing of image data by a predetermined compression method, expansion (decompression) processing of compressed image data compressed by a predetermined compression method, and the like. When the image data handled in the image compression / decompression unit 58 is still image data, compression and decompression processing is performed by a method based on the JPEG standard, for example. When the image data handled by the image compression / decompression unit 58 is moving image data, for example, Motion-JPEG standard or H.264 standard. The compression and decompression processing is performed by various methods based on the H.264 standard. When recording image data relating to a still image, the image compression / decompression unit 58 reads the image data from the SDRAM 63, compresses the read image data, for example, by performing compression processing according to the JPEG compression method. A series of processes is executed in which the processed JPEG image data is temporarily stored in the SDRAM 63 again.

表示部60は、撮像素子52等の撮像部によって取得された画像データに基く画像を表示するために、例えば液晶表示装置(LCD)等、各種形態の表示装置によって構成される。表示部60は、制御部66の制御下で表示ドライバ59を介して駆動制御される。表示部60には、例えば、撮影動作直後の画像データを受けて所定の短い時間だけ撮影取得結果としての画像表示を行うレックビュー表示、記録媒体62に記録済みの画像データ(JPEGファイル等)に基く画像の再生表示、スルー画像表示(ライブビュー表示ともいう)等の動画表示が行われる。   The display unit 60 is configured by various types of display devices such as a liquid crystal display device (LCD), for example, in order to display an image based on the image data acquired by the imaging unit such as the image sensor 52. The display unit 60 is driven and controlled via the display driver 59 under the control of the control unit 66. For example, the display unit 60 receives the image data immediately after the photographing operation and displays the image as a photographing acquisition result for a predetermined short time, and displays the image data (JPEG file or the like) recorded in the recording medium 62. Moving image display such as reproduction display of a base image and through image display (also referred to as live view display) is performed.

ここで、例えば記録媒体62に記録済みの画像データ(JPEGファイル)に基いて画像再生を行う場合には、制御部66は、画像圧縮展開部58を介して記録媒体62に記録済みの画像データ(JPEGファイル)の中から所望のデータを読み出して伸張処理(展開処理)を施す。画像圧縮展開部58において伸張処理された画像データはSDRAM63に一時記憶される。続いて、制御部66は、表示ドライバ59を介して上記伸張処理済み画像データをSDRAM63から読み出し、表示部60を用いて表示可能な映像信号に変換処理した後、表示部60へと出力する。これにより、表示部60には、画像表示がなされる。   Here, for example, when image reproduction is performed based on image data (JPEG file) recorded on the recording medium 62, the control unit 66 uses the image compression / decompression unit 58 to record image data recorded on the recording medium 62. Desired data is read out from the (JPEG file) and subjected to expansion processing (decompression processing). The image data decompressed by the image compression / decompression unit 58 is temporarily stored in the SDRAM 63. Subsequently, the control unit 66 reads out the decompressed image data from the SDRAM 63 via the display driver 59, converts the image data into a displayable video signal using the display unit 60, and outputs the video signal to the display unit 60. Thereby, an image is displayed on the display unit 60.

表示ドライバ59は、制御部66の制御下で上記表示部60を駆動制御するユニットである。   The display driver 59 is a unit that drives and controls the display unit 60 under the control of the control unit 66.

メモリIF61は、制御部66の制御下で記録媒体62をドライブし、該記録媒体62に記録済みの画像データファイルを読み込んだり、所定形式の画像データを記録媒体62に記録する等の処理を行う際のインターフェースである。   The memory IF 61 drives the recording medium 62 under the control of the control unit 66, reads an image data file recorded on the recording medium 62, and records image data in a predetermined format on the recording medium 62. Interface.

記録媒体62は、画像データ等を記録するための媒体であって、例えばカメラ本体50に対して着脱自在に配設されるカード形状の半導体メモリ、いわゆるメモリカード等が適用される。なお、記録媒体62の形態は、この形態に限られることはなく、他の形態、例えばカメラ本体50内に固定される媒体としてもよいし、半導体メモリ以外にも、光学板媒体,磁気媒体等、様々な形態のものを適用し得る。なお、メモリIF61と、記録媒体62とによって、記録部が構成される。   The recording medium 62 is a medium for recording image data or the like, and for example, a card-shaped semiconductor memory that is detachably attached to the camera body 50, a so-called memory card or the like is applied. Note that the form of the recording medium 62 is not limited to this form, and may be another form, for example, a medium fixed in the camera body 50, an optical plate medium, a magnetic medium, or the like in addition to the semiconductor memory. Various forms can be applied. The memory IF 61 and the recording medium 62 constitute a recording unit.

SDRAM63は、AD変換部54において生成された画像データや、画像処理部57,画像圧縮展開部58において処理された画像データ等の各種データを一時的に記憶する揮発性メモリからなる記憶部である。   The SDRAM 63 is a storage unit including a volatile memory that temporarily stores various data such as image data generated by the AD conversion unit 54 and image data processed by the image processing unit 57 and the image compression / decompression unit 58. .

フラッシュメモリ64は、ホワイトバランスモードに応じたホワイトバランスゲイン,ローパスフィルタ係数等のカメラ動作に必要となる各種パラメータ,銀塩粒子による粒状感に似せた粒状パターンの画像データ,カメラ1を特定するための固有情報、例えば製品名,製造番号等の各種の情報が予め記憶されている不揮発性メモリからなる記憶部である。さらに、フラッシュメモリ64には、制御部66にて実行される各種プログラム等も予め記憶されている。したがって、制御部66は、フラッシュメモリ64に記憶されているプログラムを適宜のタイミングで読み込んで実行する。その際、制御部66は、各種シーケンス処理に必要となる各種のパラメータ等を、フラッシュメモリ64から読み込む。   The flash memory 64 specifies various parameters necessary for camera operation such as white balance gain corresponding to the white balance mode, low-pass filter coefficient, image data of a granular pattern resembling the granular feeling due to silver salt particles, and the camera 1. This is a storage unit composed of a non-volatile memory in which various kinds of information such as product name and serial number are stored in advance. Further, the flash memory 64 stores various programs executed by the control unit 66 in advance. Therefore, the control unit 66 reads and executes the program stored in the flash memory 64 at an appropriate timing. At that time, the control unit 66 reads various parameters necessary for various sequence processes from the flash memory 64.

操作部65は、本カメラ1に対する各種操作を行うための複数の操作部材及び対応する操作スイッチ等によって構成される。使用者が操作部65のうちの所定の操作部材を操作すると、対応する操作スイッチより所定の指示信号が発生し、その指示信号は、制御部66へと伝達されるようになっている。この指示信号を受けて、制御部66は、適宜操作に応じた各種シーケンスを実行する。操作部65としては、具体的には例えば電源ボタン,レリーズボタン,再生ボタン,メニューボタン,動画ボタン,モード切換ボタン等の機械的スイッチに連動する操作部材ほか、タッチパネル等の指示入力を行うための入力用操作部材等が含まれる。   The operation unit 65 includes a plurality of operation members for performing various operations on the camera 1 and corresponding operation switches. When the user operates a predetermined operation member of the operation unit 65, a predetermined instruction signal is generated from the corresponding operation switch, and the instruction signal is transmitted to the control unit 66. Upon receiving this instruction signal, the control unit 66 executes various sequences in accordance with appropriate operations. Specifically, as the operation unit 65, for example, an operation member interlocked with a mechanical switch such as a power button, a release button, a playback button, a menu button, a moving image button, a mode switching button, or the like for inputting instructions on a touch panel or the like. Input operation members and the like are included.

制御部66は、当該カメラ本体50の各種シーケンスを統括的に制御する制御手段である。また、制御部66は、SDRAM63に一時記憶されたJPEG画像データに対して、必要となるJPEGヘッダ情報等を付加してJPEGファイルを作成し、作成されたJPEGファイルをメモリIF61を介して記録媒体62へと記録する処理等をも行う。制御部66には、操作部65と、フラッシュメモリ64と、タッチスライド判定部67と、明るさ分布判定部68と、顔検出部69と、明るさ分布強調部70とが、直接接続されている。   The control unit 66 is a control unit that comprehensively controls various sequences of the camera body 50. In addition, the control unit 66 creates a JPEG file by adding necessary JPEG header information and the like to the JPEG image data temporarily stored in the SDRAM 63, and the created JPEG file is recorded on the recording medium via the memory IF 61. The process of recording to 62 is also performed. An operation unit 65, a flash memory 64, a touch slide determination unit 67, a brightness distribution determination unit 68, a face detection unit 69, and a brightness distribution enhancement unit 70 are directly connected to the control unit 66. Yes.

タッチスライド判定部67は、操作部65に含まれるタッチパネルに対するタッチ操作やスライド操作を検出すると共に、検出されたタッチ操作,スライド操作の表示画面上における位置や操作量(操作範囲,操作時間等)等を検出する操作入力判定部を構成する回路部である。タッチスライド判定部67による判定結果は制御部66へと出力される。   The touch slide determination unit 67 detects a touch operation or a slide operation on the touch panel included in the operation unit 65, and also detects the position and operation amount (operation range, operation time, etc.) on the display screen of the detected touch operation and slide operation. It is a circuit part which comprises the operation input determination part which detects etc. The determination result by the touch slide determination unit 67 is output to the control unit 66.

明るさ分布判定部68は、上記タッチスライド判定部67の判定結果を受けて、表示画面上の表示画像のうちの上記タッチ操作及びスライド操作がなされた範囲の画像信号に関し、輝度信号の分布を判定する回路部である。   The brightness distribution determination unit 68 receives the determination result of the touch slide determination unit 67 and determines the distribution of the luminance signal with respect to the image signal in the range where the touch operation and the slide operation are performed on the display image on the display screen. It is a circuit part to judge.

顔検出部69は、撮像動作の結果表示画面上に表示されている画像中に含まれる所定の特徴を有する顔画像、例えば人物やペット等の顔画像の形態,大きさ等の情報を、所定の画像解析処理に基いて検出すると共に、その検出された顔画像が画面内で移動する時には、これを追尾し続ける機能,画面外に出ても再度画面内に入った時には続けて追尾する機能等を実現する回路部である。   The face detection unit 69 obtains information on a face image having a predetermined feature included in an image displayed on the display screen as a result of the imaging operation, for example, information such as the form and size of a face image such as a person or a pet. A function that continues to track the detected face image when it moves within the screen, and a function to continue tracking when it enters the screen again even if it goes out of the screen. It is a circuit part which implement | achieves etc.

明るさ分布強調部70は、上記明るさ分布判定部68による判定結果と上記タッチスライド判定部67による判定結果とに基いて、所定の範囲の画像信号についての明るさ分布(輝度信号の分布)を強調処理する画像処理を行う回路部である。   The brightness distribution enhancement unit 70 is based on the determination result by the brightness distribution determination unit 68 and the determination result by the touch slide determination unit 67, and the brightness distribution (luminance signal distribution) for a predetermined range of image signals. It is a circuit part which performs image processing which emphasizes.

電源回路72は、バッテリ等の電源と、この電源を制御する回路等によって構成され、制御部66の制御下で、本カメラ1内の各構成ユニットや回路ユニットに対し必要となる電力を適宜供給する回路部である。   The power supply circuit 72 includes a power supply such as a battery and a circuit that controls the power supply, and appropriately supplies necessary power to each component unit and circuit unit in the camera 1 under the control of the control unit 66. It is a circuit part to do.

通信用バス73は、カメラ1の内部で発生した各種データ等を、本カメラ1を構成する内部構成ユニットの各部へと転送するための転送路である。通信用バス73は、AD変換部54,AE処理部55,AF処理部56,画像処理部57,画像圧縮展開部58,表示ドライバ59,メモリIF61,SDRAM63,制御部66,レンズドライバ43,絞りドライバ44,シャッタドライバ71等に接続されている。その他の構成は、従来一般の撮影機器(カメラ)と同様の構成を有するものとして、その図示を省略している。また、図1に示された構成要素について、本発明に直接関連しないものについては、簡略な説明に留めた。   The communication bus 73 is a transfer path for transferring various data generated inside the camera 1 to each part of the internal configuration unit constituting the camera 1. The communication bus 73 includes an AD conversion unit 54, an AE processing unit 55, an AF processing unit 56, an image processing unit 57, an image compression / decompression unit 58, a display driver 59, a memory IF 61, an SDRAM 63, a control unit 66, a lens driver 43, an aperture. The driver 44 and the shutter driver 71 are connected. The other configurations are omitted as they have the same configuration as a conventional general photographing apparatus (camera). Moreover, about the component shown by FIG. 1, what was not directly related to this invention was kept to simple description.

このように構成された本実施形態のカメラ1の作用を、図2〜図5を用いて以下に説明する。
本実施形態においては、使用者が表示部60の表示画面を手指等によるタッチ操作とスライド操作等を行うと、カメラ1は制御部66の制御下で適宜所定の画像処理を行い、使用者の意図する画像効果(本実施形態では明るさ強調効果)を得るという具体例を示すものである。なお、これら一連の操作は、所望の画像効果を得るための設定操作であり、以下に、その画像効果設定操作を、具体的に説明する。
The operation of the camera 1 of the present embodiment configured as described above will be described below with reference to FIGS.
In the present embodiment, when the user performs a touch operation and a slide operation with a finger or the like on the display screen of the display unit 60, the camera 1 appropriately performs predetermined image processing under the control of the control unit 66. A specific example of obtaining an intended image effect (brightness enhancement effect in the present embodiment) is shown. These series of operations are setting operations for obtaining a desired image effect, and the image effect setting operations will be specifically described below.

例えば、図2に示すように、カメラ1の表示部60の表示画面に、スルー画像(ライブビュー画像;撮影モード時)若しくは撮影済みの画像(再生モード時)が表示されているものとする。この状態において、使用者が手100の指100aを表示部60の表示画面上(に設けられたタッチパネルのタッチ面)における任意の点をタッチ操作し、これに続けてスライド操作を行って、手100を図2の[A]で示す位置から[B]で示す位置へ移動させたものとする。   For example, as shown in FIG. 2, it is assumed that a through image (live view image; in shooting mode) or a shot image (in playback mode) is displayed on the display screen of the display unit 60 of the camera 1. In this state, the user touches an arbitrary point on the display screen of the display unit 60 (the touch surface of the touch panel provided on the display unit 60) with the finger 100a of the hand 100, and then performs a slide operation to perform the hand operation. 100 is moved from the position indicated by [A] in FIG. 2 to the position indicated by [B].

この場合、指100aが表示部60の表示画面上の所定の位置で、例えば画面内の太陽等の光源101をタッチ操作したものとする。このときのタッチ位置P1を座標(X1,Y1)で示す。なお、表示画面中において光源101を含む部位に、指標110が表示されている。この指標110は、タッチ操作によるシャッタレリース操作が無効となる画面領域を明示するために表示される指標である。この指標110は、次のようにして表示される。例えばスルー画像表示がなされた時、若しくは再生画像が表示された時に、カメラ1の制御部66は、AE処理部55等を制御して表示画像中の光源位置を検出し、その光源位置を囲むように指標110を表示させる。そして、この指標110内の領域がタッチ操作された場合には、通常のシャッタレリース動作ではなく、後述する本実施形態の画像効果設定動作が行われるようにしている。   In this case, it is assumed that the finger 100a touches the light source 101 such as the sun in the screen at a predetermined position on the display screen of the display unit 60. The touch position P1 at this time is indicated by coordinates (X1, Y1). Note that an index 110 is displayed in a portion including the light source 101 in the display screen. The index 110 is an index that is displayed to clearly indicate a screen area where the shutter release operation by the touch operation is invalid. The index 110 is displayed as follows. For example, when a through image is displayed or when a reproduction image is displayed, the control unit 66 of the camera 1 controls the AE processing unit 55 and the like to detect the light source position in the display image and surround the light source position. Thus, the index 110 is displayed. When an area in the index 110 is touched, an image effect setting operation according to the present embodiment, which will be described later, is performed instead of a normal shutter release operation.

続いて、そのタッチ位置P1(X1,Y1)から指100aを所定の方向、例えば人物102の顔のある方向(矢印S方向)へ向けて所定の距離だけ離れた所定の位置、即ち人物102の顔のうち上記光源101寄りの部位までスライド操作し、その位置で指100aを表示部60の表示画面上から離したものとする。ここで指100aを離した位置P2を座標(X2,Y2)で示す。   Subsequently, the finger 100a is moved from the touch position P1 (X1, Y1) to a predetermined direction, for example, a predetermined position away from the touch position P1 (X1, Y1) by a predetermined distance, for example, in the direction of the face of the person 102 (arrow S direction) It is assumed that a slide operation is performed to a part of the face close to the light source 101 and the finger 100a is separated from the display screen of the display unit 60 at that position. Here, a position P2 where the finger 100a is released is indicated by coordinates (X2, Y2).

このときのスライド操作の方向、即ち矢印Sに沿う直線を画面周縁部まで延長した仮想直線を符号Lで示す。そして、この直線L上の点であって、表示部60の画面周縁部で交わる二つの点をそれぞれ座標(X0,Y0),(X3,Y3)で示す。   The direction of the sliding operation at this time, that is, a virtual straight line obtained by extending a straight line along the arrow S to the peripheral edge of the screen is indicated by a symbol L. Two points on the straight line L that intersect at the periphery of the screen of the display unit 60 are indicated by coordinates (X0, Y0) and (X3, Y3), respectively.

上記のように、所定領域(光源位置)に対するタッチ操作に続けてスライド操作が行われると、つまり、連続するタッチ&スライド操作が検出されると、その場合には、オートフォーカス動作,シャッターリリース動作等が起動することなく、本実施形態で説明する画像効果設定操作であるものと判断されるようになっている。   As described above, when a slide operation is performed following a touch operation on a predetermined area (light source position), that is, when a continuous touch and slide operation is detected, in that case, an autofocus operation, a shutter release operation And the like are determined to be the image effect setting operation described in this embodiment.

したがって、上述のように、タッチ操作&スライド操作が検出された場合には、指標110を含む領域をタッチ操作してもシャッターリリース動作等が起動しない。そして、この状態にあるときは、シャッターリリース動作等を行うためには、指標110以外の領域をタッチ操作する。   Therefore, as described above, when a touch operation and a slide operation are detected, a shutter release operation or the like does not start even if a touch operation is performed on an area including the index 110. In this state, a touch operation is performed on an area other than the index 110 in order to perform a shutter release operation or the like.

なお、上述のように、連続するタッチ操作&スライド操作を検出して画像効果設定操作であると判断する代わりに、表示部60の表示画面に対する最初のタッチ操作のタッチ時間等を判定することで、そのタッチ操作がオートフォーカス動作を実行するための操作か、シャッターリリース動作を実行するための操作か、画像効果設定操作であるかを判断するようにしてもよい。   Note that, as described above, instead of determining the image effect setting operation by detecting successive touch operations and slide operations, the touch time of the first touch operation on the display screen of the display unit 60 is determined. It may be determined whether the touch operation is an operation for executing an autofocus operation, an operation for executing a shutter release operation, or an image effect setting operation.

以上の操作を行うことにより本実施形態のカメラ1においては、使用者によるタッチ&スライド操作で指定された領域(上記の例では、直線L上のタッチ位置P1(X1、Y1)からP2(X2、Y2)までの間の線分)を含む所定範囲の画像領域の輝度(明るさ)を強調する画像処理、即ち指定領域の輝度(明るさ)を引き上げる(より明るくさせる)画像処理が行われる。   By performing the above operation, in the camera 1 of the present embodiment, the region designated by the touch & slide operation by the user (in the above example, from the touch positions P1 (X1, Y1) on the straight line L to P2 (X2 , Y2)), image processing for enhancing the luminance (brightness) of the image area in a predetermined range, that is, image processing for raising (making brighter) the luminance (brightness) of the designated area is performed. .

即ち、画像(スルー画像若しくは再生画像)が表示された状態の表示部60の表示画面に対し使用者がタッチ&スライド操作を行って所望の領域を指定することによって、カメラ1は、AE処理部55に基いて設定した露出値等の露出情報に対して、使用者の意図を反映させた部分的な露出の修正を加えることができる。これによって使用者の意図を反映した画像効果を得ることができる。   That is, when the user performs a touch and slide operation on the display screen of the display unit 60 in a state where an image (through image or reproduced image) is displayed, a desired area is designated, so that the camera 1 is operated by the AE processing unit. The exposure information such as the exposure value set based on 55 can be corrected for partial exposure reflecting the user's intention. As a result, an image effect reflecting the user's intention can be obtained.

通常の場合、カメラ1のAE処理部55は、画面全体の輝度(明るさ情報)を勘案して、適正と思われる露出値を決定する。この場合、例えば、図2に示すように太陽等のような極めて高輝度な光源101が表示画像中に含まれているような状況では、同一画面内の対象物(図2に示す場合は人物102)はいわゆる逆光状態となってしまうことから、そのほとんどの画像領域が暗いシルエット状の低輝度領域(図2の符号102b)となってしまうことが多い。   In a normal case, the AE processing unit 55 of the camera 1 determines an appropriate exposure value in consideration of the brightness (brightness information) of the entire screen. In this case, for example, in a situation where the display image includes a light source 101 such as the sun as shown in FIG. 2, the object within the same screen (in the case of FIG. 102) is in a so-called backlight state, so that most of the image area is often a dark silhouette-like low luminance area (reference numeral 102b in FIG. 2).

ここで、図4は上記仮想直線L上の輝度分布を示す図である。図4で示す実線(符号[2]で示すグラフ線)は、図2の画像の直線L上の輝度分布を示している。図4に示すように、光源101上のP1(X1,Y1)では高輝度であり、光源101から離れるに従って輝度は低下している。そして、光源101からの光を受けている顔領域のうち光源101寄りの一部領域、即ち顔の輪郭102c近傍において若干高輝度となり、そこから徐々に暗いシルエット状の低輝度(図2の符号102b)へと変位する。   Here, FIG. 4 is a diagram showing a luminance distribution on the virtual straight line L. In FIG. A solid line (a graph line indicated by reference numeral [2]) illustrated in FIG. 4 indicates a luminance distribution on the straight line L of the image illustrated in FIG. As shown in FIG. 4, P1 (X1, Y1) on the light source 101 has a high luminance, and the luminance decreases as the distance from the light source 101 increases. In the face area receiving the light from the light source 101, a part of the face area near the light source 101, that is, in the vicinity of the face contour 102c, becomes slightly brighter and gradually darker and darker (from the sign of FIG. 2). 102b).

そこで、暗いシルエット状の低輝度部分を部分的に修正するために、例えば上述のようなタッチ&スライド操作を行い、画面中の一部の領域を指定することによって、図3に示すような画像、即ち光源101を含む指定領域101a近傍の輝度をさらに引き上げると共に、暗いシルエットとなっていた対象物の一部、即ち人物102の顔領域のうちの一部であって、上記光源101寄りの所定範囲の領域102aの輝度(明るさ)を引き上げる画像処理が行われる。その結果の輝度分布は、図4において符号[3]で示すグラフ線(一点鎖線)である。なお、この場合において、人物102の顔領域のうちの一部であり上記光源101寄りの所定範囲の領域102aと、顔領域のうちの暗いシルエット状の低輝度部分102bとの境界部分を、図2において符号102dで示すものとする。この境界102dは明確な線で示されるものではないが、図示の簡略化のために図面上では実線で示している。   Therefore, in order to partially correct the dark silhouette-like low-brightness part, for example, by performing the touch and slide operation as described above and specifying a partial area in the screen, an image as shown in FIG. That is, the luminance in the vicinity of the designated area 101 a including the light source 101 is further increased, and a part of the object that has become a dark silhouette, that is, a part of the face area of the person 102, which is close to the light source 101. Image processing for increasing the luminance (brightness) of the region 102a in the range is performed. The resulting luminance distribution is a graph line (one-dot chain line) indicated by reference numeral [3] in FIG. In this case, a boundary portion between a part of the face area of the person 102 and a predetermined area 102a near the light source 101 and a dark silhouette-like low-intensity part 102b of the face area is shown in FIG. In FIG. The boundary 102d is not shown by a clear line, but is shown by a solid line in the drawing for simplification of illustration.

このような一連の作用を簡略的にまとめたものが、図5のフローチャートである。本実施形態のカメラ1における作用のうち、主に画像効果設定操作に伴う処理の流れを、図5のフローチャートによって以下に説明する。   FIG. 5 is a flow chart that briefly summarizes such a series of actions. Of the operations in the camera 1 of the present embodiment, the flow of processing mainly associated with the image effect setting operation will be described below with reference to the flowchart of FIG.

まず、カメラ1の電源がオン状態となり、動作可能に起動している状態にあるものとする。この状態にあるとき、図5のステップS1において、制御部66は、現在設定されている動作モードが撮影モードであるか否かの確認を行う。ここで、撮影モードに設定されている場合には、次のステップS2の処理に進む。また、撮影モード以外の動作モードに設定されている場合には、ステップS21の処理に進む。   First, it is assumed that the power source of the camera 1 is turned on and is operatively activated. In this state, in step S1 of FIG. 5, the control unit 66 checks whether or not the currently set operation mode is the shooting mode. If the shooting mode is set, the process proceeds to the next step S2. If an operation mode other than the shooting mode is set, the process proceeds to step S21.

ステップS2において、制御部66は、撮像素子52を駆動制御すると共に、表示ドライバ59を介して表示部60を制御してスルー画表示処理(若しくはライブビュー表示処理ともいう)を実行する。このスルー画表示処理は、撮像素子52によって取得されアナログ処理部53を介してAD変換部54から出力される画像信号を受けて、表示ドライバ59を介して表示部60へと伝送し、この表示部60の表示画面に画像を連続的に表示させ続ける表示処理である。その後、ステップS3の処理に進む。   In step S <b> 2, the control unit 66 controls the drive of the image sensor 52 and controls the display unit 60 via the display driver 59 to execute a through image display process (also referred to as a live view display process). In this through image display process, an image signal acquired by the image sensor 52 and output from the AD conversion unit 54 via the analog processing unit 53 is received and transmitted to the display unit 60 via the display driver 59, and this display is performed. This is a display process for continuously displaying images on the display screen of the unit 60. Thereafter, the process proceeds to step S3.

ステップS3において、制御部66は、操作部65からの指示信号を監視して、撮影操作、即ちシャッターリリース操作がなされたか否かの確認を行う。ここで、本カメラ1におけるシャッターリリース操作は、上述したように操作部65に含まれるタッチパネルに対するタッチ操作である。また、これとは別に、別途シャッターリリースボタンを設けることにより、このシャッターリリースボタンの押圧操作を、シャッターリリース操作としてもよいが、以下の説明においては、本カメラ1のシャッターリリース操作はタッチ操作であるものとして説明する。   In step S <b> 3, the control unit 66 monitors an instruction signal from the operation unit 65 and confirms whether or not a photographing operation, that is, a shutter release operation has been performed. Here, the shutter release operation in the camera 1 is a touch operation on the touch panel included in the operation unit 65 as described above. In addition, by separately providing a shutter release button, the shutter release button pressing operation may be a shutter release operation. In the following description, the shutter release operation of the camera 1 is a touch operation. It will be explained as being.

このステップS3の処理において、制御部66が操作部65に含まれるタッチパネルに対するタッチ操作を確認した場合には、そのタッチ操作の指示信号をタッチスライド判定部67によって判定処理する。ここで、タッチ操作がシャッターリリース指示信号であることが確認された場合には、次のステップS4の処理に進む。   When the control unit 66 confirms the touch operation on the touch panel included in the operation unit 65 in the process of step S <b> 3, the touch slide determination unit 67 determines the touch operation instruction signal. If it is confirmed that the touch operation is a shutter release instruction signal, the process proceeds to the next step S4.

また、上述のステップS3の処理にて、タッチ操作以外の操作が確認された場合、若しくはタッチ操作が確認された場合であって、そのタッチ操作がシャッターリリース指示信号ではないと判断された場合には、ステップS11の処理に進む。   In addition, when an operation other than the touch operation is confirmed in the process of step S3 described above, or when the touch operation is confirmed and it is determined that the touch operation is not a shutter release instruction signal. Advances to step S11.

ここで、タッチスライド判定部67によるシャッターリリース指示信号であるか否かの判定処理は、例えば上述したように、例えばタッチパネルに対するタッチ操作の時間を判定したり、当該タッチ操作に続くスライド操作の有無の確認(後述のステップS11のスライド判定処理)によって判断する。   Here, for example, as described above, the determination process of whether or not the shutter release instruction signal is the shutter release instruction signal by the touch slide determination unit 67 is to determine the time of the touch operation on the touch panel or the presence or absence of the slide operation following the touch operation. This is determined by confirmation (slide determination processing in step S11 described later).

上述のステップS3の処理にて、シャッタリリース指示信号が確認されてステップS4の処理に進むと、このステップS4において、制御部66は、通常の撮影処理を実行する。この撮影処理は、AF処理部56と連繋してレンズドライバ43を介して行う撮影光学系41の駆動制御(AF制御動作等)や、AE処理部55と連繋して絞りドライバ44を介して行う絞り機構42の駆動制御及びシャッタドライバ71を介して行うシャッタ機構51の駆動制御(露出制御動作),撮像素子52を駆動制御する撮像動作等、一連の制御処理である。なお、このステップS4の処理にて実行される撮影処理自体は、従来一般の撮影機器(カメラ)と同様の処理であるものとして、その詳細説明は省略する。この撮影処理の結果取得された画像信号は、AD変換部54からの出力されSDRAM63に一時的に記憶される。その後、ステップS5の処理に進む。   When the shutter release instruction signal is confirmed in the process of step S3 and the process proceeds to the process of step S4, in step S4, the control unit 66 executes a normal photographing process. This shooting process is performed via the aperture driver 44 linked to the AF processing unit 56 and via the aperture driver 44 linked to the AE processing unit 55 (AF control operation, etc.). This is a series of control processes such as drive control of the diaphragm mechanism 42, drive control of the shutter mechanism 51 (exposure control operation) performed via the shutter driver 71, and image pickup operation for driving and controlling the image sensor 52. Note that the photographing process itself executed in the process of step S4 is the same as that of a conventional general photographing apparatus (camera), and a detailed description thereof will be omitted. The image signal acquired as a result of the photographing process is output from the AD conversion unit 54 and temporarily stored in the SDRAM 63. Thereafter, the process proceeds to step S5.

ステップS5において、制御部66は、通常の記録処理を実行する。この記録処理は、画像圧縮展開部58において、上記SDRAM63に一時記憶された画像信号を所定の形態の信号圧縮処理を施して画像データを生成し、その画像データをメモリIF61を介して記録媒体62の所定領域に記録する一連の制御処理である。なお、このステップS5の処理にて実行される記録処理自体も従来一般の撮影機器(カメラ)と同様の処理であるので、その詳細説明は省略する。その後、上述のステップS1の処理に戻り、以降の処理を繰り返す。   In step S5, the control unit 66 executes normal recording processing. In this recording process, the image compression / development unit 58 applies a signal compression process of a predetermined form to the image signal temporarily stored in the SDRAM 63 to generate image data, and the image data is stored in the recording medium 62 via the memory IF 61. It is a series of control processes recorded in the predetermined area. Note that the recording process itself executed in the process of step S5 is the same process as that of a conventional general photographing apparatus (camera), and thus detailed description thereof is omitted. Thereafter, the processing returns to the above-described step S1 and the subsequent processing is repeated.

一方、上述のステップS3の処理にて、シャッタリリース指示信号が確認されずにステップS11の処理に進むと、このステップS11において、制御部66は、タッチスライド判定部67によってスライド操作がなされたか否かの判定を行う。ここで、スライド操作が確認された場合には、上述のステップS3の処理においてはタッチ操作が必ず確認されているはずである。したがって、タッチ操作に続くスライド操作がなされたものとして、次のステップS12の処理に進む。また、スライド操作が確認されない場合には、上述のステップS1の処理に戻り、以降の処理を繰り返す。   On the other hand, if the shutter release instruction signal is not confirmed in step S3 and the process proceeds to step S11, in step S11, the control unit 66 determines whether the touch slide determination unit 67 has performed a slide operation. Judgment is made. Here, when the slide operation is confirmed, the touch operation must be confirmed in the process of step S3 described above. Accordingly, it is assumed that a slide operation following the touch operation has been performed, and the process proceeds to the next step S12. If the slide operation is not confirmed, the process returns to the above-described step S1 and the subsequent processes are repeated.

ステップS12において、制御部66は、輝度分布判定処理を実行する。即ち、上述のステップS3,S11の処理によるタッチ&スライド操作によって指定された領域に関し、明るさ分布判定部68によって輝度分布を判定する(図4に示すようなグラフを作成する)。そして、この輝度分布について、所定のパターン、即ち高輝度部分から低輝度部分を経て再度高輝度部分が表れるパターンとなっているか否かの確認を行う。ここで、所定のパターンの輝度分布であると判定された場合には、次のステップS13の処理に進む。また、所定のパターンの輝度分布ではないと判定された場合には、ステップS1の処理に戻り、以降の処理を繰り返す。   In step S12, the control unit 66 executes a luminance distribution determination process. In other words, the brightness distribution determination unit 68 determines the luminance distribution for the area specified by the touch and slide operation in the above-described steps S3 and S11 (creates a graph as shown in FIG. 4). Then, for this luminance distribution, it is confirmed whether or not a predetermined pattern, that is, a pattern in which the high luminance portion appears again from the high luminance portion through the low luminance portion. If it is determined that the luminance distribution has a predetermined pattern, the process proceeds to the next step S13. On the other hand, if it is determined that the luminance distribution does not have a predetermined pattern, the process returns to step S1 and the subsequent processes are repeated.

ステップS13において、制御部66は、AE処理部55を制御して、設定された露出値をプラス(+)側へ補正する処理を実行する。その後、ステップS1の処理に戻り、以降の処理を繰り返す。   In step S13, the control unit 66 controls the AE processing unit 55 to execute processing for correcting the set exposure value to the plus (+) side. Then, it returns to the process of step S1 and repeats the subsequent processes.

他方、上述のステップS1の処理にて、撮影モード以外の動作モードが設定されているものと判断されてステップS21の処理に進むと、このステップS21において、制御部66は、現在設定されている動作モードが再生モードであるか否かの確認を行う。ここで、再生モードに設定されている場合には、次のステップS22の処理に進む。また、再生モード以外のその他の動作モード、例えば通信モード,データストレージモード等に設定されている場合には、ステップS31の処理に進み、このステップS31において、設定されている動作モードについての動作処理が実行される。   On the other hand, when it is determined in step S1 that the operation mode other than the shooting mode is set and the process proceeds to step S21, the control unit 66 is currently set in step S21. It is confirmed whether or not the operation mode is the playback mode. If the playback mode is set, the process proceeds to the next step S22. If another operation mode other than the playback mode is set, for example, the communication mode, the data storage mode, etc., the process proceeds to step S31. In this step S31, the operation process for the set operation mode is performed. Is executed.

なお、撮影モード,再生モード以外のその他の動作モード時の動作は本実施形態に直接関連しない部分である。したがって、その他の動作モード時の動作については、従来一般のカメラと同様の動作が行われるものとして、その詳細説明は省略する。その後、上述のステップS1の処理に戻り、以降の処理を繰り返す。   Note that operations in other operation modes other than the shooting mode and the playback mode are not directly related to the present embodiment. Therefore, the operation in other operation modes is the same as that of a conventional general camera, and detailed description thereof is omitted. Thereafter, the processing returns to the above-described step S1 and the subsequent processing is repeated.

上述のステップS21の処理にて、再生モードが設定されているものと判断されて、次のステップS22の処理に進むと、このステップS22において、制御部66は、選択画像再生処理を実行する。   If it is determined in step S21 that the playback mode is set and the process proceeds to the next step S22, the control unit 66 executes the selected image playback process in step S22.

カメラ1が再生モードにある時には、表示部60の表示画面に記録媒体62に記録済みの画像データに基く画像が表示された状態にある。このとき使用者は、所定の操作を行うことで、記録媒体62に記録済みの複数の画像データを順々に切り換えて表示部60に表示させることができる。選択画像再生処理は、使用者の操作によって選択された画像を、記録媒体62から読み込んで表示部60に再生表示させるための一連の処理である。この選択画像再生処理自体も従来一般のカメラと同様の動作であるものとして、その詳細説明は省略する。その後、上述のステップS23の処理に進む。   When the camera 1 is in the playback mode, an image based on the image data recorded on the recording medium 62 is displayed on the display screen of the display unit 60. At this time, the user can switch a plurality of image data recorded on the recording medium 62 in order and display them on the display unit 60 by performing a predetermined operation. The selected image reproduction process is a series of processes for reading an image selected by a user operation from the recording medium 62 and reproducing and displaying it on the display unit 60. Since the selected image reproduction process itself is the same operation as that of a conventional general camera, detailed description thereof will be omitted. Thereafter, the process proceeds to step S23 described above.

ステップS23において、制御部66は、操作部65のタッチパネルからの指示信号を監視し、タッチスライド判定部67によってタッチ&スライド操作が行われたか否かの確認をする。ここで、タッチ&スライド操作が行われたことが確認された場合には、次のステップS24の処理に進む。また、タッチ&スライド操作が確認されない場合には、ステップS27の処理に進む。   In step S <b> 23, the control unit 66 monitors an instruction signal from the touch panel of the operation unit 65, and confirms whether the touch & slide operation has been performed by the touch slide determination unit 67. If it is confirmed that the touch & slide operation has been performed, the process proceeds to the next step S24. If the touch & slide operation is not confirmed, the process proceeds to step S27.

ステップS24において、制御部66は、輝度分布判定処理を実行する。即ち、上述のステップS23の処理によるタッチ&スライド操作によって指定された領域に関し、明るさ分布判定部68によって輝度分布を判定する(図4に示すようなグラフを作成する)。そして、上述のステップS12の処理と同様に、この輝度分布について、所定のパターン(例えば、高輝度部分から低輝度部分を経て再度高輝度部分が表れる輝度パターン)を有するか否かの確認を行う。ここで、上記所定のパターンの輝度分布であると判定された場合には、次のステップS25の処理に進む。また、上記所定のパターンの輝度分布ではないと判定された場合には、ステップS27の処理に進む。   In step S24, the control unit 66 executes a luminance distribution determination process. In other words, the brightness distribution determination unit 68 determines the luminance distribution for the region specified by the touch and slide operation in the above-described step S23 (creates a graph as shown in FIG. 4). Then, similarly to the processing in step S12 described above, it is confirmed whether or not this luminance distribution has a predetermined pattern (for example, a luminance pattern in which the high luminance portion appears again from the high luminance portion through the low luminance portion). . If it is determined that the luminance distribution has the predetermined pattern, the process proceeds to the next step S25. If it is determined that the luminance distribution is not the predetermined pattern, the process proceeds to step S27.

ステップS25において、制御部66は、明るさ分布強調部70を制御して明るさ強調処理を実行する。この明るさ強調処理は、上記明るさ分布判定部68による判定結果と、上記タッチスライド判定部67による判定結果とに基いて、所定の範囲の画像信号についての明るさ分布(輝度信号の分布)を強調処理する画像処理である。その後、ステップS26の処理に進む。   In step S25, the control unit 66 controls the brightness distribution enhancement unit 70 to execute brightness enhancement processing. This brightness enhancement processing is performed based on the determination result by the brightness distribution determination unit 68 and the determination result by the touch slide determination unit 67, and the brightness distribution (luminance signal distribution) for a predetermined range of image signals. Is an image processing for emphasizing. Thereafter, the process proceeds to step S26.

この明るさ強調処理とは、例えば通常撮影による撮影画像中において光源から発する光の範囲を広げて強調し、光線の長さや到達距離等を拡張すると共に、光源に対峙する人物等の撮影対象物のコントラストを向上させた強調表示を行う画像処理である。このような画像処理を施すことによって、よりドラマチックで神神しい画像効果を得ることができるというものである。   This brightness enhancement processing is, for example, enhancing the range of light emitted from a light source in a photographed image by normal photographing, extending the length of light rays, reaching distance, etc., and photographing objects such as a person facing the light source Image processing for performing highlighting with improved contrast. By performing such image processing, a more dramatic and divine image effect can be obtained.

ここで行われる明るさ強調処理は、上述のステップS23の処理によるタッチ&スライド操作におけるタッチ開始点(図2のタッチ位置P1(X1,Y1))からスライド方向(図2の矢印S方向)に向けて徐々に明るさを強調する処理である。このとき、上述のスライド操作では、矢印S方向の直線を指定するのみであるが、この矢印Sに沿う直線を含む所定の領域を明るさ強調処理の対象とする。   The brightness enhancement processing performed here is from the touch start point (touch position P1 (X1, Y1) in FIG. 2) in the touch & slide operation by the processing in step S23 described above to the slide direction (arrow S direction in FIG. 2). This is a process of gradually enhancing the brightness. At this time, in the above-described slide operation, only a straight line in the direction of the arrow S is specified, but a predetermined region including the straight line along the arrow S is set as the target of the brightness enhancement process.

さらに、スライド操作の終点(図2のP2(X2、Y2))近くの明るい部分(高輝度部分)、具体的には図2に示す人物102が光源101からの光を受けている顔領域のうち光源101寄りの顔の輪郭102c近傍と、この明るい部分に隣接する暗い部分(低輝度部分)、具体的には図2の人物102の顔の輪郭102c近傍からスライド方向(図2の直線L上を矢印Sに沿う方向)に光源から遠ざかる方向に隣り合っている部分近傍の明るさのレベルや、その部分を含む所定領域の明るさを強調する処理も含まれる。   Further, a bright portion (high luminance portion) near the end point of the slide operation (P2 (X2, Y2) in FIG. 2), specifically, a face region where the person 102 shown in FIG. Of these, the vicinity of the face contour 102c near the light source 101 and the dark portion (low luminance portion) adjacent to the bright portion, specifically, the vicinity of the face contour 102c of the person 102 in FIG. Also included is a process of emphasizing the brightness level in the vicinity of adjacent parts in the direction away from the light source (in the direction along the arrow S up) and the brightness of a predetermined area including the part.

ステップS26において、制御部66は、上記明るさ強調処理の結果得られた画像データを保存するか否かの確認を行う。この確認処理は、例えば表示部60の表示画面上に表示されている画像(処理の施された画像)に重畳させて、画像を保存するか否かの質問表示を出す。この表示を見て、使用者は所定の操作部材を用いて(例えばタッチパネルでもよい)保存するか否かの選択指示を行う。その指示信号を確認することで保存か否かを判断する。ここで、保存を指示する指示信号が確認された場合には、上述のステップS5の処理に進み、このステップS5において、制御部66は記録処理を実行する。また、保存を指示する指示信号が確認されない場合には、ステップS27の処理に進む。   In step S26, the control unit 66 confirms whether or not to save the image data obtained as a result of the brightness enhancement process. In the confirmation process, for example, a question display as to whether or not to save the image is displayed by superimposing it on the image (processed image) displayed on the display screen of the display unit 60. Viewing this display, the user uses a predetermined operation member (for example, a touch panel) to instruct whether or not to save. By confirming the instruction signal, it is determined whether or not to save. Here, when the instruction signal instructing the storage is confirmed, the process proceeds to the above-described step S5, and in step S5, the control unit 66 executes the recording process. If the instruction signal for instructing the storage is not confirmed, the process proceeds to step S27.

ステップS27において、制御部66は、操作部65からの指示信号を監視して、再生モード終了を指示する信号の有無を確認する。ここで、再生モード終了指示信号が確認された場合には、上述のステップS1の処理に戻り、以降の処理を繰り返す。また、再生モード終了指示信号が確認されない場合には、上述のステップS23の処理に戻り、以降の処理を繰り返す。   In step S27, the control unit 66 monitors the instruction signal from the operation unit 65, and confirms the presence / absence of a signal instructing the end of the reproduction mode. Here, when the reproduction mode end instruction signal is confirmed, the processing returns to the above-described step S1, and the subsequent processing is repeated. If the reproduction mode end instruction signal is not confirmed, the process returns to the above-described step S23 and the subsequent processes are repeated.

次に、上述の画像効果設定操作、即ちタッチ&スライド操作を行うことによって実行される画像処理の詳細を以下に説明する。図6は、本実施形態のカメラによる画像効果設定操作の結果なされる画像処理を説明する図であって、図6(A)は画像処理結果を示す表示画面の例示であり、図6(B)は図6(A)の一部を拡大して示す要部拡大図である。なお、図6は、上述の図2,図3に相当している。図7は、本実施形態のカメラ1の作用(主に画像効果設定操作に伴う処理の流れ)を示すフローチャートである。図8は、図7のフローチャートに並行して実行される表示処理の流れを示すフローチャートである。   Next, details of the image processing executed by performing the above-described image effect setting operation, that is, the touch & slide operation will be described below. FIG. 6 is a diagram for explaining image processing performed as a result of the image effect setting operation by the camera of this embodiment, and FIG. 6A is an example of a display screen showing the image processing result, and FIG. ) Is an enlarged view of a main part showing a part of FIG. FIG. 6 corresponds to FIGS. 2 and 3 described above. FIG. 7 is a flowchart showing the operation of the camera 1 of the present embodiment (mainly the flow of processing associated with the image effect setting operation). FIG. 8 is a flowchart showing a flow of display processing executed in parallel with the flowchart of FIG.

まず、カメラ1の表示部60の表示画面上に所望の再生画像を表示させる(再生モード)か、若しくは撮影モードでスルー画像(ライブビュー画像)を表示させた状態にする。なお、図7で説明するフローチャートでは、撮影モード時のスルー画像(ライブビュー画像)表示に対して操作を行なう場合の処理を例示している。   First, a desired playback image is displayed on the display screen of the display unit 60 of the camera 1 (playback mode), or a through image (live view image) is displayed in the shooting mode. Note that the flowchart illustrated in FIG. 7 illustrates processing when an operation is performed on a through image (live view image) display in the shooting mode.

即ち、図7に示すステップS100において、制御部66は、スルー画像表示処理を実行する。   That is, in step S100 shown in FIG. 7, the control unit 66 executes through image display processing.

続いて、ステップS101において、制御部66は、AD変換部54から出力される画像信号に基いて表示されるスルー画像中に含まれる光源に関する情報、例えば位置情報等を取得する。その後、ステップS102の処理に進む。   Subsequently, in step S <b> 101, the control unit 66 acquires information on the light source included in the through image displayed based on the image signal output from the AD conversion unit 54, such as position information. Thereafter, the process proceeds to step S102.

ステップS102において、制御部66は、上述のステップS101の処理にて取得した光源情報に基いて光源枠表示処理、即ち光源位置を示すために、例えば光源を囲む枠状のマークを表示させる処理である。この光源枠表示処理を行うことにより、光源枠が表示されている領域をタッチ操作したときには、レリーズ操作を禁止して、本実施形態の画像効果設定操作を優先して行なうことができるようになる。   In step S102, the control unit 66 is a light source frame display process based on the light source information acquired in the process of step S101 described above, that is, a process of displaying a frame-shaped mark surrounding the light source, for example, to indicate the light source position. is there. By performing this light source frame display processing, when a touch operation is performed on an area where the light source frame is displayed, the release operation is prohibited and the image effect setting operation of the present embodiment can be performed with priority. .

ここで、カメラ1は引き続きスルー画像表示状態(光源枠表示を含む)であり、撮影待機状態にある。この状態において、使用者は表示部60の表示画面上における光源をタッチ操作する。   Here, the camera 1 is continuously in the through image display state (including the light source frame display) and is in the shooting standby state. In this state, the user touches the light source on the display screen of the display unit 60.

ステップS103において、制御部66は、操作部65からの出力信号を監視しており、タッチパネルからのタッチ信号が出力されたか否かを検出する。ここで、タッチ信号が検出された場合には、次のステップS110の処理に進む。また、タッチ信号が検出されない場合には、ステップS101の処理に戻り、以降の処理を繰り返す。   In step S103, the control unit 66 monitors an output signal from the operation unit 65, and detects whether or not a touch signal is output from the touch panel. If a touch signal is detected, the process proceeds to the next step S110. If no touch signal is detected, the process returns to step S101 and the subsequent processes are repeated.

ステップS110において、制御部66は、検出されたタッチ信号のタッチ位置の表示画面上の座標P1(X1,Y1)の情報を取得する。その後、ステップS111の処理に進む。   In step S110, the control unit 66 acquires information on the coordinates P1 (X1, Y1) on the display screen of the touch position of the detected touch signal. Thereafter, the process proceeds to step S111.

ステップS111において、制御部66は、検出されたタッチ位置が表示部60の表示画面内の光源位置と略一致しているか否かの確認を行う。ここで、タッチ位置と光源位置とが略一致していることが確認された場合には、次のステップS112の処理に進む。また、タッチ位置と光源位置とが略一致していないことが確認された場合には、ステップS113の撮影処理に進む。このステップS113にて実行される撮影処理は、通常行われる一般的な撮影動作処理である。なお、通常一般の撮影処理の詳細は省略する。   In step S <b> 111, the control unit 66 confirms whether or not the detected touch position substantially matches the light source position in the display screen of the display unit 60. Here, when it is confirmed that the touch position and the light source position substantially coincide with each other, the process proceeds to the next step S112. If it is confirmed that the touch position and the light source position do not substantially coincide with each other, the process proceeds to the photographing process in step S113. The photographing process executed in step S113 is a general photographing operation process that is normally performed. Note that details of the normal general photographing process are omitted.

上述のステップS113にて撮影処理が実行された後は、上述のステップS101の処理に戻り、以降の処理を繰り返す。   After the shooting process is executed in step S113 described above, the process returns to the process in step S101 described above, and the subsequent processes are repeated.

一方、上述のステップS111の処理にてタッチ位置と光源位置とが略一致した場合にステップS112の処理に進むと、このステップS112において、制御部66は、内部カウンタ(不図示)を用いてタッチ回数のカウントを開始する。その後、ステップS114の処理に進む。   On the other hand, when the touch position and the light source position substantially coincide with each other in the process of step S111, the process proceeds to step S112. In step S112, the control unit 66 uses the internal counter (not shown) to touch. Start counting times. Thereafter, the process proceeds to step S114.

ステップS114において、制御部66は、タッチ位置座標P1における光源情報、例えば位置,範囲,色,輝度等の各種情報を取得する。   In step S <b> 114, the control unit 66 acquires light source information at the touch position coordinates P <b> 1, for example, various information such as position, range, color, and luminance.

続いて、ステップS115において、制御部66は、操作部65からの出力信号を監視してタッチパネルからのタッチ操作が解除されたか否か、即ちタッチ操作中の使用者の指がタッチパネルから離れたか否かを検出する(タッチ離し検出)。ここで、タッチ操作解除信号が検出された場合には、上述のステップS101の処理に戻り、以降の処理を繰り返す。また、タッチ操作解除信号が検出されない場合には、次のステップS120の処理に進む。   Subsequently, in step S115, the control unit 66 monitors the output signal from the operation unit 65 to determine whether or not the touch operation from the touch panel has been released, that is, whether or not the user's finger during the touch operation has left the touch panel. (Touch release detection). If a touch operation release signal is detected, the process returns to the above-described step S101 and the subsequent processes are repeated. If no touch operation release signal is detected, the process proceeds to the next step S120.

ステップS120において、制御部66は、移動検出処理を行う。この移動検出処理は、上述のステップS103にて検出したタッチ操作に続いて、そのタッチ操作が維持された状態で使用者が指100aを表示画面上にてスライド移動させたか否かの確認である。ここで、スライド移動が検出された場合には、次のステップS121の処理に進む。また、スライド移動が検出されない場合には、上述のステップS115の処理に戻り以降の処理を繰り返す。   In step S120, the control unit 66 performs a movement detection process. This movement detection process is a confirmation of whether or not the user has slid the finger 100a on the display screen in a state where the touch operation is maintained following the touch operation detected in step S103 described above. . If slide movement is detected, the process proceeds to the next step S121. If no slide movement is detected, the process returns to the above-described step S115 and the subsequent processes are repeated.

ステップS121において、制御部66は、顔検出部69を用いて顔検出処理を行い、現在表示中のスルー画像に検出される顔情報を取得する。これと共に、検出した顔を囲む枠表示をスルー画像(ライブビュー画像)に重畳させて表示するようにしてもよい。   In step S121, the control unit 66 performs face detection processing using the face detection unit 69, and acquires face information detected in the through image currently displayed. At the same time, a frame display surrounding the detected face may be displayed superimposed on the through image (live view image).

続いて、ステップS122において、制御部66は、移動後のタッチ解除位置の座標P2(X2,Y2)の情報を取得する。   Subsequently, in step S122, the control unit 66 acquires information on the coordinates P2 (X2, Y2) of the touch release position after the movement.

ステップS123において、制御部66は、上記座標P1,P2間の距離、即ち表示部60の表示画面上において行われたスライド操作の距離等の操作情報に基いてハイライト演算範囲を算出する処理を実行する。このハイライト演算範囲算出処理は、タッチ&スライド操作によって指定された位置を含む所定の範囲の画像領域の明るさを強調するための画像処理である。   In step S123, the control unit 66 calculates a highlight calculation range based on operation information such as a distance between the coordinates P1 and P2, that is, a distance of a slide operation performed on the display screen of the display unit 60. Run. This highlight calculation range calculation processing is image processing for emphasizing the brightness of an image area in a predetermined range including a position designated by a touch and slide operation.

続いて、ステップS124において、制御部66は、ハイライト演算範囲算出結果を保持する処理を実行する。   Subsequently, in step S124, the control unit 66 executes a process for holding the highlight calculation range calculation result.

さらに、ステップS125において、制御部66は、スルー画像表示パラメータの変更を行う。その後、上述のステップS115の処理に戻り以降の処理を繰り返す。   Further, in step S125, the control unit 66 changes the through image display parameter. Thereafter, the processing returns to the above-described step S115 and the subsequent processing is repeated.

本実施形態のカメラ1においては、上述の図7のフローチャートと並行して、図8に示すフローチャートが作用している。この図8の表示処理フローチャートが並行して実行されていることにより、操作に伴うパラメータの変更がスルー画像表示にその都度反映するようになっている。したがって、これにより、操作によって変更されるべき画像表示をリアルタイムで観察できるようになっている。   In the camera 1 of this embodiment, the flowchart shown in FIG. 8 acts in parallel with the flowchart of FIG. 7 described above. Since the display processing flowchart of FIG. 8 is executed in parallel, the change of the parameter accompanying the operation is reflected on the through image display each time. Therefore, the image display to be changed by the operation can be observed in real time.

まず、上述の図7のフローチャートにおけるステップS100のスルー画像表示処理が開始されると、これと同時に並行して、図8のフローチャートが開始する。   First, when the through image display process in step S100 in the flowchart of FIG. 7 described above is started, the flowchart of FIG.

図8のステップS200において、制御部66は、内部カウンタによるタッチ回数(図7のステップS112)を参照し、演算回数Nがタッチ回数に一致するか否かを確認する。一致した場合には、一連の処理を終了し、元の処理ステップに復帰する。一致しない場合には、次のステップS201の処理に進む。   In step S200 in FIG. 8, the control unit 66 refers to the number of touches by the internal counter (step S112 in FIG. 7), and confirms whether or not the calculation number N matches the number of touches. If they match, the series of processing ends, and the process returns to the original processing step. If not, the process proceeds to the next step S201.

ステップS201において、制御部66は、内部カウンタの演算回数Nを1回加算(インクリメント)する(N=N+1)。   In step S201, the control unit 66 adds (increments) the number of operations N of the internal counter by one (N = N + 1).

続いて、ステップS202において、制御部66は、顔情報(図7のステップS121)から輪郭情報を取得する。ここで、輪郭とは、顔検出によって検出された顔画像のうち、同様の色,輝度情報を有する画素が連続して線状をなす部分をいう(以下、輪郭線という)。   Subsequently, in step S202, the control unit 66 acquires contour information from the face information (step S121 in FIG. 7). Here, the contour refers to a portion of the face image detected by face detection in which pixels having similar color and luminance information are continuously linear (hereinafter referred to as a contour line).

次いで、ステップS203において、制御部66は、顔の輪郭線より内側(顔側)の全ての画素についての演算が完了したか否かの確認を行う。ここで演算完了を確認したら、上記ステップS200の処理に戻り、以降の処理を繰り返す。また、完了が確認されないうちは、次のステップS210の処理に進む。   Next, in step S203, the control unit 66 checks whether or not the calculation has been completed for all pixels inside (face side) the face outline. If the completion of calculation is confirmed here, the process returns to step S200 and the subsequent processes are repeated. Further, before completion is confirmed, the process proceeds to the next step S210.

続いて、ステップS210において、制御部66は、顔の輪郭線より内側(顔側)の1画素の情報を取得する。   Subsequently, in step S210, the control unit 66 acquires information of one pixel on the inner side (face side) from the face outline.

次いで、ステップS211において、制御部66は、上記顔輪郭線より内側(顔側)の1画素がハイライト演算範囲内にあるか否かの確認を行う。ここで、演算範囲内にあることが確認されたら、次のステップS212の処理に進む。また、演算範囲内にない場合には、ステップS203の処理に戻り、以降の処理を繰り返す。   Next, in step S211, the control unit 66 checks whether or not one pixel inside (face side) from the face outline is within the highlight calculation range. Here, if it is confirmed that it is within the calculation range, the process proceeds to the next step S212. If it is not within the calculation range, the process returns to step S203, and the subsequent processes are repeated.

ステップS212において、制御部66は、スライド距離に応じて光源の色合成処理(10%〜0%)を行う。その後、ステップS203の処理に戻り、以降の処理を繰り返す。   In step S212, the controller 66 performs light source color synthesis processing (10% to 0%) according to the slide distance. Thereafter, the processing returns to step S203, and the subsequent processing is repeated.

ここで、光源の色合成処理について、簡単に説明する。まず、上記ステップS101にて取得した光源情報に基いて光源の色情報(RGB)の平均値を100%とする。また、上記ステップS202にて取得した輪郭情報に基いて顔の輪郭線よりも顔側の1画素の色情報、即ち図2に示すシルエット状の領域の色情報を0%とする。   Here, the light source color composition processing will be briefly described. First, the average value of the color information (RGB) of the light source is set to 100% based on the light source information acquired in step S101. Further, based on the contour information acquired in step S202, the color information of one pixel on the face side of the face contour line, that is, the color information of the silhouette-shaped region shown in FIG.

そして、上記ステップS210にて取得した輪郭線の内側(顔側)の1画素と、上記ステップS101にて取得した光源の中心点とを結ぶ直線を仮定する(図6参照)。この場合において、光源のRGB値とピクセルのRGB値とを合成する。このときの合成度は、上記輪郭線(ステップS202)と、上記輪郭線の内側(顔側)の1画素(ステップS210)との間の上記直線上における距離を鑑みて設定される。   Then, a straight line connecting one pixel on the inner side (face side) of the contour line acquired in step S210 and the center point of the light source acquired in step S101 is assumed (see FIG. 6). In this case, the RGB value of the light source and the RGB value of the pixel are synthesized. The degree of synthesis at this time is set in consideration of the distance on the straight line between the contour line (step S202) and one pixel (step S210) inside (face side) the contour line.

例えば、輪郭線上の1画素(即ち、距離=0)の合成度は、タッチの回数に応じて0〜100%の間で10%づつ増加するように設定される。つまり、タッチ回数が増えるほど徐々に光源の色に近づくように設定される。   For example, the degree of synthesis of one pixel on the contour line (that is, distance = 0) is set to increase by 10% between 0 and 100% according to the number of touches. That is, the color is set so that it gradually approaches the color of the light source as the number of touches increases.

輪郭線からの距離の最大値は、タッチ操作による座標P1,P2間の距離で決定する。つまり、演算を行う距離の最大にある1画素の合成度を0%とし、輪郭線上の1画素の合成度から、最大距離にある1画素までの合成度を補完する。   The maximum value of the distance from the contour line is determined by the distance between the coordinates P1 and P2 by the touch operation. That is, the degree of synthesis of one pixel at the maximum distance for calculation is set to 0%, and the degree of synthesis from one pixel on the contour line to one pixel at the maximum distance is complemented.

このように、タッチ&スライド操作においては、例えば光源をタッチ操作する回数によってハイライトの強さを調整し、スライド移動の距離によってハイライトの回り込み量、即ち被写体の顔の輪郭線上から顔の内側へ向かう距離(明るさ強調を行う領域)を調節する。その結果は、表示部60の表示画面上に即座に反映されるので、使用者は、表示部60の表示画面を見ながら、複数回のタッチ操作とスライド移動操作を繰り返す。これによって、所望の画像が生成されるまで調整する。   As described above, in the touch and slide operation, the strength of the highlight is adjusted by, for example, the number of times the light source is touched, and the amount of highlight wraparound, that is, from the outline of the face of the subject to the inside of the face is adjusted depending on the slide movement distance Adjust the distance to (the area where brightness enhancement is performed). Since the result is immediately reflected on the display screen of the display unit 60, the user repeats a plurality of touch operations and slide movement operations while viewing the display screen of the display unit 60. Thus, adjustment is performed until a desired image is generated.

なお、明るさ強調を行う範囲は、上述したようにスライド移動の距離によって設定される。つまり、スライド移動の距離と、顔検出によって検出された顔画像の面積,顔画像の幅等を勘案して設定される。   Note that the range of brightness enhancement is set according to the slide movement distance as described above. That is, it is set in consideration of the distance of the slide movement, the area of the face image detected by face detection, the width of the face image, and the like.

具体的には、例えば、スライド移動の距離が光源から顔の輪郭線までの距離とした場合には、明るさ強調を行う顔の所定範囲としては、顔画像の輪郭線から顔画像の幅の1/4程度の長さの範囲を設定する。   Specifically, for example, when the distance of the slide movement is the distance from the light source to the contour of the face, the predetermined range of the face for which brightness enhancement is performed includes the width of the face image from the contour of the face image. A range with a length of about 1/4 is set.

また、表示部60の表示画面内に複数の光源が存在するような場合にも、各光源に対して同様の操作を繰り返し行うことによって、同様の合成処理が可能である。   Further, even when there are a plurality of light sources in the display screen of the display unit 60, the same composition processing can be performed by repeatedly performing the same operation on each light source.

以上説明したように上記一実施形態によれば、カメラ1が撮影モードにあってスルー画像表示がなされている時には、使用者が表示部60上のタッチパネルに対してタッチ&スライド操作を行って領域指定を行なうと、その指定範囲の輝度分布を判定して、判定されてた輝度分布が上記所定のパターンの輝度分布である場合には、自動的に露出のプラス(+)補正を行うことで、AE処理部55の算出した通常の露出値に対して、より明るさの強調された画像を自動的に得ることができる。このことは、露出補正操作や、露出に関する知識を有していなくても、タッチ&スライド操作によって領域指定を行う直感的な操作のみで、より効果的な画像を誰でも気軽に取得することができる。   As described above, according to the above-described embodiment, when the camera 1 is in the shooting mode and the through image display is performed, the user performs a touch and slide operation on the touch panel on the display unit 60 to display the area. When the designation is made, the luminance distribution in the designated range is determined, and when the determined luminance distribution is the luminance distribution of the predetermined pattern, exposure positive (+) correction is automatically performed. Thus, an image with enhanced brightness can be automatically obtained with respect to the normal exposure value calculated by the AE processing unit 55. This means that even if you do not have knowledge about exposure compensation or exposure, anyone can easily obtain a more effective image with only intuitive operation that specifies the area by touch & slide operation. it can.

これとは別に、本実施形態においては、カメラ1を再生モードに設定して、記録媒体62に記録済みの画像データに基く画像を表示部60に表示している時、若しくはカメラ1を撮影モードに設定してスルー画像(ライブビュー画像)表示を行っている時に、所望の領域に対して上記同様のタッチ&スライド操作を行うと、表示画像中の任意の部分の明るさを強調させる明るさ強調処理を実行することができ、その処理済み画像を容易に記録することができる。その場合において、通常処理による画像とは別に、明るさ画像処理を施した画像データを別途記録することが可能である。   Apart from this, in the present embodiment, the camera 1 is set to the playback mode and an image based on the image data recorded on the recording medium 62 is displayed on the display unit 60, or the camera 1 is set to the shooting mode. When a through image (live view image) display is performed with this setting set, if the same touch and slide operation is performed on a desired area, the brightness that enhances the brightness of any part of the display image The enhancement process can be executed, and the processed image can be easily recorded. In that case, it is possible to record separately the image data subjected to the brightness image processing separately from the image by the normal processing.

以上のように、カメラ1や撮影技術に関する専門的な知識を持たない一般ユーザであっても、撮影操作若しくは画像再生操作に伴う直感的な操作を行うことによって、複雑な露出や色,輝度等の適切な設定変更を自動的に実行させることができる。これにより、通常撮影とは異なる劇的でドラマチックな明るさ強調効果を持たせた所望の写真を、簡単に撮影し取得することができる。   As described above, even a general user who does not have specialized knowledge about the camera 1 or the imaging technique can perform complicated operations such as exposure, color, brightness, etc. by performing an intuitive operation associated with a shooting operation or an image reproduction operation. It is possible to automatically execute appropriate setting changes. As a result, it is possible to easily shoot and acquire a desired photo having a dramatic and dramatic brightness enhancement effect different from normal shooting.

上述の各実施形態で説明した各処理シーケンスは、その性質に反しない限り、手順の変更を許容し得る。したがって、上述の処理シーケンスに対して、例えば各処理ステップの実行順序を変更したり、複数の処理ステップを同時に実行させたり、一連の処理シーケンスを実行する毎に、各処理ステップの順序が異なるようにしてもよい。   Each processing sequence described in each of the above-described embodiments can allow a procedure to be changed as long as it does not contradict its nature. Therefore, for each of the above-described processing sequences, for example, the order of the processing steps is changed each time the processing order is changed, the processing steps are executed simultaneously, or a series of processing sequences are executed. It may be.

なお、本発明は上述した実施形態に限定されるものではなく、発明の主旨を逸脱しない範囲内において種々の変形や応用を実施し得ることが可能であることは勿論である。さらに、上記実施形態には、種々の段階の発明が含まれており、開示される複数の構成要件における適宜な組み合わせによって、種々の発明が抽出され得る。例えば、上記一実施形態に示される全構成要件から幾つかの構成要件が削除されても、発明が解決しようとする課題が解決でき、発明の効果が得られる場合には、この構成要件が削除された構成が発明として抽出され得る。   Note that the present invention is not limited to the above-described embodiment, and various modifications and applications can of course be implemented without departing from the spirit of the invention. Further, the above embodiments include inventions at various stages, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if several constituent requirements are deleted from all the constituent requirements shown in the above-described embodiment, if the problem to be solved by the invention can be solved and the effect of the invention can be obtained, this constituent requirement is deleted. The configured structure can be extracted as an invention.

本発明は、デジタルカメラ等の撮影機能に特化した電子機器である撮影機器に限られることはなく、撮影機能を備えた他の形態の電子機器、例えば携帯電話,録音機器,電子手帳,パーソナルコンピュータ,ゲーム機器,テレビ,時計,GPS(Global Positioning System)を利用したナビゲーション機器等、各種の撮影機能付き電子機器にも適用することができる。   The present invention is not limited to a photographing device that is an electronic device specialized in a photographing function such as a digital camera, and other forms of electronic devices having a photographing function, such as a mobile phone, a recording device, an electronic notebook, and a personal computer. The present invention can also be applied to various electronic devices with photographing functions such as computers, game devices, televisions, watches, navigation devices using GPS (Global Positioning System).

1……カメラ,
41……撮影光学系,42……絞り機構,43……レンズドライバ,44……絞りドライバ,
50……カメラ本体,51……シャッタ機構,52……撮像素子,53……アナログ処理部,54……AD変換部,55……AE処理部,56……AF処理部,57……画像処理部,58……画像圧縮展開部,59……表示ドライバ,60……表示部,61……メモリインターフェース,62……記録媒体,63……SDRAM,64……フラッシュメモリ,65……操作部,
66……制御部,67……タッチスライド判定部,68……明るさ分布判定部,69……顔検出部,70……明るさ分布強調部,
71……シャッタドライバ,72……電源回路,73……通信用バス,
1 …… Camera,
41... Imaging optical system 42. Diaphragm mechanism 43. Lens driver 44. Diaphragm driver
50 …… Camera body, 51 …… Shutter mechanism, 52 …… Image sensor, 53 …… Analog processing unit, 54 …… AD conversion unit, 55 …… AE processing unit, 56 …… AF processing unit, 57 …… Image Processing unit 58 ... Image compression / decompression unit 59 ... Display driver 60 ... Display unit 61 ... Memory interface 62 62 Recording medium 63 ... SDRAM 64 64 Flash memory 65 Operation Part,
66 …… Control unit, 67 …… Touch slide determination unit, 68 …… Brightness distribution determination unit, 69 …… Face detection unit, 70 …… Brightness distribution enhancement unit,
71 …… Shutter driver, 72 …… Power supply circuit, 73 …… Communication bus,

Claims (5)

被写体を撮像する撮像素子を有する撮像部と、
上記撮像部によって取得された画像データに基く画像を表示する表示部と、
上記表示部の表示面上に配置されたタッチパネルと、
上記表示部に表示中の画像内の光源を検出する光源検出部と、
上記タッチパネルに対する入力操作に応じた座標データを検出し判定する操作入力判定部と、
上記操作入力判定部によって検出された座標データに基いて上記画像内の指定領域を設定する制御部と、
上記操作入力判定部によって判定された座標データに対応する領域の輝度分布を判定する輝度分布判定部と、
上記制御部によって設定された上記画像内の上記指定領域の輝度を強調処理する輝度分布強調部と、
上記画像データを記録する記録部と、
を具備し、
上記輝度分布強調部は、上記タッチパネルに対するスライド操作の移動距離に応じて輝度分布強調処理を施す範囲を設定し、上記タッチパネルに対する上記スライド操作の回数に応じて輝度分布強調レベルを設定することを特徴とする撮影機器。
An imaging unit having an imaging element for imaging a subject;
A display unit for displaying an image based on the image data acquired by the imaging unit;
A touch panel disposed on the display surface of the display unit;
A light source detection unit for detecting a light source in an image being displayed on the display unit;
An operation input determination unit that detects and determines coordinate data according to an input operation on the touch panel;
A control unit that sets a designated region in the image based on the coordinate data detected by the operation input determination unit;
A luminance distribution determining unit that determines a luminance distribution of an area corresponding to the coordinate data determined by the operation input determining unit;
A luminance distribution emphasizing unit for emphasizing the luminance of the designated area in the image set by the control unit ;
A recording unit for recording the image data;
Comprising
The luminance distribution emphasizing unit sets a range for performing luminance distribution emphasis processing according to a moving distance of the slide operation with respect to the touch panel, and sets a luminance distribution emphasis level according to the number of times of the sliding operation with respect to the touch panel. Shooting equipment.
上記操作入力判定部は、上記タッチパネルに対するタッチ操作位置座標と、このタッチ操作位置座標からのスライド操作と、このスライド操作後のタッチ離し操作位置座標とを検出し、検出した各々の座標から上記スライド操作の方向及び移動量を判定することを特徴とする請求項1に記載の撮影機器。   The operation input determination unit detects a touch operation position coordinate with respect to the touch panel, a slide operation from the touch operation position coordinate, and a touch release operation position coordinate after the slide operation, and the slide from the detected coordinates. The photographing apparatus according to claim 1, wherein an operation direction and a movement amount are determined. 上記表示部に表示中の画像内から顔検出を行って、検出した顔画像の顔情報を取得する顔検出部を、さらに具備し、
上記制御部は、上記操作入力判定部によって検出された座標データに加えて、上記顔検出部よって取得した上記顔情報を加味して上記指定領域を設定することを特徴とする請求項1に記載の撮影機器。
A face detection unit that performs face detection from the image being displayed on the display unit and acquires face information of the detected face image;
The said control part sets the said designation | designated area | region in consideration of the said face information acquired by the said face detection part in addition to the coordinate data detected by the said operation input determination part. Photography equipment.
上記輝度分布強調部は、上記光源から上記スライド操作方向に延びる直線上に存在する被写体の輝度分布を強調するのに際し、光源寄りから徐々に暗くなる方向に勾配がつくような強調処理を実行することを特徴とする請求項1に記載の撮影機器。   The brightness distribution emphasizing unit executes an emphasis process in which, when emphasizing the brightness distribution of a subject existing on a straight line extending in the slide operation direction from the light source, a gradient is gradually formed in a direction gradually becoming darker from the light source side. The photographing apparatus according to claim 1, wherein: タッチ操作を判定するタッチ判定ステップと、
スライド操作によるスライド移動量を判定するスライド判定ステップと、
画像中の顔画像を検出する顔検出ステップと、
上記スライド判定ステップにより判定されたスライド移動量と上記顔検出ステップにより検出された顔画像情報とに基いて輝度分布強調処理を施す範囲を設定し、輝度分布強調レベルを設定する輝度分布強調ステップと、
上記輝度分布強調ステップにより施された画像処理を含む画像データを記録する記録ステップと、
を備えてなることを特徴とする画像データ記録方法。
A touch determination step for determining a touch operation;
A slide determination step for determining the amount of slide movement by the slide operation;
A face detection step for detecting a face image in the image;
A luminance distribution enhancement step for setting a luminance distribution enhancement level by setting a range for performing luminance distribution enhancement processing based on the slide movement amount determined by the slide determination step and the face image information detected by the face detection step; ,
A recording step of recording image data including the image processing performed by the luminance distribution enhancement step;
An image data recording method comprising:
JP2012069972A 2012-03-26 2012-03-26 Imaging device and image data recording method Expired - Fee Related JP5980535B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012069972A JP5980535B2 (en) 2012-03-26 2012-03-26 Imaging device and image data recording method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012069972A JP5980535B2 (en) 2012-03-26 2012-03-26 Imaging device and image data recording method

Publications (2)

Publication Number Publication Date
JP2013201701A JP2013201701A (en) 2013-10-03
JP5980535B2 true JP5980535B2 (en) 2016-08-31

Family

ID=49521564

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012069972A Expired - Fee Related JP5980535B2 (en) 2012-03-26 2012-03-26 Imaging device and image data recording method

Country Status (1)

Country Link
JP (1) JP5980535B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015119277A (en) * 2013-12-17 2015-06-25 オリンパスイメージング株式会社 Display apparatus, display method, and display program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004117490A (en) * 2002-09-24 2004-04-15 Fuji Photo Optical Co Ltd Autofocus system
JP5509750B2 (en) * 2009-01-15 2014-06-04 カシオ計算機株式会社 Image processing apparatus and program
JP5245947B2 (en) * 2009-03-16 2013-07-24 株式会社リコー Imaging apparatus, imaging method, program, and recording medium
JP5384273B2 (en) * 2009-09-30 2014-01-08 富士フイルム株式会社 Camera and camera recording method

Also Published As

Publication number Publication date
JP2013201701A (en) 2013-10-03

Similar Documents

Publication Publication Date Title
US9578260B2 (en) Digital photographing apparatus and method of controlling the digital photographing apparatus
US10798299B2 (en) Digital photographing apparatus, methods of controlling the same, and computer-readable storage medium to increase success rates in panoramic photography
US7668451B2 (en) System for and method of taking image
JP5806623B2 (en) Imaging apparatus, imaging method, and program
KR20130069039A (en) Display apparatus and method and computer-readable storage medium
JP4509081B2 (en) Digital camera and digital camera program
JP5912062B2 (en) Imaging apparatus and moving image data recording method
JP2014531829A (en) Remotely controllable digital video camera system
US9258496B2 (en) Digital photographing apparatus and method of controlling the same
JP2017216592A (en) Imaging apparatus, control method, and program
KR101797040B1 (en) Digital photographing apparatus and control method thereof
US8547454B2 (en) Digital image photographing apparatuses and methods of controlling the same to provide location information
JP5409483B2 (en) Imaging device
JP5980535B2 (en) Imaging device and image data recording method
US9261771B2 (en) Digital photographing apparatus for displaying panoramic images and methods of controlling the same
JP6925827B2 (en) Image processing device and image processing method
JP5289354B2 (en) Imaging device
JP6242425B2 (en) Imaging apparatus and moving image data recording method
JP2013219810A (en) Imaging apparatus
JP2014093732A (en) Imaging device, display method and program
JP2007221543A (en) Blurring notification device, photographic device, method of controlling these, control program, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150128

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20150423

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160712

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160727

R151 Written notification of patent or utility model registration

Ref document number: 5980535

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees