JP2014137556A - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP2014137556A
JP2014137556A JP2013007436A JP2013007436A JP2014137556A JP 2014137556 A JP2014137556 A JP 2014137556A JP 2013007436 A JP2013007436 A JP 2013007436A JP 2013007436 A JP2013007436 A JP 2013007436A JP 2014137556 A JP2014137556 A JP 2014137556A
Authority
JP
Japan
Prior art keywords
map
touch
microcomputer
image processing
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013007436A
Other languages
Japanese (ja)
Inventor
Keiji Kunishige
恵二 国重
Manabu Ichikawa
学 市川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2013007436A priority Critical patent/JP2014137556A/en
Publication of JP2014137556A publication Critical patent/JP2014137556A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Exposure Control For Cameras (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging device capable of preventing a camera operation not intended by a user from being inadvertently performed in an imaging device having a touch input section provided.SOLUTION: In accordance with a touch operation to a touch input section 2321, a microcomputer 230 generates a touch pattern, and compares the generated touch pattern with a touch pattern preliminary stored in a Flash memory 236. As a result of the comparison, when the touch pattern is similar, the microcomputer 230 nullifies a touch operation to the touch input section 2321 thereafter.

Description

本発明は、タッチ入力部を備えた撮像装置に関する。   The present invention relates to an imaging device including a touch input unit.

従来、デジタルカメラ等の撮像装置にタッチ入力部(タッチパネル)を持たせたものが知られている。タッチ入力部を備えた撮像装置では、ユーザが、タッチ入力部により被写体を指定し、その被写体に対するAE(自動露出制御)やAF(自動合焦制御)等の処理を実行させることが可能である。このようなタッチ入力部を備えた撮像装置に関する技術の1つとして、例えば、特許文献1は、タッチ入力部にユーザの指先が接触した際にその接触位置の分布から接触面積を導出することにより、接触面積に応じた異なるカメラ制御を実行できるようにしている。   2. Description of the Related Art Conventionally, an imaging device such as a digital camera provided with a touch input unit (touch panel) is known. In an imaging apparatus including a touch input unit, a user can specify a subject using the touch input unit, and execute processing such as AE (automatic exposure control) and AF (automatic focus control) on the subject. . As one of technologies related to an imaging apparatus including such a touch input unit, for example, Patent Literature 1 derives a contact area from a distribution of contact positions when a user's fingertip contacts the touch input unit. Different camera controls according to the contact area can be executed.

特開2007−93967号公報JP 2007-93967 A

特許文献1の技術は、タッチされた際の接触面積でAE制御やAF制御等と撮影準備をするか撮影を実行するかを判断している。このため、撮像装置を首から提げて歩いている場合等ではカメラが体に触れてしまって勝手に撮影が行われてしまう可能性がある。   The technique of Patent Document 1 determines whether to prepare for shooting or to perform shooting with AE control, AF control, or the like based on the contact area when touched. For this reason, when walking with the imaging device held around the neck, the camera may touch the body and photographing may be performed without permission.

本発明は、前記の事情に鑑みてなされたもので、タッチ入力部を備えた撮像装置においてユーザの意図しないタイミングで勝手にカメラ動作が行われないようにすることが可能な撮像装置を提供することを目的とする。   The present invention has been made in view of the above circumstances, and provides an imaging apparatus capable of preventing a camera operation from being arbitrarily performed at an unintended timing of a user in an imaging apparatus having a touch input unit. For the purpose.

前記の目的を達成するために、本発明の一態様の撮像装置は、少なくともタッチ操作がなされているか否かを検出するタッチ入力部と、前記タッチ入力部でタッチ操作が検出されてからの経過時間と該経過時間の間の前記タッチ入力部の検出結果とを用いてタッチパターンを生成するタッチパターン生成部と、前記タッチパターン生成部で生成されたタッチパターンを所定のタッチパターンと比較する比較部と、前記タッチパターン生成部で生成されたタッチパターンと前記所定のタッチパターンとが類似している場合に、前記タッチ入力部によるタッチ操作を禁止する制御部と、を具備することを特徴とする。   In order to achieve the above object, an imaging device of one embodiment of the present invention includes a touch input unit that detects whether or not at least a touch operation is performed, and a process after the touch operation is detected by the touch input unit. A touch pattern generation unit that generates a touch pattern using time and a detection result of the touch input unit during the elapsed time, and a comparison that compares the touch pattern generated by the touch pattern generation unit with a predetermined touch pattern And a control unit that prohibits a touch operation by the touch input unit when the touch pattern generated by the touch pattern generation unit and the predetermined touch pattern are similar to each other. To do.

本発明によれば、タッチ入力部を備えた撮像装置においてユーザの意図しないタイミングで勝手にカメラ動作が行われないようにすることが可能な撮像装置を提供することができる。   According to the present invention, it is possible to provide an imaging apparatus capable of preventing a camera operation from being arbitrarily performed at an unintended timing of a user in an imaging apparatus having a touch input unit.

本発明の一実施形態に係る撮像装置の一例としてのデジタルカメラの構成を示すブロック図である。1 is a block diagram illustrating a configuration of a digital camera as an example of an imaging apparatus according to an embodiment of the present invention. タッチ操作について示す図である。It is a figure shown about touch operation. 弱いタッチがあった場合に作成されるマップの作成例を示す図である。It is a figure which shows the preparation example of the map produced when there exists a weak touch. 強いタッチがあった場合に作成されるマップの作成例を示す図である。It is a figure which shows the creation example of the map produced when there exists a strong touch. 複数座標へのタッチがあった場合に作成されるマップの作成例を示す図である。It is a figure which shows the example of creation of the map produced when there exists a touch to multiple coordinates. 本発明の一実施形態に係るデジタルカメラのメイン動作を示すフローチャートである。3 is a flowchart showing a main operation of the digital camera according to the embodiment of the present invention. マップ操作・ロック操作処理について示すフローチャートである。It is a flowchart shown about map operation / lock operation processing. マップ操作・ロック操作処理における操作ボタンの例を示す図である。It is a figure which shows the example of the operation button in a map operation / lock operation process. タッチパターンの設定操作について示す図である。It is a figure shown about the setting operation of a touch pattern. タッチパターンの設定例を示す図である。It is a figure which shows the example of a setting of a touch pattern. 圧力検知不能なタッチ入力部の場合のタッチパターンの設定例を示す図である。It is a figure which shows the example of a setting of the touch pattern in the case of the touch input part which cannot detect pressure. 検出エリアを複数とした場合のタッチパターンの設定操作について示す図である。It is a figure shown about the setting operation of a touch pattern at the time of using a plurality of detection areas. マップのサイズ変更について示す図である。It is a figure shown about the size change of a map. AE処理について示すフローチャートである。It is a flowchart shown about AE processing. 画像処理について示すフローチャートである。It is a flowchart shown about image processing. 特殊画像処理について示すフローチャートである。It is a flowchart shown about special image processing. 再生・編集処理について示すフローチャートである。It is a flowchart shown about reproduction | regeneration / edit processing. マップが記録される場合の画像ファイルのファイル構造の例を示す図である。It is a figure which shows the example of the file structure of the image file in case a map is recorded. 拡大ライブビュー表示に一実施形態の技術を適用した変形例のフローチャートである。It is a flowchart of the modification which applied the technique of one Embodiment to the expansion live view display. 拡大ライブビュー表示の表示例を示す図である。It is a figure which shows the example of a display of expansion live view display. 拡大範囲の指定と拡大率の指定とを別個に行う変形例について示す図である。It is a figure shown about the modification which performs designation | designated of an enlargement range and designation | designated of an enlargement factor separately. タッチ入力部を複数設けて拡大範囲の指定と拡大率の指定とを別個に行う変形例について示す図である。It is a figure shown about the modification which provides multiple touch input parts and performs designation | designated of an expansion range and designation | designated of an enlargement factor separately. 組み写真の生成に一実施形態の技術を適用した変形例のフローチャートである。It is a flowchart of the modification which applied the technique of one Embodiment to the production | generation of a combined photograph. 切り出し範囲の切り出しについて示す図である。It is a figure shown about extraction of the extraction range.

以下、図面を参照して本発明の実施形態を説明する。
図1は、本発明の一実施形態に係る撮像装置の一例としてのデジタルカメラの構成を示すブロック図である。図1に示すデジタルカメラ1は、レンズ交換式のデジタルカメラである。しかしながら、必ずしもレンズ交換式のデジタルカメラである必要はなく、レンズ一体式のデジタルカメラであっても良い。また、撮像機能付き携帯電話機や撮像機能付き携帯端末等であっても本実施形態の技術が適用され得る。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram illustrating a configuration of a digital camera as an example of an imaging apparatus according to an embodiment of the present invention. A digital camera 1 shown in FIG. 1 is an interchangeable lens digital camera. However, it is not always necessary to be an interchangeable lens digital camera, and a lens-integrated digital camera may be used. Further, the technology of the present embodiment can be applied even to a mobile phone with an imaging function, a mobile terminal with an imaging function, or the like.

図1に示すデジタルカメラ1は、交換式レンズ100と、カメラ本体200と、を有している。交換式レンズ100は、カメラ本体200に対して着脱自在に構成されている。カメラ本体200に交換式レンズ100が装着された場合に、交換式レンズ100は、カメラ本体200と通信自在に接続される。これにより、交換式レンズ100は、カメラ本体200の制御に従って動作可能な状態となる。   A digital camera 1 shown in FIG. 1 has an interchangeable lens 100 and a camera body 200. The interchangeable lens 100 is configured to be detachable from the camera body 200. When the interchangeable lens 100 is attached to the camera body 200, the interchangeable lens 100 is connected to the camera body 200 so as to be able to communicate. As a result, the interchangeable lens 100 becomes operable according to the control of the camera body 200.

交換式レンズ100は、レンズ102と、絞り104と、ドライバ106と、マイクロコンピュータ108と、Flashメモリ110と、を有している。
レンズ102は、図示しない被写体からの光束をカメラ本体200内の撮像素子204に集光するための光学系である。このレンズ102は、フォーカスレンズ及びズームレンズ等の複数のレンズを有していても良い。
The interchangeable lens 100 includes a lens 102, a diaphragm 104, a driver 106, a microcomputer 108, and a flash memory 110.
The lens 102 is an optical system for condensing a light beam from a subject (not shown) on the image sensor 204 in the camera body 200. The lens 102 may include a plurality of lenses such as a focus lens and a zoom lens.

絞り104は、開閉自在に構成され、レンズ102を介して入射した光束の量を調整する。ドライバ106は、モータ等を有している。このドライバ106は、マイクロコンピュータ108の制御に従って、レンズ102内のフォーカスレンズやズームレンズをその光軸方向に駆動させたり、絞り104を開閉駆動させたりする。   The diaphragm 104 is configured to be openable and closable, and adjusts the amount of light incident through the lens 102. The driver 106 has a motor and the like. The driver 106 drives the focus lens and zoom lens in the lens 102 in the optical axis direction and drives the aperture 104 to open and close according to the control of the microcomputer 108.

マイクロコンピュータ108は、交換式レンズ100がカメラ本体200に装着された際にインターフェイス(I/F)112を介してカメラ本体200内のマイクロコンピュータ230と通信自在に接続される。このマイクロコンピュータ108は、マイクロコンピュータ230からの制御に従ってドライバ106を駆動させる。また、マイクロコンピュータ108は、Flashメモリ110に記憶されている交換式レンズ100のレンズ情報等を、I/F112を介してマイクロコンピュータ230に通信する。   The microcomputer 108 is communicably connected to the microcomputer 230 in the camera body 200 via the interface (I / F) 112 when the interchangeable lens 100 is attached to the camera body 200. The microcomputer 108 drives the driver 106 in accordance with control from the microcomputer 230. Further, the microcomputer 108 communicates lens information of the interchangeable lens 100 stored in the flash memory 110 to the microcomputer 230 via the I / F 112.

Flashメモリ110は、レンズ102の収差情報等のレンズ情報や交換式レンズ100の動作を実行するために必要なプログラム等を記憶している。   The flash memory 110 stores lens information such as aberration information of the lens 102, a program necessary for executing the operation of the interchangeable lens 100, and the like.

カメラ本体200は、メカシャッタ202と、撮像素子204と、アナログ処理部206と、アナログ/デジタル(A/D)変換部208と、バス210と、SDRAM212と、AE処理部214と、AF処理部216と、画像処理部218と、表示ドライバ220と、表示パネル222と、画像圧縮伸張部224と、メモリインターフェイス(I/F)226と、記録媒体228と、マイクロコンピュータ230と、操作部232と、マップ生成部234と、Flashメモリ236と、を有している。   The camera body 200 includes a mechanical shutter 202, an image sensor 204, an analog processing unit 206, an analog / digital (A / D) conversion unit 208, a bus 210, an SDRAM 212, an AE processing unit 214, and an AF processing unit 216. An image processing unit 218, a display driver 220, a display panel 222, an image compression / decompression unit 224, a memory interface (I / F) 226, a recording medium 228, a microcomputer 230, an operation unit 232, A map generation unit 234 and a flash memory 236 are included.

メカシャッタ202は、撮像素子204の光電変換面を遮光状態又は露出状態とするように移動自在に構成されている。このメカシャッタ202を移動させることにより撮像素子204の露出時間が調整される。   The mechanical shutter 202 is configured to be movable so that the photoelectric conversion surface of the image sensor 204 is in a light shielding state or an exposed state. The exposure time of the image sensor 204 is adjusted by moving the mechanical shutter 202.

撮像素子204は、レンズ102を介して集光された被写体からの光束が結像される光電変換面を有している。光電変換面は、複数の画素が2次元状に配置されて構成されている。また、光電変換面の光入射側には、カラーフィルタが設けられている。このような撮像素子204は、光電変換面に結像された光束に対応した像(被写体像)を、その光量に応じた電気信号(以下、画像信号という)に変換して出力する。   The image sensor 204 has a photoelectric conversion surface on which a light beam from a subject condensed through the lens 102 is imaged. The photoelectric conversion surface is configured with a plurality of pixels arranged two-dimensionally. A color filter is provided on the light incident side of the photoelectric conversion surface. Such an image sensor 204 converts an image (subject image) corresponding to the light beam formed on the photoelectric conversion surface into an electrical signal (hereinafter referred to as an image signal) corresponding to the light amount and outputs the electrical signal.

ここで、撮像素子204は、CCD方式やCMOS方式等の種々の構成の撮像素子が知られている。また、カラーフィルタの色配列もベイヤ配列等の種々の配列が知られている。本実施形態は、撮像素子204の構成が特定の構成に限定されるものではなく、種々の構成の撮像素子を用いることが可能である。また、撮像素子204は、露出時間を電子的に制御する電子シャッタ機能を有していても良い。以下の説明においては撮像素子204が電子シャッタ機能を有しているものとする。   Here, as the imaging device 204, imaging devices having various configurations such as a CCD method and a CMOS method are known. Various color filters such as a Bayer array are also known. In the present embodiment, the configuration of the image sensor 204 is not limited to a specific configuration, and image sensors with various configurations can be used. Further, the image sensor 204 may have an electronic shutter function for electronically controlling the exposure time. In the following description, it is assumed that the image sensor 204 has an electronic shutter function.

アナログ処理部206は、撮像素子204により得られた画像信号に対してCDS(相関二重サンプリング)処理やAGC(自動利得制御)処理等のアナログ処理を施す。A/D変換部208は、アナログ処理部206においてアナログ処理された画像信号をデジタル信号(以下、RAWデータという)に変換する。ここで、RAWデータとは、画像処理部218における画像処理が施される前の「生の」画像データである。   The analog processing unit 206 performs analog processing such as CDS (correlated double sampling) processing and AGC (automatic gain control) processing on the image signal obtained by the image sensor 204. The A / D converter 208 converts the image signal analog-processed by the analog processor 206 into a digital signal (hereinafter referred to as RAW data). Here, the RAW data is “raw” image data before image processing in the image processing unit 218 is performed.

バス210は、カメラ本体200の内部で発生した各種のデータを転送するための転送路である。   The bus 210 is a transfer path for transferring various data generated in the camera body 200.

SDRAM212は、カメラ本体200内部で発生した各種のデータを一時的に記憶するための記憶部である。このSDRAM212は、画像処理部218における画像処理の際のバッファメモリとしても使用される。また、本実施形態におけるSDRAM212は、マップ記憶部2121としての記憶領域も有している。マップ記憶部2121は、後述するタッチ入力部2321によってタッチ入力がされた際の、タッチ位置を示す座標とそのタッチ位置における圧力に応じた強度とを対応付けたマップを記憶するための記憶領域である。このマップの詳細については後で説明する。   The SDRAM 212 is a storage unit for temporarily storing various data generated inside the camera body 200. The SDRAM 212 is also used as a buffer memory at the time of image processing in the image processing unit 218. Further, the SDRAM 212 in the present embodiment also has a storage area as the map storage unit 2121. The map storage unit 2121 is a storage area for storing a map in which coordinates indicating a touch position and an intensity corresponding to pressure at the touch position are associated with each other when touch input is performed by a touch input unit 2321 described later. is there. Details of this map will be described later.

AE処理部214は、画像データ(例えばRAWデータ)を用いて被写体輝度を算出する。AF処理部216は、画像データ(例えばRAWデータ)から高周波成分の信号を取り出し、取り出した高周波成分の信号を積算してAF用の合焦評価値を取得する。   The AE processing unit 214 calculates subject luminance using image data (for example, RAW data). The AF processing unit 216 extracts high-frequency component signals from the image data (for example, RAW data), integrates the extracted high-frequency component signals, and acquires a focus evaluation value for AF.

画像処理部218は、RAWデータに対する各種の画像処理を行って記録用画像データ又は表示用画像データを生成する。記録用画像データ又は表示用画像データは、画像処理のパラメータが異なっている。ここで、画像処理部218で行われる画像処理は、記録用画像データ又は表示用画像データの仕上がりを所定のものとするための画像処理である。ここでの仕上がりとは、表示の際の見た目や作風等のことを言う。   The image processing unit 218 performs various kinds of image processing on the RAW data to generate recording image data or display image data. The recording image data or the display image data has different image processing parameters. Here, the image processing performed by the image processing unit 218 is image processing for making the finish of the recording image data or display image data predetermined. The finish here means the appearance and style of the display.

本実施形態における画像処理部218は、基本画像処理部2181と、特殊画像処理部2182と、を有している。   The image processing unit 218 in this embodiment includes a basic image processing unit 2181 and a special image processing unit 2182.

基本画像処理部2181は、画像の表示や記録のために必要な基本的な画像処理を画像データに対して施す。この基本的な画像処理には、例えば、オプティカルブラック(OB)減算処理、ホワイトバランス(WB)補正処理、同時化処理、色再現処理、輝度変更処理、エッジ強調処理、ノイズ低減処理が含まれる。
オプティカルブラック減算処理は、RAWデータの暗電流成分(オプティカルブラック)を減算して除去する処理である。
ホワイトバランス補正処理は、RAWデータの各色成分を所定のゲイン量で増幅することにより、画像の色バランスを補正する処理である。
同時化処理は、ベイヤ配列に対応して撮像素子204を介して出力されるRAWデータ等の、1つの画素が1つの色成分に対応している画像データを、1つの画素が複数の色成分に対応しているRGBデータに変換する処理である。
色再現処理は、画像の色再現を適切なものとするための各種の処理である。この処理としては、例えばカラーマトリクス演算処理がある。このカラーマトリクス演算処理は、RGBデータに対して、例えばホワイトバランスモードに応じたカラーマトリクス係数を乗じる処理である。この他、色再現処理として彩度・色相の補正も行う。
輝度変更処理は、RGBデータをYC(輝度・色差)データに変換し、Yデータの輝度特性を、表示や記録に適するように変更する処理である。なお、輝度変更処理として、RGBデータの輝度特性を変更するようにしても良い。
エッジ強調処理は、画像データ(RGBデータ又はYCデータ)からバンドパスフィルタ等を用いて抽出したエッジ信号にエッジ強調係数を乗じ、この結果をもとの画像データに加算することによって、画像データにおけるエッジ(輪郭)成分を強調する処理である。
ノイズ低減処理は、コアリング処理等により、画像データ(RGBデータ又はYCデータ)におけるノイズ成分を除去する処理である。
A basic image processing unit 2181 performs basic image processing necessary for image display and recording on image data. This basic image processing includes, for example, optical black (OB) subtraction processing, white balance (WB) correction processing, synchronization processing, color reproduction processing, luminance change processing, edge enhancement processing, and noise reduction processing.
The optical black subtraction process is a process of subtracting and removing the dark current component (optical black) of the RAW data.
The white balance correction process is a process for correcting the color balance of an image by amplifying each color component of the RAW data by a predetermined gain amount.
In the synchronization processing, image data in which one pixel corresponds to one color component, such as RAW data output via the image sensor 204 corresponding to the Bayer array, is converted into a plurality of color components in one pixel. Is a process of converting to RGB data corresponding to.
The color reproduction process is various processes for making the color reproduction of an image appropriate. As this process, for example, there is a color matrix calculation process. This color matrix calculation process is a process of multiplying RGB data by, for example, a color matrix coefficient corresponding to the white balance mode. In addition, saturation and hue are also corrected as color reproduction processing.
The luminance changing process is a process for converting RGB data into YC (luminance / color difference) data and changing the luminance characteristics of the Y data so as to be suitable for display and recording. Note that as the luminance change processing, the luminance characteristics of the RGB data may be changed.
Edge enhancement processing is performed by multiplying an edge signal extracted from image data (RGB data or YC data) using a bandpass filter or the like by an edge enhancement coefficient, and adding the result to the original image data. This is a process for enhancing an edge (contour) component.
The noise reduction process is a process for removing a noise component in image data (RGB data or YC data) by a coring process or the like.

特殊画像処理部2182は、画像データ(RGBデータ又はYCデータ)に対して特殊な視覚効果を与えるための特殊画像処理を施す。この特殊画像処理の詳細については後で説明する。   The special image processing unit 2182 performs special image processing for giving a special visual effect to the image data (RGB data or YC data). Details of the special image processing will be described later.

表示ドライバ220は、画像処理部218で得られた表示用画像データ又は画像圧縮伸張部224で記録用画像データを伸張して得られる表示用画像データを、表示パネル222の表示サイズに応じてリサイズし、リサイズした表示用画像データを映像信号に変換して表示パネル222に出力する。表示パネル222は、例えば液晶ディスプレイ(LCD)である。この表示パネル222は、表示ドライバ220から入力された映像信号に基づく画像を表示する。   The display driver 220 resizes the display image data obtained by the image processing unit 218 or the display image data obtained by decompressing the recording image data by the image compression / decompression unit 224 according to the display size of the display panel 222. Then, the resized display image data is converted into a video signal and output to the display panel 222. The display panel 222 is, for example, a liquid crystal display (LCD). The display panel 222 displays an image based on the video signal input from the display driver 220.

画像圧縮伸張部224は、画像の記録時においては、画像処理部218における画像処理によって得られた記録用画像データに対してJPEG形式やTIFF形式等の静止画圧縮処理又はMPEG形式やH.264形式等の動画圧縮処理を施す。また、画像圧縮伸張部224は、画像の再生時においては、圧縮処理が施された記録用画像データに対して伸張処理を施す。   At the time of image recording, the image compression / decompression unit 224 performs still image compression processing such as JPEG format or TIFF format on the recording image data obtained by image processing in the image processing unit 218, MPEG format, or H.264 format. H.264 format moving image compression processing is performed. Further, the image compression / decompression unit 224 performs decompression processing on the recording image data subjected to the compression processing at the time of reproducing the image.

メモリI/F226は、マイクロコンピュータ230等が記録媒体228にアクセスするためのインターフェイスである。記録媒体228は、例えばカメラ本体200に着脱自在になされたメモリカードである。この記録媒体228は、画像ファイル等を記録する。画像ファイルは、画像圧縮伸張部224によって圧縮された記録用画像データに、ヘッダ情報を付加したファイルである。記録媒体228は、カメラ本体200に固定されていても良い(着脱できなくても良い)。   The memory I / F 226 is an interface for the microcomputer 230 or the like to access the recording medium 228. The recording medium 228 is a memory card that is detachably attached to the camera body 200, for example. The recording medium 228 records image files and the like. The image file is a file in which header information is added to the recording image data compressed by the image compression / decompression unit 224. The recording medium 228 may be fixed to the camera body 200 (it may not be detachable).

マイクロコンピュータ230は、メカシャッタ202、撮像素子204、表示ドライバ220といったカメラ本体200の各部の動作を統括的に制御する。また、マイクロコンピュータ230は、AE処理部214で演算された被写体輝度を用いてAE処理を行ったり、AF処理部216で演算されたAF評価値を用いてAF処理を行ったりもする。また、マイクロコンピュータ230は、交換式レンズ100の装着時には、交換式レンズ100の動作も制御する。ここで、本実施形態におけるマイクロコンピュータ230は、制御部としての機能も有し、後述のマップ生成部234で生成されるマップに応じてAE処理等の各種のカメラ動作を制御する。   The microcomputer 230 comprehensively controls the operation of each part of the camera body 200 such as the mechanical shutter 202, the image sensor 204, and the display driver 220. Further, the microcomputer 230 performs AE processing using the subject brightness calculated by the AE processing unit 214 or performs AF processing using the AF evaluation value calculated by the AF processing unit 216. The microcomputer 230 also controls the operation of the interchangeable lens 100 when the interchangeable lens 100 is attached. Here, the microcomputer 230 in the present embodiment also has a function as a control unit, and controls various camera operations such as AE processing according to a map generated by a map generation unit 234 described later.

操作部232は、ユーザによって操作される各種の操作部材である。本実施形態における操作部232は、操作部材として、例えば、レリーズボタンと、動画ボタンと、メニューボタンと、再生ボタンと、電源ボタンと、を有している。   The operation unit 232 is various operation members operated by the user. The operation unit 232 according to the present embodiment includes, for example, a release button, a moving image button, a menu button, a playback button, and a power button as operation members.

レリーズボタンは、ファースト(1st)レリーズスイッチとセカンド(2nd)レリーズスイッチの2段スイッチを有している。レリーズボタンが半押しされて、ファーストレリーズスイッチがオンされた場合に、マイクロコンピュータ230は、AE処理やAF処理等の撮影準備処理を実行する。また、レリーズボタンが全押しされて、セカンドレリーズスイッチがオンされた場合に、マイクロコンピュータ230は、静止画記録処理を実行する。   The release button has a two-stage switch including a first (1st) release switch and a second (2nd) release switch. When the release button is pressed halfway and the first release switch is turned on, the microcomputer 230 executes photographing preparation processing such as AE processing and AF processing. Further, when the release button is fully pressed and the second release switch is turned on, the microcomputer 230 executes a still image recording process.

動画ボタンは、マイクロコンピュータ230に対して動画撮影の実行を指示する。動画ボタンが押された場合、マイクロコンピュータ230は、動画記録処理を実行する。また、動画記録処理の実行中に動画ボタンが押された場合、マイクロコンピュータ230は、動画記録処理を終了する。   The moving image button instructs the microcomputer 230 to execute moving image shooting. When the moving image button is pressed, the microcomputer 230 executes a moving image recording process. When the moving image button is pressed during the moving image recording process, the microcomputer 230 ends the moving image recording process.

メニューボタンは、メニュー画面の表示を指示するための操作部である。メニュー画面上において、ユーザは、カメラ本体200の各種の設定を変更することが可能である。本実施形態においては、例えばメニュー画面上において、特殊画像処理モードを設定する。この特殊画像処理モードにより、特殊画像処理部2182で施される特殊画像処理の内容が設定される。   The menu button is an operation unit for instructing display of a menu screen. On the menu screen, the user can change various settings of the camera body 200. In the present embodiment, for example, a special image processing mode is set on the menu screen. The content of special image processing performed by the special image processing unit 2182 is set by this special image processing mode.

再生ボタンは、マイクロコンピュータ230に対して静止画ファイル又は動画ファイルの再生を指示するための操作部である。電源ボタンは、カメラ本体200の電源のオン又はオフを指示するための操作部である。   The play button is an operation unit for instructing the microcomputer 230 to play back a still image file or a moving image file. The power button is an operation unit for instructing to turn on or off the power of the camera body 200.

さらに、操作部232は、タッチ入力部2321を有している。タッチ入力部2321は、表示パネル222の上等の、ユーザの指等でタッチ可能な位置に設けられ、ユーザによるタッチ操作を検出する。このタッチ入力部2321は、2次元状に配置された検出点を有している。それぞれの検出点は、ユーザによる指等のタッチがあった場合に、その検出点における圧力を示す検出信号を、マイクロコンピュータ230及びマップ生成部234に入力する。このような圧力を検出可能なタッチ入力部として、例えば透明電極の間に有機材料(例えばポリ乳酸)を挟んで構成されるタッチ入力部が知られている。このような有機材料を用いたタッチ入力部では、有機材料に対する圧力によって有機材料の撓み量が変化し、この撓み量の変化に応じて検出点で検出される検出電圧信号の大きさが変化する。この検出電圧信号の大きさを、圧力として検出する。   Further, the operation unit 232 includes a touch input unit 2321. The touch input unit 2321 is provided at a position that can be touched with a user's finger or the like, such as on the display panel 222, and detects a touch operation by the user. This touch input unit 2321 has detection points arranged two-dimensionally. Each detection point inputs a detection signal indicating the pressure at the detection point to the microcomputer 230 and the map generation unit 234 when the user touches the finger or the like. As a touch input unit capable of detecting such pressure, for example, a touch input unit configured by sandwiching an organic material (for example, polylactic acid) between transparent electrodes is known. In such a touch input unit using an organic material, the amount of deflection of the organic material changes depending on the pressure on the organic material, and the magnitude of the detection voltage signal detected at the detection point changes according to the change in the amount of deflection. . The magnitude of this detection voltage signal is detected as a pressure.

ここで、前述したレリーズボタン、動画ボタン、メニューボタン、再生ボタンと同等の機能をタッチ入力部2321によって実現するようにしても良い。即ち、ボタン等の物理的な操作部材がなくとも良い。   Here, functions equivalent to the above-described release button, moving image button, menu button, and playback button may be realized by the touch input unit 2321. That is, there is no need for a physical operation member such as a button.

マップ生成部234は、タッチ入力部2321から入力された検出信号より、タッチされた検出点の座標を識別し、この座標における圧力をマップの強度に変換する。そして、マップ生成部234は、座標位置と強度とを対応付けたマップを作成する。本実施形態では、例えばAE処理用のAE用マップと画像処理用の画像処理用マップを作成する。   The map generation unit 234 identifies the coordinates of the touched detection point from the detection signal input from the touch input unit 2321, and converts the pressure at this coordinate to the strength of the map. Then, the map generation unit 234 creates a map in which the coordinate position and the intensity are associated with each other. In this embodiment, for example, an AE map for AE processing and an image processing map for image processing are created.

以下、マップの作成方法について説明する。ここでは、AE用マップと画像処理用マップとを区別せずに説明する。例えば、ユーザが、図2に示すようにして、タッチ入力部2321のある座標に配置された検出点を指Fでタッチしたとする。このとき、タッチ入力部2321は、指Fがタッチしている範囲Aにおける圧力を示す検出信号をマップ生成部234に入力する。これを受けてマップ生成部234は、図3(a)及び図4(a)に示すようなマップを生成する。   A map creation method will be described below. Here, the AE map and the image processing map will be described without distinction. For example, it is assumed that the user touches the detection point arranged at a certain coordinate of the touch input unit 2321 with the finger F as shown in FIG. At this time, the touch input unit 2321 inputs a detection signal indicating the pressure in the range A where the finger F is touching to the map generation unit 234. In response to this, the map generation unit 234 generates maps as shown in FIGS. 3 (a) and 4 (a).

図3(a)及び図4(a)に示すマップは、タッチされた検出点の座標毎の強度の分布を表したものである。図3(a)及び図4(a)に示すマップを画像として表示させるようにしても良い。この場合、マップの強度を輝度に変換する。この場合、例えば強度が大きい座標に対応した画素ほど黒く(低輝度に)し、強度が小さい座標に対応した画素ほど白く(高輝度に)する。このような画像の生成手法は一例であって適宜変更され得る。例えば、白黒のような無彩色を用いずに有彩色を用いても良い。有彩色を用いる場合には、強度に応じて画像を色分けするようにしても良い。   The maps shown in FIG. 3A and FIG. 4A represent the intensity distribution for each coordinate of the touched detection point. The maps shown in FIGS. 3A and 4A may be displayed as images. In this case, the map intensity is converted into luminance. In this case, for example, a pixel corresponding to a coordinate having a high intensity is made black (low luminance), and a pixel corresponding to a coordinate having a low intensity is made white (high luminance). Such an image generation method is an example and can be changed as appropriate. For example, a chromatic color may be used without using an achromatic color such as black and white. When chromatic colors are used, the image may be color-coded according to the intensity.

図3(a)に示すマップは、ユーザがタッチ入力部2321に軽くタッチした場合に生成されるマップの例である。ここで、図3(b)は、図3(a)のマップで示される強度のうちの、タッチ中心を通る線分Bに沿った方向の情報の分布を示している。ユーザがタッチ入力部2321を軽くタッチした場合には、図3(b)に示すように、強度分布がタッチ中心を中心とする正規分布状となる。   The map shown in FIG. 3A is an example of a map generated when the user touches the touch input unit 2321 lightly. Here, FIG. 3B shows a distribution of information in the direction along the line segment B passing through the touch center, out of the intensities shown in the map of FIG. When the user lightly touches the touch input unit 2321, the intensity distribution becomes a normal distribution centered on the touch center as shown in FIG.

一方、図4(a)に示すマップは、ユーザがタッチ入力部2321に強くタッチした場合に生成されるマップの例である。ユーザがタッチ入力部2321に強くタッチした場合には、ユーザの指Fがタッチ入力部2321の表面に押し付けられて平面状にへこむ。したがって、生成されるマップは、図4(a)に示すように、軽くタッチした場合に生成されるマップよりも広がりを持つこととなる。また、図4(b)は、図4(a)のマップで示される強度のうちの、タッチ中心を通る線分Bに沿った方向の強度の分布を示している。前述したように、ユーザがタッチ入力部2321に強くタッチした場合には、タッチ入力部2321からの力を受けて指Fが平面状にへこむので、図4(b)の実線で示すように、一定範囲の座標が略同じ強度を有する分布となる。   On the other hand, the map shown in FIG. 4A is an example of a map generated when the user strongly touches the touch input unit 2321. When the user strongly touches the touch input unit 2321, the user's finger F is pressed against the surface of the touch input unit 2321 and dents in a planar shape. Therefore, as shown in FIG. 4A, the generated map is wider than the map generated when lightly touched. FIG. 4B shows the intensity distribution in the direction along the line segment B passing through the touch center among the intensities shown in the map of FIG. As described above, when the user strongly touches the touch input unit 2321, the finger F receives a force from the touch input unit 2321 and dents in a planar shape, so that the solid line in FIG. A certain range of coordinates has a distribution having substantially the same intensity.

ここで、図4(b)に示すような略一定の強度が生じた場合、図4(b)の破線で示すような正規分布状となるようにマップの補正を行うようにしても良い。このような補正を行わなくとも良い。   Here, when a substantially constant intensity as shown in FIG. 4B occurs, the map may be corrected so as to have a normal distribution as shown by a broken line in FIG. 4B. Such correction is not necessary.

また、タッチ入力部2321の構成として、所定期間毎のタッチ位置の座標及び圧力の変化を検出するようにタッチ入力部2321を構成しても良い。このような構成を有するタッチ入力部2321は、指Fの移動を検出したり、複数の座標への指Fのタッチを検出したりすることができる。ここで、ユーザがタッチ入力部2321の表面をなぞるように指Fを動かして1点目のタッチをし、その後に別の点をタッチした場合に生成されるマップの例を図5に示す。図5の参照符号301が1点目、参照符号302が2点目である。   In addition, as a configuration of the touch input unit 2321, the touch input unit 2321 may be configured to detect changes in coordinates of the touch position and pressure for each predetermined period. The touch input unit 2321 having such a configuration can detect the movement of the finger F or can detect the touch of the finger F on a plurality of coordinates. Here, FIG. 5 shows an example of a map generated when the user moves the finger F so as to trace the surface of the touch input unit 2321, touches the first point, and then touches another point. The reference numeral 301 in FIG. 5 is the first point, and the reference numeral 302 is the second point.

また、タッチ入力部2321から入力される圧力とマップの強度との対応関係は、そのマップの使用目的等の種々の条件に応じて適宜変更して良い。例えば、AE用マップと画像処理用マップとで圧力とマップの強度との対応関係を変更しても良い。   Further, the correspondence between the pressure input from the touch input unit 2321 and the strength of the map may be appropriately changed according to various conditions such as the purpose of use of the map. For example, the correspondence between pressure and map strength may be changed between the AE map and the image processing map.

また、前述の例では、タッチ入力部2321の構成として圧力を検出可能なものを例示している。実際には、タッチ入力部2321の操作に対応して、タッチ入力部2321に設定される座標毎に強度の分布を表すマップを生成できれば良い。例えば、ある座標の検出点へのタッチ回数に応じて強度の値を増加させるようにタッチ入力部2321を構成しても良い。   Further, in the above-described example, the touch input unit 2321 is illustrated as one that can detect pressure. Actually, it is only necessary to generate a map representing the intensity distribution for each coordinate set in the touch input unit 2321 in response to the operation of the touch input unit 2321. For example, the touch input unit 2321 may be configured to increase the intensity value in accordance with the number of touches on a detection point at a certain coordinate.

また、マップの生成に際しては、タッチ入力部2321でタッチ操作を検出可能な全ての座標の値を用いてマップを生成する必要はない。例えば、タッチ入力部2321の検出値としてはタッチ中心の座標と強度をマップ生成に使用し、残りの範囲の強度は、タッチ中心の強度から正規分布状に減衰させるように順次算出するようにしても良い。また、複数の離散した検出点における強度から補間によってその間の強度を算出してマップを生成しても良い。   Further, when generating a map, it is not necessary to generate a map using all coordinate values that can be detected by the touch input unit 2321. For example, as the detection value of the touch input unit 2321, the coordinates and intensity of the touch center are used for map generation, and the intensity of the remaining range is sequentially calculated so as to attenuate in a normal distribution form from the intensity of the touch center. Also good. Further, the map may be generated by calculating the intensity between the intensity at a plurality of discrete detection points by interpolation.

Flashメモリ236は、例えばホワイトバランス補正用のホワイトバランスゲイン、カラーマトリクス演算用のカラーマトリクス係数、輝度特性変更用の各種の関数といった画像処理部218の動作に必要なパラメータ等の、カメラ本体200の動作に必要な各種のパラメータを記憶している。また、Flashメモリ236は、マイクロコンピュータ230が実行する種々のプログラムも記憶している。さらに、本実施形態におけるFlashメモリ236は、ロック操作の識別をするためのタッチパターン、並びにデフォルトのAE用マップ及びデフォルトの画像処理用マップも記憶している。これらのマップについては後で詳しく説明する。   The flash memory 236 includes parameters necessary for the operation of the image processing unit 218 such as a white balance gain for white balance correction, a color matrix coefficient for color matrix calculation, and various functions for changing luminance characteristics. Various parameters necessary for operation are stored. The flash memory 236 also stores various programs executed by the microcomputer 230. Further, the flash memory 236 in the present embodiment also stores a touch pattern for identifying a lock operation, a default AE map, and a default image processing map. These maps will be described in detail later.

以下、前述したデジタルカメラの動作について説明する。図6は、本実施形態に係るデジタルカメラのメイン動作を示すフローチャートである。図6の動作は、例えば図1に示すデジタルカメラ1の電源がオンされた場合に行われる。   Hereinafter, the operation of the above-described digital camera will be described. FIG. 6 is a flowchart showing the main operation of the digital camera according to the present embodiment. The operation of FIG. 6 is performed when the power of the digital camera 1 shown in FIG. 1 is turned on, for example.

電源オン後において、マイクロコンピュータ230は、初期化処理を行う(ステップS101)。初期化処理において、マイクロコンピュータ230は、自身が有するレジスタに設定されている記録中フラグをOffにする等の処理を行う。記録中フラグは、動画記録中であるか否かを示すフラグである。記録中フラグがOffになっている間は、動画記録中でないことを示す。一方、記録中フラグがOnになっている間は、動画記録中であることを示す。さらに、初期化処理において、マイクロコンピュータ230は、マップ記憶部2121に記憶されているマップをリセットする。リセットは、例えば各座標の強度を初期値(例えばゼロ)にすることで行う。または、Flashメモリ236にデフォルトのマップが記憶されている場合には、そのデフォルトのマップをマップ記憶部2121に上書きするようにしても良い。   After the power is turned on, the microcomputer 230 performs an initialization process (step S101). In the initialization processing, the microcomputer 230 performs processing such as turning off the recording flag set in the register of the microcomputer 230. The recording flag is a flag indicating whether or not a moving image is being recorded. While the recording flag is Off, it indicates that the moving image is not being recorded. On the other hand, while the recording flag is On, it indicates that moving image recording is in progress. Further, in the initialization process, the microcomputer 230 resets the map stored in the map storage unit 2121. The reset is performed, for example, by setting the intensity of each coordinate to an initial value (for example, zero). Alternatively, when a default map is stored in the flash memory 236, the map may be overwritten on the map storage unit 2121.

次に、マイクロコンピュータ230は、ユーザによって操作部232の再生ボタンが押されたか否かを判定する(ステップS102)。ステップS102において、再生ボタンが押されたと判定した場合に、マイクロコンピュータ230は、再生・編集処理を実行する(ステップS103)。再生・編集処理の詳細については後で説明する。   Next, the microcomputer 230 determines whether or not the reproduction button of the operation unit 232 has been pressed by the user (step S102). If it is determined in step S102 that the playback button has been pressed, the microcomputer 230 executes playback / editing processing (step S103). Details of the reproduction / editing process will be described later.

また、ステップS102において再生ボタンが押されていないと判定した場合に、マイクロコンピュータ230は、カメラ設定をするか否かを判定する(ステップS104)。例えば、ユーザによって操作部232のメニューボタンが押された場合に、マイクロコンピュータ230は、カメラ設定をすると判定する。   If it is determined in step S102 that the playback button has not been pressed, the microcomputer 230 determines whether or not to set the camera (step S104). For example, when the menu button of the operation unit 232 is pressed by the user, the microcomputer 230 determines to set the camera.

ステップS104において、カメラ設定をすると判定した場合に、マイクロコンピュータ230は、表示ドライバ220を制御して表示パネル222にメニュー画面を表示させた後、カメラ設定処理を実行する(ステップS105)。
カメラ設定処理において、マイクロコンピュータ230は、ユーザからのカメラ設定の変更の指示を待つ。そして、何らかのカメラ設定の変更の指示がなされた場合に、マイクロコンピュータ230は、その指示に従ってカメラ設定を変更する。このカメラ設定処理においては、例えば静止画撮影時や動画撮影時の画像の記録形式の設定、画質等の画像の仕上がりに関する設定等が変更される。また、カメラ設定処理において、特殊画像処理を実行するか否か、及び特殊画像処理を実行する際の特殊画像処理モードを設定することが可能である。さらに、本実施形態においては、カメラ設定処理において、タッチ入力部2321の動作モードやタッチパターンの設定をすることも可能である。
If it is determined in step S104 that camera settings are to be made, the microcomputer 230 controls the display driver 220 to display a menu screen on the display panel 222, and then executes camera setting processing (step S105).
In the camera setting process, the microcomputer 230 waits for a camera setting change instruction from the user. When an instruction to change any camera setting is given, the microcomputer 230 changes the camera setting according to the instruction. In this camera setting process, for example, the setting of the image recording format at the time of still image shooting or moving image shooting, the setting related to the image finish such as image quality, and the like are changed. In the camera setting process, it is possible to set whether or not to execute special image processing and a special image processing mode when executing special image processing. Furthermore, in this embodiment, it is also possible to set the operation mode and touch pattern of the touch input unit 2321 in the camera setting process.

ステップS104において、カメラ設定をしないと判定した場合に、マイクロコンピュータ230は、ユーザによって操作部232の動画ボタンが押されたか否かを判定する(ステップS106)。ステップS106において、動画ボタンが押されたと判定した場合に、マイクロコンピュータ230は、記録中フラグを反転させる(ステップS107)。即ち、マイクロコンピュータ230は、記録中フラグがOffの場合にはOnに、Onの場合にはOffにする。その後、マイクロコンピュータ230は、現在、動画記録中であるか否か、即ち記録中フラグがOnであるか否かを判定する(ステップS108)。   If it is determined in step S104 that the camera setting is not performed, the microcomputer 230 determines whether or not the moving image button of the operation unit 232 has been pressed by the user (step S106). If it is determined in step S106 that the moving image button has been pressed, the microcomputer 230 inverts the recording flag (step S107). That is, the microcomputer 230 turns On when the recording flag is Off and turns Off when it is On. Thereafter, the microcomputer 230 determines whether or not the moving image is currently being recorded, that is, whether or not the recording flag is On (step S108).

ステップS108において、記録中フラグがOnであると判定した場合に、マイクロコンピュータ230は、動画ファイルを生成する(ステップS109)。ここで、本実施形態においては、動画ファイルのヘッダ情報として、後述のマップ操作・ロック操作処理で生成されたマップを記憶させる。詳細については後で説明する。   If it is determined in step S108 that the recording flag is On, the microcomputer 230 generates a moving image file (step S109). Here, in the present embodiment, a map generated by a map operation / lock operation process described later is stored as header information of the moving image file. Details will be described later.

また、ステップS108において、記録中フラグがOnでないと判定した場合に、マイクロコンピュータ230は、動画ファイルを閉じる(ステップS110)。   If it is determined in step S108 that the recording flag is not On, the microcomputer 230 closes the moving image file (step S110).

また、ステップS106において動画ボタンが押されていないと判定した場合、ステップS109において動画ファイルを生成した後、ステップS110において動画ファイルを閉じた後、マイクロコンピュータ230は、タッチ入力部2321の現在の動作モードがマップ操作・ロック操作モードであるか否かを判定する(ステップS111)。本実施形態におけるタッチ入力部2321は、動作モードとして、通常モードとマップ操作・ロックモードとを有している。通常モードは、タッチレリーズを可能とするためのモードである。この通常モードにおいては、表示パネル222の上に配置されたタッチ入力部2321の特定の座標に対してユーザの指のタッチがあった場合には、表示パネル222に表示されている画像中におけるタッチされた座標に対応した被写体に対するAE処理及びAF処理が行われ、その後に撮影(静止画記録又は動画記録)が行われる。また、マップ操作・ロックモードは、マップ生成部234によって生成されるマップの変更操作やタッチ入力部2321の操作を無効とするロック操作を行うためのモードである。これらの動作モードの切り替えは、ステップS105のカメラ設定やタッチ入力部2321の操作によって行われる。   If it is determined in step S106 that the moving image button has not been pressed, after generating the moving image file in step S109 and closing the moving image file in step S110, the microcomputer 230 causes the current operation of the touch input unit 2321 to be performed. It is determined whether or not the mode is a map operation / lock operation mode (step S111). The touch input unit 2321 in this embodiment has a normal mode and a map operation / lock mode as operation modes. The normal mode is a mode for enabling touch release. In this normal mode, when a user's finger touches a specific coordinate of the touch input unit 2321 arranged on the display panel 222, the touch in the image displayed on the display panel 222 is performed. An AE process and an AF process are performed on the subject corresponding to the coordinate, and then shooting (still image recording or moving image recording) is performed. Further, the map operation / lock mode is a mode for performing a lock operation for invalidating a change operation of the map generated by the map generation unit 234 and an operation of the touch input unit 2321. Switching between these operation modes is performed by the camera setting in step S105 or the operation of the touch input unit 2321.

ステップS111において、タッチ入力部2321の現在の動作モードがマップ操作・ロック操作モードであると判定した場合に、マイクロコンピュータ230は、マップ操作・ロック操作モードの処理を実行する(ステップS112)。マップ操作・ロック操作モードの処理の詳細については後で説明する。   In step S111, when it is determined that the current operation mode of the touch input unit 2321 is the map operation / lock operation mode, the microcomputer 230 executes the process of the map operation / lock operation mode (step S112). Details of the map operation / lock operation mode processing will be described later.

ステップS111においてタッチ入力部2321の現在の動作モードが通常モードであると判定した場合又はステップS112の後、マイクロコンピュータ230は、ユーザによって操作部232のレリーズボタンが半押しされてレリーズボタンの状態がOff状態から1stレリーズスイッチのOn状態に遷移したか否かを判定する(ステップS113)。ここで、タッチ入力部2321の現在の動作モードが通常モードの場合であって、表示パネル222の上に配置されたタッチ入力部2321の特定の座標に対してユーザの指のタッチがあった場合も、1stレリーズスイッチのOn状態に遷移したと判定することとする。   When it is determined in step S111 that the current operation mode of the touch input unit 2321 is the normal mode or after step S112, the microcomputer 230 causes the release button of the operation unit 232 to be half-pressed by the user so that the state of the release button is changed. It is determined whether or not a transition is made from the Off state to the On state of the 1st release switch (step S113). Here, when the current operation mode of the touch input unit 2321 is the normal mode and the user's finger touches a specific coordinate of the touch input unit 2321 arranged on the display panel 222 It is also determined that the 1st release switch has transitioned to the On state.

ステップS113において、レリーズボタンの状態が1stレリーズスイッチのOn状態に遷移したと判定した場合に、マイクロコンピュータ230は、AE処理を行う(ステップS114)。AE処理の詳細については後で説明する。   If it is determined in step S113 that the state of the release button has transitioned to the ON state of the 1st release switch, the microcomputer 230 performs an AE process (step S114). Details of the AE process will be described later.

AE処理の後、マイクロコンピュータ230は、AF処理を行う(ステップS115)。
AF処理において、マイクロコンピュータ230は、AF処理部216によって合焦評価値を取得させる。そして、マイクロコンピュータ230は、AF処理部216で取得された合焦評価値により、コントラストを評価しつつ、レンズ102のフォーカスレンズを微少量ずつ駆動させるようにマイクロコンピュータ108に指示する。その後、マイクロコンピュータ230は、コントラストが最大となった時点でフォーカスレンズの駆動を停止させるようにマイクロコンピュータ108に指示する。このようなAF処理は、所謂コントラスト方式のAF処理である。AF処理として位相差AF処理を用いるようにしても良い。また、タッチ入力部2321の現在の動作モードが通常モードの場合であって、表示パネル222の上に配置されたタッチ入力部2321の特定の座標に対してユーザの指のタッチがあった場合には、表示パネル222に表示されている画像中におけるタッチされた座標に対応した被写体に合焦するようにフォーカスレンズを駆動する。
After the AE process, the microcomputer 230 performs an AF process (step S115).
In the AF process, the microcomputer 230 causes the AF processing unit 216 to acquire a focus evaluation value. Then, the microcomputer 230 instructs the microcomputer 108 to drive the focus lens of the lens 102 little by little while evaluating the contrast based on the focus evaluation value acquired by the AF processing unit 216. Thereafter, the microcomputer 230 instructs the microcomputer 108 to stop driving the focus lens when the contrast reaches the maximum. Such AF processing is so-called contrast AF processing. A phase difference AF process may be used as the AF process. Further, when the current operation mode of the touch input unit 2321 is the normal mode and the user's finger touches a specific coordinate of the touch input unit 2321 arranged on the display panel 222. Drives the focus lens to focus on the subject corresponding to the touched coordinates in the image displayed on the display panel 222.

ここで、図6の例においては、AE処理の後にAF処理を行うようにしている。これは、被写体の露出を適正としてからAF処理を行ったほうが、AF処理の精度が向上するためである。後で説明するが、動画記録中やライブビュー表示中にはAE処理が繰り返して行われるので、ある程度、被写体の露出が適正となっている。したがって、必ずしもAE処理の後にAF処理を行う必要はない。即ち、AE処理とAF処理の順序は、逆順でも良い。   Here, in the example of FIG. 6, AF processing is performed after AE processing. This is because the accuracy of the AF processing is improved when the AF processing is performed after the exposure of the subject is appropriate. As will be described later, since the AE process is repeatedly performed during moving image recording or live view display, exposure of the subject is appropriate to some extent. Therefore, it is not always necessary to perform AF processing after AE processing. That is, the order of the AE process and the AF process may be reversed.

ステップS115の後、マイクロコンピュータ230は、デジタルカメラ1の電源がオフされたか否かを判定する(ステップS116)。ステップS116において、デジタルカメラ1の電源がオフされていないと判定した場合に、マイクロコンピュータ230は、ステップS102以後の処理を実行する。一方、ステップS116において、デジタルカメラの電源がオフされたと判定した場合に、マイクロコンピュータ230は、図6の処理を終了させる。   After step S115, the microcomputer 230 determines whether the power of the digital camera 1 is turned off (step S116). If it is determined in step S116 that the power of the digital camera 1 has not been turned off, the microcomputer 230 executes the processing after step S102. On the other hand, if it is determined in step S116 that the power of the digital camera has been turned off, the microcomputer 230 ends the processing in FIG.

また、ステップS113において、レリーズボタンの状態が1stレリーズスイッチのOn状態に遷移していないと判定した場合に、マイクロコンピュータ230は、ユーザによって操作部232のレリーズボタンが全押しされてレリーズボタンの状態が2ndレリーズスイッチのOn状態となっているか否かを判定する(ステップS117)。ここで、タッチ入力部2321の現在の動作モードが通常モードの場合であって、表示パネル222の上に配置されたタッチ入力部2321の特定の座標に対してユーザの指のタッチがあった場合も、2ndレリーズスイッチのOn状態に遷移したと判定することとする。   If it is determined in step S113 that the state of the release button has not changed to the ON state of the first release switch, the microcomputer 230 causes the release button of the operation unit 232 to be fully depressed by the user. Is determined whether or not the 2nd release switch is in the ON state (step S117). Here, when the current operation mode of the touch input unit 2321 is the normal mode and the user's finger touches a specific coordinate of the touch input unit 2321 arranged on the display panel 222 Also, it is determined that the 2nd release switch has transitioned to the On state.

ステップS117において、レリーズボタンの状態が2ndレリーズスイッチのOn状態である場合に、マイクロコンピュータ230は、メカシャッタ202を用いた撮影処理を実行する(ステップS118)。このために、マイクロコンピュータ230は、AE処理において決定されるISO感度に応じてアナログ処理部206におけるゲイン制御量(増幅率)を設定するとともに、AE処理において決定される絞り値をマイクロコンピュータ108に送信する。その後、マイクロコンピュータ230は、マイクロコンピュータ108の制御による絞り104の駆動と同期して、AE処理において決定した露出時間に応じてメカシャッタ202を動作させて撮像素子204の露出値を制御する。このような撮影処理により、RAWデータがSDRAM212に記憶される。   In step S117, when the state of the release button is the ON state of the 2nd release switch, the microcomputer 230 executes a photographing process using the mechanical shutter 202 (step S118). For this purpose, the microcomputer 230 sets the gain control amount (amplification factor) in the analog processing unit 206 according to the ISO sensitivity determined in the AE process, and sets the aperture value determined in the AE process to the microcomputer 108. Send. Thereafter, the microcomputer 230 controls the exposure value of the image sensor 204 by operating the mechanical shutter 202 according to the exposure time determined in the AE process in synchronization with the driving of the diaphragm 104 under the control of the microcomputer 108. RAW data is stored in the SDRAM 212 by such shooting processing.

メカシャッタ202を用いた撮影処理を実行した後、マイクロコンピュータ230は、撮影処理によってSDRAM212に記憶されたRAWデータに対する画像処理を、画像処理部218に実行させる(ステップS119)。この画像処理の詳細については後で説明する。   After executing the photographing process using the mechanical shutter 202, the microcomputer 230 causes the image processing unit 218 to perform image processing on the RAW data stored in the SDRAM 212 by the photographing process (step S119). Details of this image processing will be described later.

画像処理の後、マイクロコンピュータ230は、画像処理の結果としてSDRAM212に記憶された記録用画像データを、設定されている静止画記録形式で静止画ファイルとして記録する処理を行う(ステップS120)。この際、マイクロコンピュータ230は、静止画記録処理の結果としてSDRAM212に記憶された静止画像データを画像圧縮伸張部224に入力して静止画圧縮処理を実行するように画像圧縮伸張部224に指示する。この指示を受けて画像圧縮伸張部224は、予め設定された記録モードに対応するように静止画圧縮処理を行い、圧縮された静止画像データをSDRAM212に記憶させる。その後、マイクロコンピュータ230は、画像圧縮伸張部224により圧縮された静止画像データをSDRAM212から読み出し、読み出した静止画像データから静止画ファイルを作成し、作成した静止画ファイルを記録媒体228に記録する。ここで、本実施形態においては、静止画ファイルのヘッダ情報として、後述のマップ操作・ロック操作処理において生成されたマップを記憶させておく。詳細については後で説明する。   After the image processing, the microcomputer 230 performs processing for recording the recording image data stored in the SDRAM 212 as a result of the image processing as a still image file in the set still image recording format (step S120). At this time, the microcomputer 230 inputs the still image data stored in the SDRAM 212 as a result of the still image recording process to the image compression / decompression unit 224 and instructs the image compression / decompression unit 224 to execute the still image compression process. . In response to this instruction, the image compression / decompression unit 224 performs still image compression processing corresponding to a preset recording mode, and stores the compressed still image data in the SDRAM 212. Thereafter, the microcomputer 230 reads the still image data compressed by the image compression / decompression unit 224 from the SDRAM 212, creates a still image file from the read still image data, and records the created still image file on the recording medium 228. Here, in the present embodiment, a map generated in map operation / lock operation processing described later is stored as header information of the still image file. Details will be described later.

また、ステップS117においてレリーズボタンの状態が2ndレリーズスイッチのOn状態でないと判定した場合に、マイクロコンピュータ230は、AE処理を実行する(ステップS121)。このAE処理は、動画撮影又はライブビュー表示のための処理である。詳細については後で説明する。   If it is determined in step S117 that the state of the release button is not the ON state of the 2nd release switch, the microcomputer 230 executes an AE process (step S121). This AE process is a process for moving image shooting or live view display. Details will be described later.

AE処理の後、マイクロコンピュータ230は、電子シャッタを用いた撮影処理を実行する(ステップS122)。この撮影処理において、マイクロコンピュータ230は、AE処理によって決定した露出時間に応じて撮像素子204の電子シャッタ機能を動作させて撮像素子204の露出値を制御する。このような撮影処理により、RAWデータがSDRAM212に記憶される。   After the AE process, the microcomputer 230 executes a photographing process using an electronic shutter (step S122). In this photographing process, the microcomputer 230 controls the exposure value of the image sensor 204 by operating the electronic shutter function of the image sensor 204 according to the exposure time determined by the AE process. RAW data is stored in the SDRAM 212 by such shooting processing.

電子シャッタを用いた撮影処理を実行した後、マイクロコンピュータ230は、撮影処理によってSDRAM212に記憶されたRAWデータに対する画像処理を、画像処理部218に実行させる(ステップS123)。この画像処理の詳細については後で説明する。   After executing the photographing process using the electronic shutter, the microcomputer 230 causes the image processing unit 218 to perform image processing on the RAW data stored in the SDRAM 212 by the photographing process (step S123). Details of this image processing will be described later.

画像処理の後、マイクロコンピュータ230は、ステップS112のマップ操作・ロック操作がなされてからの経過時間が所定時間(例えば0.5秒)内であるか否かを判定する(ステップS124)。   After the image processing, the microcomputer 230 determines whether or not the elapsed time after the map operation / lock operation in step S112 is within a predetermined time (for example, 0.5 seconds) (step S124).

ステップS124において、マップ操作・ロック操作がなされてからの経過時間が所定時間内であると判定した場合に、マイクロコンピュータ230は、マップ操作・ロック操作がなされたことによって変更されたマップの画像を表示パネル222に表示させる(ステップS125)。マップの画像を表示パネル222に表示させることにより、ユーザは、マップ操作の結果を画像として認識することが可能である。   In step S124, when it is determined that the elapsed time since the map operation / lock operation has been performed is within the predetermined time, the microcomputer 230 displays the map image changed by the map operation / lock operation being performed. It is displayed on the display panel 222 (step S125). By displaying the map image on the display panel 222, the user can recognize the result of the map operation as an image.

ステップS124において、マップ操作がなされてからの経過時間が所定時間内でないと判定した場合に、マイクロコンピュータ230は、ライブビュー表示を行う(ステップS126)。このライブビュー表示において、マイクロコンピュータ230は、画像処理の結果としてSDRAM212に記憶された表示用画像データを表示ドライバ220に入力する。これを受けて表示ドライバ220は、入力された表示用画像データを映像信号に変換して表示パネル222に出力する。表示パネル222は、この映像信号に基づいて画像を表示する。このようなライブビュー表示により、ユーザは、表示パネル222を用いて構図の確認等を行うことができる。   If it is determined in step S124 that the elapsed time since the map operation has been performed is not within the predetermined time, the microcomputer 230 performs live view display (step S126). In this live view display, the microcomputer 230 inputs display image data stored in the SDRAM 212 as a result of image processing to the display driver 220. In response to this, the display driver 220 converts the input display image data into a video signal and outputs it to the display panel 222. The display panel 222 displays an image based on this video signal. With such live view display, the user can check the composition using the display panel 222.

マップの画像を表示させた後又はライブビュー表示の後、マイクロコンピュータ230は、現在、動画記録中であるか否か、即ち記録中フラグがOnであるか否かを判定する(ステップS127)。ステップS127において、記録中フラグがOffであると判定した場合に、マイクロコンピュータ230は、ステップS116の判定を行う。また、ステップS127において、記録中フラグがOnであると判定した場合に、マイクロコンピュータ230は、動画記録処理を実行する(ステップS128)。その後、マイクロコンピュータ230は、ステップS116の判定を行う。   After displaying the map image or displaying the live view, the microcomputer 230 determines whether the moving image is currently being recorded, that is, whether the recording flag is On (step S127). If it is determined in step S127 that the recording flag is Off, the microcomputer 230 determines in step S116. If it is determined in step S127 that the recording flag is On, the microcomputer 230 executes a moving image recording process (step S128). Thereafter, the microcomputer 230 determines in step S116.

図7は、マップ操作・ロック操作処理について示すフローチャートである。マップ操作・ロック操作処理においては、生成されたマップに対して各種の操作を実行することができる。ここで、マップ操作・ロック操作処理の開始時にSDRAM212のマップ記憶部2121にマップが記憶されている場合には、そのマップを表示パネル222に表示させる。また、マップ記憶部2121にマップが記憶されておらず、Flashメモリ236にデフォルトのマップが記録されている場合には、そのデフォルトのマップを表示パネル222に表示させるようにしても良い。   FIG. 7 is a flowchart showing map operation / lock operation processing. In the map operation / lock operation process, various operations can be executed on the generated map. Here, if a map is stored in the map storage unit 2121 of the SDRAM 212 at the start of the map operation / lock operation process, the map is displayed on the display panel 222. If no map is stored in the map storage unit 2121 and a default map is recorded in the flash memory 236, the default map may be displayed on the display panel 222.

マップ操作・ロック操作処理の開始後、マイクロコンピュータ230は、操作ボタンを表示パネル222に表示させる(ステップS201)。操作ボタンは、マップ操作・ロック操作処理における各種の操作をユーザが実行するための、タッチ入力部2321で操作可能なソフトウェアボタンである。図8は、操作ボタンの例を示している。図8の例では、操作ボタンとして、変更ボタン401、リセットボタン402、消しゴムボタン403、記録ボタン404、読込ボタン405を表示させている。これらの操作ボタンは、後述するマップ操作の内容に対応している。   After starting the map operation / lock operation process, the microcomputer 230 displays an operation button on the display panel 222 (step S201). The operation buttons are software buttons that can be operated by the touch input unit 2321 for the user to execute various operations in the map operation / lock operation processing. FIG. 8 shows an example of operation buttons. In the example of FIG. 8, a change button 401, a reset button 402, an eraser button 403, a record button 404, and a read button 405 are displayed as operation buttons. These operation buttons correspond to the contents of the map operation described later.

マイクロコンピュータ230は、ユーザによってロック操作がなされたか否かを判定する(ステップS202)。例えば、ユーザが、タッチ入力部2321に予め設定された検出エリアの座標を所定のタッチパターンでタッチした場合に、ロック操作がされたと判定される。このために、タッチパターン生成部及び比較部としてのマイクロコンピュータ230は、ステップS202においてタッチ入力部2321の検出結果からタッチパターンを生成し、生成したタッチパターンをタッチパターン記憶部の一例としてのFlashメモリ236に記憶された所定のタッチパターンと比較することを行う。生成したタッチパターンと所定のタッチパターンとが類似している場合にはロック操作がなされたとする。   The microcomputer 230 determines whether or not a lock operation has been performed by the user (step S202). For example, when the user touches the coordinates of the detection area set in advance on the touch input unit 2321 with a predetermined touch pattern, it is determined that the lock operation has been performed. For this purpose, the microcomputer 230 as the touch pattern generation unit and the comparison unit generates a touch pattern from the detection result of the touch input unit 2321 in step S202, and uses the generated touch pattern as a flash memory as an example of the touch pattern storage unit. Comparison with a predetermined touch pattern stored in 236 is performed. It is assumed that the lock operation is performed when the generated touch pattern and the predetermined touch pattern are similar.

ここで、タッチパターンは、タッチ開始からの時間とその間の圧力の変化とによって設定される。また、所定のタッチパターンは、固定のパターンとしても良いし、ユーザが任意に設定できるようにしても良い。   Here, the touch pattern is set by the time from the start of the touch and the pressure change during that time. The predetermined touch pattern may be a fixed pattern or may be arbitrarily set by the user.

ユーザが設定する場合、例えばカメラ設定処理において、ユーザは、図9に示すように、タッチ入力部2321の任意の領域501を任意のタッチパターンでタッチする。マイクロコンピュータ230は、タッチ入力部2321からの検出信号によって検出される圧力の時間変化からタッチパターンを生成し、生成したタッチパターンを、のFlashメモリ236に記憶させる。なお、タッチパターンの設定中には、そのことをユーザが認知できるよう、「タッチ学習」等のアイコン502を表示させることが望ましい。   When the user sets, for example, in the camera setting process, the user touches an arbitrary area 501 of the touch input unit 2321 with an arbitrary touch pattern as shown in FIG. The microcomputer 230 generates a touch pattern from the pressure change detected by the detection signal from the touch input unit 2321, and stores the generated touch pattern in the flash memory 236. It should be noted that during the setting of the touch pattern, it is desirable to display an icon 502 such as “touch learning” so that the user can recognize it.

図10(a)及び図10(b)にタッチパターンの設定例を示す。タッチパターンは、図10(a)に示すように1回のタッチについて設定されるものでも良いし、図10(b)に示すように複数回(例では2回)のタッチについて設定されるものでも良い。ここで、タッチパターンの設定中に、図10(a)や図10(b)で示すようなグラフを表示させるようにしても良い。   10A and 10B show examples of touch pattern settings. The touch pattern may be set for one touch as shown in FIG. 10A, or set for a plurality of touches (in the example, twice) as shown in FIG. 10B. But it ’s okay. Here, a graph as shown in FIG. 10A or FIG. 10B may be displayed during the setting of the touch pattern.

ステップS202において、ユーザによってロック操作がなされたと判定した場合に、マイクロコンピュータ230は、そのロック操作がタッチ操作禁止の指示であるか否かを判定する(ステップS203)。例えば、タッチ操作禁止の指示のロック操作とタッチ操作許可の指示のロック操作とでタッチパターンを異ならせるようにすれば、タッチパターンを識別することによってステップS203の判定を行うことができる。この他、ロック操作をタッチ操作禁止の指示とタッチ操作許可の指示とで兼用させるようにしても良い。この場合、ロック操作をタッチ操作禁止の指示とするか又はタッチ操作許可の指示とするかは、例えばロック操作がなされる毎に切り替える。   If it is determined in step S202 that the lock operation has been performed by the user, the microcomputer 230 determines whether or not the lock operation is an instruction to prohibit the touch operation (step S203). For example, if different touch patterns are used for the lock operation for the touch operation prohibition instruction and the lock operation for the touch operation permission instruction, the determination in step S203 can be performed by identifying the touch pattern. In addition, the lock operation may be used for both the touch operation prohibition instruction and the touch operation permission instruction. In this case, whether the lock operation is an instruction for prohibiting the touch operation or an instruction for permitting the touch operation is switched, for example, every time the lock operation is performed.

ステップS203において、ロック操作がタッチ操作禁止の指示でないと判定した場合に、マイクロコンピュータ230は、それ以後のタッチ入力部2321の入力を有効とするタッチ操作許可処理を行う(ステップS204)。その後、マイクロコンピュータ230は、図7の処理を終了させる。また、ステップS203において、ロック操作がタッチ操作禁止の指示であると判定した場合に、マイクロコンピュータ230は、それ以後のタッチ入力部2321の入力を無効とするタッチ操作禁止処理を行う(ステップS205)。その後、マイクロコンピュータ230は、図7の処理を終了させる。なお、タッチ入力部2321の入力を無効とした場合であっても、マイクロコンピュータ230は、ステップS202の判定については行う。   If it is determined in step S203 that the lock operation is not an instruction to prohibit the touch operation, the microcomputer 230 performs a touch operation permission process that validates the input from the touch input unit 2321 thereafter (step S204). Thereafter, the microcomputer 230 ends the process of FIG. If it is determined in step S203 that the lock operation is an instruction to prohibit the touch operation, the microcomputer 230 performs a touch operation prohibition process that invalidates the subsequent input from the touch input unit 2321 (step S205). . Thereafter, the microcomputer 230 ends the process of FIG. Even when the input of the touch input unit 2321 is invalidated, the microcomputer 230 performs the determination in step S202.

このように、本実施形態では、ユーザによる所定のタッチパターンのタッチ入力に応じてタッチ入力部2321による操作の許可/禁止を切り替えるようにしている。このため、例えばユーザがデジタルカメラ1を首から提げている場合には、タッチ入力部2321がユーザの体に触れたとしても、所定のタッチパターンのタッチ入力されずにロック操作とは識別されない。したがって、タッチ操作禁止処理がなされている場合には、タッチ操作の禁止状態が勝手に解除されてしまうことがない。   Thus, in this embodiment, the permission / prohibition of the operation by the touch input unit 2321 is switched according to the touch input of the predetermined touch pattern by the user. For this reason, for example, when the user holds the digital camera 1 from the neck, even if the touch input unit 2321 touches the user's body, the touch operation of the predetermined touch pattern is not performed and the lock operation is not identified. Accordingly, when the touch operation prohibition process is performed, the touch operation prohibition state is not canceled without permission.

ここで、図10(a)及び図10(b)は、圧力を検出可能なタッチ入力部におけるタッチパターンの設定例である。タッチパターンの設定は、圧力を検出不能なタッチ入力部であっても行うことができる。圧力を検出不能なタッチ入力部2321であっても、タッチがあったか否かの検出はできる。したがって、図11に示すように、タッチの有無の時間変化をタッチパターンとすることが可能である。   Here, FIG. 10A and FIG. 10B are touch pattern setting examples in the touch input unit capable of detecting pressure. The touch pattern can be set even by a touch input unit that cannot detect pressure. Even the touch input unit 2321 that cannot detect pressure can detect whether or not there is a touch. Therefore, as shown in FIG. 11, it is possible to use a change in time with or without a touch as a touch pattern.

また、圧力を検出可能なタッチ入力部の場合、その圧力の変化を検出することで、ユーザがタッチした指がどの指であるか検出したり、指紋を検出したりすることもできる。これにより、タッチパターンとして、さらに、ユーザがタッチした指や指紋を設定しておくようにしても良い。また、指の動きを設定できるようにしても良い。このようにしてタッチパターンを複雑化することにより、タッチ操作の禁止状態が勝手に解除されてしまう可能性をさらに低減できる。   Further, in the case of a touch input unit capable of detecting pressure, by detecting a change in the pressure, it is possible to detect which finger is touched by the user or to detect a fingerprint. Accordingly, a finger or fingerprint touched by the user may be set as the touch pattern. Moreover, you may enable it to set a motion of a finger. By complicating the touch pattern in this way, the possibility that the prohibited state of the touch operation is canceled without permission can be further reduced.

また、図9は、検出エリア501が1箇所である。これに対し、図12に示すように、検出エリア501を複数個所としても良い。この場合、タッチパターンを設定するのではなく、単に複数個所の検出エリア501に同時に又は連続的にタッチがあった場合に、ロック操作がされたと判定されるようにしても良い。勿論、それぞれの検出エリア501についてタッチパターンを設定し、それぞれの検出エリアで予め設定されたタッチパターンでタッチがあった場合に、ロック操作がされたと判定されるようにしても良い。このようにしてタッチパターンを複雑化することにより、タッチ操作の禁止状態が勝手に解除されてしまう可能性をさらに低減できる。   FIG. 9 shows one detection area 501. In contrast, as shown in FIG. 12, a plurality of detection areas 501 may be provided. In this case, instead of setting a touch pattern, it may be determined that a lock operation has been performed when touches are made simultaneously or continuously in a plurality of detection areas 501. Of course, a touch pattern may be set for each detection area 501, and it may be determined that a lock operation has been performed when a touch is made with a preset touch pattern in each detection area. By complicating the touch pattern in this way, the possibility that the prohibited state of the touch operation is canceled without permission can be further reduced.

ここで、図7の説明に戻る。ステップS202において、ユーザによってロック操作がなされていないと判定した場合に、マイクロコンピュータ230は、ユーザによってマップ種類変更操作がなされたか否かを判定する(ステップS206)。例えば、変更ボタン401へのタッチがあった場合に、マップ種類変更操作がなされたと判定する。   Here, the description returns to FIG. If it is determined in step S202 that the lock operation has not been performed by the user, the microcomputer 230 determines whether or not a map type change operation has been performed by the user (step S206). For example, when the change button 401 is touched, it is determined that a map type change operation has been performed.

ステップS206において、ユーザによってマップ種類変更操作がなされたと判定した場合に、マイクロコンピュータ230は、マップの切り替えを行う(ステップS207)。例えば、マップ種類変更操作がなされる毎にマップの種類を切り替える。ここで、本実施形態においては、例として、AE処理用のマップであるAE用マップと画像処理用のマップである画像処理用マップとの間でマップの切り替えを行うこととする。マップの切り替え後、マイクロコンピュータ230は、図7の処理を終了させる。   If it is determined in step S206 that the map type change operation has been performed by the user, the microcomputer 230 performs map switching (step S207). For example, the map type is switched each time a map type change operation is performed. Here, in the present embodiment, as an example, map switching is performed between an AE map that is a map for AE processing and an image processing map that is a map for image processing. After the map switching, the microcomputer 230 ends the process of FIG.

ステップS206において、ユーザによってマップ種類変更操作がなされていないと判定した場合に、マイクロコンピュータ230は、ユーザによってマップ拡大操作がなされたか否かを判定する(ステップS208)。例えば、ユーザがタッチ入力部2321を2本の指でタッチし、これらの2本の指の間隔を広げるピンチ操作をした場合に、マップ拡大操作がなされたと判定する。   If it is determined in step S206 that the map type change operation has not been performed by the user, the microcomputer 230 determines whether or not a map enlargement operation has been performed by the user (step S208). For example, when the user touches the touch input unit 2321 with two fingers and performs a pinch operation to increase the interval between the two fingers, it is determined that the map enlargement operation has been performed.

ステップS208において、ユーザによってマップ拡大操作がなされたと判定した場合に、マイクロコンピュータ230は、ユーザのマップ拡大操作に応じてマップを拡大する(ステップS209)。マップの拡大後、マイクロコンピュータ230は、図7の処理を終了させる。   If it is determined in step S208 that the map enlargement operation has been performed by the user, the microcomputer 230 enlarges the map according to the user's map enlargement operation (step S209). After enlarging the map, the microcomputer 230 ends the process of FIG.

ステップS208において、ユーザによってマップ拡大操作がなされていないと判定した場合に、マイクロコンピュータ230は、ユーザによってマップ縮小操作がなされたか否かを判定する(ステップS210)。例えば、ユーザがタッチ入力部2321を2本の指でタッチし、これらの2本の指の間隔を狭めるピンチ操作をした場合に、マップ縮小操作がなされたと判定する。   If it is determined in step S208 that no map enlargement operation has been performed by the user, the microcomputer 230 determines whether or not a map reduction operation has been performed by the user (step S210). For example, when the user touches the touch input unit 2321 with two fingers and performs a pinch operation to narrow the interval between the two fingers, it is determined that the map reduction operation has been performed.

ステップS210において、ユーザによってマップ縮小操作がなされたと判定した場合に、マイクロコンピュータ230は、ユーザのマップ縮小操作に応じてマップを縮小する(ステップS211)。マップの縮小後、マイクロコンピュータ230は、図7の処理を終了させる。   If it is determined in step S210 that the map reduction operation has been performed by the user, the microcomputer 230 reduces the map in accordance with the user's map reduction operation (step S211). After reducing the map, the microcomputer 230 ends the process of FIG.

ステップS209及びステップS211で示したマップのサイズ変更について説明する。マップのサイズ変更は、拡大の場合も縮小の場合も、ある位置を基準にしてサイズを変更する。例えば、図13(a)は、マップの重心(マップ作成時のタッチ中心となる位置)を基準としてマップのサイズを変更(図の例は縮小)する例である。マップの縮小率は、例えば2本の指の間隔に応じて設定するものとする。この他、図13(b)に示すように、タッチ入力部2321の中心(表示パネル222の画面中心)を基準として拡大縮小するようにしても良いし、図13(c)に示すように2本の指の中心を基準として拡大縮小するようにしても良い。図13(b)又は図13(c)の例では、マップの中心位置も変更する。   The map size change shown in steps S209 and S211 will be described. The size of the map is changed based on a certain position in both cases of enlargement and reduction. For example, FIG. 13A shows an example in which the map size is changed (the example in the figure is reduced) based on the center of gravity of the map (the position that becomes the touch center at the time of map creation). The map reduction rate is set according to the interval between two fingers, for example. In addition, as shown in FIG. 13B, the image may be enlarged or reduced with reference to the center of the touch input unit 2321 (the screen center of the display panel 222), or as shown in FIG. 13C. You may make it enlarge / reduce on the basis of the center of the finger | toe of a book. In the example of FIG. 13B or 13C, the center position of the map is also changed.

ここで、マップを縮小する場合、縮小後になくなる部分の強度については初期値(例えばゼロ)にする。また、マップを拡大する場合、マップの位置と拡大率によっては、マップがタッチ入力部2321の範囲(表示パネル222の画面範囲)からはみ出してしまうことが考えられる。この場合、はみ出た部分については情報を切り捨ててしまっても良いし、その後の縮小に備えてはみ出た部分の情報を保持しておくようにしても良い。   Here, when the map is reduced, the intensity of the portion that disappears after the reduction is set to an initial value (for example, zero). Further, when the map is enlarged, the map may protrude from the range of the touch input unit 2321 (screen range of the display panel 222) depending on the map position and the enlargement ratio. In this case, information may be discarded for the protruding portion, or the protruding portion information may be retained in preparation for subsequent reduction.

また、タッチ入力部2321以外の操作部232の操作によって拡大縮小を行えるようにしても良い。この場合には、図13(a)又は図13(b)に示した位置を基準として拡大縮小を行うことになる。   Further, enlargement / reduction may be performed by operating the operation unit 232 other than the touch input unit 2321. In this case, enlargement / reduction is performed with reference to the position shown in FIG. 13 (a) or 13 (b).

ここで、図7の説明に戻る。ステップS210において、ユーザによってマップ縮小操作がなされていないと判定した場合に、マイクロコンピュータ230は、ユーザによってリセット操作がなされたか否かを判定する(ステップS212)。例えば、リセットボタン402へのタッチがあった場合に、リセット操作がなされたと判定する。   Here, the description returns to FIG. If it is determined in step S210 that the map reduction operation has not been performed by the user, the microcomputer 230 determines whether or not a reset operation has been performed by the user (step S212). For example, when the reset button 402 is touched, it is determined that a reset operation has been performed.

ステップS212において、ユーザによってリセット操作がなされたと判定した場合に、マイクロコンピュータ230は、マップ記憶部2121に記憶されているマップをリセットする(ステップS213)。このリセットは、初期化処理のリセットと同様である。   If it is determined in step S212 that the reset operation has been performed by the user, the microcomputer 230 resets the map stored in the map storage unit 2121 (step S213). This reset is the same as the reset of the initialization process.

ステップS212において、ユーザによってリセット操作がなされていないと判定した場合に、マイクロコンピュータ230は、ユーザによってタッチ入力部2321への1本指タッチがなされたか否かを判定する(ステップS214)。   If it is determined in step S212 that the reset operation has not been performed by the user, the microcomputer 230 determines whether or not the user has touched the touch input unit 2321 with a single finger (step S214).

ステップS214において、ユーザによってタッチ入力部2321への1本指タッチがなされたと判定した場合に、マイクロコンピュータ230は、現在、タッチ入力部2321の入力モードが消しゴムモードであるか否かを判定する(ステップS215)。例えば、ユーザが消しゴムボタン403にタッチした場合にタッチ入力部2321の入力モードが消しゴムモードに切り替えられ、その後に再びユーザが消しゴムボタン403にタッチした場合に消しゴムモードが解除される。   If it is determined in step S214 that the user has made a single finger touch on the touch input unit 2321, the microcomputer 230 determines whether or not the input mode of the touch input unit 2321 is currently the eraser mode ( Step S215). For example, when the user touches the eraser button 403, the input mode of the touch input unit 2321 is switched to the eraser mode, and when the user touches the eraser button 403 again thereafter, the eraser mode is canceled.

ステップS215において、現在、タッチ入力部2321の入力モードが消しゴムモードであると判定した場合に、マイクロコンピュータ230は、マップ生成部234に対してマップの生成を指示する。この際、マイクロコンピュータ230は、タッチ入力部2321で検出される圧力に応じてマップ記憶部2121に記憶されたマップの強度を減少させるよう、マップ生成部234に対して指示する(ステップS216)。なお、対応する座標の強度が初期値の場合には、そのままとする。   In step S215, when it is determined that the input mode of the touch input unit 2321 is the eraser mode, the microcomputer 230 instructs the map generation unit 234 to generate a map. At this time, the microcomputer 230 instructs the map generation unit 234 to reduce the strength of the map stored in the map storage unit 2121 in accordance with the pressure detected by the touch input unit 2321 (step S216). If the corresponding coordinate intensity is the initial value, it is left as it is.

ステップS215において、現在、タッチ入力部2321の入力モードが消しゴムモードでないと判定した場合も、マイクロコンピュータ230は、マップ生成部234に対してマップの生成を指示する。この際、マイクロコンピュータ230は、タッチ入力部2321で検出される圧力に応じてマップの強度を増加させるよう、マップ生成部234に対して指示する(ステップS217)。なお、マップ記憶部2121にマップが記憶されていない場合には各座標のマップの強度を初期値から増加させる。   Even when it is determined in step S215 that the input mode of the touch input unit 2321 is not the eraser mode, the microcomputer 230 instructs the map generation unit 234 to generate a map. At this time, the microcomputer 230 instructs the map generation unit 234 to increase the strength of the map in accordance with the pressure detected by the touch input unit 2321 (step S217). If no map is stored in the map storage unit 2121, the map strength at each coordinate is increased from the initial value.

ステップS216及びステップS217の処理により、図3及び図4で示したようなマップが生成される。マップの生成後、マイクロコンピュータ230は、図7の処理を終了させる。   The maps as shown in FIGS. 3 and 4 are generated by the processing of step S216 and step S217. After generating the map, the microcomputer 230 ends the process of FIG.

ここで、ステップS216及びステップS217の例では、ユーザの指で押された際の圧力に応じてマップの強度を増減させている。これに対し、タッチされた位置の圧力に応じた値にマップの強度を更新するようにしても良い。即ち、タッチ前のマップの強度がどのような値であっても、タッチ後の圧力に応じた値にマップの強度を変更しても良い。   Here, in the example of step S216 and step S217, the strength of the map is increased or decreased according to the pressure when pressed by the user's finger. On the other hand, the strength of the map may be updated to a value corresponding to the pressure at the touched position. That is, regardless of the value of the map strength before touching, the map strength may be changed to a value corresponding to the pressure after touching.

ステップS214において、ユーザによって1本指タッチがなされていないと判定した場合に、マイクロコンピュータ230は、ユーザによってマップ記録操作がなされたか否かを判定する(ステップS218)。例えば、記録ボタン404へのタッチがあった場合に、マップ記録操作がなされたと判定する。   If it is determined in step S214 that the user has not made a single finger touch, the microcomputer 230 determines whether a map recording operation has been performed by the user (step S218). For example, when the recording button 404 is touched, it is determined that a map recording operation has been performed.

ステップS218において、ユーザによってマップ記録操作がなされたと判定した場合に、マイクロコンピュータ230は、マップ記憶部2121に記憶されているマップをFlashメモリ236に記録する(ステップS219)。マップの記録後、マイクロコンピュータ230は、図7の処理を終了させる。ステップS219において記録したマップは、前述したデフォルトのマップとして利用できる。   If it is determined in step S218 that the user has performed a map recording operation, the microcomputer 230 records the map stored in the map storage unit 2121 in the flash memory 236 (step S219). After recording the map, the microcomputer 230 ends the process of FIG. The map recorded in step S219 can be used as the default map described above.

ステップS218において、ユーザによってマップ記録操作がなされていないと判定した場合に、マイクロコンピュータ230は、ユーザによってマップ読み込み操作がなされたか否かを判定する(ステップS220)。例えば、読込ボタン405へのタッチがあった場合に、マップ読み込み操作がなされたと判定する。   If it is determined in step S218 that the map recording operation has not been performed by the user, the microcomputer 230 determines whether or not a map reading operation has been performed by the user (step S220). For example, when the reading button 405 is touched, it is determined that the map reading operation has been performed.

ステップS220において、ユーザによってマップ読み込み操作がなされたと判定した場合に、マイクロコンピュータ230は、Flashメモリ236に記録されたデフォルトのマップをマップ記憶部2121に読み込む(ステップS221)。マップの読み込み後、マイクロコンピュータ230は、図7の処理を終了させる。ここで、マップ記憶部2121へのマップの読み込みを行った場合には、読み込んだマップを表示パネル222に表示させることが望ましい。   If it is determined in step S220 that the map reading operation has been performed by the user, the microcomputer 230 reads the default map recorded in the flash memory 236 into the map storage unit 2121 (step S221). After reading the map, the microcomputer 230 ends the process of FIG. Here, when the map is read into the map storage unit 2121, it is desirable to display the read map on the display panel 222.

ステップS220において、ユーザによってマップ読み込み操作がなされていないと判定した場合に、マイクロコンピュータ230は、図7の処理を終了させる。   If it is determined in step S220 that the map reading operation has not been performed by the user, the microcomputer 230 ends the process of FIG.

ここで、図7の例で示したマップ操作・ロック操作は、主にタッチ入力部2321の操作を前提としている。マップ操作・ロック操作をタッチ入力部2321以外の操作部232の操作によって行えるようにしても良い。   Here, the map operation / lock operation shown in the example of FIG. 7 is mainly based on the operation of the touch input unit 2321. The map operation / lock operation may be performed by operating the operation unit 232 other than the touch input unit 2321.

図14は、AE処理について示すフローチャートである。本実施形態におけるAE処理においては、マップ生成部234によって生成されるAE用マップに従ってAEの評価値を算出することにより、ユーザの意図を反映したAE処理を行えるようにする。   FIG. 14 is a flowchart showing the AE process. In the AE process according to the present embodiment, the AE evaluation value is calculated according to the AE map generated by the map generation unit 234, so that the AE process reflecting the user's intention can be performed.

AE処理が開始されると、マイクロコンピュータ230は、AE処理部214にAE処理の実行を指示する。これを受けて、AE処理部214は、マップ生成部234に記憶されたAE用マップを取得する(ステップS301)。   When the AE process is started, the microcomputer 230 instructs the AE processing unit 214 to execute the AE process. In response to this, the AE processing unit 214 acquires the AE map stored in the map generation unit 234 (step S301).

AE用マップの取得後、AE処理部214は、取得したマップがリセット状態であるか否か、即ち各座標の強度が全て初期値であるか否かを判定する(ステップS302)。   After acquiring the AE map, the AE processing unit 214 determines whether or not the acquired map is in a reset state, that is, whether or not the intensity of each coordinate is an initial value (step S302).

ステップS302において、取得したマップがリセット状態であると判定した場合に、AE処理部214は、Flashメモリ236に記憶されたデフォルトのAE用マップを取得する(ステップS303)。デフォルトのAE用マップは、特に限定されるものではないが、例えば中央重点測光等の所定の測光方式に対応したマップである。中央重点測光に対応したAE用マップとは、タッチ入力部2321の中央位置(表示パネル222の中央位置)付近に強度の分布を持つマップである。   If it is determined in step S302 that the acquired map is in the reset state, the AE processing unit 214 acquires a default AE map stored in the flash memory 236 (step S303). The default AE map is not particularly limited, but is a map corresponding to a predetermined photometry method such as center-weighted photometry. The AE map corresponding to the center-weighted metering is a map having an intensity distribution near the center position of the touch input unit 2321 (the center position of the display panel 222).

取得したAE用マップがリセット状態でない場合又はデフォルトのAE用マップを取得した後、AE処理部214は、AE用マップを正規化する(ステップS304)。正規化処理として、AE処理部214は、取得したマップの強度の合計値が所定値(例えば1)となるように、マップの強度の合計値でマップの各座標の強度を除算する。なお、合計値がゼロの場合には、各マップの強度の値をゼロにする。   When the acquired AE map is not in the reset state or after acquiring the default AE map, the AE processing unit 214 normalizes the AE map (step S304). As a normalization process, the AE processing unit 214 divides the intensity of each coordinate of the map by the total value of the map intensity so that the total value of the acquired map intensity becomes a predetermined value (for example, 1). When the total value is zero, the strength value of each map is set to zero.

続いて、AE処理部214は、RAWデータとAE用マップとを用いてAE評価値を算出する(ステップS305)。例えば、正規化したマップの強度の値をRAWデータの各座標の値に乗じ、この乗算結果の総和をAE評価値とする。ここで、分割測光のように所定のエリア毎にAE評価値を求めても良いし、評価測光のように分割エリア毎に得られるAE評価値に重み付けをしても良い。   Subsequently, the AE processing unit 214 calculates an AE evaluation value using the RAW data and the AE map (step S305). For example, the normalized map intensity value is multiplied by the value of each coordinate of the RAW data, and the sum of the multiplication results is used as the AE evaluation value. Here, an AE evaluation value may be obtained for each predetermined area as in divided photometry, or an AE evaluation value obtained for each divided area may be weighted as in evaluation photometry.

続いて、AE処理部214は、静止画記録時又は動画記録時の撮影条件(ISO感度、絞り値、露出時間)を算出する(ステップS306)。この処理において、AE処理部214は、AE評価値の算出に用いたRAWデータの撮影条件(ISO感度、絞り値、露出時間)とステップS305で算出したAE評価値とを用いて、静止画記録時又は動画記録時に得られるRAWデータの露出値が所定の目標値となるように静止画記録時又は動画記録時の撮影条件を算出する。   Subsequently, the AE processing unit 214 calculates shooting conditions (ISO sensitivity, aperture value, exposure time) during still image recording or moving image recording (step S306). In this process, the AE processing unit 214 uses the RAW data shooting conditions (ISO sensitivity, aperture value, exposure time) used for calculating the AE evaluation value and the AE evaluation value calculated in step S305 to record a still image. The shooting conditions at the time of still image recording or moving image recording are calculated so that the exposure value of RAW data obtained at the time of recording or moving image becomes a predetermined target value.

例えば、図3(a)で示した1点を軽くタッチした場合に得られるAE用マップに従ってAE評価値を算出した場合、タッチされた座標に対応した画素の露出値から撮影条件を算出するスポット測光となる。また、図4(a)で示した1点を強くタッチした場合に得られるAE用マップに従ってAE評価値を算出した場合、タッチされた座標付近の画素の露出値を重視して撮影条件を算出する重点測光となる。   For example, when the AE evaluation value is calculated according to the AE map obtained when the one point shown in FIG. 3A is lightly touched, the spot for calculating the shooting condition from the exposure value of the pixel corresponding to the touched coordinates. It becomes photometry. Further, when the AE evaluation value is calculated according to the AE map obtained when one point shown in FIG. 4A is strongly touched, the shooting condition is calculated with an emphasis on the exposure value of the pixels near the touched coordinates. Priority metering.

このように、本実施形態によれば、ユーザは、タッチ操作の際のタッチの強さを変更するだけで、AE処理の際の測光形態を自由に変更することが可能である。   As described above, according to the present embodiment, the user can freely change the photometric form in the AE process only by changing the strength of the touch in the touch operation.

図15は、画像処理について示すフローチャートである。本実施形態では、マップ生成部234によって生成される画像処理用マップに従って画像処理を行うことにより、ユーザの意図を反映した画像処理を行えるようにする。なお、図15は、ホワイトバランス(WB)補正処理に対してマップを使用する例を示している。以下、画像処理用マップのうちのホワイトバランス補正処理用に生成されたマップをWB用マップと言う。   FIG. 15 is a flowchart showing image processing. In the present embodiment, image processing that reflects the user's intention is performed by performing image processing according to the image processing map generated by the map generation unit 234. FIG. 15 shows an example in which a map is used for white balance (WB) correction processing. Hereinafter, the map generated for white balance correction processing in the image processing map is referred to as a WB map.

画像処理が開始されると、マイクロコンピュータ230は、画像処理部218に画像処理の実行を指示する。これを受けて画像処理部218の基本画像処理部2181は、マップ生成部234に記憶されたWB用マップを取得する(ステップS401)。   When image processing is started, the microcomputer 230 instructs the image processing unit 218 to execute image processing. In response to this, the basic image processing unit 2181 of the image processing unit 218 acquires the WB map stored in the map generation unit 234 (step S401).

WB用マップの取得後、基本画像処理部2181は、取得したマップがリセット状態であるか否か、即ち各座標の強度が全て初期値であるか否かを判定する(ステップS402)。   After acquiring the WB map, the basic image processing unit 2181 determines whether or not the acquired map is in a reset state, that is, whether or not the intensity of each coordinate is an initial value (step S402).

ステップS402において、取得したマップがリセット状態であると判定した場合に、基本画像処理部2181は、マップを使用せずにホワイトバランス(WB)ゲインを取得する(ステップS403)。WBゲインの取得手法は、例えばプリセットホワイトバランスによるものやオートホワイトバランス(AWB)によるものが考えられる。プリセットホワイトバランスは、予め所定の光源毎に算出したWBゲインをFlashメモリ236に記憶させておくことで、ユーザによって設定された光源のWBゲインを読みだして使用できるようにする手法である。一方、オートホワイトバランスは、RAWデータを解析することにより、撮影時に被写体を照明している光源を推定し、推定した光源に応じたWBゲインを算出する手法である。   If it is determined in step S402 that the acquired map is in the reset state, the basic image processing unit 2181 acquires a white balance (WB) gain without using the map (step S403). As a method for acquiring the WB gain, for example, a method based on preset white balance or a method based on auto white balance (AWB) can be considered. Preset white balance is a technique in which the WB gain calculated for each predetermined light source is stored in the flash memory 236 so that the WB gain of the light source set by the user can be read and used. On the other hand, auto white balance is a method of estimating a light source that illuminates a subject at the time of shooting by analyzing RAW data and calculating a WB gain according to the estimated light source.

ステップS402において、取得したWB用マップがリセット状態でないと判定した場合、基本画像処理部2181は、取得したWB用マップを正規化する(ステップS404)。正規化処理としては、例えば取得したマップの強度の合計値が所定値(例えば1)となるように、マップの強度の合計値でマップの各座標の強度を除算することを行う。   If it is determined in step S402 that the acquired WB map is not in the reset state, the basic image processing unit 2181 normalizes the acquired WB map (step S404). As normalization processing, for example, the strength of each coordinate of the map is divided by the total value of the map strength so that the total value of the acquired map strength becomes a predetermined value (for example, 1).

続いて、基本画像処理部2181は、RAWデータを色成分毎に積算する(ステップS405)。この積算処理において、基本画像処理部2181は、正規化したマップの強度の値をRAWデータの各座標の値からOB値を減算した値に乗じ、この乗算結果を色成分毎に積算する。ただし、撮像素子204のカラーフィルタの色配列がベイヤ配列の場合には、エリア毎のGr画素とGb画素の平均値を積算する。また、RAWデータのうち、所定範囲の明るさを有する座標のみを積算値の算出に使用しても良い。このようにすることで、飽和部(所定範囲よりも明るい画素)や暗部(所定範囲よりも暗い画素)の影響を排除して積算値を算出することができる。   Subsequently, the basic image processing unit 2181 integrates the RAW data for each color component (step S405). In this integration process, the basic image processing unit 2181 multiplies the normalized map intensity value by the value obtained by subtracting the OB value from each coordinate value of the RAW data, and integrates this multiplication result for each color component. However, when the color arrangement of the color filters of the image sensor 204 is a Bayer arrangement, the average values of Gr pixels and Gb pixels for each area are integrated. Further, only coordinates having a predetermined range of brightness in the RAW data may be used for calculating the integrated value. In this way, the integrated value can be calculated while eliminating the influence of the saturated portion (pixels brighter than the predetermined range) and the dark portion (pixels darker than the predetermined range).

積算値の算出後、基本画像処理部2181は、WBゲインを算出する(ステップS406)。R成分の積算値をR、G成分の積算値をG、B成分の積算値をBとしたとき、WBゲインは、以下のように与えられる。
Rゲイン=G/R
Bゲイン=G/B
After calculating the integrated value, the basic image processing unit 2181 calculates a WB gain (step S406). When the integrated value of the R component is R, the integrated value of the G component is G, and the integrated value of the B component is B, the WB gain is given as follows.
R gain = G / R
B gain = G / B

WBゲインを取得した後、基本画像処理部2181は、OB減算処理を行う(ステップS407)。OB減算処理において、基本画像処理部2181は、入力されたRAWデータからオプティカルブラック(OB)値を減算することでRAWデータにおける暗電流成分を除去する。   After acquiring the WB gain, the basic image processing unit 2181 performs OB subtraction processing (step S407). In the OB subtraction process, the basic image processing unit 2181 removes the dark current component in the RAW data by subtracting the optical black (OB) value from the input RAW data.

OB減算の後、基本画像処理部2181は、WB補正処理を行う(ステップS408)。WB補正処理において、基本画像処理部2181は、OB減算処理が施されたRAWデータの色成分毎にステップS403又はS406で取得したWBゲインを乗じることで画像としての色バランスを補正する。   After OB subtraction, the basic image processing unit 2181 performs WB correction processing (step S408). In the WB correction process, the basic image processing unit 2181 corrects the color balance as an image by multiplying the color component of the RAW data subjected to the OB subtraction process by the WB gain acquired in step S403 or S406.

WB補正処理の後、基本画像処理部2181は、RAWデータの形式がベイヤ形式の場合には、同時化処理を行う(ステップS409)。同時化処理において、基本画像処理部2181は、WB補正がなされたRAWデータを、補間処理を用いて同時化する。これにより、1画素がRGBのうちの1つの色成分を有しているRAWデータを1画素がRGB3つの色成分を有するRGBデータに変換する。   After the WB correction process, the basic image processing unit 2181 performs a synchronization process when the RAW data format is the Bayer format (step S409). In the synchronization processing, the basic image processing unit 2181 uses the interpolation processing to synchronize the RAW data that has been subjected to WB correction. Thereby, RAW data in which one pixel has one color component of RGB is converted into RGB data in which one pixel has three color components of RGB.

同時化処理の後、基本画像処理部2181は、色再現処理を行う(ステップS410)。色再現処理において、基本画像処理部2181は、RGBデータの各画素に、設定されているホワイトバランス(WB)モードに応じたカラーマトリクス係数を乗じることでRGBデータの色変換をする。さらに、基本画像処理部2181は、色変換したRGBデータの色相及び彩度が適切なものとなるように色を補正することにより、画像の色再現を調整する。   After the synchronization processing, the basic image processing unit 2181 performs color reproduction processing (step S410). In the color reproduction processing, the basic image processing unit 2181 performs color conversion of RGB data by multiplying each pixel of RGB data by a color matrix coefficient corresponding to a set white balance (WB) mode. Further, the basic image processing unit 2181 adjusts the color reproduction of the image by correcting the color so that the hue and saturation of the color-converted RGB data are appropriate.

色再現処理の後、基本画像処理部2181は、輝度変更処理を行う(ステップS411)。輝度変更処理において、基本画像処理部2181は、色再現処理がされたRGBデータをガンマ変換し、さらにガンマ変換したRGBデータをYC(輝度・色差)データに変換した後、さらにYデータをガンマ変換する。   After the color reproduction processing, the basic image processing unit 2181 performs luminance change processing (step S411). In the luminance change process, the basic image processing unit 2181 performs gamma conversion on the RGB data that has undergone the color reproduction process, converts the gamma converted RGB data into YC (luminance / color difference) data, and then further converts the Y data to gamma conversion. To do.

輝度変更処理の後、基本画像処理部2181は、エッジ強調処理を行う(ステップS412)。エッジ強調処理において、基本画像処理部2181は、輝度変更処理後のYデータに対し、バンドパスフィルタ処理を施してエッジ成分を抽出し、抽出したエッジ成分にエッジ強調量に応じた係数を乗じる。そして、基本画像処理部2181は、係数を乗じたエッジ成分をもとのYデータに加算することで画像のエッジ成分を強調する。   After the brightness change process, the basic image processing unit 2181 performs an edge enhancement process (step S412). In the edge enhancement process, the basic image processing unit 2181 performs bandpass filter processing on the Y data after the luminance change process to extract an edge component, and multiplies the extracted edge component by a coefficient corresponding to the edge enhancement amount. Then, the basic image processing unit 2181 emphasizes the edge component of the image by adding the edge component multiplied by the coefficient to the original Y data.

エッジ強調処理の後、基本画像処理部2181は、ノイズ低減(NR)処理を行う(ステップS413)。ノイズ低減処理において、基本画像処理部2181は、エッジ強調処理がされたYデータを周波数分解し、周波数に応じてコアリング処理等を施して画像におけるノイズ成分を低減させる。Cデータに対してノイズ成分を低減させても良い。ノイズ低減処理後のデータは、記録形式がTIFF形式の場合には所定のマトリクス演算を行って再度RGB形式に変換する。   After the edge enhancement processing, the basic image processing unit 2181 performs noise reduction (NR) processing (step S413). In the noise reduction process, the basic image processing unit 2181 performs frequency decomposition on the Y data subjected to the edge enhancement process, and performs a coring process or the like according to the frequency to reduce noise components in the image. You may reduce a noise component with respect to C data. When the recording format is TIFF format, the data after the noise reduction processing is converted into RGB format again by performing a predetermined matrix calculation.

ノイズ低減処理の後、特殊画像処理部2182は、特殊画像処理を行うか否かを判定する(ステップS414)。例えば、カメラ設定処理において、特殊画像処理を実行する旨の設定がされている場合には、特殊画像処理をすると判定される。ステップS414において、特殊画像処理を実行しないと判定された場合には、図15の処理が終了する。   After the noise reduction processing, the special image processing unit 2182 determines whether to perform special image processing (step S414). For example, in the camera setting process, when the setting for executing the special image process is made, it is determined that the special image process is performed. If it is determined in step S414 that the special image processing is not to be executed, the processing in FIG. 15 ends.

ステップS414において、特殊画像処理を行うと判定した場合に、特殊画像処理部2182は、特殊画像処理を実行する(ステップS415)。特殊画像処理の終了後、図15の処理が終了する。   If it is determined in step S414 that special image processing is to be performed, the special image processing unit 2182 executes special image processing (step S415). After the special image processing ends, the processing in FIG. 15 ends.

図16は、特殊画像処理について示すフローチャートである。本実施形態では、特殊画像処理においてもマップ生成部234によって生成される画像処理用マップに従って処理を行う。以下、画像処理用マップのうちの特殊画像処理用に生成されたマップを特殊効果用マップと言う。   FIG. 16 is a flowchart showing special image processing. In the present embodiment, processing is performed according to the image processing map generated by the map generation unit 234 also in special image processing. Hereinafter, a map generated for special image processing out of the image processing maps is referred to as a special effect map.

特殊画像処理を実行すると判定した場合に、特殊画像処理部2182は、マップ生成部234に記憶された特殊効果用マップを取得する(ステップS501)。   When it is determined that the special image processing is to be executed, the special image processing unit 2182 acquires the special effect map stored in the map generation unit 234 (step S501).

続いて、特殊画像処理部2182は、シェーディング効果を付加するか否かを判定する(ステップS502)。ステップS502において、シェーディング効果を付加しないと判定した場合に、特殊画像処理部2182は、ステップS503の処理をスキップする。   Subsequently, the special image processing unit 2182 determines whether or not to add a shading effect (step S502). When it is determined in step S502 that no shading effect is added, the special image processing unit 2182 skips the process in step S503.

また、ステップS502において、シェーディング効果を付加すると判定した場合に、特殊画像処理部2182は、Yデータにシェーディング効果を付加する(ステップS503)。   When it is determined in step S502 that a shading effect is to be added, the special image processing unit 2182 adds a shading effect to the Y data (step S503).

この処理において、特殊効果用マップがリセット状態でない場合に、特殊画像処理部2182は、特殊効果用マップに応じてゲインマップを生成する。ゲインマップは、例えば特殊効果用マップの強度の大きい座標に対応した画素ほど小さなゲインを有するマップとする。このようなゲインマップの各ゲインGは、例えば以下の式に従って算出する。
G=1−[特殊効果用マップにおける各座標の強度の値]/特殊効果用マップにおける強度の最大値]
ゲインマップを生成した後、特殊画像処理部2182は、Yデータの各画素にその画素の値に対応するゲインGを乗じる。
このような処理により、特殊効果用マップにおける強度の大きい座標に対応した画素、即ちユーザによって強くタッチされた部分の輝度を暗くするようなシェーディング効果が画像に付加される。
In this process, when the special effect map is not in the reset state, the special image processing unit 2182 generates a gain map according to the special effect map. The gain map is, for example, a map having a smaller gain as the pixel corresponding to the coordinate having a higher intensity of the special effect map. Each gain G of such a gain map is calculated according to the following formula, for example.
G = 1- [intensity value of each coordinate in the special effect map] / maximum intensity value in the special effect map]
After generating the gain map, the special image processing unit 2182 multiplies each pixel of Y data by a gain G corresponding to the value of the pixel.
By such processing, a shading effect that darkens the luminance of the pixel corresponding to the high-intensity coordinates in the special effect map, that is, the portion strongly touched by the user is added to the image.

また、特殊効果用マップがリセット状態の場合には、例えば中心位置からの距離に応じて徐々に輝度の値が低下するような(ゲインが小さくなるような)ゲインマップを生成し、各画素にその画素の値に応じたゲインを乗じる。なお、ゲインの値は最大値が1である。   Further, when the special effect map is in a reset state, for example, a gain map is generated so that the luminance value gradually decreases (gain decreases) according to the distance from the center position, and is applied to each pixel. Multiply the gain according to the value of the pixel. The maximum value of the gain value is 1.

シェーディングの付加に際して必ずしも特殊効果用マップに応じてゲインマップを生成する必要はない。例えば、ゲインマップを所定のマップ(例えば特殊効果用マップがリセット状態の場合のゲインマップ)としておき、各画素にゲインを乗じた後で、特殊効果用マップに応じたシェーディングを付加させる(強度に応じて輝度を低下させる処理をする)ようにしても良い。   When adding shading, it is not always necessary to generate a gain map according to the special effect map. For example, a gain map is set as a predetermined map (for example, a gain map when the special effect map is in a reset state), and after each pixel is multiplied by a gain, shading corresponding to the special effect map is added (intensity added). Accordingly, a process for reducing the luminance may be performed).

さらに、特殊効果用マップとゲインマップの関係も変更可能である。例えば、特殊効果用マップにおける強度の大きい座標に対応した画素ほど大きなゲインを有するゲインマップを作成した場合、ユーザによって強くタッチされた部分を明るくし、その他の部分を暗くするようなシェーディング効果を付加することができる。   Furthermore, the relationship between the special effect map and the gain map can be changed. For example, when creating a gain map that has a larger gain for pixels corresponding to coordinates with higher intensity in the special effect map, a shading effect is added that brightens the part that is strongly touched by the user and darkens the other part. can do.

続いて、特殊画像処理部2182は、ソフトフォーカス効果を付加するか否かを判定する(ステップS504)。ステップS504において、ソフトフォーカス効果を付加しないと判定した場合に、特殊画像処理部2182は、ステップS505の処理をスキップする。   Subsequently, the special image processing unit 2182 determines whether or not to add a soft focus effect (step S504). When it is determined in step S504 that the soft focus effect is not added, the special image processing unit 2182 skips the process in step S505.

また、ステップS504において、ソフトフォーカス効果を付加すると判定した場合に、特殊画像処理部2182は、YCデータにソフトフォーカス効果を付加する(ステップS505)。   When it is determined in step S504 that the soft focus effect is to be added, the special image processing unit 2182 adds the soft focus effect to the YC data (step S505).

この処理において、特殊効果用マップがリセット状態でない場合に、特殊画像処理部2182は、YCデータに対してローパスフィルタ処理を施してYCデータをぼかす。そして、特殊画像処理部2182は、ぼかし後のYCデータとぼかし前のYCデータとの合成割合αを、特殊効果用マップに応じて算出する。合成割合αは、例えば特殊効果用マップの強度の大きい座標に対応した画素ほど大きくぼけるように、即ちぼかし後のYCデータの合成割合が大きくなるように算出する。このような合成割合αは、例えば以下の式に従って算出する。
α=特殊効果用マップにおける各座標の強度の値]/特殊効果用マップにおける強度の最大値]
合成割合αを算出した生成した後、特殊画像処理部2182は、ぼかし後のYCデータの各画素にαを乗じたものと、ぼかし前のYCデータの各画素に(1−α)を乗じたものとを合成(加算)する。
このような処理により、タッチされた座標の周辺が大きくぼけるようなソフトフォーカス効果が画像に付加される。
In this processing, when the special effect map is not in the reset state, the special image processing unit 2182 performs low-pass filter processing on the YC data to blur the YC data. Then, the special image processing unit 2182 calculates a composition ratio α between the YC data after blurring and the YC data before blurring according to the special effect map. The composition ratio α is calculated so that, for example, a pixel corresponding to a coordinate having a high strength of the special effect map is blurred, that is, the composition ratio of the YC data after blurring is large. Such a synthesis ratio α is calculated according to the following equation, for example.
α = Intensity value of each coordinate in the special effect map] / Maximum intensity in the special effect map]
After calculating and generating the composition ratio α, the special image processing unit 2182 multiplies each pixel of the YC data after blurring by α, and multiplies each pixel of the YC data before blurring by (1-α). Combine (add) things.
By such processing, a soft focus effect that greatly blurs the periphery of the touched coordinates is added to the image.

また、特殊効果用マップがリセット状態の場合には、ぼかし後のYCデータとぼかし前のYCデータとを所定の割合(例えば、ぼかし後:ぼかし前=2:3)で合成する。   When the special effect map is in the reset state, the YC data after blurring and the YC data before blurring are synthesized at a predetermined ratio (for example, after blurring: before blurring = 2: 3).

ここで、ソフトフォーカス効果の付加に際して、予め所定の合成割合Aを決めておき、以下の式に従って最終的な合成割合αを決めても良い。   Here, when adding the soft focus effect, a predetermined composition ratio A may be determined in advance, and the final composition ratio α may be determined according to the following equation.

α=A+(1−A)×[特殊効果用マップにおける各座標の強度の値]/特殊効果用マップにおける強度の理論上の最大値]
上式の場合、特殊効果用マップの強度がゼロの座標であってもαがAとなる。したがって、YCデータの全体にソフトフォーカス効果が付加されることとなる。
α = A + (1−A) × [value of intensity of each coordinate in special effect map] / theoretical maximum value of intensity in special effect map]
In the case of the above equation, α is A even if the special effect map has a zero-intensity coordinate. Therefore, a soft focus effect is added to the entire YC data.

また、合成割合αを算出するのではなく、ぼかしの程度を特殊効果用マップに応じて変更するようにしても良い。例えば、強度が大きい座標に対応した画素ほど、高周波成分が低減されるようにぼかし処理に用いるローパスフィルタの値を設定する。このようにした場合も、ユーザが強くタッチした位置が大きくぼけるソフトフォーカス効果を付加することが可能である。   Further, instead of calculating the composition ratio α, the degree of blur may be changed according to the special effect map. For example, the value of the low-pass filter used for the blurring process is set so that the high-frequency component is reduced for the pixel corresponding to the coordinate having a higher intensity. Even in this case, it is possible to add a soft focus effect that greatly blurs the position where the user strongly touches.

さらに、特殊効果用マップと合成割合αとの関係や特殊効果用マップとぼかしの程度の割合も変更可能である。例えば、特殊効果用マップにおける強度の大きい座標に対応した画素ほどαが小さくなるようにすれば、ユーザが強くタッチした部分を鮮明にし、その他の部分をぼかすようなソフトフォーカス効果を付加することができる。   Furthermore, the relationship between the special effect map and the composition ratio α and the special effect map and the degree of blurring can be changed. For example, if α is set to be smaller for pixels corresponding to coordinates with higher intensity in the special effect map, it is possible to add a soft focus effect such that the portion strongly touched by the user is sharpened and the other portions are blurred. it can.

続いて、特殊画像処理部2182は、ノイズ効果を重畳するか否かを判定する(ステップS506)。ステップS506において、ノイズ効果を重畳しないと判定した場合に、特殊画像処理部2182は、ステップS507の処理をスキップする。   Subsequently, the special image processing unit 2182 determines whether or not to superimpose a noise effect (step S506). When it is determined in step S506 that the noise effect is not superimposed, the special image processing unit 2182 skips the process in step S507.

ステップS506において、ノイズ効果を重畳すると判定した場合に、特殊画像処理部2182は、YCデータにノイズ効果を重畳する(ステップS507)。   When it is determined in step S506 that the noise effect is to be superimposed, the special image processing unit 2182 superimposes the noise effect on the YC data (step S507).

この処理において、特殊効果用マップがリセット状態でない場合に、特殊画像処理部2182は、特殊効果用マップに応じてノイズ重畳用のゲインマップを生成する。ゲインマップは、例えば特殊効果用マップの強度の大きい座標に対応した画素ほど多くのノイズが重畳される(ノイズに乗じるゲインが大きくなる)マップとする。このようなゲインマップの各ゲインGは、例えば以下の式に従って算出する。
G=1−[特殊効果用マップにおける各座標の強度の値]/特殊効果用マップにおける強度の理論上の最大値]
ゲインマップを生成した後、特殊画像処理部2182は、所定のノイズデータの各画素にゲインGを乗じる。そして、特殊画像処理部2182は、ゲインGを乗じた後のノイズデータをYCデータに重畳する。ここで、ノイズデータは、予めFlashメモリ236に記憶させておいた固定パターンのノイズデータを用いるようにしても良いし、ノイズ効果を重畳する処理を行う毎に擬似乱数発生器等を用いて発生させるようにしても良い。
このような処理により、特殊効果用マップにおける強度の大きい座標に対応した画素、即ちユーザによって強くタッチされた部分に多くのノイズが重畳されるようなノイズ効果が画像に付加される。
In this processing, when the special effect map is not in the reset state, the special image processing unit 2182 generates a gain map for noise superimposition according to the special effect map. For example, the gain map is a map in which more noise is superimposed on a pixel corresponding to a coordinate having a higher intensity in the special effect map (a gain multiplied by the noise is larger). Each gain G of such a gain map is calculated according to the following formula, for example.
G = 1- [value of intensity of each coordinate in special effect map] / theoretical maximum value of intensity in special effect map]
After generating the gain map, the special image processing unit 2182 multiplies each pixel of predetermined noise data by the gain G. Then, the special image processing unit 2182 superimposes the noise data after being multiplied by the gain G on the YC data. Here, the noise data may be fixed pattern noise data stored in the flash memory 236 in advance, or generated using a pseudo-random number generator or the like each time the noise effect is superimposed. You may make it let it.
By such processing, a noise effect is added to the image such that a large amount of noise is superimposed on a pixel corresponding to a coordinate having a high intensity in the special effect map, that is, a portion strongly touched by the user.

ここで、特殊効果用マップの強度の大きい座標に対応した画素ほど少ないノイズが重畳されるようにしても良い。   Here, less noise may be superimposed on a pixel corresponding to a coordinate having a higher strength of the special effect map.

続いて、特殊画像処理部2182は、ぼかし処理をするか否かを判定する(ステップS508)。ステップS508において、ぼかし処理しないと判定した場合に、特殊画像処理部2182は、ステップS509の処理をスキップする。   Subsequently, the special image processing unit 2182 determines whether or not to perform blurring processing (step S508). When it is determined in step S508 that the blurring process is not performed, the special image processing unit 2182 skips the process in step S509.

ステップS508において、ぼかし処理をすると判定した場合に、特殊画像処理部2182は、YCデータに対してぼかし処理を施す(ステップS509)。   If it is determined in step S508 that blurring processing is to be performed, the special image processing unit 2182 performs blurring processing on the YC data (step S509).

この処理において、特殊効果用マップがリセット状態でない場合に、特殊画像処理部2182は、特殊効果用マップの強度が大きい座標に対応した画素ほど、高周波成分が低減されるようにぼかし処理に用いるローパスフィルタの値を設定してぼかし処理を施す。   In this process, when the special effect map is not in the reset state, the special image processing unit 2182 uses a low-pass used in the blur process so that the high frequency component is reduced in the pixel corresponding to the coordinate having the higher intensity of the special effect map. Set the filter value and apply blurring.

また、特殊効果用マップがリセット状態の場合には、例えば被写体位置(AF位置等でも良い)を中心にして上下方向又は左右方向に徐々に高周波成分が低減されるようにぼかし処理に用いるローパスフィルタの値を設定してぼかし処理を施す。   In addition, when the special effect map is in a reset state, for example, a low-pass filter used for blurring processing so that a high-frequency component is gradually reduced in the vertical direction or the horizontal direction around the subject position (or AF position or the like). Set the value of to blur.

ここで、被写体位置やAF位置等からの距離に応じて徐々に高周波成分が低減されるようにぼかし処理に用いるローパスフィルタの値を設定してぼかし処理を行うようにしても良い。   Here, the blur processing may be performed by setting the value of the low-pass filter used for the blur processing so that the high-frequency component is gradually reduced according to the distance from the subject position, the AF position, and the like.

この他、ぼかし後のYCデータとぼかし前のYCデータと合成する処理を利用してぼかし処理を行うようにしても良い。この場合、例えば被写体位置やAF位置等を中心にして上下方向又は左右方向に徐々に高周波成分が低減されるように、ぼかし後のYCデータの合成割合を徐々に大きく(ぼかし前のYCデータの合成割合を徐々に小さく)して合成を行う。   In addition, the blurring process may be performed using a process of combining the YC data after blurring and the YC data before blurring. In this case, for example, the composition ratio of the YC data after blurring is gradually increased so that the high-frequency component is gradually reduced in the vertical direction or the left-right direction around the subject position, the AF position, etc. The synthesis is performed by gradually reducing the synthesis rate.

続いて、特殊画像処理部2182は、クロスフィルタ処理をするか否かを判定する(ステップS510)。ステップS510において、クロスフィルタ処理をしないと判定した場合に、特殊画像処理部2182は、ステップS511の処理をスキップする。   Subsequently, the special image processing unit 2182 determines whether or not to perform cross filter processing (step S510). If it is determined in step S510 that the cross filter process is not performed, the special image processing unit 2182 skips the process in step S511.

ステップS510において、クロスフィルタ処理をすると判定した場合に、特殊画像処理部2182は、Yデータに対してクロスフィルタ処理を施す(ステップS511)。   If it is determined in step S510 that cross filter processing is to be performed, the special image processing unit 2182 performs cross filter processing on the Y data (step S511).

この処理において、特殊効果用マップがリセット状態でない場合には、特殊画像処理部2182は、特殊効果用マップの強度が大きい座標に対応した画素ほど、クロスフィルタ処理による輝線の長さが長くなるようにする。具体的には、特殊画像処理部2182は、画像データ(Yデータ)中の輝点(高輝度画素)を検索する。続いて、特殊画像処理部2182は、検索した輝点と対応する特殊効果用マップの座標における強度を取得する。そして、特殊画像処理部2182は、取得した強度に応じた長さの輝線を画像データ上に描画する。
このような処理により、特殊効果用マップにおける強度の大きい座標に対応した画素、即ちユーザによって強くタッチされた部分の輝線の長さが長くなる。
In this process, when the special effect map is not in the reset state, the special image processing unit 2182 makes the length of the bright line by the cross filter process longer for the pixel corresponding to the coordinate having the higher strength of the special effect map. To. Specifically, the special image processing unit 2182 searches for bright spots (high luminance pixels) in the image data (Y data). Subsequently, the special image processing unit 2182 acquires the intensity at the coordinates of the special effect map corresponding to the searched bright spot. Then, the special image processing unit 2182 draws a bright line having a length corresponding to the acquired intensity on the image data.
By such processing, the length of the bright line of the pixel corresponding to the coordinate with high intensity in the special effect map, that is, the portion strongly touched by the user is increased.

ここで、特殊効果用マップの強度が大きい座標に対応した画素ほど、クロスフィルタ処理による輝線の長さが短くなるようにしても良い。   Here, the length of the bright line by the cross filter process may be shortened for a pixel corresponding to a coordinate having a higher strength of the special effect map.

また、輝線の長さではなく、描画する輝線の濃さを変えるようにしても良い。このような処理により、例えば、輝線を描画した結果、描画した輝線が被写体にかかってしまったような場合にその部分を消す(濃さを薄くする)等の処理を行うことが可能である。   Further, the intensity of the bright line to be drawn may be changed instead of the length of the bright line. With such a process, for example, when a bright line is drawn on a subject as a result of drawing a bright line, it is possible to perform a process such as erasing that part (decreasing the density).

続いて、特殊画像処理部2182は、パートカラー処理をするか否かを判定する(ステップS512)。ステップS512において、パートカラー処理をしないと判定した場合に、特殊画像処理部2182は、ステップS513の処理をスキップして図16の処理を終了させる。   Subsequently, the special image processing unit 2182 determines whether or not to perform part color processing (step S512). If it is determined in step S512 that the part color process is not performed, the special image processing unit 2182 skips the process in step S513 and ends the process in FIG.

ステップS512において、パートカラー処理をすると判定した場合に、特殊画像処理部2182は、Cデータに対してパートカラー処理を施す(ステップS513)。その後、特殊画像処理部2182は、図16の処理を終了させる。   If it is determined in step S512 that part color processing is to be performed, the special image processing unit 2182 performs part color processing on the C data (step S513). Thereafter, the special image processing unit 2182 ends the process of FIG.

この処理において、特殊効果用マップがリセット状態でない場合に、特殊画像処理部2182は、特殊効果用マップの強度が大きい座標に対応した画素ほど、色が残るように色のゲインマップを作成する。このようなゲインマップの各ゲインGは、例えば以下の式に従って算出する。
G=特殊効果用マップにおける各座標の強度の値]/特殊効果用マップにおける強度の理論上の最大値]
ゲインマップを生成した後、特殊画像処理部2182は、Cデータ(無彩色は0になるように生成されている)の各画素にゲインGを乗じる。
このような処理により、特殊効果用マップにおける強度の大きい座標に対応した画素、即ちユーザによって強くタッチされた部分以外の部分の色が薄くなる。
In this processing, when the special effect map is not in the reset state, the special image processing unit 2182 creates a color gain map so that the color corresponding to the coordinates corresponding to the coordinates having the higher special effect map color remains. Each gain G of such a gain map is calculated according to the following formula, for example.
G = intensity value of each coordinate in special effect map] / theoretical maximum value of intensity in special effect map]
After generating the gain map, the special image processing unit 2182 multiplies each pixel of the C data (generated so that the achromatic color becomes 0) by the gain G.
By such processing, the color of the pixel corresponding to the coordinate with high intensity in the special effect map, that is, the portion other than the portion strongly touched by the user is lightened.

ここで、タッチされた部分の色を全て残すのではなく、タッチされた部分のうちの特定の色(例えば赤)のみを残すようにしても良い。また、タッチされた部分の色を残す色とし、それ以外の色を残さない(無彩色にする)ようにしても良い。   Here, instead of leaving all the colors of the touched portion, only a specific color (for example, red) of the touched portion may be left. Alternatively, the color of the touched portion may be left, and the other colors may not be left (achromatic color).

このように、本実施形態によれば、ユーザは、タッチ操作の際のタッチの強さを変更するだけで、WB補正処理や各種の特殊画像処理における画像処理形態を自由に変更することが可能である。   As described above, according to the present embodiment, the user can freely change the image processing mode in the WB correction process and various special image processes only by changing the strength of the touch at the time of the touch operation. It is.

図17は、再生・編集処理について示すフローチャートである。本実施形態においては、画像の撮影時だけでなく、画像の再生時においてもWB用マップや特殊効果用マップに応じた画像処理を行えるようにする。このために、画像ファイルの記録時に、その前のマップ操作・ロック操作で生成されたマップを記録しておく。   FIG. 17 is a flowchart showing the playback / editing process. In the present embodiment, image processing according to the WB map or special effect map can be performed not only when an image is captured but also when the image is reproduced. For this purpose, when the image file is recorded, the map generated by the previous map operation / lock operation is recorded.

図18(a)は、記録形式がJPEG又はTIFFの場合(基本画像処理済みであって一部の特殊画像処理が施されていない場合)の静止画ファイルの例である。再生時には改めてAE処理を行う必要はない。したがって、AE用マップを記録する必要はない。また、基本画像処理が既に行われているので、WB用マップも記録する必要はない。したがって、特殊効果用マップ(マップに従った処理がなされていないもの)を少なくとも記録しておく。   FIG. 18A shows an example of a still image file when the recording format is JPEG or TIFF (when basic image processing has been completed and some special image processing has not been performed). There is no need to perform the AE process again during reproduction. Therefore, it is not necessary to record the AE map. Also, since basic image processing has already been performed, it is not necessary to record a WB map. Therefore, at least a special effect map (one that has not been processed according to the map) is recorded.

図18(b)は、記録形式がRAWの場合(基本画像処理及び特殊画像処理が施されていない場合)の静止画ファイルの例である。この場合には、再生・編集処理時にRAWデータに対して基本画像処理及び特殊画像処理を行うことができる。したがって、WB用マップ及び特殊効果用マップを少なくとも記録しておく。図18(b)では、AE用マップも記録しているが、記録しなくとも良い。   FIG. 18B is an example of a still image file when the recording format is RAW (when basic image processing and special image processing are not performed). In this case, basic image processing and special image processing can be performed on the RAW data during playback / editing processing. Therefore, at least a WB map and a special effect map are recorded. In FIG. 18B, the AE map is also recorded, but it may not be recorded.

図18(c)は、動画ファイルの例である。動画ファイルの場合も、静止画ファイル((基本画像処理済みであって一部の特殊画像処理が施されていない)と基本的には同様である。ただし、動画ファイルの場合には、画像データを複数の動画ブロック(例えば0.5秒単位。この他、圧縮形式がH.264形式等のフレーム間圧縮を伴う形式である場合には、フレーム内圧縮のみを行うフレームの挿入間隔)に分割し、ブロック毎に対応する特殊効果用マップを記録する。なお、マップのファイルを動画ファイルと別にしても良い。この場合には、動画ファイル内の各動画ブロックがマップファイルの内のどの特殊効果用マップと対応するかを示す情報を併せて記録しておく。   FIG. 18C shows an example of a moving image file. A movie file is basically the same as a still image file (which has already undergone basic image processing and some special image processing has not been performed). Is divided into a plurality of moving image blocks (for example, in units of 0.5 seconds. In addition, when the compression format is a format accompanied by inter-frame compression such as H.264 format, the frame insertion interval is used for performing only intra-frame compression). The special effect map corresponding to each block is recorded, and the map file may be separated from the video file, in which case each video block in the video file is assigned to which special Information indicating whether the map corresponds to the effect map is also recorded.

以下、図17についてさらに説明する。ここで、図17は、静止画ファイルに対して特殊画像処理を施す例を示している。しかしながら、動画ファイルに対して特殊画像処理を施すようにしても良い。   Hereinafter, FIG. 17 will be further described. Here, FIG. 17 shows an example in which special image processing is performed on a still image file. However, special image processing may be performed on the moving image file.

再生・編集処理の開始後、マイクロコンピュータ230は、記録媒体228に記録されている画像ファイルの一覧を表示パネル222に表示させる(ステップS611)。   After the start of the reproduction / editing process, the microcomputer 230 displays a list of image files recorded on the recording medium 228 on the display panel 222 (step S611).

ユーザは、一覧表示された画像ファイルの中から所望の画像ファイルを選択する(ステップS612)。この選択を受けて、マイクロコンピュータ230は、選択された画像ファイルが動画ファイルであるか否かを判定する(ステップS613)。   The user selects a desired image file from the image files displayed as a list (step S612). In response to this selection, the microcomputer 230 determines whether or not the selected image file is a moving image file (step S613).

ステップS613において、選択された画像ファイルが動画ファイルであると判定した場合に、マイクロコンピュータ230は、選択された動画ファイルのフレーム数を読み込む(ステップS614)。続いて、マイクロコンピュータ230は、再生フレーム数を示すカウンタiの値を初期化(i=1)する(ステップS615)。その後、マイクロコンピュータ230は、ユーザによって選択された動画ファイルのiフレーム目に対応した画像を表示パネル222に表示させる(ステップS616)。具体的には、マイクロコンピュータ230は、ユーザによって選択された動画ファイルのiフレーム目を、画像圧縮伸張部224によって伸長し、伸長処理の結果としてSDRAM212に記憶された表示用画像データを表示ドライバ220に入力する。これを受けて表示ドライバ220は、入力された表示用画像データを映像信号に変換して表示パネル222に出力する。表示パネル222は、この映像信号に基づいて画像を表示する。   If it is determined in step S613 that the selected image file is a moving image file, the microcomputer 230 reads the number of frames of the selected moving image file (step S614). Subsequently, the microcomputer 230 initializes the value of the counter i indicating the number of reproduced frames (i = 1) (step S615). Thereafter, the microcomputer 230 causes the display panel 222 to display an image corresponding to the i frame of the moving image file selected by the user (step S616). Specifically, the microcomputer 230 decompresses the i-frame of the moving image file selected by the user by the image compression / decompression unit 224, and displays the display image data stored in the SDRAM 212 as a result of the decompression process. To enter. In response to this, the display driver 220 converts the input display image data into a video signal and outputs it to the display panel 222. The display panel 222 displays an image based on this video signal.

iフレーム目の表示後、マイクロコンピュータ230は、iに1を加える(ステップS617)。そして、マイクロコンピュータ230は、iがフレーム数以下であるか否かを判定する(ステップS618)。   After displaying the i-th frame, the microcomputer 230 adds 1 to i (step S617). Then, the microcomputer 230 determines whether i is equal to or less than the number of frames (step S618).

ステップS618において、iがフレーム数以下であると判定した場合には、まだ再生すべきフレームが残っている。この場合には、マイクロコンピュータ230は、処理をステップS616に戻す。   If it is determined in step S618 that i is equal to or less than the number of frames, there are still frames to be reproduced. In this case, the microcomputer 230 returns the process to step S616.

ステップS618において、iがフレーム数より大きいと判定した場合に、マイクロコンピュータ230は、ユーザによって再生・編集処理の終了が指示されたか否かを判定する(ステップS619)。例えば、再生ボタンが再び押された場合に、再生・編集処理の終了が指示されたと判定される。   If it is determined in step S618 that i is larger than the number of frames, the microcomputer 230 determines whether or not the user has instructed the end of the reproduction / editing process (step S619). For example, when the playback button is pressed again, it is determined that the end of the playback / editing process has been instructed.

ステップS619において、再生・編集処理の終了が指示されていないと判定した場合に、マイクロコンピュータ230は、処理をステップS611に戻す。また、ステップS619において、再生・編集処理の終了が指示されたと判定した場合に、マイクロコンピュータ230は、図17の処理を終了させる。   If it is determined in step S619 that the end of the reproduction / editing process has not been instructed, the microcomputer 230 returns the process to step S611. If it is determined in step S619 that the end of the reproduction / editing process has been instructed, the microcomputer 230 ends the process of FIG.

ステップS613において、選択された画像ファイルが動画ファイルでないと判定した場合に、マイクロコンピュータ230は、選択された静止画ファイルを読み込む(ステップS620)。続いて、マイクロコンピュータ230は、選択された静止画ファイルに対応した画像を表示パネル222に表示させる(ステップS621)。具体的には、マイクロコンピュータ230は、ユーザによって選択された静止画ファイルを、画像圧縮伸張部224によって伸長し、伸長処理の結果としてSDRAM212に記憶された表示用画像データを表示ドライバ220に入力する。これを受けて表示ドライバ220は、入力された表示用画像データを映像信号に変換して表示パネル222に出力する。表示パネル222は、この映像信号に基づいて画像を表示する。   If it is determined in step S613 that the selected image file is not a moving image file, the microcomputer 230 reads the selected still image file (step S620). Subsequently, the microcomputer 230 displays an image corresponding to the selected still image file on the display panel 222 (step S621). Specifically, the microcomputer 230 decompresses the still image file selected by the user by the image compression / decompression unit 224, and inputs the display image data stored in the SDRAM 212 as a result of the decompression processing to the display driver 220. . In response to this, the display driver 220 converts the input display image data into a video signal and outputs it to the display panel 222. The display panel 222 displays an image based on this video signal.

続いて、マイクロコンピュータ230は、表示パネル222に表示中の静止画に対する特殊画像処理の指示がなされたか否かを判定する(ステップS622)。例えば、タッチ入力部2321の所定の座標へのタッチがあった場合に、特殊画像処理の指示がなされたと判定される。   Subsequently, the microcomputer 230 determines whether or not an instruction for special image processing has been given to the still image being displayed on the display panel 222 (step S622). For example, when the touch input unit 2321 touches a predetermined coordinate, it is determined that an instruction for special image processing has been issued.

ステップS622において、特殊画像処理の指示がなされたと判定した場合に、マイクロコンピュータ230は、表示パネル222に表示中の静止画に対する特殊画像処理を実行させる(ステップS623)。ここで、ステップS623の特殊画像処理は、図16で説明したものと同様である。したがって、説明を省略する。特殊画像処理の後、マイクロコンピュータ230は、特殊画像処理が施された静止画を記録し(ステップS624)、その後に処理をステップS625に移行させる。なお、選択された画像ファイルの記録形式がRAW形式であった場合には、RAWデータに対して基本画像処理を行ってから特殊画像処理を行うようにしても良いし、スクリーンネールに特殊画像処理を行うようにしても良い。     If it is determined in step S622 that an instruction for special image processing has been issued, the microcomputer 230 causes the display panel 222 to execute special image processing for the still image being displayed (step S623). Here, the special image processing in step S623 is the same as that described in FIG. Therefore, the description is omitted. After the special image processing, the microcomputer 230 records the still image that has been subjected to the special image processing (step S624), and then shifts the processing to step S625. If the recording format of the selected image file is the RAW format, the special image processing may be performed after the basic image processing is performed on the RAW data, or the special image processing is performed on the screen nails. May be performed.

ステップS624において静止画記録を行った後又はステップS623における特殊画像処理の実行後、マイクロコンピュータ230は、表示パネル222に表示中の静止画の表示終了が指示されたか否かを判定する(ステップS625)。例えば、タッチ入力部2321の所定の座標へのタッチがあった場合に、表示終了の指示がなされたと判定される。   After performing still image recording in step S624 or after executing special image processing in step S623, the microcomputer 230 determines whether or not the display panel 222 has been instructed to end display of the still image being displayed (step S625). ). For example, when there is a touch on a predetermined coordinate of the touch input unit 2321, it is determined that an instruction to end the display is given.

ステップS625において、表示終了が指示されていないと判定した場合に、マイクロコンピュータ230は、処理をステップS622に戻す。また、ステップS625において、表示終了が指示されたと判定した場合に、マイクロコンピュータ230は、処理をステップS619に移行させる。   If it is determined in step S625 that the display end is not instructed, the microcomputer 230 returns the process to step S622. If it is determined in step S625 that the display end has been instructed, the microcomputer 230 shifts the process to step S619.

以上説明したように、本実施形態では、ユーザによる所定のタッチパターンのタッチ入力に応じてタッチ入力部2321による操作の許可/禁止を切り替えるようにしている。このため、例えばユーザがデジタルカメラ1を首から提げている場合には、タッチ入力部2321がユーザの体に触れたとしても、所定のタッチパターンのタッチ入力されずにロック操作とは識別されない。したがって、タッチ操作禁止処理がなされている場合には、タッチ操作の禁止状態が勝手に解除されてしまうことがない。   As described above, in the present embodiment, permission / prohibition of operation by the touch input unit 2321 is switched according to a touch input of a predetermined touch pattern by the user. For this reason, for example, when the user holds the digital camera 1 from the neck, even if the touch input unit 2321 touches the user's body, the touch operation of the predetermined touch pattern is not performed and the lock operation is not identified. Accordingly, when the touch operation prohibition process is performed, the touch operation prohibition state is not canceled without permission.

また、本実施形態によれば、タッチ入力部2321の操作に応じた強度を有するマップを生成し、生成したマップに応じてAE処理や画像処理といった各種のカメラ制御の形態を変更できるようにしている。これにより、ユーザは、複雑なAE処理や画像処理等をより直感的にかつより適切に行うことが可能である。   Further, according to the present embodiment, a map having an intensity corresponding to the operation of the touch input unit 2321 is generated, and various camera control modes such as AE processing and image processing can be changed according to the generated map. Yes. Thereby, the user can perform complicated AE processing, image processing, and the like more intuitively and more appropriately.

[変形例]
以下、本実施形態の変形例について説明する。前述した実施形態では、カメラ制御の例としてAE処理と画像処理を例示している。本実施形態の技術は、これらの例示した処理以外の各種のカメラ制御に対して適用可能である。
[Modification]
Hereinafter, modifications of the present embodiment will be described. In the embodiment described above, AE processing and image processing are illustrated as examples of camera control. The technique of the present embodiment can be applied to various types of camera control other than these exemplified processes.

図19は、拡大ライブビュー表示に本実施形態の技術を適用した場合のフローチャートである。図19の処理は、図6のステップS126の処理に代えて行われる。なお、拡大ライブビュー表示を可能とする場合、通常ライブビュー表示中のタッチレリーズを無効とする。   FIG. 19 is a flowchart when the technique of the present embodiment is applied to the enlarged live view display. The process of FIG. 19 is performed instead of the process of step S126 of FIG. Note that when the enlarged live view display is enabled, the touch release during the normal live view display is invalidated.

ライブビュー表示を実行する際、マイクロコンピュータ230は、ユーザによってタッチ入力部2321への1本指タッチがなされたか否かを判定する(ステップS701)。   When executing live view display, the microcomputer 230 determines whether or not the user has made a one-finger touch on the touch input unit 2321 (step S701).

ステップS701において、ユーザによってタッチ入力部2321への1本指タッチがなされたと判定した場合に、マイクロコンピュータ230は、マップ生成部234に対してマップの生成を指示する(ステップS702)。具体的には、タッチ入力部2321の操作に応じた強度を有するマップをマップ記憶部2121に記憶させる。例えば、タッチ入力部2321が圧力検知可能なタッチ入力部の場合、マップ生成部234は、タッチ入力部2321で検出された圧力に応じた強度を有するマップを生成する。   If it is determined in step S701 that the user has made a single finger touch on the touch input unit 2321, the microcomputer 230 instructs the map generation unit 234 to generate a map (step S702). Specifically, a map having an intensity corresponding to the operation of the touch input unit 2321 is stored in the map storage unit 2121. For example, when the touch input unit 2321 is a touch input unit capable of detecting pressure, the map generation unit 234 generates a map having an intensity corresponding to the pressure detected by the touch input unit 2321.

マップ記憶部2121にマップが記憶された後、マイクロコンピュータ230は、マップの強度分布から、タッチ中心とタッチ範囲とを検出する(ステップS703)。タッチ中心は、強度が最も大きい座標である。なお、図4で示したように、ユーザによってタッチ入力部2321が強くタッチされた場合のマップは、一定範囲の座標が略同じ強度を有する分布となる。この場合、この範囲の中心座標をタッチ中心とする。また、タッチ範囲は、強度が所定値(例えばゼロ)を超える範囲とする。   After the map is stored in the map storage unit 2121, the microcomputer 230 detects the touch center and the touch range from the map intensity distribution (step S703). The touch center is a coordinate having the highest intensity. As shown in FIG. 4, the map when the touch input unit 2321 is strongly touched by the user has a distribution in which coordinates in a certain range have substantially the same intensity. In this case, the center coordinate of this range is set as the touch center. The touch range is a range where the intensity exceeds a predetermined value (for example, zero).

タッチ中心及びタッチ範囲の検出後、マイクロコンピュータ230は、拡大ライブビュー表示の際の拡大中心と拡大率とを決定する(ステップS704)。拡大中心は、タッチ中心とする。また、拡大率は、タッチ強さに応じて決定する。例えば、タッチ範囲に応じて決定するようにしても良い。   After detecting the touch center and the touch range, the microcomputer 230 determines an enlargement center and an enlargement ratio for the enlarged live view display (step S704). The enlargement center is the touch center. The enlargement ratio is determined according to the touch strength. For example, it may be determined according to the touch range.

拡大率及びタッチ範囲の決定後、マイクロコンピュータ230は、拡大ライブビュー表示を行う(ステップS705)。   After determining the enlargement ratio and the touch range, the microcomputer 230 performs enlarged live view display (step S705).

拡大ライブビュー表示においては、マイクロコンピュータ230は、通常のライブビュー表示と同様の画像処理の結果としてSDRAM212に記憶された表示用画像データのうちの所定の拡大範囲の表示用画像データを表示ドライバ220に入力する。拡大範囲は、例えば図20(a)に示すような拡大中心(タッチ中心)を中心とする所定の矩形範囲601とする。   In the enlarged live view display, the microcomputer 230 displays the display image data in a predetermined enlarged range among the display image data stored in the SDRAM 212 as a result of the image processing similar to the normal live view display. To enter. The enlargement range is, for example, a predetermined rectangular range 601 centered on the enlargement center (touch center) as shown in FIG.

拡大ライブビュー表示用の表示用画像データの入力を受けて表示ドライバ220は、入力された表示用画像データを、マイクロコンピュータ230によって指示される拡大率に応じて拡大し、この拡大した表示用画像データを映像信号に変換して表示パネル222に出力する。表示パネル222は、この映像信号に基づいて画像を表示する。   In response to the input of the display image data for the enlarged live view display, the display driver 220 enlarges the input display image data in accordance with the enlargement ratio designated by the microcomputer 230, and the enlarged display image. Data is converted into a video signal and output to the display panel 222. The display panel 222 displays an image based on this video signal.

ステップS701において、ユーザによってタッチ入力部2321への1本指タッチがなされていないと判定した場合に、マイクロコンピュータ230は、マップ生成部234に対してマップのリセットを指示する(ステップS706)。マップのリセットは、前述のステップS101等で説明したのと同様の処理である。   If it is determined in step S701 that the user has not made a single finger touch on the touch input unit 2321, the microcomputer 230 instructs the map generation unit 234 to reset the map (step S706). The resetting of the map is the same process as described in step S101 and the like described above.

続いて、マイクロコンピュータ230は、通常のライブビュー表示を行う(ステップS707)。この通常のライブビュー表示は、ステップS126で説明したのと同様の処理である。   Subsequently, the microcomputer 230 performs normal live view display (step S707). This normal live view display is the same processing as described in step S126.

図19で示したような拡大ライブビュー表示により、ユーザは、表示パネル222を用いて被写体の細部を確認したり、ピントの状態を確認したりすることができる。また、本実施形態では、拡大ライブビュー表示の際の拡大率をマップに応じて決定している。したがって、ユーザがタッチ入力部2321を弱くタッチしている間は、図20(b)に示すように小さな拡大率でのライブビュー表示がなされ、ユーザがタッチ入力部2321を強くタッチしている間は、図20(c)に示すように大きな拡大率でのライブビュー表示がなされる。このようにして、ユーザは、タッチの際の圧力を変更するのみで所望の拡大率の拡大ライブビュー表示を指示することが可能である。   With the enlarged live view display as shown in FIG. 19, the user can check the details of the subject or check the focus state using the display panel 222. In the present embodiment, the enlargement ratio at the time of enlarged live view display is determined according to the map. Therefore, while the user is touching the touch input unit 2321 weakly, as shown in FIG. 20B, live view display is performed at a small magnification, and the user is strongly touching the touch input unit 2321. As shown in FIG. 20C, live view display is performed at a large magnification. In this way, the user can instruct an enlarged live view display with a desired enlargement ratio simply by changing the pressure at the time of touch.

ここで、タッチ入力部2321が圧力を検出不能なタッチ入力部であっても図19と同様の処理を行うことが可能である。図21は、1本の指で拡大中心を決定し、別の指で拡大率を決定できるようにする例の1つである。この場合、タッチ入力部の一部の領域に拡大率(マップの強度)決定用の領域を設けておく。ユーザは、指F1で被写体をタッチしつつ、拡大率決定用の領域をなぞるように指F2を移動させる。マップ生成部234は、指F2の移動量を強度として有するようなマップを生成する。例えば、指F2の停止位置を強度の最大値として有する正規分布状のマップを生成する。マップの生成後は、図19と同様にして拡大ライブビュー表示を行うことが可能である。   Here, even if the touch input unit 2321 is a touch input unit in which pressure cannot be detected, the same processing as in FIG. 19 can be performed. FIG. 21 shows an example in which the enlargement center can be determined with one finger and the enlargement ratio can be determined with another finger. In this case, a region for determining an enlargement ratio (map strength) is provided in a partial region of the touch input unit. The user touches the subject with the finger F1 and moves the finger F2 so as to trace the enlargement ratio determination area. The map generation unit 234 generates a map having the movement amount of the finger F2 as an intensity. For example, a normal distribution map having the stop position of the finger F2 as the maximum intensity value is generated. After the map is generated, enlarged live view display can be performed in the same manner as in FIG.

図21の例において、指F1と指F2の両方が離れたときに拡大ライブビュー表示を終了させるようにすることもできる。この場合、指F1によって被写体が隠れてしまう可能性を低減できる。   In the example of FIG. 21, the enlarged live view display can be ended when both the finger F1 and the finger F2 are separated. In this case, the possibility that the subject is hidden by the finger F1 can be reduced.

また、タッチ入力部2321を複数設けるようにしても良い。図22は、表示パネル222と一体的にタッチ入力部2321aを設けるのに加えて、カメラ本体200の例えば被写体側に別のタッチ入力部2321bを設ける例である。タッチ入力部2321bを圧力検出可能なタッチ入力部としておけば、タッチ入力部2321aで拡大中心を決定しつつ、タッチ入力部2321aで拡大率を決定することができる。   In addition, a plurality of touch input units 2321 may be provided. FIG. 22 is an example in which, in addition to providing the touch input unit 2321 a integrally with the display panel 222, another touch input unit 2321 b is provided on the subject side of the camera body 200, for example. If the touch input unit 2321b is a touch input unit capable of detecting pressure, the enlargement factor can be determined by the touch input unit 2321a while the enlargement center is determined by the touch input unit 2321a.

図23は、組み写真の生成に本実施形態の技術を適用した場合のフローチャートである。図23の処理は、ステップS120の処理の後に行われる。   FIG. 23 is a flowchart when the technique of the present embodiment is applied to the generation of a combined photograph. The process of FIG. 23 is performed after the process of step S120.

静止画ファイルの記録後、マイクロコンピュータ230は、レックビュー表示を行う(ステップS801)。具体的には、マイクロコンピュータ230は、記録された静止画ファイルを、画像圧縮伸張部224によって伸長し、伸長処理の結果としてSDRAM212に記憶された表示用画像データを表示ドライバ220に入力する。これを受けて表示ドライバ220は、入力された表示用画像データを映像信号に変換して表示パネル222に出力する。表示パネル222は、この映像信号に基づいて画像を表示する。   After recording the still image file, the microcomputer 230 performs REC view display (step S801). Specifically, the microcomputer 230 decompresses the recorded still image file by the image compression / decompression unit 224 and inputs the display image data stored in the SDRAM 212 as a result of the decompression processing to the display driver 220. In response to this, the display driver 220 converts the input display image data into a video signal and outputs it to the display panel 222. The display panel 222 displays an image based on this video signal.

続いて、マイクロコンピュータ230は、ユーザによってタッチ入力部2321への1本指タッチがなされたか否かを判定する(ステップS802)。ステップS802において、1本指タッチがなされていないと判定した場合に、マイクロコンピュータ230は、所定時間(例えば10秒)が経過したか否かを判定する(ステップS803)。ステップS802において、所定時間が経過していないと判定した場合に、マイクロコンピュータ230は、処理をステップS801に戻す。この場合には、レックビュー表示が継続される。ステップS802において、所定時間が経過したと判定した場合に、マイクロコンピュータ230は、図23の処理を終了させる。   Subsequently, the microcomputer 230 determines whether or not the user has made a one-finger touch on the touch input unit 2321 (step S802). If it is determined in step S802 that a single finger has not been touched, the microcomputer 230 determines whether or not a predetermined time (for example, 10 seconds) has elapsed (step S803). If it is determined in step S802 that the predetermined time has not elapsed, the microcomputer 230 returns the process to step S801. In this case, the REC view display is continued. If it is determined in step S802 that the predetermined time has elapsed, the microcomputer 230 ends the processing in FIG.

ステップS802において、ユーザによってタッチ入力部2321への1本指タッチがなされたと判定した場合に、マイクロコンピュータ230は、ライブビュー表示を行う(ステップS804)。このライブビュー表示は、ステップS126で説明したのと同様の処理である。   If it is determined in step S802 that the user has made a single finger touch on the touch input unit 2321, the microcomputer 230 performs live view display (step S804). This live view display is the same processing as described in step S126.

ライブビュー表示の後、マイクロコンピュータ230は、マップ生成部234に対してマップの生成を指示する(ステップS805)。具体的には、タッチ入力部2321の操作に応じた強度を有するマップをマップ記憶部2121に記憶させる。例えば、タッチ入力部2321が圧力検知可能なタッチ入力部の場合、マップ生成部234は、タッチ入力部2321で検出された圧力に応じた強度を有するマップを生成する。   After the live view display, the microcomputer 230 instructs the map generation unit 234 to generate a map (step S805). Specifically, a map having an intensity corresponding to the operation of the touch input unit 2321 is stored in the map storage unit 2121. For example, when the touch input unit 2321 is a touch input unit capable of detecting pressure, the map generation unit 234 generates a map having an intensity corresponding to the pressure detected by the touch input unit 2321.

マップ記憶部2121にマップが記憶された後、マイクロコンピュータ230は、マップの強度分布から、切り出し範囲を検出する(ステップS806)。切り出し範囲は、強度が最大となる座標(タッチ中心)を中心とし、ある所定値(例えばゼロ)を超える強度を有する範囲とする。例えば、図24(a)に示すようにしてタッチ入力部2321のある座標をユーザがタッチすると、図24(b)に示すように、その座標を中心とする範囲701の範囲が切り出し範囲として決定される。ここで、図3及び図4で示したように、マップは、タッチ中心を中心として同心円状に略同じ大きさの強度が分布する。したがって、本来、切り出し範囲も円状となる。ただし、画像処理の観点でみれば、切り出し範囲は、図24(b)で示すような矩形範囲としたほうが良い。このため、実際の切り出し範囲としては、強度が最大となる座標(タッチ中心)を中心とし、ある所定値(例えばゼロ)を超える強度を有する範囲に対して外接又は内接する矩形範囲とすることが望ましい。   After the map is stored in the map storage unit 2121, the microcomputer 230 detects a cutout range from the map intensity distribution (step S806). The cutout range is a range having a strength exceeding a certain predetermined value (for example, zero) with the coordinate (touch center) having the maximum strength as the center. For example, when the user touches a certain coordinate of the touch input unit 2321 as shown in FIG. 24A, the range 701 centered on the coordinate is determined as the cutout range as shown in FIG. Is done. Here, as shown in FIG. 3 and FIG. 4, the maps are distributed with intensities of substantially the same size concentrically around the touch center. Therefore, the cutout range is originally circular. However, from the viewpoint of image processing, the cutout range is preferably a rectangular range as shown in FIG. For this reason, the actual cutout range may be a rectangular range that is circumscribed or inscribed with respect to a range having a strength exceeding a certain predetermined value (for example, zero) with the coordinate (touch center) having the maximum strength as the center. desirable.

切り出し範囲の決定後、マイクロコンピュータ230は、ユーザによって操作部232のレリーズボタンが全押しされてレリーズボタンの状態が2ndレリーズスイッチのOn状態となっているか否かを判定する(ステップS807)。   After determining the cutout range, the microcomputer 230 determines whether the release button of the operation unit 232 is fully pressed by the user and the release button is in the On state of the 2nd release switch (step S807).

ステップS807において、レリーズボタンの状態が2ndレリーズスイッチのOn状態でない場合に、マイクロコンピュータ230は、所定時間(例えば10秒)が経過したか否かを判定する(ステップS808)。ステップS808において、所定時間が経過していないと判定した場合に、マイクロコンピュータ230は、処理をステップS807に戻す。この場合には、ライブビュー表示が継続される。ステップS808において、所定時間が経過したと判定した場合に、マイクロコンピュータ230は、図23の処理を終了させる。   In step S807, when the state of the release button is not the ON state of the 2nd release switch, the microcomputer 230 determines whether or not a predetermined time (for example, 10 seconds) has elapsed (step S808). If it is determined in step S808 that the predetermined time has not elapsed, the microcomputer 230 returns the process to step S807. In this case, the live view display is continued. If it is determined in step S808 that the predetermined time has elapsed, the microcomputer 230 ends the processing in FIG.

ステップS807において、レリーズボタンの状態が2ndレリーズスイッチのOn状態である場合に、マイクロコンピュータ230は、メカシャッタ202を用いた撮影処理を実行する(ステップS808)。ステップS808の撮影処理は、ステップS118と同様である。なお、ステップS808の撮影処理に先立って、先に決定した切り出し範囲に合焦するようにAF処理を行ったり、切り出し範囲の露出値を適正とするようにAE処理を行ったりしても良い。   In step S807, when the state of the release button is the ON state of the 2nd release switch, the microcomputer 230 executes a photographing process using the mechanical shutter 202 (step S808). The photographing process in step S808 is the same as that in step S118. Prior to the shooting process in step S808, AF processing may be performed so as to focus on the previously determined clipping range, or AE processing may be performed so that the exposure value of the clipping range is appropriate.

メカシャッタ202を用いた撮影処理を実行した後、マイクロコンピュータ230は、撮影処理によってSDRAM212に記憶されたRAWデータに対する画像処理を、画像処理部218に実行させる(ステップS810)。ステップS810の画像処理は、ステップS119と同様である。   After performing the photographing process using the mechanical shutter 202, the microcomputer 230 causes the image processing unit 218 to perform image processing on the RAW data stored in the SDRAM 212 by the photographing process (step S810). The image processing in step S810 is the same as that in step S119.

画像処理の後、マイクロコンピュータ230は、画像処理の結果としてSDRAM212に記憶された記録用画像データのうちの、切り出し範囲に対応した部分を取得する(ステップS811)。続いて、マイクロコンピュータ230は、画像処理部218の特殊画像処理部2182に対して組み写真の生成を指示する(ステップS812)。この際、マイクロコンピュータ230は、切り出した画像データ(YCデータ)と、図23の処理の開始に先立って得られた静止画ファイルに記録された圧縮済み画像データを伸長した画像データ(YCデータ)とを特殊画像処理部2182に入力する。特殊画像処理部2182は、入力された2つの画像データを合成して組み写真を生成する。組み写真は、例えば2つの画像データを並列に並べるように合成することで生成する。このような組み写真の生成手法は一例である。   After the image processing, the microcomputer 230 acquires a portion corresponding to the cut-out range in the recording image data stored in the SDRAM 212 as a result of the image processing (step S811). Subsequently, the microcomputer 230 instructs the special image processing unit 2182 of the image processing unit 218 to generate a combined photograph (step S812). At this time, the microcomputer 230 decompresses the extracted image data (YC data) and the compressed image data recorded in the still image file obtained prior to the start of the processing of FIG. Are input to the special image processing unit 2182. The special image processing unit 2182 generates a combined photograph by synthesizing two input image data. The combined photograph is generated, for example, by combining two image data so as to be arranged in parallel. Such a method for generating a combined photograph is an example.

組み写真の生成後、マイクロコンピュータ230は、生成された組み写真を、設定されている静止画記録形式で静止画ファイルとして記録する処理を行う(ステップS813)。   After generating the combined photograph, the microcomputer 230 performs a process of recording the generated combined photograph as a still image file in the set still image recording format (step S813).

図23で示したような処理により、ユーザは、組み写真生成用の画像データの切り出し範囲を簡単に指定することができる。   With the processing as shown in FIG. 23, the user can easily specify the cutout range of image data for generating a combined photograph.

以上実施形態に基づいて本発明を説明したが、本発明は上述した実施形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形や応用が可能なことは勿論である。また、前述の各動作フローチャートの説明において、便宜上「まず」、「次に」等を用いて動作を説明しているが、この順で動作を実施することが必須であることを意味するものではない。   Although the present invention has been described above based on the embodiments, the present invention is not limited to the above-described embodiments, and various modifications and applications are naturally possible within the scope of the gist of the present invention. Further, in the description of each operation flowchart described above, the operation is described using “first”, “next”, and the like for convenience, but this does not mean that it is essential to perform the operations in this order. Absent.

また、上述した実施形態における画像処理装置による各処理の手法、即ち、各フローチャートに示す処理は、何れもマイクロコンピュータ230に実行させることができるプログラムとして記憶させておくこともできる。この他、メモリカード(ROMカード、RAMカード等)、磁気ディスク(フロッピディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の外部記憶装置の記憶媒体に格納して配布することができる。そして、マイクロコンピュータ230は、この外部記憶装置の記憶媒体に記憶されたプログラムを読み込み、この読み込んだプログラムによって動作が制御されることにより、上述した処理を実行することができる。   In addition, each processing method performed by the image processing apparatus according to the above-described embodiment, that is, the processing shown in each flowchart can be stored as a program that can be executed by the microcomputer 230. In addition, memory cards (ROM cards, RAM cards, etc.), magnetic disks (floppy disks, hard disks, etc.), optical disks (CD-ROM, DVD, etc.), storage media of external storage devices such as semiconductor memories, etc. are distributed. be able to. The microcomputer 230 reads the program stored in the storage medium of the external storage device, and the operation is controlled by the read program, so that the above-described processing can be executed.

さらに、上記した実施形態には種々の段階の発明が含まれており、開示される複数の構成要件の適当な組合せにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、上述したような課題を解決でき、上述したような効果が得られる場合には、この構成要件が削除された構成も発明として抽出され得る。   Further, the above-described embodiments include various stages of the invention, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some configuration requirements are deleted from all the configuration requirements shown in the embodiment, the above-described problem can be solved, and this configuration requirement is deleted when the above-described effects can be obtained. The configuration can also be extracted as an invention.

1…デジタルカメラ、100…交換式レンズ、102…レンズ、104…絞り、106…ドライバ、108…マイクロコンピュータ、110…メモリ、112…インターフェイス(I/F)、200…カメラ本体、202…メカシャッタ、204…撮像素子、206…アナログ処理部、208…アナログ/デジタル(A/D)変換部、210…バス、212…SDRAM、214…AE処理部、216…AF処理部、218…画像処理部、220…表示ドライバ、222…表示パネル、224…画像圧縮伸張部、226…メモリインターフェイス(I/F)、228…記録媒体、230…マイクロコンピュータ、232…操作部、234…マップ生成部、236…Flashメモリ、2121…マップ記憶部、2181…基本画像処理部、2182…特殊画像処理部、2321…タッチ入力部   DESCRIPTION OF SYMBOLS 1 ... Digital camera, 100 ... Interchangeable lens, 102 ... Lens, 104 ... Aperture, 106 ... Driver, 108 ... Microcomputer, 110 ... Memory, 112 ... Interface (I / F), 200 ... Camera body, 202 ... Mechanical shutter, 204 ... Image sensor 206 ... Analog processor 208 ... Analog / digital (A / D) converter 210 ... Bus 212 ... SDRAM 214 ... AE processor 216 AF processor 218 Image processor 220 ... Display driver, 222 ... Display panel, 224 ... Image compression / decompression unit, 226 ... Memory interface (I / F), 228 ... Recording medium, 230 ... Microcomputer, 232 ... Operation unit, 234 ... Map generation unit, 236 ... Flash memory, 2121 ... map storage unit, 2181 ... basic image processing unit, 2182 ... Special image processing unit, 2321 ... Touch input unit

Claims (7)

少なくともタッチ操作がなされているか否かを検出するタッチ入力部と、
前記タッチ入力部でタッチ操作が検出されてからの経過時間と該経過時間の間の前記タッチ入力部の検出結果とを用いてタッチパターンを生成するタッチパターン生成部と、
前記タッチパターン生成部で生成されたタッチパターンを所定のタッチパターンと比較する比較部と、
前記タッチパターン生成部で生成されたタッチパターンと前記所定のタッチパターンとが類似している場合に、前記タッチ入力部によるタッチ操作を無効にする制御部と、
を具備することを特徴とする撮像装置。
A touch input unit for detecting whether or not at least a touch operation is performed;
A touch pattern generation unit that generates a touch pattern using an elapsed time after a touch operation is detected by the touch input unit and a detection result of the touch input unit during the elapsed time;
A comparison unit that compares the touch pattern generated by the touch pattern generation unit with a predetermined touch pattern;
A control unit that invalidates a touch operation by the touch input unit when the touch pattern generated by the touch pattern generation unit is similar to the predetermined touch pattern;
An imaging apparatus comprising:
前記タッチ入力部は、タッチ操作の強さを検出し、
前記タッチパターン生成部で生成されたタッチパターン及び前記所定のタッチパターンは、前記タッチ操作の強さを含むことを特徴とする請求項1に記載の撮像装置。
The touch input unit detects the strength of the touch operation,
The imaging apparatus according to claim 1, wherein the touch pattern generated by the touch pattern generation unit and the predetermined touch pattern include the strength of the touch operation.
前記タッチ入力部は、前記タッチ操作がされた座標を検出し、
前記タッチパターン生成部で生成されたタッチパターン及び前記所定のタッチパターンは、前記座標を含むことを特徴とする請求項1又は2に記載の撮像装置。
The touch input unit detects coordinates where the touch operation is performed,
The imaging apparatus according to claim 1, wherein the touch pattern generated by the touch pattern generation unit and the predetermined touch pattern include the coordinates.
前記所定のタッチパターンを変更する変更部をさらに具備することを特徴とする請求項1乃至3の何れか1項に記載の撮像装置。   The imaging apparatus according to claim 1, further comprising a changing unit that changes the predetermined touch pattern. 前記タッチ入力部は、複数の座標におけるタッチ操作を検出し、
前記所定のタッチパターンは、前記複数の座標のそれぞれに対して設定されることを特徴とする請求項1乃至4の何れか1項に記載の撮像装置。
The touch input unit detects a touch operation at a plurality of coordinates,
The imaging apparatus according to claim 1, wherein the predetermined touch pattern is set for each of the plurality of coordinates.
前記制御部は、前記タッチ操作を禁止している間に前記タッチパターン生成部で生成されたタッチパターンと前記所定のタッチパターンとが類似している場合に、前記タッチ入力部によるタッチ操作を有効にすることを特徴とする請求項1乃至5の何れか1項に記載の撮像装置。   The control unit enables the touch operation by the touch input unit when the touch pattern generated by the touch pattern generation unit and the predetermined touch pattern are similar while the touch operation is prohibited. The imaging apparatus according to any one of claims 1 to 5, wherein: 前記タッチ操作を無効にするための前記所定のタッチパターンと前記タッチ操作を有効にするための前記所定のタッチパターンとが異なっていることを特徴とする請求項6に記載の撮像装置。   The imaging apparatus according to claim 6, wherein the predetermined touch pattern for invalidating the touch operation is different from the predetermined touch pattern for enabling the touch operation.
JP2013007436A 2013-01-18 2013-01-18 Imaging device Pending JP2014137556A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013007436A JP2014137556A (en) 2013-01-18 2013-01-18 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013007436A JP2014137556A (en) 2013-01-18 2013-01-18 Imaging device

Publications (1)

Publication Number Publication Date
JP2014137556A true JP2014137556A (en) 2014-07-28

Family

ID=51415064

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013007436A Pending JP2014137556A (en) 2013-01-18 2013-01-18 Imaging device

Country Status (1)

Country Link
JP (1) JP2014137556A (en)

Similar Documents

Publication Publication Date Title
US8977053B2 (en) Image processing device and image processing method
RU2642109C2 (en) Image capturing device and control method thereof
US9055219B2 (en) Image editing device and image editing method
JP5186021B2 (en) Imaging apparatus, image processing apparatus, and imaging method
US9684988B2 (en) Imaging device, image processing method, and recording medium
JP6223059B2 (en) Imaging apparatus, control method thereof, and program
JP6137800B2 (en) Image processing apparatus, image processing method, and image processing program
US9402037B2 (en) Imaging apparatus, image processing apparatus, and image processing method for generating random special effects
JP5949559B2 (en) Image processing apparatus, imaging apparatus, and image processing program
US10051200B2 (en) Imaging apparatus and control method thereof
JP6091220B2 (en) Imaging apparatus, image processing apparatus, and image processing program
JP4534750B2 (en) Image processing apparatus and image processing program
US9171358B2 (en) Image editing device and image editing method
JPWO2016151823A1 (en) Image processing apparatus, image processing method, and program
JP2014137556A (en) Imaging device
JP5289354B2 (en) Imaging device
KR20110090080A (en) Digital photographing apparatus, method for controlling the same, and recording medium storing program to execute the method
JP5146223B2 (en) Program, camera, image processing apparatus, and image contour extraction method
JP5653665B2 (en) Image processing apparatus, photographing apparatus, image processing method, and image processing program
JP2010016671A (en) Camera, and information processing apparatus
JP2014011767A (en) Imaging device and imaging method
JP5734348B2 (en) Imaging device
JP6120664B2 (en) Image processing apparatus, image processing method, and image processing program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20150423